[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2011115210A1 - ミキシングデータ配信サーバ - Google Patents

ミキシングデータ配信サーバ Download PDF

Info

Publication number
WO2011115210A1
WO2011115210A1 PCT/JP2011/056395 JP2011056395W WO2011115210A1 WO 2011115210 A1 WO2011115210 A1 WO 2011115210A1 JP 2011056395 W JP2011056395 W JP 2011056395W WO 2011115210 A1 WO2011115210 A1 WO 2011115210A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
mixing
singing
sound
song
Prior art date
Application number
PCT/JP2011/056395
Other languages
English (en)
French (fr)
Inventor
松本 秀一
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to CN201180014836.1A priority Critical patent/CN102822887B/zh
Priority to KR1020127024457A priority patent/KR101453177B1/ko
Publication of WO2011115210A1 publication Critical patent/WO2011115210A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/02Synthesis of acoustic waves
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/365Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems the accompaniment information being stored on a host computer and transmitted to a reproducing terminal by means of a network, e.g. public telephone lines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/04Sound-producing devices

Definitions

  • the present invention relates to a server that distributes audio data obtained by mixing audio and music.
  • Patent Document 1 describes that a karaoke contest is performed by listening to the singing sound and musical sound of the voice data distributed by each user and scoring.
  • the singing sound and the musical sound are stored in the server as one piece of voice data that has already been mixed. Therefore, the mixing balance between the singing sound and the musical sound cannot be adjusted later. In order to adjust the mixing balance between the singing sound and the musical sound later, it is possible to upload the singing sound and the musical sound as separate audio data. The problem that it takes communication time occurs.
  • an object of the present invention is to provide a server capable of separately storing voice and music without increasing communication time.
  • the mixing data distribution server includes receiving means, storage means, audio data generation means, and distribution means.
  • the receiving means receives the singer's voice data and synchronization information with the karaoke performance of the singer's voice data.
  • the storage means stores the received voice data and synchronization information of the singer.
  • the storage means also stores music data for performing karaoke performance.
  • the sound data generation means reproduces the sound data read from the storage means, reads music data based on the synchronization information, and performs automatic performance. Then, the sound data generating means generates mixing data by mixing the sound based on the reproduced sound data and the musical sound by the automatic performance.
  • the generated mixing data is distributed to each terminal, and is ready to be listened to by the user.
  • the singing sound of the singer is uploaded to the server as voice data together with the synchronization information of the karaoke performance sound, and the musical sound is generated by automatically playing the music data based on the synchronization information on the server side, and the voice data To generate mixed data (complete data consisting of singing sound and musical sound). Therefore, only by uploading the voice data of the singing sound, the voice and the musical sound are separately stored on the server side, and the time required for the upload is the same as before.
  • the synchronization information may be a mode in which tempo and volume information of a karaoke piece played during recording of audio data is described. Thereby, when the voice data of the singing sound is reproduced later, the karaoke performance synchronized with the singing sound is performed.
  • the audio data may be composed of a plurality of audio data
  • the synchronization information may include information indicating each reproduction timing of the plurality of audio data.
  • the singer sings a duet part and the time zone for singing is determined in one song, so the song file can be divided into a plurality of songs.
  • karaoke performance that is synchronized with the singing sound can be performed by recording information indicating the passage of time from the start of performance or delta time in the synchronization information, and reproducing each song file with reference to this information during reproduction. Can do.
  • the generated mixing data may be stored in a storage means. In this case, even if there are a number of distribution requests at the same time, it is possible to distribute immediately. Even in this case, since the voice data of the singing sound is held in the storage means, the mixing balance can be changed later.
  • the synchronization information may include an effect parameter
  • the sound data generation unit may reflect the setting of the effect parameter when mixing the musical sound by automatic performance.
  • voice and music can be stored separately in the server without increasing the communication time.
  • FIG. 1 is a diagram showing a configuration of a mixing data distribution system.
  • the mixing data distribution system includes a center (server, mixing data distribution server) 1 connected via a network 2 such as the Internet, a plurality of karaoke stores 3, and a plurality of user PCs 4.
  • Each karaoke store 3 is provided with a relay device 5 such as a router connected to the network 2 and a plurality of karaoke devices 7 connected to the network 2 via the relay device 5.
  • the repeater 5 is installed in a management room of a karaoke store.
  • a plurality of karaoke apparatuses 7 are installed in each private room (karaoke box).
  • the user PC 4 is a general home personal computer.
  • the mixing data distribution system of the present embodiment is a system in which a voice sung by a certain singer at the karaoke device 7 is recorded in advance and uploaded to the center 1 as a singing file (compressed voice data). Then, the center 1 reproduces a song file in response to a request from each user PC 4, performs a karaoke performance in synchronization with the song file to be reproduced, and generates mixing data (compressed sound data) in which the song sound and the musical sound are mixed.
  • mixing data compressed sound data
  • FIG. 2 is a block diagram showing the configuration of the karaoke apparatus.
  • the karaoke apparatus 7 includes a CPU 11 that controls the operation of the entire apparatus, and various components connected to the CPU 11. Connected to the CPU 11 are a RAM 12, HDD 13, network interface (I / F) 14, operation unit 15, A / D converter 17, sound source 18, mixer (effector) 19, decoder 22 such as MPEG, and display processing unit 23. ing.
  • the HDD 13 stores music data for playing karaoke music, video data for displaying a background video on the monitor 24, and the like.
  • Video data stores both moving images and still images.
  • the RAM 12 which is a work memory, an area for reading out an operation program of the CPU 11 and an area for reading out music data for playing karaoke music are set.
  • the CPU 11 has a built-in sequencer.
  • the sequencer is a program that reads music data stored in the HDD 13 and executes karaoke performance.
  • the music data includes a header in which a music number is written, a musical sound track in which performance MIDI data is written, a guide melody track in which MIDI data for guide melody is written, It consists of a lyric track in which lyric MIDI data is written, a back chorus playback timing, a chorus track in which audio data to be played back is written, and the like.
  • the sequencer controls the sound source 18 based on the data of the musical tone track and the guide melody track, and generates the musical tone of the karaoke song.
  • the sequencer also reproduces the back chorus audio data (compressed audio data such as MP3 attached to the music data) at the timing designated by the chorus track. Further, the sequencer synthesizes the character pattern of the lyrics in synchronism with the progress of the song based on the lyrics track, converts the character pattern into a video signal, and inputs it to the display processing unit 23.
  • back chorus audio data compressed audio data such as MP3 attached to the music data
  • the sound source 18 forms a musical sound signal (digital audio signal) according to data (note event data) input from the CPU 11 by processing of the sequencer.
  • the formed tone signal is input to the mixer 19.
  • the mixer 19 gives effects such as echo to the musical sound signal, chorus sound formed by the sound source 18 and the singing voice signal of the singer input from the microphone 16 via the A / D converter 17. Mix the signal.
  • Each mixed digital audio signal is input to the sound system (SS) 20.
  • the sound system 20 incorporates a D / A converter and a power amplifier, converts an input digital signal into an analog signal, amplifies it, and emits sound from the speaker 21.
  • the effect that the mixer 19 gives to each audio signal and the balance of mixing are controlled by the CPU 11.
  • the CPU 11 reads the video data stored in the HDD 13 and reproduces the background video and the like in synchronism with the generation of musical sounds and the generation of the lyrics telop by the sequencer.
  • the video data of the moving image is encoded in the MPEG format.
  • the CPU 11 inputs the read video data to the MPEG decoder 22.
  • the MPEG decoder 22 converts the input MPEG data into a video signal and inputs it to the display processing unit 23.
  • the text processing pattern of the lyrics telop is input to the display processing unit 23.
  • the display processing unit 23 synthesizes a lyrics telop or the like on the video signal of the background video by OSD (On Screen Display) and outputs it to the monitor 24.
  • the monitor 24 displays the video signal input from the display processing unit 23.
  • the operation unit 15 includes various key switches provided on the operation panel surface of the karaoke device 7 and a remote controller connected via infrared communication or the like.
  • the operation unit 15 accepts various user operations and displays operation information according to operation modes. Input to the CPU 11.
  • the operation unit 15 receives a request for a song, recording of a singing sound (registration operation), and the like.
  • a singing file is generated based on the singer's singing voice signal input via the network I / F 14 and uploaded to the center 1 via the network I / F 14.
  • the song file is generated as compressed audio data such as MP3.
  • CPU11 produces
  • FIG. 3B is a diagram showing an example of the synchronization information.
  • FIG. 3C is a diagram illustrating an example of a song file.
  • the synchronization information includes a header, tempo information, volume information (Vol.), And timing information (tempo change amount).
  • the header includes a song number, a song name, a file name of a song file to be associated, and the like.
  • the song number is data in common format with the song number assigned to the song data of each karaoke song (information indicating alphanumeric characters), and the song number designated by the singer at the time of registration operation is transcribed.
  • the tempo information is information indicating the performance tempo of the music designated by the singer during the registration operation, and designates the stepping speed of the sequencer.
  • the volume information is information indicating the volume of the song specified by the singer during the registration operation (the volume of the music track).
  • the timing information is information indicating the timing of the tempo change (elapsed time from the start of performance) when the singer changes the tempo during singing. By referring to the timing information indicating the tempo change, the performance tempo is changed in the middle of the music during the subsequent reproduction.
  • the singing file is composed of a header and singing voice data as shown in FIG. At least the file name is described in the header, and is associated with the header of the synchronization information. If the encoding format is MP3, the header may be recorded as an ID3 tag.
  • the above synchronization information and song file are uploaded to the center 1 and stored in the center 1.
  • the singer can input his profile, a message, etc. using the operation part 15, and can upload it as singer information.
  • the song data of the designated song number is read with reference to the synchronization information of each song file, and the karaoke performance is performed with the tempo and volume described in the synchronization information.
  • the performance tempo is changed in the middle of the music according to the timing information.
  • the singing file shown in FIG. 3C is a recording of all voices (voices picked up by the microphone 16) from the start to the end of the performance of the karaoke song.
  • synchronous playback can be performed by outputting an audio signal based on a song file at the start of karaoke performance.
  • FIG. It is also possible to divide into song files. In this case, as shown in FIG.
  • the synchronization information may be configured as MIDI data (expansion track of music data) in order to unify the implementation with the music data, and may be in a format readable by the sequencer.
  • MIDI data expansion track of music data
  • the data capacity of the singing file can be reduced, and the upload time can be further reduced. This is particularly useful when the time zone for singing is limited in one song (for example, when a singer sings only one duet part with a duet song).
  • FIG. 4 is a block diagram showing the configuration of the center 1.
  • the center 1 includes a CPU 31 that controls the operation of the entire center, and various configurations connected to the CPU 31.
  • a RAM 32, HDD 33, network interface (I / F) 34, sound source 38, and mixer (effector) 39 are connected to the CPU 31.
  • the HDD 33 stores the same number of music data as the karaoke device 7 in addition to the singing file, synchronization information, and singer information uploaded from each karaoke device 7. In addition, mixing data generated in the past is also stored.
  • the HDD 33 stores an operation program for the CPU 31.
  • the CPU 31 develops the operation program in the RAM 32 and performs various processes.
  • the CPU 31 performs reception data processing for recording the singing file, the synchronization information, and the singer information received from each karaoke device 7 via the network I / F 34 in the HDD 33. Further, the CPU 31 has a functionally built-in sequencer and, like the karaoke device 7, reads music data from the HDD 33, performs karaoke performance, and controls the sound source 38 to generate a musical sound signal. . Moreover, CPU31 produces
  • FIG. 5 is a diagram showing an example of a list of song files displayed as a WEB page.
  • each song file is displayed in a list on the WEB page with items such as a file name (or song number), a song name, a profile entered by the singer during the registration operation, and a message.
  • the popularity (download count) of each song file is displayed.
  • the number of downloads of each singing file is recorded in the HDD 33 and is counted up when each karaoke device 7 is made to download the singing file.
  • the user PC 4 can refer to this list by accessing the WEB page, and can select a song file of a singer who wants to listen. If each item is selected by operating the user PC 4, the list can be sorted in ascending order or descending order.
  • FIG. 6 is a block diagram showing the configuration of the user PC 4.
  • the user PC 4 is a general home personal computer, and includes a CPU 41 that controls the overall operation and various configurations connected to the CPU 41. Connected to the CPU 41 are a RAM 42, an HDD 43, a network I / F 44, an operation unit 45, a sound system (SS) 46, and a display processing unit 48.
  • the CPU 41 develops the operation program recorded in the HDD 43 in the RAM 42 and performs various processes.
  • the CPU 41 transmits a display request to the center 1.
  • the CPU 31 of the center 1 that has received the display request transfers the HTML file to the user PC 4 (notifies the URL and accesses the user PC 4).
  • a WEB page based on the HTML file transferred from the center 1 is displayed on the monitor 49 via the display processing unit 48. In this way, the list of singing files shown in FIG. 5 is displayed.
  • the CPU 41 makes a request for mixing data distribution.
  • the request is executed when, for example, information indicating a song file name is transmitted to the center 1.
  • the CPU 31 of the center 1 searches the received song file name from the HDD 33 and reads out the corresponding song file and synchronization information.
  • the CPU 41 reproduces the read song file to generate a song voice signal, reads the song data of the song number described in the synchronization information, and according to the tempo and volume information described in the synchronization information, the sequencer Perform a karaoke song on Thereby, a musical sound signal is generated.
  • the generated musical sound signal and singing voice signal are output to the mixer 39 and mixed.
  • This mixed audio signal is input again to the CPU 41 and is generated as one compressed audio data (mixing data).
  • the CPU 41 distributes the generated mixing data to the user PC 4 that has made the request.
  • the distributed mixing data is reproduced by the CPU 41 of the user PC 4, converted into an analog audio signal at SS 46, and emitted from the speaker 47.
  • the center 1 may perform a charging process in conjunction with a predetermined charging system. After charging a predetermined amount to the user who made the distribution request, the user PC 4 is made to download the mixing data. In this case, since the singer can receive a reward every time the singing file is downloaded, it is possible to give an incentive to the singer in conjunction with the billing system.
  • a karaoke competition can be realized by scoring the singing sound heard by each user.
  • the delivery system shown in this embodiment since it is only necessary to upload a song file to the center 1, it is possible to separately store the song sound and the musical sound in the server without increasing the upload time. it can. Since the singing sound data (singing file) is stored in the HDD 33 of the center 1 separately from the musical sound data (music data), the mixing balance may be changed later or the effect may be changed individually. It can be easily realized.
  • the distribution system of this embodiment it is also possible to perform multiple recording in which the singing sounds of a plurality of singers (or the singing sounds of the same singers) are synthesized later.
  • the singing sound and the musical sound are stored in the server as one audio data that has already been mixed, when another singing sound is added later, the audio data is once decoded into an audio signal. Since the conversion was performed after mixing and mixing the audio signal of another singing sound, the sound quality was deteriorated.
  • the singing sound and the musical sound are held as separate data, so that the singing file that is desired to be multiplexed at the time of reproduction may be decoded and synthesized. For this reason, sound quality deterioration due to multiple recording does not occur.
  • FIG. 7 is a flowchart showing an operation during a registration operation.
  • FIG. 8 is a flowchart showing an operation at the time of mixing data distribution.
  • the CPU 11 accepts the registration operation (s 11). At this time, the CPU 11 also accepts input of a singer's profile, message, and the like from the operation unit 15.
  • the CPU 11 When the CPU 11 accepts the registration operation, it reads out the designated music data and performs a karaoke performance (s12), and sings based on the singing voice signal of the singer input from the microphone 16 via the A / D converter 17. A file is generated (s13). Also, synchronization information is generated based on the song number, tempo, volume, etc. of the played song (s14).
  • CPU11 uploads the produced
  • the center 1 records the uploaded song file and the synchronization information in the HDD 33 (s16). In this way, the song file of the singer is registered in the center 1.
  • the user who requests mixing data distribution makes a request to display a song file in order to refer to the list of singers (s21).
  • This display request is transmitted to the center 1, and the center 1 accepts the WEB display request (s22).
  • the CPU 31 of the center 1 performs a WEB display process for transferring the HTML file to the user PC 4 (s23).
  • a WEB page based on the HTML file transferred from the center 1 is displayed on the monitor 49 of the user PC 4 (s24). In this way, the list of song files shown in FIG.
  • the user refers to the list of song files displayed on the monitor 49, selects a singer who wants to listen, and makes a distribution request for mixing data (s25).
  • the CPU 41 extracts the file name of the song file selected by the user from the HTML file and notifies the center 1 of it. Thereby, a delivery request is received (s26).
  • the charging process is performed in the center 1 (or charging server or the like) and the user PC 4 (s27, s28), and when the charging process is completed, the CPU 11 of the center 1 reads the corresponding song file and the synchronization information from the HDD 33, and the song file And singing sound audio signal based on the singing file is generated.
  • the billing process is not essential, and the processes of s27 and s28 may be omitted.
  • the music data of the music number described in the synchronization information is read from the HDD 33, the music data is sequenced according to the tempo and volume described in the synchronization information, and the sound source 38 is controlled.
  • the karaoke performance is reproduced with the same tempo and volume as when the singing sound is recorded, and at the same time, the singing sound of the singer is output to perform synchronous reproduction (s29).
  • the same singing file has been reproduced in the past and stored in the HDD 33 as mixing data
  • the mixing data is read from the HDD 33, there is no need to perform synchronized reproduction again.
  • each mixing data may be generated in advance by using the idle time of the processing of the center 1. In this case, even if there are a number of distribution requests at the same time, it is possible to immediately distribute the mixing data.
  • the mixing balance can be changed later.
  • the singing voice signal and the musical sound signal of the karaoke song that have been synchronously reproduced are mixed to generate mixing data (s30), and are downloaded to the user PC 4 (s31).
  • the CPU 31 of the center 1 counts up the number of downloads of the downloaded song file (s32).
  • the CPU 41 of the user PC 4 downloads the mixing data from the center 1 (s33) and stores it in the HDD 43 (or RAM 42). Then, the CPU 41 decodes the mixing data and reproduces the singing sound and the musical sound (s34).
  • the generation and distribution of the mixing data may be performed for one song at a time, or may be sequentially downloaded as streaming data. In addition, it may be free when distributing at a low bit rate, and may be charged when distributed at a high bit rate (bit rate during recording).
  • the CPU 31 of the center 1 When the first singing file describes the time from the start of the performance), the CPU 31 of the center 1 outputs an audio signal based on each singing file along with the music data sequence.
  • the synchronization information is configured as MIDI data (expansion track of music data)
  • the sequencer can read the MIDI data of the synchronization information and output an audio signal based on each song file.
  • the CPU 41 makes a change request to the center 1 (s36).
  • the change request includes information for instructing a mixing balance between the singing sound and the musical sound.
  • the CPU 31 of the center 1 changes the mixing balance of the mixer 39 according to the information indicating the mixing balance included in the change request, and regenerates the mixing data (s38). Then, the CPU 31 delivers the regenerated mixing data to the user PC 4 for which the change request has been made (s39).
  • the user PC 4 reproduces the redistributed mixing data (s40), and repeats the above processing until the reproduction is completed (s41).
  • mixing data to be redistributed may be redistributed from the middle of the song for which the change request has been made, or may be redistributed from the beginning of the song with the mixing balance after the change.
  • the volume can be controlled independently, and the mixing balance can be easily changed.
  • the user can also issue an effect change instruction or a tempo change instruction in the mixing balance change instruction.
  • the CPU 31 of the center 1 performs the music data sequence at the changed tempo and also changes the playback speed of the song file.
  • CPU31 (or DSP not shown) performs the process which expands / contracts an audio
  • the process of expanding and contracting the audio signal on the time axis while maintaining the pitch of the singing sound is performed as follows, for example.
  • the CPU 31 cuts the voice signal of the singing sound based on the singing file into time axis waveforms for each sampling period, and generates a new time axis waveform (intermediate waveform) by combining a plurality of time axis waveforms.
  • the intermediate waveform is generated by cross-fading and synthesizing the preceding and following time axis waveforms.
  • an intermediate waveform is inserted between the original time axis waveforms, it is possible to extend the time axis while maintaining the pitch of the singing sound.
  • the audio data is compressed, a process for replacing the intermediate waveform with the original time axis waveform is performed.
  • an insertion process is performed every other sampling, it can be doubled (reproduction speed 1/2), and if a replacement process is performed, it can be compressed (reproduction speed is doubled). If insertion processing is performed every two samplings, it can be expanded by 1.5 times, and if insertion processing is performed every three samplings, it can be expanded by 1.33 times.
  • the CPU 31 changes the key of the music data (shifts the note number) and changes the pitch of the singing voice signal.
  • the pitch can be changed by resampling the audio signal. Further, the frequency characteristics of the audio signal may be changed.
  • a singer performs an operation of registering a singing file using the karaoke device 7
  • a microphone and a recording function are added to the center 1, and the singing file is stored using the center 1. It can also be configured to register. More simply, it can be realized by using the user PC 4 that has realized the function of the karaoke apparatus 7.
  • the software of the user PC 4 realizes a configuration such as a sequencer and a sound source, and configures a karaoke performance terminal.
  • the synchronization information includes a header, tempo information, volume information (Vol.), And timing information (tempo change amount).
  • the synchronization information may include effect parameters such as microphone echo, reverb, compressor, and voice change in addition to the above information.
  • synchronization information including effect parameters is registered at the time of singing sound registration operation.
  • the effect parameter set in the karaoke apparatus 7 at that time is reflected in the synchronization information at the timing of the generation of the synchronization information in s14 of FIG.
  • this effect parameter is used to reflect a microphone echo or the like in the audio signal.
  • the accounting process is performed when the mixing data is distributed.
  • the accounting process may be performed when the singer uploads the song file. That is, the singer is charged at the time of registration operation at s11 in FIG. 7 or at the time of uploading the song file and synchronization information at s15.
  • a system can be realized in which money is collected from each singer as an entry fee when uploading his own singing file.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

 本発明は、通信時間を増大させずに音声と楽音を別々に蓄積することができるサーバを提供する。歌唱者の歌唱音のみ、カラオケ演奏の同期情報とともに音声データ(歌唱ファイル)としてセンタにアップロードする。同期情報には、少なくとも音声データの録音時に演奏していたカラオケ楽曲におけるテンポおよびボリューム情報が記載されている。センタは、歌唱ファイルを再生して歌唱音声信号を生成するとともに、同期情報に記載されているテンポ、ボリュームでカラオケ演奏を行い、楽音信号を生成する。生成した歌唱音声信号および楽音信号をミキシングすることで、新たな音声データ(ミキシングデータ)を生成する。

Description

ミキシングデータ配信サーバ
 この発明は、音声と楽音をミキシングした音声データを配信するサーバに関する。
 従来、カラオケ装置で録音した歌唱音および楽音からなる音声データをサーバにアップロードし、サーバが音声データを各ユーザに配信するシステムが提案されている(特許文献1を参照)。特許文献1には、各ユーザが配信された音声データの歌唱音および楽音を聴取し、採点を行うことで、カラオケコンクールを実施することが記載されている。
日本国特開2007-121550号公報
 特許文献1のシステムでは、歌唱音および楽音が既にミキシングされた1つの音声データとしてサーバに蓄積される。したがって、後で歌唱音と楽音のミキシングバランスを調整することができない。後で歌唱音と楽音のミキシングバランスを調整するためには、歌唱音と楽音を別々の音声データとしてアップロードすることも考えられるが、歌唱音と楽音を別々にアップロードすると、従来の2倍以上の通信時間がかかるという問題が発生する。
 そこで、この発明は、通信時間を増大させずに音声と楽音を別々に蓄積することができるサーバを提供することを目的とする。
 この発明のミキシングデータ配信サーバは、受信手段、記憶手段、音声データ生成手段、および配信手段を備えている。受信手段は、歌唱者の音声データ、および前記歌唱者の音声データのカラオケ演奏との同期情報を受信する。記憶手段は、受信した歌唱者の音声データおよび同期情報を記憶する。また、記憶手段は、カラオケ演奏を行うための楽曲データも記憶している。
 音声データ生成手段は、記憶手段から読み出した音声データを再生するとともに、同期情報に基づいて楽曲データを読み出し、自動演奏を行う。そして、音声データ生成手段は、再生した音声データに基づく音声、および自動演奏による楽音をミキシングしてミキシングデータを生成する。生成されたミキシングデータが、各端末に配信され、ユーザに聴取可能な状態となる。
 このように、歌唱者の歌唱音をカラオケ演奏音の同期情報とともに音声データとしてサーバにアップロードし、楽音については、サーバ側で同期情報に基づいて楽曲データを自動演奏することにより生成し、音声データの再生音とミキシングしてミキシングデータ(歌唱音と楽音からなる完全データ)を生成する。したがって、歌唱音の音声データをアップロードするだけで、音声と楽音を別々にサーバ側に蓄積することになり、アップロードに要する時間は従来と変わらない。
 なお、同期情報には、音声データの録音時に演奏していたカラオケ楽曲におけるテンポおよびボリューム情報が記載されている態様であってもよい。これにより、後に歌唱音の音声データを再生したとき、この歌唱音に同期したカラオケ演奏がなされる。
 また、音声データは、複数の音声データからなり、同期情報は、前記複数の音声データのそれぞれの再生タイミングを示す情報が含まれる態様であってもよい。例えば、デュエット曲であれば、歌唱者は、デュエットパートの歌唱を行い、1曲のなかで歌唱を行う時間帯が決められているため、歌唱ファイルを複数に分割することも可能である。この場合、同期情報に演奏開始からの時間経過を示す情報あるいはデルタタイムを記載しておき、再生時にこの情報を参照して各歌唱ファイルを再生することでも歌唱音に同期したカラオケ演奏を行うことができる。
 また、生成したミキシングデータは、記憶手段に保持しておいてもよい。この場合、同時多数に配信リクエストがあった場合でも、即座に配信可能となる。この場合においても、歌唱音の音声データは記憶手段に保持されているため、後でミキシングバランスを変更することができる。
 また、同期情報には、エフェクトパラメータが含まれており、音声データ生成手段が、自動演奏による楽音のミキシングを行う際に、そのエフェクトパラメータの設定を反映させる態様としてもよい。これにより、歌唱音の録音時に設定していたエフェクトをカラオケ演奏に反映させることができ、ミキシングデータの配信を受けるユーザはより臨場感のある演奏を楽しむことが可能である。
 この発明によれば、通信時間を増大させずに音声と楽音を別々にサーバに蓄積することができる。
カラオケシステムの構成を示すブロック図である。 カラオケ装置の構成を示すブロック図である。 各種データの構造を示す図である。 センタの構成を示すブロック図である。 WEB上に表示される歌唱ファイルの一覧の例を示した図である。 ユーザPCの構成を示すブロック図である。 歌唱ファイル登録時の動作を説明するフローチャートである。 デュエット配信時の動作を説明するフローチャートである。
 図1は、ミキシングデータ配信システムの構成を示す図である。ミキシングデータ配信システムは、インターネット等からなるネットワーク2を介して接続されるセンタ(サーバ、ミキシングデータ配信サーバ)1と、複数のカラオケ店舗3と、複数のユーザPC4と、からなる。各カラオケ店舗3には、ネットワーク2に接続されるルータ等の中継器5と、中継器5を介してネットワーク2に接続される複数のカラオケ装置7が設けられている。中継器5は、カラオケ店舗の管理室内等に設置されている。複数台のカラオケ装置7は、それぞれ個室(カラオケボックス)に1台ずつ設置されている。ユーザPC4は、一般的な家庭用パーソナルコンピュータである。
 本実施形態のミキシングデータ配信システムとは、予め、ある歌唱者がカラオケ装置7で歌唱した音声を録音して歌唱ファイル(圧縮音声データ)としてセンタ1にアップロードしておくものである。そして、センタ1が各ユーザPC4のリクエストに応じて歌唱ファイルを再生し、再生する歌唱ファイルに同期してカラオケ演奏を行い、歌唱音と楽音とをミキシングしたミキシングデータ(圧縮音声データ)を生成してユーザPC4に配信するものである。以下、このミキシングデータ配信システムを実現するための各構成、および動作について説明する。
 図2は、カラオケ装置の構成を示すブロック図である。カラオケ装置7は、装置全体の動作を制御するCPU11、およびCPU11に接続される各種構成部からなる。CPU11には、RAM12、HDD13、ネットワークインタフェース(I/F)14、操作部15、A/Dコンバータ17、音源18、ミキサ(エフェクタ)19、MPEG等のデコーダ22、および表示処理部23が接続されている。
 HDD13は、カラオケ曲を演奏するための楽曲データやモニタ24に背景映像を表示するための映像データ等を記憶している。映像データは動画、静止画の両方を記憶している。
 ワークメモリであるRAM12には、CPU11の動作用プログラムを実行するために読み出すエリアやカラオケ曲を演奏するために楽曲データを読み出すエリア等が設定される。
 CPU11は、機能的にシーケンサを内蔵している。シーケンサは、HDD13に記憶されている楽曲データを読み出し、カラオケ演奏を実行するプログラムである。図3(A)に示すように、楽曲データは、曲番号等が書き込まれているヘッダ、演奏用MIDIデータが書き込まれている楽音トラック、ガイドメロディ用MIDIデータが書き込まれているガイドメロディトラック、歌詞用MIDIデータが書き込まれている歌詞トラック、バックコーラス再生タイミングおよび再生すべき音声データが書き込まれているコーラストラック、等からなっている。シーケンサは、楽音トラックやガイドメロディトラックのデータに基づいて音源18を制御し、カラオケ曲の楽音を発生する。また、シーケンサは、コーラストラックの指定するタイミングでバックコーラスの音声データ(楽曲データに付随しているMP3等の圧縮音声データ)を再生する。また、シーケンサは、歌詞トラックに基づいて曲の進行に同期して歌詞の文字パターンを合成し、この文字パターンを映像信号に変換して表示処理部23に入力する。
 音源18は、シーケンサの処理によってCPU11から入力されたデータ(ノートイベントデータ)に応じて楽音信号(デジタル音声信号)を形成する。形成した楽音信号はミキサ19に入力される。
 ミキサ19は、音源18が形成した楽音信号、コーラス音、およびマイク16からA/Dコンバータ17を介して入力された歌唱者の歌唱音声信号に対してエコーなどの効果を付与するとともに、これらの信号をミキシングする。
 ミキシングされた各デジタル音声信号はサウンドシステム(SS)20に入力される。サウンドシステム20は、D/Aコンバータおよびパワーアンプを内蔵しており、入力されたデジタル信号をアナログ信号に変換して増幅し、スピーカ21から放音する。ミキサ19が各音声信号に付与する効果およびミキシングのバランスは、CPU11によって制御される。
 CPU11は、上記シーケンサによる楽音の発生、歌詞テロップの生成と同期して、HDD13に記憶されている映像データを読み出して背景映像等を再生する。動画の映像データは、MPEG形式にエンコードされている。CPU11は、読み出した映像データをMPEGデコーダ22に入力する。MPEGデコーダ22は、入力されたMPEGデータを映像信号に変換して表示処理部23に入力する。表示処理部23には、背景映像の映像信号以外に上記歌詞テロップの文字パターン等が入力される。表示処理部23は、背景映像の映像信号の上に歌詞テロップなどをOSD(On Screen Display)で合成してモニタ24に出力する。モニタ24は、表示処理部23から入力された映像信号を表示する。
 操作部15は、カラオケ装置7の操作パネル面に設けられた各種のキースイッチや赤外線通信等を介して接続されるリモコン等からなり、ユーザの各種操作を受け付け、操作態様に応じた操作情報をCPU11に入力する。操作部15は、曲のリクエストや、歌唱音の録音(登録操作)等を受け付ける。
 CPU11は、歌唱音を公開したい歌唱者が操作部15で歌唱音の登録操作、および曲の指定を行ったとき、指定された曲のカラオケ演奏を行うとともに、マイク16からA/Dコンバータ17を介して入力された歌唱者の歌唱音声信号に基づいて歌唱ファイルを生成し、ネットワークI/F14を介してセンタ1にアップロードを行う。歌唱ファイルは、MP3等の圧縮音声データとして生成される。このとき、CPU11は、演奏を行ったカラオケ曲と歌唱ファイルの対応付けを示す同期情報を生成し、歌唱ファイルとともにアップロードする。
 図3(B)は、同期情報の一例を示す図である。図3(C)は、歌唱ファイルの一例を示す図である。図3(B)に示すように、同期情報は、ヘッダ、テンポ情報、ボリューム情報(Vol.)、タイミング情報(テンポ変化量)からなる。ヘッダは、曲番号や曲名、対応付けられる歌唱ファイルのファイル名等が記載されている。曲番号は、各カラオケ曲の楽曲データに付与されている曲番号と共通形式のデータ(英数字を示す情報)であり、歌唱者が登録操作時に指定した曲番号が転記される。テンポ情報は、歌唱者が登録操作時に指定した曲の演奏テンポを示す情報であり、シーケンサの歩進速度を指定するものである。登録操作時に歌唱者がテンポの指定、変更を行わなければ楽曲データの標準テンポがそのまま転記される。ボリューム情報は、歌唱者が登録操作時に指定した曲の音量(楽音トラックの音量)を示す情報である。タイミング情報は、歌唱者が歌唱中にテンポを変化させた場合、そのテンポ変化のタイミング(演奏開始からの時間経過)を示す情報である。このテンポ変化を示すタイミング情報が参照されることにより、後の再生時にも曲の途中で演奏テンポが変化される。
 歌唱ファイルは、図3(C)に示すように、ヘッダと歌唱音声データとからなる。ヘッダには少なくともファイル名が記載されており、同期情報のヘッダと対応付けられている。エンコード形式がMP3であれば、ヘッダはID3タグとして記録される態様であってもよい。
 以上の様な同期情報および歌唱ファイルがセンタ1にアップロードされ、センタ1に蓄積される。なお、歌唱者は、操作部15を用いて自身のプロフィールやメッセージ等を入力し、歌唱者情報としてアップロードすることも可能である。
 センタ1では、蓄積した各歌唱ファイルを再生するとき、各歌唱ファイルの同期情報を参照して、指定された曲番号の楽曲データを読み出し、同期情報に記載されたテンポ、ボリュームでカラオケ演奏を行う。テンポ変化を示すタイミング情報が記載されている場合には、このタイミング情報にしたがって曲の途中で演奏テンポを変化させる。これにより、録音時のカラオケ演奏を再現することができ、再生された歌唱音声信号および演奏により生成された楽音信号をミキシングしたミキシングデータ(歌唱音と楽音からなる完全データ)を生成する。したがって、歌唱音の音声データをアップロードするだけでも、歌唱音と楽音をサーバ側に蓄積することになり、アップロードに要する時間を増大させずに、歌唱音と楽音とを個別に蓄積しておくことができる。
 なお、図3(C)に示す歌唱ファイルは、カラオケ曲の演奏開始時から演奏終了時までの全ての音声(マイク16で収音した音声)を記録したものである。この場合、カラオケ演奏の開始とともに、歌唱ファイルに基づく音声信号を出力すれば同期再生を行うことができるが、例えば、図3(E)に示すように、1曲のうちの歌唱ファイルを複数の歌唱ファイルに分割することも可能である。この場合、図3(D)に示すように、同期情報に各歌唱ファイルの再生タイミングを示す情報として、演奏開始からの時間経過を示す情報、あるいは歌唱ファイル間のデルタタイム(先頭の歌唱ファイルは演奏開始からの時間)を記載しておき、再生時には同期情報のタイミング情報を参照して各歌唱ファイルを再生するようにしてもよい。この際、同期情報は、楽曲データとのインプリメンテーションの統一をとるために、MIDIデータ(楽曲データの拡張トラック)として構成しておき、シーケンサに読み取り可能な形式としてもよい。この場合、歌唱を行っていない時間帯は歌唱音が録音されないため、歌唱ファイルのデータ容量を削減することができ、さらにアップロード時間を短縮することができる。1曲のなかで歌唱を行う時間帯が限られている場合(例えばデュエット曲で、歌唱者が1つのデュエットパートのみ歌唱する場合)に特に有用である。
 次に、図4は、センタ1の構成を示すブロック図である。センタ1は、センタ全体の動作を制御するCPU31、およびCPU31に接続される各種構成からなる。CPU31には、RAM32、HDD33、ネットワークインタフェース(I/F)34、音源38、およびミキサ(エフェクタ)39が接続されている。
 HDD33は、各カラオケ装置7からアップロードされた歌唱ファイル、同期情報、および歌唱者情報に加え、カラオケ装置7と同じ数の楽曲データを記憶している。また、過去に生成したミキシングデータも記憶している。また、HDD33には、CPU31の動作用プログラムが記録されており、CPU31は、この動作用プログラムをRAM32に展開して種々の処理を行う。
 例えば、CPU31は、ネットワークI/F34を介して各カラオケ装置7から受信した歌唱ファイル、同期情報、および歌唱者情報をHDD33に記録する受信データ処理を行う。また、CPU31は、機能的にシーケンサを内蔵しており、カラオケ装置7と同様に、HDD33から楽曲データを読み出してカラオケ演奏を行い、音源38を制御することで、楽音信号を生成することができる。また、CPU31は、各歌唱者情報を編集して一覧表示を行うHTMLファイル(不図示)を生成し、ユーザPC4にWEBページとして表示させるWEB表示処理を行う。
 図5は、WEBページとして表示される歌唱ファイルの一覧の例を示した図である。図5に示すように、WEBページには、各歌唱ファイルがファイル名(または曲番号)、曲名、歌唱者が登録操作時に入力したプロフィール、メッセージ等の項目で一覧表示される。また、各歌唱ファイルの人気度(ダウンロード回数)等も表示される。各歌唱ファイルのダウンロード回数は、HDD33に記録されており、各カラオケ装置7に歌唱ファイルをダウンロードさせたときにカウントアップされる。ユーザPC4は、WEBページにアクセスすることにより、この一覧を参照することができ、聴取したい歌唱者の歌唱ファイルを選択することができる。なお、ユーザPC4を操作して各項目を選択すると、一覧表の昇順、降順のソートを行うこともできる。
 図6は、ユーザPC4の構成を示すブロック図である。ユーザPC4は、一般的な家庭用パーソナルコンピュータであり、全体の動作を制御するCPU41と、CPU41に接続される各種構成からなる。CPU41には、RAM42、HDD43、ネットワークI/F44、操作部45、サウンドシステム(SS)46、および表示処理部48が接続されている。CPU41は、HDD43に記録された動作用プログラムをRAM42に展開し、種々の処理を行う。ユーザが操作部45を用いて、歌唱ファイルの表示リクエストを行うと、CPU41は、表示リクエストをセンタ1に送信する。表示リクエストを受信したセンタ1のCPU31は、HTMLファイルをユーザPC4に転送する(URLを通知し、ユーザPC4がアクセスする)。ユーザPC4では、センタ1から転送されたHTMLファイルに基づくWEBページが表示処理部48を経てモニタ49に表示される。このようにして、図5に示した歌唱ファイルの一覧が表示される。
 ユーザが操作部45を用いてWEBページ上に表示されている歌唱ファイルを選択すると、CPU41は、ミキシングデータ配信のリクエストを行う。リクエストは、例えば歌唱ファイル名を示す情報がセンタ1に送信されることにより実行される。センタ1のCPU31は、受信した歌唱ファイル名をHDD33から検索し、該当する歌唱ファイルおよび同期情報を読み出す。
 CPU41は、読み出した歌唱ファイルを再生して歌唱音声信号を生成するとともに、同期情報に記載されている曲番号の楽曲データを読み出し、同期情報に記載されているテンポ、およびボリューム情報にしたがって、シーケンサでカラオケ曲の演奏を実行する。これにより楽音信号を生成する。
 生成した楽音信号と歌唱音声信号は、ミキサ39に出力されてミキシングされる。このミキシングされた音声信号が再びCPU41に入力され、1つの圧縮音声データ(ミキシングデータ)として生成される。CPU41は、生成したミキシングデータをリクエストがなされたユーザPC4に配信する。そして、配信されたミキシングデータは、ユーザPC4のCPU41で再生され、SS46でアナログ音声信号に変換されてスピーカ47から放音される。
 なお、センタ1は、所定の課金システムと連動し、課金処理を行ってもよい。配信リクエストを行ったユーザに所定の金額を課金した後、ユーザPC4にミキシングデータをダウンロードさせる。この場合、歌唱者は、歌唱ファイルがダウンロードされる毎に報酬を受け取ることができるため、課金システムとの連動により、歌唱者へインセンティブを与えることができる。
 このようにして、ユーザは、各歌唱者の歌唱音および楽音を聴取することができる。本実施形態の配信システムによれば、例えば、各ユーザが聴取した歌唱音の採点を行うことで、カラオケコンクールを実現することが可能である。
 また、本実施形態に示した配信システムによれば、センタ1には歌唱ファイルをアップロードするだけでよいため、アップロード時間を増大させることなく、歌唱音と楽音とを別々にサーバに蓄積することができる。歌唱音のデータ(歌唱ファイル)は、楽音のデータ(楽曲データ)とは別にセンタ1のHDD33に記憶されているため、後でミキシングバランスを変更したり、個別にエフェクトを変更したりすることも容易に実現可能である。
 また、本実施形態の配信システムによれば、複数の歌唱者の歌唱音(あるいは同じ歌唱者の歌唱音)を後で合成する多重録音を行うことも可能である。従来のシステムでは、歌唱音および楽音が既にミキシングされた1つの音声データとしてサーバに蓄積される態様であったため、後で別の歌唱音を追加する場合、いったん音声データをデコードして音声信号に変換し、別の歌唱音の音声信号をミキシングした後にエンコードを行うため、音質劣化が発生していた。しかしながら、本実施形態では、歌唱音と楽音とを別のデータとして保持しておくため、再生時に多重化したい歌唱ファイルをデコードして合成すればよい。そのため、多重録音による音質劣化は発生しない。
 次に、本実施形態の配信システムの動作をフローチャートを用いて説明する。図7は、登録操作時の動作を示すフローチャートである。図8は、ミキシングデータ配信時の動作を示すフローチャートである。
 まず、図7に示すように、歌唱音を公開したい歌唱者がカラオケ装置7の操作部15で歌唱音の登録操作および曲の指定を行うと、CPU11が登録操作を受け付ける(s11)。このとき、CPU11は、操作部15から歌唱者のプロフィールやメッセージ等の入力も受け付ける。
 CPU11は、登録操作を受け付けると、指定された楽曲データを読み出してカラオケ演奏を行うとともに(s12)、マイク16からA/Dコンバータ17を介して入力された歌唱者の歌唱音声信号に基づいて歌唱ファイルを生成する(s13)。また、演奏した曲の曲番号、テンポ、ボリューム等に基づいて、同期情報を生成する(s14)。CPU11は、曲の演奏が終了すると、生成した歌唱ファイルおよび同期情報をセンタ1にアップロードする(s15)。センタ1は、アップロードされた歌唱ファイルおよび同期情報をHDD33に記録する(s16)。このようにして歌唱者の歌唱ファイルがセンタ1に登録される。センタ1のCPU31は、アップロードされた歌唱ファイルの各歌唱者情報を用いてHTMLファイルを更新し、ユーザPC4がアクセするWEBページを更新する(s17)。
 次に、図8に示すように、ミキシングデータ配信をリクエストするユーザ(ユーザPC4のユーザ)は、歌唱者の一覧を参照するために、歌唱ファイルの表示リクエストを行う(s21)。この表示リクエストは、センタ1に送信され、センタ1は、WEB表示リクエストの受付を行う(s22)。センタ1のCPU31は、HTMLファイルをユーザPC4に転送するWEB表示処理を行う(s23)。ユーザPC4のモニタ49には、センタ1から転送されたHTMLファイルに基づくWEBページが表示される(s24)。このようにして、図5に示した歌唱ファイルの一覧がモニタ49に表示される。
 ユーザは、モニタ49に表示されている歌唱ファイルの一覧を参照することにより、聴取したい歌唱者を選択し、ミキシングデータの配信リクエストを行う(s25)。CPU41は、ユーザが選択した歌唱ファイルのファイル名をHTMLファイルから抽出し、センタ1に通知する。これにより、配信リクエストが受け付けられる(s26)。
 そして、センタ1(または課金サーバ等)、およびユーザPC4において課金処理がなされ(s27,s28)、課金処理が終了するとセンタ1のCPU11は、HDD33から対応する歌唱ファイルおよび同期情報を読み出し、歌唱ファイルのデコードを行い、歌唱ファイルに基づく歌唱音音声信号を生成する。なお、課金処理は必須ではなく、s27およびs28の処理は省略してもよい。そして、同期情報に記載されている曲番号の楽曲データをHDD33から読み出し、同期情報に記載されているテンポおよびボリュームにしたがって楽曲データをシーケンスし、音源38を制御する。これにより、歌唱音の録音時と同じテンポ、ボリュームでカラオケ演奏を再現し、同時に歌唱者の歌唱音を出力することで同期再生を行う(s29)。ただし、既に過去に同じ歌唱ファイルを再生し、ミキシングデータとしてHDD33に保持している場合、HDD33からミキシングデータを読み出せば、あらためて同期再生を行う必要はない。また、センタ1の処理の空き時間を利用し、予め各ミキシングデータを生成しておいてもよい。この場合、同時多数に配信リクエストがあった場合でも、即座にミキシングデータの配信が可能となる。無論、この場合においても、歌唱ファイルはHDD33に保持されているため、後でミキシングバランスを変更することができる。
 その後、同期再生した歌唱音声信号およびカラオケ曲の楽音信号をミキシングしてミキシングデータを生成し(s30)、ユーザPC4にダウンロードさせる(s31)。このとき、センタ1のCPU31は、ダウンロードさせた歌唱ファイルのダウンロード回数をカウントアップする(s32)。
 ユーザPC4のCPU41は、センタ1からミキシングデータをダウンロードし(s33)、HDD43(またはRAM42)に保持する。そして、CPU41は、ミキシングデータのデコードを行い、歌唱音および楽音の再生を行う(s34)。
 ミキシングデータの生成、および配信は、1曲分まとめて行ってもよいし、順次ストリーミングデータとしてダウンロードさせてもよい。また、低ビットレートで配信する場合は無料で、高ビットレート(録音時のビットレート)で配信する場合は有料、としてもよい。
 なお、図3(C)および図3(D)に示したように、同期情報に各歌唱ファイルの再生タイミングを示す情報として演奏開始からの時間経過を示す情報、あるいは歌唱ファイル間のデルタタイム(先頭の歌唱ファイルは演奏開始からの時間)が記載されている場合、センタ1のCPU31では、楽曲データのシーケンスにともなって、各歌唱ファイルに基づく音声信号を出力する。同期情報がMIDIデータ(楽曲データの拡張トラック)として構成されている場合は、シーケンサがこの同期情報のMIDIデータを読み取ることで各歌唱ファイルに基づく音声信号を出力することができる。
 ここで、ユーザが操作部45を操作して、ミキシングバランスの変更指示を行った場合(s35)、CPU41は、センタ1に変更リクエストを行う(s36)。変更リクエストには、歌唱音と楽音のミキシングバランスを指示する情報が含まれている。センタ1のCPU31は、変更リクエストを受け付けると(s37)、当該変更リクエストに含まれているミキシングバランスを示す情報に従って、ミキサ39のミキシングバランスを変更し、ミキシングデータを生成し直す(s38)。そして、CPU31は、再生成後のミキシングデータを変更リクエストの行われたユーザPC4に配信する(s39)。ユーザPC4では、再配信されたミキシングデータを再生し(s40)、以上の処理を再生が終了するまで繰り返す(s41)。
 なお、再配信するミキシングデータは、変更リクエストがなされた曲の途中から再配信するようにしてもよいし、曲の最初から変更後のミキシングバランスで再配信するようにしてもよい。
 このように、本実施形態では、歌唱音と楽音が別々のソースから成り立つため、独立して音量を制御することが可能であり、容易にミキシングバランスを変更することが可能である。
 なお、ユーザは、上記ミキシングバランスの変更指示において、エフェクトの変更指示や、テンポ変更の指示を行うことも可能である。テンポ変更の指示を行った場合、センタ1のCPU31は、変更されたテンポで楽曲データのシーケンスを行うとともに、歌唱ファイルの再生速度の変更も行う。この場合、CPU31(または不図示のDSP)は、歌唱音の音程を保ちつつ時間軸に音声信号を伸縮する処理を行う。歌唱音の音程を保ちつつ時間軸に音声信号を伸縮する処理は、例えば以下の様にして行う。
 すなわち、CPU31は、歌唱ファイルに基づく歌唱音の音声信号をサンプリング周期毎の時間軸波形に切り分け、複数の時間軸波形を合成した新たな時間軸波形(中間波形)を生成する。中間波形は、前後の時間軸波形をクロスフェードして合成することにより生成する。そして、元の時間軸波形の間に中間波形を挿入すると、歌唱音の音程を保ちつつ時間軸に伸張することが可能である。音声データを圧縮する場合には、中間波形を元の時間軸波形に置き換える処理を行う。例えば、1サンプリングおきに挿入処理を行えば2倍に伸張(再生速度1/2)することが可能であるし、置き換える処理を行えば圧縮(再生速度を2倍)することができる。2サンプリングおきに挿入処理を行えば1.5倍に伸張することが可能であるし、3サンプリングおきに挿入処理を行えば1.33倍に伸張することが可能である。
 また、CPU31は、ユーザがキー変更を指示した場合、楽曲データのキー変更(ノートナンバのシフト)を行うとともに、歌唱音声信号のピッチ変更を行う。ピッチ変更は、音声信号のリサンプリングを行うことにより実現可能である。また、音声信号の周波数特性の変更を行ってもよい。
 なお、本実施形態では、カラオケ装置7を用いて歌唱者が歌唱ファイルを登録する操作を行う例を示したが、センタ1にマイクや録音の機能を付加し、センタ1を用いて歌唱ファイルを登録するように構成することも可能である。より簡易的には、カラオケ装置7の機能を実現したユーザPC4を用いて実現することも可能である。この場合、ユーザPC4のソフトウェアがシーケンサや音源等の構成を実現し、カラオケ演奏端末を構成する。
 また、歌唱ファイルの聴取は、一般的な家庭用パーソナルコンピュータを用いる例を示したが、無論カラオケ装置7を用いて聴取することも可能である。
 本実施形態では、図3(B)に示すように、同期情報は、ヘッダ、テンポ情報、ボリューム情報(Vol.)、タイミング情報(テンポ変化量)からなる例を説明している。しかしながら、同期情報は、これらの情報以外に、マイクエコーやリバーブ、コンプレッサー、ボイスチェンジ等のエフェクトパラメータを含んでいても良い。この場合、歌唱音の登録操作時において、エフェクトパラメータを含む同期情報を登録しておく。具体的には、例えば、図7のs14の同期情報生成の処理のタイミングで、そのときにカラオケ装置7で設定されていたエフェクトパラメータを同期情報に反映させる。カラオケ演奏時には、このエフェクトパラメータを用いて、マイクエコー等を音声信号に反映させる。これにより、歌唱音の録音時に設定していたエフェクトをカラオケ演奏に反映させることができ、ミキシングデータの配信を受けるユーザはより臨場感のある演奏を楽しむことが可能である。
 本実施形態では、ミキシングデータの配信時に課金処理を行っていたが、歌唱者が歌唱ファイルをアップロードする際に課金処理を行ってもよい。すなわち、図7のs11における登録操作時やs15における歌唱ファイル及び同期情報のアップロード時に、歌唱者へ課金させるようにする。これにより、例えば、歌唱者がお金を払って参加できるカラオケコンテストを実施する際に、自身の歌唱ファイルをアップロードする際に各歌唱者から参加費としてお金を徴収するようなシステムが実現できる。
1…センタ
2…ネットワーク
3…カラオケ店舗
4…ユーザPC
5…中継器
7…カラオケ装置

Claims (5)

  1.  歌唱者の音声データ、および前記歌唱者の音声データのカラオケ演奏との同期情報を受信する受信手段と、
     前記歌唱者の音声データ、同期情報、およびカラオケ演奏を行うための楽曲データを記憶する記憶手段と、
     前記音声データを再生するとともに、前記同期情報に基づいて前記楽曲データを読み出し、自動演奏を行い、
     前記再生した音声データに基づく音声、および前記自動演奏による楽音をミキシングしてミキシングデータを生成する音声データ生成手段と、
     前記音声データ生成手段が生成したミキシングデータを配信する配信手段と、
     を備えたミキシングデータ配信サーバ。
  2.  請求項1に記載のミキシングデータ配信サーバであって、
     前記同期情報には、前記音声データの録音時に演奏していたカラオケ楽曲におけるテンポおよびボリューム情報が記載されているミキシングデータ配信サーバ。
  3.  請求項1または請求項2に記載のミキシングデータ配信サーバであって、
     前記音声データは、複数の音声データからなり、
     前記同期情報には、前記複数の音声データのそれぞれの再生タイミングを示す情報が含まれるミキシングデータ配信サーバ。
  4.  請求項1乃至請求項3のいずれかに記載のミキシングデータ配信サーバであって、
     前記記憶手段は、前記音声データ生成手段が生成したミキシングデータをさらに記憶し、
     前記配信手段は、前記記憶手段から前記ミキシングデータを読み出して配信するミキシングデータ配信サーバ。
  5.  請求項1乃至請求項4のいずれかに記載のミキシングデータ配信サーバであって、
     前記同期情報には、エフェクトパラメータが含まれており、
     前記音声データ生成手段が、前記自動演奏による楽音のミキシングを行う際に、前記エフェクトパラメータの設定を反映させるミキシングデータ配信サーバ。
PCT/JP2011/056395 2010-03-19 2011-03-17 ミキシングデータ配信サーバ WO2011115210A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201180014836.1A CN102822887B (zh) 2010-03-19 2011-03-17 混频数据递送服务器
KR1020127024457A KR101453177B1 (ko) 2010-03-19 2011-03-17 믹싱 데이터 배신 서버

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010063427A JP5544961B2 (ja) 2010-03-19 2010-03-19 サーバ
JP2010-063427 2010-03-19

Publications (1)

Publication Number Publication Date
WO2011115210A1 true WO2011115210A1 (ja) 2011-09-22

Family

ID=44649293

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/056395 WO2011115210A1 (ja) 2010-03-19 2011-03-17 ミキシングデータ配信サーバ

Country Status (4)

Country Link
JP (1) JP5544961B2 (ja)
KR (1) KR101453177B1 (ja)
CN (1) CN102822887B (ja)
WO (1) WO2011115210A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104185867A (zh) * 2012-04-02 2014-12-03 雅马哈株式会社 歌唱支援装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6413828B2 (ja) * 2015-02-20 2018-10-31 ブラザー工業株式会社 情報処理方法、情報処理装置、及びプログラム
CN105095461A (zh) * 2015-07-29 2015-11-25 张阳 家庭唱k排序方法及系统
CN105791937A (zh) * 2016-03-04 2016-07-20 华为技术有限公司 一种音视频处理方法以及相关设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1152966A (ja) * 1997-08-01 1999-02-26 Ricoh Co Ltd 音楽演奏システム
JP2004053736A (ja) * 2002-07-17 2004-02-19 Daiichikosho Co Ltd 通信カラオケシステムの使用方法
JP2005352330A (ja) * 2004-06-14 2005-12-22 Heartful Wing:Kk 音声分割記録装置
JP2006215460A (ja) * 2005-02-07 2006-08-17 Faith Inc カラオケ音声送受信システムおよびその方法
JP2007225934A (ja) * 2006-02-23 2007-09-06 Xing Inc カラオケシステム及びそのホスト装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0129964B1 (ko) * 1994-07-26 1998-04-18 김광호 악기선택 가능한 영상노래반주장치
JP4042601B2 (ja) * 2003-03-25 2008-02-06 ブラザー工業株式会社 録音再生装置
JP2006184684A (ja) * 2004-12-28 2006-07-13 Xing Inc 音楽再生装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1152966A (ja) * 1997-08-01 1999-02-26 Ricoh Co Ltd 音楽演奏システム
JP2004053736A (ja) * 2002-07-17 2004-02-19 Daiichikosho Co Ltd 通信カラオケシステムの使用方法
JP2005352330A (ja) * 2004-06-14 2005-12-22 Heartful Wing:Kk 音声分割記録装置
JP2006215460A (ja) * 2005-02-07 2006-08-17 Faith Inc カラオケ音声送受信システムおよびその方法
JP2007225934A (ja) * 2006-02-23 2007-09-06 Xing Inc カラオケシステム及びそのホスト装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104185867A (zh) * 2012-04-02 2014-12-03 雅马哈株式会社 歌唱支援装置

Also Published As

Publication number Publication date
CN102822887B (zh) 2015-09-16
CN102822887A (zh) 2012-12-12
JP5544961B2 (ja) 2014-07-09
KR101453177B1 (ko) 2014-10-22
KR20120128142A (ko) 2012-11-26
JP2011197344A (ja) 2011-10-06

Similar Documents

Publication Publication Date Title
JP5331494B2 (ja) カラオケサービスシステム、端末装置
JP4423790B2 (ja) 実演システム、ネットワークを介した実演方法
KR0152677B1 (ko) 자동효과기 제어부를 구비하는 노래반주기
JP2004538496A (ja) ネットワーク基盤の音楽演奏/歌の伴奏サービスシステム及びその方法
JP5544961B2 (ja) サーバ
KR100819775B1 (ko) 네트워크 기반의 음악연주/노래반주 서비스 장치, 시스템, 방법 및 기록매체
WO2011111825A1 (ja) カラオケシステム及びカラオケ演奏端末
JP2004233698A (ja) 音楽支援装置、音楽支援サーバ、音楽支援方法およびプログラム
JP4475269B2 (ja) カラオケ装置、カラオケシステム及びライブ曲再生プログラム
JP2008089849A (ja) リモート演奏システム
WO2014142288A1 (ja) 楽曲編集装置および楽曲編集システム
JP2008304821A (ja) 楽曲合奏公開システム
JP4311485B2 (ja) カラオケ装置
JP4169034B2 (ja) カラオケ装置および端末装置
JP7468111B2 (ja) 再生制御方法、制御システムおよびプログラム
JP3900576B2 (ja) 音楽情報再生装置
JP2022114309A (ja) オンラインセッションサーバ装置
JP3551441B2 (ja) カラオケ装置
JP2006154777A (ja) 音楽生成システム
JP6783065B2 (ja) 通信端末装置、サーバ装置及びプログラム
JP6453696B2 (ja) カラオケシステム、プログラム及びカラオケ通信システム
JP2003015657A (ja) カラオケ店で収録したカラオケ歌唱者の歌声をもとに音楽ソフトを編集してインターネット上で公開する音楽工房装置
JP2014048471A (ja) サーバ、音楽再生システム
JP2004191515A (ja) 配信システム、再生機器およびコンテンツ再生方法
JP2008009452A (ja) カラオケシステム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180014836.1

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11756394

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20127024457

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11756394

Country of ref document: EP

Kind code of ref document: A1