[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2008233736A - Karaoke device and program for karaoke information processing - Google Patents

Karaoke device and program for karaoke information processing Download PDF

Info

Publication number
JP2008233736A
JP2008233736A JP2007076101A JP2007076101A JP2008233736A JP 2008233736 A JP2008233736 A JP 2008233736A JP 2007076101 A JP2007076101 A JP 2007076101A JP 2007076101 A JP2007076101 A JP 2007076101A JP 2008233736 A JP2008233736 A JP 2008233736A
Authority
JP
Japan
Prior art keywords
data
singing
song
voice data
karaoke
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007076101A
Other languages
Japanese (ja)
Inventor
Yuichi Hatsumi
祐一 初見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007076101A priority Critical patent/JP2008233736A/en
Publication of JP2008233736A publication Critical patent/JP2008233736A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To assist in improving singing ability by enabling a singer to know accurate pitch, singing timing, etc., by easily recognizing the degree of error of a place that the singer sung at wrong pitch or at wrong singing timing, etc. <P>SOLUTION: A CPU 11 converts a voice signal of the singer input from a microphone along an accompaniment of karaoke music from analog voice data to digital voice data, temporarily stores the data in an area of a RAM 13, and selectively reads model data for the music prestored in the RAM 13 or a ROM 14 or the voice data temporarily stored in the RAM 13 so that a sound source 17 reproduces the data. Then the CPU 11 compares the voice data with the model data, and evaluates and outputs singing ability for the music to a display unit 3. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、カラオケ装置およびカラオケ情報処理のプログラムに関し、特に、曲の演奏に応じて入力された音声信号を評価するカラオケ装置およびカラオケ情報処理のプログラムに関するものである。   The present invention relates to a karaoke apparatus and a karaoke information processing program, and more particularly, to a karaoke apparatus and a karaoke information processing program for evaluating an audio signal input according to the performance of a song.

曲の演奏に応じて入力された音声信号を評価するカラオケ装置については多くの提案がなされている。例えば、ある提案のカラオケ装置における歌唱練習支援システムにおいては、音高を間違って歌った箇所の正確な音を歌唱者に聴かせ、その音と同じになるように、すぐに反復して発声して練習させることができるようになっている。この提案によれば、楽曲の演奏データを処理してカラオケ伴奏音楽を音響出力するとともに、その楽曲の歌詞データを処理して歌詞字幕を映像出力するカラオケ装置において、楽曲演奏中に指定箇所に戻って再演奏する旨の利用者入力を受け付けたとき、指定箇所から再演奏するとともに、この再演奏時には、主旋律の演奏音量を他の演奏音量に対して相対的に大きくするような構成になっている。(特許文献1参照)
特開2004−144867号公報
Many proposals have been made for a karaoke apparatus that evaluates an audio signal input according to the performance of a song. For example, in a singing practice support system in a proposed karaoke device, the singer listens to the exact sound of the part where he sang the pitch incorrectly, and repeats it immediately so that it is the same as the sound. To practice. According to this proposal, in the karaoke device that processes the musical performance data and outputs the karaoke accompaniment music as sound, and processes the lyrics data of the musical piece and outputs the lyrics subtitles, the karaoke device returns to the designated place during the musical performance. When a user input for replaying is accepted, the replay is performed from the specified location, and at the time of this replay, the performance volume of the main melody is set to be relatively larger than the other performance volumes. Yes. (See Patent Document 1)
JP 2004-144867 A

しかしながら、上記特許文献1を含めた従来の技術においては、音高や発声タイミングなどを間違って歌った箇所の正確な音を歌唱者に聴かせて、その箇所をすぐに反復して発声して練習させたとしても、音高や発声タイミングなどがどの程度間違っているかを歌唱者が把握することは極めて困難である。何故ならば、そもそも歌唱者は、曲の伴奏および歌詞表示に意志的に合わせて、正確な音高や発声タイミングだと思って歌っているのであるから、間違って歌った箇所を反復しても、自分の間違いの程度を認識することは困難だからである。
本発明は、このような従来の課題を解決するためのものであり、音高や発声タイミングなどを間違って歌った箇所について、歌唱者がその間違いの程度を容易に認識して、正確な音高や発声タイミングなどを把握することで、歌唱力の向上を支援できるようにすることを目的とする。
However, in the conventional techniques including the above-mentioned Patent Document 1, the singer is made to listen to the exact sound of the place where the singing is mistaken in the pitch or the utterance timing, and the part is immediately repeated and uttered. Even if it is practiced, it is extremely difficult for the singer to grasp how wrong the pitch or utterance timing is. The reason is that the singer sings with the correct pitch and utterance timing in accordance with the song accompaniment and the lyrics display. Because it is difficult to recognize the level of mistakes.
The present invention is for solving such a conventional problem, and a singer easily recognizes the level of mistakes in a place where the singing is mistaken in pitch or utterance timing, so that accurate sound can be obtained. The purpose is to be able to support the improvement of singing ability by grasping the height and utterance timing.

請求項1に記載のカラオケ装置は、所定の記憶手段から曲の伴奏データ及び当該曲を歌唱した模範音声データを順次読み出す読み出し手段と、前記伴奏データの読み出しに応じて歌唱された歌唱音声データを所定の音声入力手段により入力して前記記憶手段に記憶させる記憶制御手段と、この音声入力手段により入力された歌唱音声データと前記読み出された模範音声データとを比較して、前記曲に対する当該歌唱音声信号の歌唱力を評価して当該評価結果を出力する歌唱評価手段と、この歌唱評価手段による評価結果の出力の後に、前記記憶手段に記憶された歌唱音声データ及び模範音声データを交互に読み出して出力する読み出し制御手段と、を備えたことを特徴とする。   The karaoke apparatus according to claim 1 includes a reading unit that sequentially reads out accompaniment data of a song and model voice data singing the song from predetermined storage unit, and singing voice data that is sung in response to the reading of the accompaniment data. The storage control means that is inputted by a predetermined voice input means and is stored in the storage means, the singing voice data inputted by the voice input means is compared with the read model voice data, and Singing evaluation means for evaluating the singing power of the singing voice signal and outputting the evaluation result, and after outputting the evaluation result by the singing evaluation means, the singing voice data and the model voice data stored in the storage means are alternately And a read control means for reading and outputting.

請求項1のカラオケ装置において、請求項2に記載したように、前記曲は複数の区間に分割され、前記読み出し制御手段は、前記曲の指定された区間に対応する歌唱音声データと模範音声データとを交互に読み出して出力することを特徴とする。   2. The karaoke apparatus according to claim 1, wherein, as described in claim 2, the song is divided into a plurality of sections, and the reading control means includes singing voice data and model voice data corresponding to a designated section of the song. Are alternately read and output.

請求項2のカラオケ装置において、請求項3に記載したように、前記歌唱評価手段によって出力される評価結果を表示する表示手段をさらに備えたことを特徴とする。   3. The karaoke apparatus according to claim 2, further comprising display means for displaying an evaluation result output by the singing evaluation means as described in claim 3.

請求項1のカラオケ装置において、請求項4に記載したように、前記歌唱評価手段は、前記歌唱音声信号および前記模範音声信号の音高および発声タイミングをそれぞれ比較して評価結果を出力することを特徴とする。   In the karaoke apparatus of claim 1, as described in claim 4, the singing evaluation means compares the pitch and utterance timing of the singing voice signal and the exemplary voice signal, respectively, and outputs an evaluation result. Features.

請求項5に記載のカラオケ情報処理のプログラムは、所定の記憶手段から曲の伴奏データ及び当該曲を歌唱した模範音声データを順次読み出すステップと、
前記伴奏データの読み出しに応じて歌唱された歌唱音声データを所定の音声入力手段により入力して前記記憶手段に記憶させるステップと、
この音声入力手段により入力された歌唱音声データと前記読み出された模範音声データとを比較して、前記曲に対する当該歌唱音声信号の歌唱力を評価して当該評価結果を出力するステップと、
この評価結果の出力の後に、前記記憶手段に記憶された歌唱音声データ及び模範音声データを交互に読み出して出力するステップと、
をコンピュータに実行させることを特徴とする。
The program for karaoke information processing according to claim 5 sequentially reads out accompaniment data of a song and model voice data singing the song from predetermined storage means;
Singing voice data sung in response to reading of the accompaniment data is input by a predetermined voice input means and stored in the storage means;
Comparing the singing voice data input by the voice input means with the read exemplary voice data, evaluating the singing power of the singing voice signal for the song, and outputting the evaluation result;
After the output of the evaluation result, the step of alternately reading out and outputting the singing voice data and the model voice data stored in the storage unit;
Is executed by a computer.

本発明のカラオケ装置およびカラオケ情報処理のプログラムによれば、音高や発声タイミングなどを間違って歌った箇所について、歌唱者がその間違いの程度を容易に認識して、正確な音高や発声タイミングなどを把握することで、歌唱力の向上を支援できるという効果が得られる。   According to the karaoke apparatus and the karaoke information processing program of the present invention, the singer easily recognizes the degree of the mistake about the part where the pitch or the utterance timing is wrongly sung, and the accurate pitch or utterance timing. By grasping, etc., the effect of improving the singing ability can be obtained.

以下、本発明によるカラオケ装置の実施形態について、図を参照して説明する。
図1は、実施形態におけるカラオケシステムのリモコン装置1の外観図である。図1に示すように、リモコン装置1にはスイッチ部2および液晶表示器であるLCD表示部3が設けられている。スイッチ部2には、電源スイッチの他にカラオケ演奏に必要な各種のスイッチ、例えば、曲を検索するための曲名スイッチ2a、演奏の開始をするためのスタートスイッチ2b、LCD表示部3のアイコンなどを選択および決定するためのカーソルスイッチ2c、文字、数字、記号を入力するいわゆるテンキースイッチ2d、曲の区間を指定するための区間指定スイッチ2e(詳細は後述)、現在の状態から前の状態に戻るための戻るスイッチ2f、演奏を中止する中止スイッチ2g、音量を設定するスイッチ、テンポを設定するスイッチ、キーを設定するスイッチなどが設けられている。LCD表示部3は、カラオケ演奏に関する曲名、歌詞、その他を表示する。詳細な表示内容については後述する。
Hereinafter, an embodiment of a karaoke apparatus according to the present invention will be described with reference to the drawings.
FIG. 1 is an external view of a remote control device 1 of a karaoke system in the embodiment. As shown in FIG. 1, the remote control device 1 is provided with a switch unit 2 and an LCD display unit 3 which is a liquid crystal display. The switch unit 2 includes various switches necessary for karaoke performance in addition to the power switch, such as a song name switch 2a for searching for a song, a start switch 2b for starting performance, an icon of the LCD display unit 3, and the like. A cursor switch 2c for selecting and determining a character, a so-called numeric keypad switch 2d for inputting characters, numbers and symbols, a section specifying switch 2e for specifying a section of a song (details will be described later), from the current state to the previous state A return switch 2f for returning, a stop switch 2g for stopping performance, a switch for setting a volume, a switch for setting a tempo, a switch for setting a key, and the like are provided. The LCD display unit 3 displays a song name, lyrics, and others related to karaoke performance. Detailed display contents will be described later.

図2は、実施形態におけるカラオケシステムの構成を示すブロック図である。このカラオケシステムは、図1のリモコン装置1と、テレビ受像機などの大型のモニタ装置やスピーカを備えたサウンドシステムとを組み合わせた構成になっている。リモコン装置1とモニタ装置およびサウンドシステムは赤外線通信、FM電波通信、ブルートゥース(登録商標)通信などの近距離無線通信によってデータおよびコマンドを送受信するようになっている。すなわち、リモコン装置1のLCD表示部3に表示される画像は、同時にモニタ装置にも表示される。ただし、ここでは説明を簡単にするために、LCD表示部3を代表してカラオケシステムの表示手段とする。   FIG. 2 is a block diagram showing a configuration of the karaoke system in the embodiment. This karaoke system is configured by combining the remote control device 1 of FIG. 1 with a large monitor device such as a television receiver and a sound system having a speaker. The remote control device 1, the monitor device, and the sound system transmit and receive data and commands by short-range wireless communication such as infrared communication, FM radio wave communication, and Bluetooth (registered trademark) communication. That is, the image displayed on the LCD display unit 3 of the remote control device 1 is simultaneously displayed on the monitor device. However, here, in order to simplify the description, the LCD display unit 3 is representatively used as the display means of the karaoke system.

図2において、CPU11は、システムバス12を介して、図1に示したスイッチ部2、表示部3のほかに、ワークメモリであるRAM13、プログラムメモリであるROM14、ビデオ処理部15、オーディオ処理部16、音源部17、マイクアンプ18、およびネットワークインターフェース19に接続されており、これら各部との間でデータおよびコマンドを授受しながら、このカラオケシステム全体を制御する。   2, in addition to the switch unit 2 and the display unit 3 shown in FIG. 16, the sound source unit 17, the microphone amplifier 18, and the network interface 19 are connected, and the entire karaoke system is controlled while exchanging data and commands with these units.

ROM14は、CPU11によって実行されるカラオケ情報処理のプログラムやその他の制御プログラム、および初期データの他、曲名のデータ、並びに各曲に対応する伴奏曲データおよび歌詞データ、音声合成による模範データ、および背景画面のデータを記憶している。RAM13は、CPU11によって処理されるデータを一時的に記憶する。ビデオ処理部15は、CPU11の指示に応じて、検索された歌手名、曲名、歌詞データ、背景画面のデータを合成して表示部3に送出する。マイクアンプ18は、マイク(図示せず)から入力される歌唱者の音声信号を増幅する。オーディオ処理部16は、マイクアンプ18から入力される音声信号をアナログからデジタルに変換する。RAM13は、デジタルに変換された歌唱者の音声データを一時的に記憶するとともに、CPU11によって実行されるカラオケ情報処理に必要な各種のレジスタやフラグを有する。音源部17は、上記のサウンドシステムに相当し、CPU11の指示に応じて、伴奏曲データと模範の音声データ又はRAM13の音声データをデジタルからアナログに変換し、フィルタ処理や増幅処理などを施してスピーカから発音する。ネットワークインターフェース19は、インターネットなどのネットワークから、例えば、MIDI形式の曲データを受信する。   The ROM 14 is a karaoke information processing program executed by the CPU 11 and other control programs, initial data, song name data, accompaniment song data and lyrics data corresponding to each song, model data by speech synthesis, and background. Stores screen data. The RAM 13 temporarily stores data processed by the CPU 11. In response to an instruction from the CPU 11, the video processing unit 15 combines the searched singer name, song name, lyric data, and background screen data and sends the synthesized data to the display unit 3. The microphone amplifier 18 amplifies the voice signal of the singer input from a microphone (not shown). The audio processing unit 16 converts the audio signal input from the microphone amplifier 18 from analog to digital. The RAM 13 temporarily stores the voice data of the singer converted to digital and has various registers and flags necessary for karaoke information processing executed by the CPU 11. The sound source unit 17 corresponds to the sound system described above, and converts accompaniment music data and model audio data or audio data in the RAM 13 from digital to analog in accordance with instructions from the CPU 11, and performs filter processing, amplification processing, and the like. Pronunciation from the speaker. The network interface 19 receives, for example, MIDI format music data from a network such as the Internet.

なお、図には示していないが、マイクより入力されてマイクアンプ18で増幅されたアナログの音声信号は、直接スピーカから発音される。すなわち、歌唱者の音声信号は、デジタルの音声データとして録音されると同時に、読み出された伴奏データに応じた楽音信号とともにスピーカから発音される。大型のモニタ装置としてテレビ受像機を利用する場合には、アナログの音声信号および楽音信号は、無線信号で変調されて送信する構成も可能である。   Although not shown in the figure, an analog audio signal input from a microphone and amplified by the microphone amplifier 18 is directly emitted from a speaker. That is, the voice signal of the singer is recorded as digital voice data, and at the same time, the singer's voice signal is sounded from the speaker together with the musical tone signal corresponding to the read accompaniment data. When a television receiver is used as a large monitor device, an analog audio signal and musical sound signal may be modulated with a radio signal and transmitted.

図3乃至図10は、表示部3に表示されるカラオケの上達支援モードの画面を示す図である。図3は上達支援モードの初期画面、図4はカラオケ演奏中のリアルタイムの評価画面、図5は曲が終了したときの全体の評価画面、図6乃至図10の画面については後述する。
図11および図12は、ROM14に記憶されているカラオケの曲データ、あるいは、ネットワークインターフェース19を介してインターネットなどのネットワークから受信してRAM13に記憶された曲データのフォーマットを示す図である。図11において、複数の曲(0)〜曲(N)の各々は、伴奏データおよび模範データで構成されている。各曲の伴奏データは、複数の区間(0)〜区間(M)に区分されており、各区間には歌詞データ、タイムデータ、および伴奏のイベントデータがアドレスに従って記憶されている。また、各曲の模範データは、図12に示すように、タイムデータおよび音声合成による歌唱のイベントデータがアドレスに従って記憶されている。なお、この模範データは、音声合成による歌唱データに限定されず、例えば、プロの歌手が歌った音声をPCM録音した歌唱データで構成してもよい。
3 to 10 are diagrams showing screens in the karaoke progress support mode displayed on the display unit 3. 3 is an initial screen in the progress support mode, FIG. 4 is a real-time evaluation screen during karaoke performance, FIG. 5 is an overall evaluation screen when the song is finished, and FIGS. 6 to 10 will be described later.
11 and 12 are diagrams showing the format of karaoke song data stored in the ROM 14 or song data received from a network such as the Internet via the network interface 19 and stored in the RAM 13. In FIG. 11, each of a plurality of songs (0) to songs (N) is composed of accompaniment data and model data. The accompaniment data of each song is divided into a plurality of sections (0) to (M), and lyrics data, time data, and accompaniment event data are stored according to addresses in each section. As shown in FIG. 12, the model data of each song stores time data and singing event data by voice synthesis according to addresses. In addition, this model data is not limited to the singing data by voice synthesis, and may be constituted by, for example, singing data obtained by PCM recording the voice sung by a professional singer.

図13乃至図21は、CPU11によって実行されるカラオケ情報処理のメインルーチンのフローチャートであり、図22および図23は、一定時間ごとにタイマ(図示せず)から入力される割り込みに応じて実行されるタイマインタラプト1およびタイマインタラプト2のフローチャートである。これらのフローチャートおよび図3乃至図10のカラオケの画面、図11および図12の曲データに基づいて、実施形態におけるカラオケ情報処理の動作について説明する。   FIGS. 13 to 21 are flowcharts of a main routine of karaoke information processing executed by the CPU 11. FIGS. 22 and 23 are executed in response to an interrupt input from a timer (not shown) at regular intervals. 5 is a flowchart of timer interrupt 1 and timer interrupt 2. The operation of karaoke information processing in the embodiment will be described based on these flowcharts, the karaoke screens of FIGS. 3 to 10, and the song data of FIGS. 11 and 12.

図13において、RAM13の音声データのエリア、レジスタ、フラグなどの初期化、タイマインタラプト1およびタイマインタラプト2を禁止するイニシャライズを行って(ステップSA1)、曲選択画面(図示せず)を表示する(ステップSA2)。この曲選択画面においては、「曲名又は歌手名を入力して下さい」などのメッセージを表示して、図1のリモコン装置1における曲名スイッチ2a又は歌手名スイッチの操作をユーザに対して促す。ユーザのスイッチ操作に応じて、1つ又は複数の曲名を表示する。曲名が複数の場合には、カーソルスイッチ2c又はテンキースイッチ2dの操作をユーザに対して促すようなメッセージを表示する。ユーザのスイッチ操作によって1つの曲名が選択されると、曲選択処理を行って(ステップSA3)、曲選択番号をレジスタnにセットする(ステップSA4)。すなわち、ROM14又はRAM13に記憶されている曲の中から、レジスタnの番号に対応する曲(n)を検索して指定する。   In FIG. 13, initialization of the audio data area, register, flag, etc. in RAM 13, initialization for prohibiting timer interrupt 1 and timer interrupt 2 is performed (step SA1), and a song selection screen (not shown) is displayed (step S1). Step SA2). On this song selection screen, a message such as “Please input the song name or singer name” is displayed to prompt the user to operate the song name switch 2a or singer name switch in the remote control device 1 of FIG. One or more music titles are displayed according to the user's switch operation. If there are a plurality of song titles, a message prompting the user to operate the cursor switch 2c or the numeric keypad switch 2d is displayed. When one song name is selected by the user's switch operation, song selection processing is performed (step SA3), and the song selection number is set in the register n (step SA4). That is, the music (n) corresponding to the number of the register n is retrieved from the music stored in the ROM 14 or RAM 13 and designated.

次に、スタートスイッチ2bがオンされたか否かを判別する(ステップSA5)。スタートスイッチ2bはモメンタリスイッチであり、このスイッチがオンされたときは、伴奏データ用のフラグSTF1および模範データ用のフラグSTF2を「1」にセットする(ステップSA6)。さらに、伴奏データの区間を指定するレジスタKUKAN1を「0(最初の区間)」にセットし、模範データの区間を指定するレジスタKUKAN2を「0(最初の区間)」にセットする(ステップSA7)。次に、背景画面を表示し(ステップSA8)、曲(n)の伴奏データでKUKAN1(0)の先頭位置のアドレスを指定する(ステップSA9)。   Next, it is determined whether or not the start switch 2b is turned on (step SA5). The start switch 2b is a momentary switch. When this switch is turned on, the accompaniment data flag STF1 and the model data flag STF2 are set to "1" (step SA6). Further, register KUKAN1 for designating the accompaniment data section is set to “0 (first section)”, and register KUKAN2 for designating the model data section is set to “0 (first section)” (step SA7). Next, a background screen is displayed (step SA8), and the address of the head position of KUKAN1 (0) is designated by the accompaniment data of the song (n) (step SA9).

次に、図14のフローチャートに移行して、KUKAN1(0)の先頭位置のアドレスから読み出された歌詞データを背景画面に重畳して、図3に示すように表示する(ステップSA10)。この後、アドレスをインクリメントして次のデータを読み出し(ステップSA11)、読み出されたタイムデータをレジスタT1にストアする(ステップSA12)。さらに、曲(n)の模範データでKUKAN2(0)の先頭位置のアドレスを指定し(ステップSA13)、そのアドレスから読み出されたタイムデータをレジスタT2にストアする(ステップSA14)。そして、タイマインタラプト1の禁止を解除する(ステップSA15)。なお、カラオケの曲のほとんどは、いきなり歌が始まることはなく、最初に伴奏のイントロ部分があるので、模範データの最初のタイムデータは、少なくともこのイントロ部分の時間長を含むタイムデータになっている。すなわち、伴奏データのタイムと模範データのタイムとは、互いに独立しているので、2種類のレジスタT1、T2によってデータ読み出しの時間を管理する。   Next, the process proceeds to the flowchart of FIG. 14, and the lyric data read from the address of the head position of KUKAN1 (0) is superimposed on the background screen and displayed as shown in FIG. 3 (step SA10). Thereafter, the address is incremented to read the next data (step SA11), and the read time data is stored in the register T1 (step SA12). Further, the address of the head position of KUKAN2 (0) is specified by the model data of the music piece (n) (step SA13), and the time data read from the address is stored in the register T2 (step SA14). Then, the prohibition of the timer interrupt 1 is canceled (step SA15). Most of the karaoke songs do not start suddenly, and there is an intro part of the accompaniment first, so the first time data of the model data is time data including at least the length of this intro part. Yes. That is, the accompaniment data time and the model data time are independent of each other, and therefore, the data read time is managed by the two types of registers T1 and T2.

タイマインタラプト1の禁止を解除することにより、一定時間が経過するたびに、図22のタイマインタラプト1を実行する。すなわち、T2のタイムデータの値をデクリメントし(ステップSB1)、T1のタイムデータの値をデクリメントする(ステップSB2)。また、発声タイミングをガイドするために、表示部3の画面における歌詞表示の色替え処理を行う(ステップSB3)。さらに、マイクより入力されて、マイクアンプ18で増幅され、オーディオ処理部16によってアナログからデジタルに変換された音声データを取り込み(ステップSB4)、その音声データのピッチ(音高)および音量を検出して(ステップSB5)、KUKAN1の区間番号とともに音声データをRAM13のエリアにストアする(ステップSB6)。この場合において、RAM13のアドレスを一定時間ごとにインクリメントしながら音声データをストアする。ステップSB6の後は、メインルーチンに戻る。   By canceling the prohibition of the timer interrupt 1, the timer interrupt 1 shown in FIG. 22 is executed every time a predetermined time elapses. That is, the value of the time data of T2 is decremented (step SB1), and the value of the time data of T1 is decremented (step SB2). Further, in order to guide the utterance timing, a color change process for displaying lyrics on the screen of the display unit 3 is performed (step SB3). Furthermore, the audio data input from the microphone, amplified by the microphone amplifier 18 and converted from analog to digital by the audio processing unit 16 is captured (step SB4), and the pitch (pitch) and volume of the audio data are detected. (Step SB5), the voice data is stored in the area of the RAM 13 together with the section number of KUKAN1 (step SB6). In this case, the audio data is stored while the address of the RAM 13 is incremented at regular intervals. After step SB6, the process returns to the main routine.

図15のフローチャートにおいて、STFが「1(伴奏演奏中)」であるか否かを判別する(ステップSA16)。STF1は図13のステップSA6において「1」にセットされているので、T1の値が「0」に達したか否かを判別する(ステップSA17)。T1の値が「0」に達したときは、アドレスをインクリメントして次のデータを読み出す(ステップSA18)。そして、指定された区間の伴奏データが終了したか否かを判別し(ステップSA19)、区間の伴奏データが終了していない場合には、読み出したデータがイベントであるかタイムであるかを判別する(ステップSA20)。読み出したデータがイベントである場合には音源部17に送付し(ステップSA21)、一方、読み出したデータがタイムである場合にはレジスタT1にストアする(ステップSA22)。   In the flowchart of FIG. 15, it is determined whether or not the STF is “1 (accompaniment performance)” (step SA16). Since STF1 is set to “1” in step SA6 in FIG. 13, it is determined whether or not the value of T1 has reached “0” (step SA17). When the value of T1 reaches “0”, the address is incremented and the next data is read (step SA18). Then, it is determined whether or not the accompaniment data of the designated section has ended (step SA19). If the accompaniment data of the section has not ended, it is determined whether the read data is an event or a time. (Step SA20). If the read data is an event, it is sent to the sound source unit 17 (step SA21). On the other hand, if the read data is time, it is stored in the register T1 (step SA22).

読み出したイベントデータを音源部17に送付した後は、アドレスをインクリメントしてステップSA18に移行し、次のデータの読み出しを行う。一方、読み出したタイムデータをT1にストアした後は、図13のステップSA5に移行してスタートスイッチがオンされたか否かを判別する。スタートスイッチがオンされない場合には、再び図15のフローチャートに移行して、T1の値が「0」に達したときは、アドレスをインクリメントして次のデータを読み出す。したがって、スタートスイッチがオンされず、且つ、指定された区間のデータが終了しない限り、ステップSA5、ステップSA18乃至ステップSA20、ステップSA21又はステップSA22のループを繰り返し実行して、指定された区間の伴奏データを音源部17に送付してスピーカから発音させる。   After the read event data is sent to the sound source unit 17, the address is incremented and the process proceeds to step SA18 to read the next data. On the other hand, after the read time data is stored in T1, the process proceeds to step SA5 in FIG. 13 to determine whether or not the start switch is turned on. When the start switch is not turned on, the process proceeds to the flowchart of FIG. 15 again, and when the value of T1 reaches “0”, the address is incremented and the next data is read. Therefore, as long as the start switch is not turned on and the data in the designated section is not completed, the loop of step SA5, step SA18 to step SA20, step SA21 or step SA22 is repeatedly executed to accompany the designated section. The data is sent to the sound source unit 17 to generate sound from the speaker.

図15のステップSA19において、現在指定されている区間のデータが終了したときは、レジスタKUKAN1の値をインクリメントして次の区間を指定する(ステップSA23)。このとき、インクリメントしたKUKAN1の値が最終の区間の値Mより大きくなったか否か、すなわち、その区間の伴奏の楽音が終了したか否かを判別する(ステップSA24)。KUKAN1の値が最終の区間の値M以内である場合には、曲(n)の模範データで新たなKUKAN1の先頭位置のアドレスを指定し(ステップSA25)、そのアドレスから読み出された歌詞データで表示画面を書き換える(ステップSA26)。この後は、スタートスイッチがオンされず、且つ、指定された区間のデータが終了しない限り、ステップSA5、ステップSA18乃至ステップSA20、ステップSA21又はステップSA22のループを繰り返し実行して、指定された区間の伴奏データを音源部17に送付してスピーカから発音させる。   In step SA19 in FIG. 15, when the data of the currently designated section is completed, the value of the register KUKAN1 is incremented to designate the next section (step SA23). At this time, it is determined whether or not the incremented KUKAN1 value has become larger than the value M of the last section, that is, whether or not the musical sound of the accompaniment in that section has ended (step SA24). If the value of KUKAN1 is within the value M of the last section, the address of the new KUKAN1 head position is specified by the model data of the song (n) (step SA25), and the lyrics data read from that address To rewrite the display screen (step SA26). After this, unless the start switch is turned on and the data of the designated section is not completed, the loop of step SA5, step SA18 to step SA20, step SA21 or step SA22 is repeatedly executed to designate the designated section. The accompaniment data is sent to the sound source unit 17 to generate sound from the speaker.

図15のステップSA17において、T1の値が「0」に達していない場合には、図16のフローチャートに移行して、STF2が「1(歌唱中)」であるか否かを判別し(ステップSA28)、STF2は図13のステップSA6において「1」にセットされているので、レジスタT2の値が「0」に達したか否かを判別する(ステップSA29)。T2の値が「0」に達したときは、模範データのアドレスをインクリメントして、次のデータを読み出す(ステップSA30)。   If the value of T1 has not reached “0” in step SA17 in FIG. 15, the process proceeds to the flowchart in FIG. 16 to determine whether STF2 is “1 (singing)” (step S17). SA28), since STF2 is set to “1” in step SA6 of FIG. 13, it is determined whether or not the value of register T2 has reached “0” (step SA29). When the value of T2 reaches “0”, the address of the model data is incremented and the next data is read (step SA30).

ステップSA30においてアドレスをインクリメントして次のデータを読み出したときは、現在指定している区間のデータが終了したか否かを判別する(ステップSA31)。その区間のデータが終了していない場合には、読み出したデータがイベントすなわち模範データのイベントであるか、又はタイムデータであるかを判別する(ステップSA32)。読み出したデータがイベントの場合には、その模範データのイベントのピッチと音量を抽出する(ステップSA33)。次に、図22のタイマインタラプト1のステップSB4においてマイクから取り込まれ、ステップSB5において検出され、ステップSB6においてRAM13にストアされた音声のピッチと音量の比較処理を行う(ステップSA34)。   When the address is incremented and the next data is read out in step SA30, it is determined whether or not the data in the currently designated section has been completed (step SA31). If the data in the section has not ended, it is determined whether the read data is an event, that is, an example data event or time data (step SA32). If the read data is an event, the pitch and volume of the event of the model data are extracted (step SA33). Next, a comparison process is performed between the pitch and volume of the audio captured from the microphone in step SB4 of the timer interrupt 1 in FIG. 22, detected in step SB5, and stored in the RAM 13 in step SB6 (step SA34).

次に、模範データのピッチおよび音量とマイクから取り込まれた音声のピッチおよび音量とを比較した結果、ピッチおよび音量のずれが所定値を超えているか否かを判別する(ステップSA35)。ずれが所定値を超えている場合には、図4に示すように、画面に警告表示(NG)を行い(ステップSA36)、ずれが所定値以下の場合には警告表示(表示されている場合には)を消灯する(ステップSA37)。警告表示又は警告表示の消灯の後は、音量およびピッチのずれをKUKAN1の値とともに、RAM13のエリアにストアする(ステップSA38)。この後は、ステップSA30に移行して次のデータの読み出しを行う。   Next, as a result of comparing the pitch and volume of the model data with the pitch and volume of the sound taken in from the microphone, it is determined whether or not the deviation of the pitch and volume exceeds a predetermined value (step SA35). If the deviation exceeds a predetermined value, a warning display (NG) is displayed on the screen as shown in FIG. 4 (step SA36), and if the deviation is less than the predetermined value, a warning display (if displayed) Is turned off (step SA37). After the warning display or the warning display is turned off, the volume and pitch deviation are stored in the area of the RAM 13 together with the value of KUKAN1 (step SA38). Thereafter, the process proceeds to step SA30 to read the next data.

読み出したデータが、ステップSA32においてタイムであると判別したときは、レジスタT2にタイムデータをストアする(ステップSA39)。次に、図13のステップSA5に移行して、スタートスイッチ2bがオンされたか否かを判別するが、このスイッチがオンされない場合には、図15のフローチャートに移行して、ステップSA17においてT1の値が「0」に達していない場合には、図16のフローチャートに移行して、STF2が「1」であると判別する。したがって、図22のタイマインタラプト1の処理により、図16のステップSA29においてT2の値が「0」に達したか否かを判別する。   When the read data is determined to be time in step SA32, the time data is stored in the register T2 (step SA39). Next, the process proceeds to step SA5 in FIG. 13 to determine whether or not the start switch 2b is turned on. If this switch is not turned on, the process proceeds to the flowchart in FIG. When the value does not reach “0”, the process proceeds to the flowchart of FIG. 16 and it is determined that the STF 2 is “1”. Therefore, it is determined whether or not the value of T2 has reached “0” in step SA29 of FIG. 16 by the processing of timer interrupt 1 of FIG.

T2の値が「0」に達したときは、ステップSA30において次のイベントデータを読み出して、現在指定されている区間のデータが終了でない限り、ステップSA32乃至ステップSA38の処理を繰り返す。読み出したデータがタイムの場合には、図13のステップSA5、図15のステップSA16、図15のステップSA28、ステップSA29へと順に移行して、T2の値が「0」に達したときは、読み出したイベントデータに基づいて、ステップSA32乃至ステップSA38の処理を繰り返しながら、マイクから取り込まれる音声データと模範データのピッチおよび音量のずれをリアルタイムで表示し、音声データのピッチおよび音量RAM13にストアする。   When the value of T2 reaches “0”, the next event data is read out in step SA30, and the processes in steps SA32 to SA38 are repeated unless the data in the currently specified section is completed. When the read data is time, the process proceeds to step SA5 in FIG. 13, step SA16 in FIG. 15, step SA28 in FIG. 15, and step SA29 in order, and when the value of T2 reaches “0”, Based on the read event data, while repeating the processing of step SA32 to step SA38, the pitch and volume deviation between the voice data and the model data captured from the microphone is displayed in real time and stored in the pitch and volume RAM 13 of the voice data. .

図16のステップSA31において、現在指定されている区間のデータが終了したときは、KUKAN2の値をインクリメントして次の区間を指定する(ステップSA40)。このとき、インクリメントしたKUKAN2の値が最後の区間の値Mを超えているか否かを判別する(ステップSA41)。KUKAN2の値がMを超えていない場合には、曲(n)の模範データで新たなKUKAN2の先頭位置のアドレスを指定して(ステップSA42)、ステップSA32において、そのアドレスのデータを判別する。KUKAN2の先頭位置のデータはイベントであるので、ステップSA33乃至ステップSA38の処理を繰り返す。   In step SA31 of FIG. 16, when the data of the currently designated section is completed, the value of KUKAN2 is incremented to designate the next section (step SA40). At this time, it is determined whether or not the incremented KUKAN2 value exceeds the value M of the last section (step SA41). If the value of KUKAN2 does not exceed M, the address of the start position of the new KUKAN2 is designated by the model data of the song (n) (step SA42), and the data at that address is discriminated in step SA32. Since the data at the head position of KUKAN2 is an event, the processing from step SA33 to step SA38 is repeated.

図16のステップSA41において、KUKAN1の値が最終の区間の値Mより大きくなった場合、すなわち、曲の歌詞の部分が終了した場合には、STF2に「2(歌詞終了)」をセットする(ステップSA43)。そして、図13のステップSA5に移行して、スタートスイッチ2bがオンされたか否かを判別する。スタートスイッチ2bがオンされない場合には、図15のフローチャートに移行して、ステップSA17においてT1が「0」に達したか否かを判別し、T1が「0」に達したときは、上記した図15の処理を繰り返す。T1が「0」に達していない場合には、図16のフローチャートに移行して、ステップSA29においてT2が「0」に達したか否かを判別し、T2が「0」に達したときは、上記した図16の処理を繰り返す。   In step SA41 in FIG. 16, when the value of KUKAN1 becomes larger than the value M of the last section, that is, when the lyric portion of the song ends, “2 (end of lyric)” is set in STF2 ( Step SA43). Then, the process proceeds to step SA5 in FIG. 13 to determine whether or not the start switch 2b is turned on. If the start switch 2b is not turned on, the process proceeds to the flowchart of FIG. 15 to determine whether or not T1 has reached “0” in step SA17. The process of FIG. 15 is repeated. If T1 does not reach “0”, the process proceeds to the flowchart of FIG. 16 to determine whether or not T2 has reached “0” in step SA29, and when T2 reaches “0”. The above-described processing of FIG. 16 is repeated.

図15のステップSA24において、KUKAN1の値が最終の区間の値Mより大きくなった場合、すなわち、曲の歌詞が終了し、且つ、伴奏のエンディング部分を含めて曲の伴奏が終了した場合には、STF1に「2(曲終了)」をセットする(ステップSA27)。そして、図13のステップSA5に移行して、スタートスイッチ2bがオンされたか否かを判別する。このスタートスイッチ2bがオンされたときは、終了した同じ曲の演奏を再び開始するが、スタートスイッチ2bがオンされない場合には、図15のフローチャートに移行する。そして、ステップSA16においてSTF1が「1」でなく「2」の場合、又は、ステップSA17においてT1が「0」に達していない場合には、図16のフローチャートに移行する。そして、ステップSA28においてSTF2が「1」でなく「2」の場合、又は、ステップSA29においてT2が「0」に達していない場合には、図17のフローチャートに移行する。   In step SA24 of FIG. 15, when the value of KUKAN1 is larger than the value M of the last section, that is, when the lyrics of the song are finished and the accompaniment of the song including the ending part of the accompaniment is finished. , “2 (end of music)” is set in STF1 (step SA27). Then, the process proceeds to step SA5 in FIG. 13 to determine whether or not the start switch 2b is turned on. When the start switch 2b is turned on, the performance of the same finished music is started again, but when the start switch 2b is not turned on, the process proceeds to the flowchart of FIG. If STF1 is “2” instead of “1” in step SA16, or if T1 has not reached “0” in step SA17, the process proceeds to the flowchart of FIG. If STF2 is “2” instead of “1” in step SA28, or if T2 has not reached “0” in step SA29, the process proceeds to the flowchart of FIG.

図17において、STF1およびSTF2が共に「2」であるか否かを判別する(ステップSA44)。いずれか一方が「1」の場合には、図14のフローチャートに移行して上記した処理を繰り返すが、STF1およびSTF2が共に「2」である場合、すなわち、曲が終了している場合には、タイマインタラプト1を禁止する(ステップSA45)。次に、RAM13にストアされた音声データの音量およびピッチと、模範データの音量およびピッチとのずれに基づき評価画面を作成し(ステップSA46)。その評価画面を表示する(ステップSA47)。   In FIG. 17, it is determined whether or not both STF1 and STF2 are “2” (step SA44). If either one is “1”, the process proceeds to the flowchart of FIG. 14 and the above-described processing is repeated. However, when both STF1 and STF2 are “2”, that is, when the music is finished. The timer interrupt 1 is prohibited (step SA45). Next, an evaluation screen is created based on the difference between the volume and pitch of the audio data stored in the RAM 13 and the volume and pitch of the model data (step SA46). The evaluation screen is displayed (step SA47).

図5および図1の表示部2に評価画面の一例を示す。評価対象のパラメータとしては、RAM13にストアしたピッチ(P)、音量(V)のずれの他に、発音タイミング(T)のずれがある。評価画面には、総合の評価だけでなく、各区間における評価も表示される。また、評価画面には「手本」および「特訓」のアイコンが表示される。カーソルスイッチ2cによって「手本」のアイコンが選択された場合には、図6に示すように、模範の歌と歌唱者の歌を聞き比べるために、区間聞き比べの画面が表示され、区間の指定を促すメッセージが表示される。なお、図5に示すように、間違った区間(0、1、2)だけを画面に表示してもよいし、図1に示すように、すべての区間(0、1、2…M)を画面に表示して、間違った区間(0、1、2)にNGマークを表示してもよい。   An example of the evaluation screen is shown on the display unit 2 in FIGS. As parameters to be evaluated, there is a shift in sound generation timing (T) in addition to a shift in pitch (P) and volume (V) stored in the RAM 13. The evaluation screen displays not only the overall evaluation but also the evaluation in each section. In addition, icons of “example” and “special training” are displayed on the evaluation screen. When the “example” icon is selected by the cursor switch 2c, as shown in FIG. 6, in order to hear and compare the model song and the song of the singer, a section comparison screen is displayed. A message prompting you to specify is displayed. As shown in FIG. 5, only the wrong section (0, 1, 2) may be displayed on the screen, or all sections (0, 1, 2,... M) are displayed as shown in FIG. It may be displayed on the screen and an NG mark may be displayed in the wrong section (0, 1, 2).

区間の指定を促すメッセージが表示された場合には、区間指定スイッチ2eおよびテンキースイッチ2d又はカーソルスイッチ2cのオン操作によって区間が指定されたか否かを判別する(ステップSA48)。区間指定スイッチ2e等のオン操作がされない場合には、戻るスイッチ2fがオンされたか否かを判別し(ステップSA49)、このスイッチがオンされたときは、RAM13にストアされている音声データの音量、ピッチのデータをクリアして(ステップSA50)、図13のステップSA2に移行して、曲選択画面を表示する。   If a message prompting the designation of a section is displayed, it is determined whether or not a section has been designated by turning on the section designation switch 2e and the numeric keypad switch 2d or the cursor switch 2c (step SA48). If the section specifying switch 2e or the like is not turned on, it is determined whether or not the return switch 2f is turned on (step SA49). If this switch is turned on, the volume of the audio data stored in the RAM 13 is determined. The pitch data is cleared (step SA50), and the process proceeds to step SA2 in FIG. 13 to display the song selection screen.

図17のステップSA48において、区間指定スイッチがオン操作されて区間が指定されたときは、その指定区間の番号をレジスタkにセットして(ステップSA51)、模範データ又はマイクから取り込まれた音声データのいずれか一方の再生を指定するフラグPBFを「0」にセットし(ステップSA52)、STF1を「1」にセットする(ステップSA53)。さらに、KUKAN1にkの値をセットする(ステップSA54)。   In step SA48 of FIG. 17, when the section designation switch is turned on and a section is designated, the number of the designated section is set in the register k (step SA51), and the model data or the audio data captured from the microphone Is set to "0" (step SA52), and STF1 is set to "1" (step SA53). Further, the value of k is set in KUKAN1 (step SA54).

次に、図18のフローチャートに移行して、曲(n)の伴奏データのKUKAN1(k)の先頭位置のアドレスを指定する(ステップSA55)。次に、指定されたアドレスの歌詞データを読み出して表示する(ステップSA56)。次に、アドレスをインクリメントして、次のデータすなわち伴奏データの最初のタイムデータを読み出す(ステップSA57)。そして、読み出したタイムデータをレジスタT1にストアする(ステップSA58)。   Next, proceeding to the flowchart of FIG. 18, the address of the head position of KUKAN1 (k) of the accompaniment data of the song (n) is designated (step SA55). Next, the lyrics data at the designated address is read and displayed (step SA56). Next, the address is incremented, and the next data, that is, the first time data of accompaniment data is read (step SA57). Then, the read time data is stored in the register T1 (step SA58).

次に、PBFが「1(音声再生)」であるか又は「0(模範再生)」であるかを判別する(ステップSA59)。PBFが「0」である場合には、STF2を「1」にセットして(ステップSA60)、KUKAN2にkの値をセットする(ステップSA61)。そして、曲(n)の模範データのKUKAN2(k)の先頭位置のアドレスを指定し(ステップSA62)、そのアドレスから読み出されたデータすなわち模範データの最初のタイムデータをレジスタT2にストアする(ステップSA63)。   Next, it is determined whether the PBF is “1 (audio reproduction)” or “0 (exemplary reproduction)” (step SA59). If PBF is “0”, STF2 is set to “1” (step SA60), and the value of k is set to KUKAN2 (step SA61). Then, the address of the start position of KUKAN2 (k) of the model data of the song (n) is designated (step SA62), and the data read from that address, that is, the first time data of the model data is stored in the register T2 ( Step SA63).

一方、ステップSA59において、PBFが「1」である場合には、フラグSTF3を「1(音声再生中)」にセットし(ステップSA64)、音声データの区間を指定するKUKAN3にkの値をセットする(ステップSA65)。そして、RAM13にストアされた音声データのうちKUKAN3(k)の先頭に対応する位置のアドレスを指定する(ステップSA66)。ステップSA63において、模範データの最初のタイムデータをT2にストアした後、又は、ステップSA66において、音声データのアドレスを指定した後は、タイマインタラプト2を禁止解除する(ステップSA67)。そして、図19のフローチャートに移行する。   On the other hand, if the PBF is “1” in step SA59, the flag STF3 is set to “1 (during audio playback)” (step SA64), and the value of k is set to KUKAN3 that designates the audio data section (Step SA65). Then, the address of the position corresponding to the head of KUKAN3 (k) in the audio data stored in the RAM 13 is designated (step SA66). After the first time data of the model data is stored in T2 in step SA63, or after the address of the audio data is specified in step SA66, the timer interrupt 2 is canceled (step SA67). And it transfers to the flowchart of FIG.

したがって、一定時間が経過するたびに、図23のタイマインタラプト2を実行する。すなわち、T1のタイムデータの値をデクリメントし(ステップSC1)、発声タイミングを再認識できるように歌詞表示の色替え処理を行う(ステップSC2)。次に、STF2が「1」であるか否かを判別し(ステップSC3)、STF2が「1」である場合、すなわち模範データの再生の場合には、T2のタイムデータの値をデクリメントする(ステップSC4)。一方、STF2が「1」でない場合、すなわち音声データの再生の場合には、タイマインタラプト1のタイミングで指定したRAM13のアドレスにストアされた音声データを音源部17に出力する(ステップSC5)。音声データを出力した後、又は、T2の値をデクリメントした後は、メインルーチンに戻る。   Therefore, the timer interrupt 2 shown in FIG. 23 is executed every time a predetermined time elapses. That is, the time data value of T1 is decremented (step SC1), and the lyric display color changing process is performed so that the utterance timing can be recognized again (step SC2). Next, it is determined whether or not STF2 is “1” (step SC3). When STF2 is “1”, that is, when reproducing model data, the value of the time data of T2 is decremented ( Step SC4). On the other hand, when STF2 is not “1”, that is, when audio data is to be reproduced, the audio data stored at the address of RAM 13 designated at the timing of timer interrupt 1 is output to sound source unit 17 (step SC5). After outputting the audio data or after decrementing the value of T2, the process returns to the main routine.

図19のフローチャートにおいて、STF1が「1」であるか否かを判別し(ステップSA68)、STF1が「1」である場合、すなわち指定された区間kの伴奏データを演奏している場合には、T1の値が「0」に達したか否かを判別する(ステップSA69)。T1の値が「0」に達したときは、アドレスをインクリメントして、次のデータを読み出す(ステップSA70)。このとき区間データが終了したか否かを判別し(ステップSA71)、区間データが終了していない場合には、読み出されたデータがイベントであるか又はタイムであるかを判別する(ステップSA72)。読み出されたデータがイベントである場合には音源部17に送付し(ステップSA73)、読み出されたデータがタイムである場合にはT1にストアする(ステップSA74)。   In the flowchart of FIG. 19, it is determined whether or not STF1 is “1” (step SA68). When STF1 is “1”, that is, when accompaniment data in the designated section k is being played. , It is determined whether or not the value of T1 has reached “0” (step SA69). When the value of T1 reaches “0”, the address is incremented and the next data is read (step SA70). At this time, it is determined whether or not the section data has ended (step SA71). If the section data has not ended, it is determined whether the read data is an event or a time (step SA72). ). If the read data is an event, it is sent to the sound source unit 17 (step SA73), and if the read data is time, it is stored in T1 (step SA74).

読み出されたイベントデータを音源部17に送付した後は、アドレスをインクリメントして、ステップSA70に移行して次のデータを読み出す。一方、読み出されたタイムデータをT1にストアした後は、ステップSA68に移行して、STF1が「1」である場合、且つ、ステップSA69においてT1の値が「0」に達したときは、アドレスをインクリメントして、ステップSA70に移行して次のデータを読み出す。すなわち、STF1が「1」である場合には、ステップSA71において区間データが終了でない限り、時間の経過に伴って、読み出された伴奏データのイベントを音源部17に順次送付する。   After the read event data is sent to the sound source unit 17, the address is incremented, and the process proceeds to step SA70 to read the next data. On the other hand, after the read time data is stored in T1, the process proceeds to step SA68, and when STF1 is “1” and when the value of T1 reaches “0” in step SA69, The address is incremented, and the process proceeds to step SA70 to read the next data. That is, when STF1 is “1”, the event of the accompaniment data read out is sequentially sent to the sound source unit 17 as time passes unless the section data ends in step SA71.

ステップSA69においてT1の値が「0」に達していない場合には、図20のフローチャートにおいて、STF2が「1」であるか否かを判別し(ステップSA75)、STF2が「1」である場合、すなわち指定された区間kの模範データを再生している場合には、図6の画面から図8の模範再生の画面に移行して、T2の値が「0」に達したか否かを判別する(ステップSA76)。T2の値が「0」に達したときは、アドレスをインクリメントして、次のデータを読み出す(ステップSA77)。このとき区間データが終了したか否かを判別し(ステップSA78)、区間データが終了していない場合には、読み出されたデータがイベントであるか又はタイムであるかを判別する(ステップSA79)。読み出されたデータがイベントである場合には音源部17に送付し(ステップSA80)、読み出されたデータがタイムである場合にはT1にストアする(ステップSA81)。   If the value of T1 does not reach “0” in step SA69, it is determined whether or not STF2 is “1” in the flowchart of FIG. 20 (step SA75), and STF2 is “1”. That is, when reproducing the model data of the designated section k, the screen shifts from the screen of FIG. 6 to the screen of model playback of FIG. 8, and whether or not the value of T2 has reached “0”. A determination is made (step SA76). When the value of T2 reaches “0”, the address is incremented and the next data is read (step SA77). At this time, it is determined whether or not the section data has ended (step SA78). If the section data has not ended, it is determined whether the read data is an event or a time (step SA79). ). If the read data is an event, it is sent to the sound source unit 17 (step SA80), and if the read data is time, it is stored in T1 (step SA81).

読み出されたイベントデータを音源部17に送付した後は、アドレスをインクリメントして、ステップSA77に移行して次のデータを読み出す。一方、読み出されたタイムデータをT2にストアした後は、ステップSA75に移行して、STF2が「1」である場合、且つ、ステップSA76においてT2の値が「0」に達したときは、アドレスをインクリメントして、ステップSA77に移行して次のデータを読み出す。すなわち、STF2が「1」である場合には、ステップSA78において区間データが終了でない限り、時間の経過に伴って、読み出された模範データのイベントを音源部17に順次送付する。ステップSA78において、区間データが終了したときは、STF2を「0」にリセットし、PBFを「0(模範再生)」から「1(音声再生)」に反転する(ステップSA82)。   After the read event data is sent to the sound source unit 17, the address is incremented, and the process proceeds to step SA77 to read the next data. On the other hand, after the read time data is stored in T2, the process proceeds to step SA75, and when STF2 is “1” and when the value of T2 reaches “0” in step SA76, The address is incremented, and the process proceeds to step SA77 to read the next data. That is, when STF2 is “1”, the event of the read model data is sequentially sent to the sound source unit 17 as time passes unless the section data ends in step SA78. In step SA78, when the section data is completed, STF2 is reset to “0”, and PBF is inverted from “0 (exemplary reproduction)” to “1 (audio reproduction)” (step SA82).

ステップSA76においてT2の値が「0」に達していない場合には、図6の画面から図7の音声再生の画面に移行して、図21のフローチャートにおいて、STF3が「1」であるか否かを判別し(ステップSA83)、STF3が「1」である場合、すなわち指定された区間であるKUKAN3(k)の音声データを再生している場合には、KUKAN3(k)の指定区間内に音声データの読み出しが終了したか否かを判別する(ステップSA84)。指定区間内の音声データの読み出しが終了したときは、STF3を「0」にリセットし(ステップSA85)、PBFを「1(音声再生)」から「0(模範再生)」に反転する(ステップSA86)。そして、図18のフローチャートに移行して、図18乃至図21の処理を繰り返す。   If the value of T2 does not reach “0” in step SA76, the screen shifts from the screen of FIG. 6 to the audio playback screen of FIG. 7, and whether STF3 is “1” in the flowchart of FIG. (Step SA83), when STF3 is “1”, that is, when the audio data of KUKAAN3 (k), which is the designated section, is being reproduced, within the designated section of KUKAAN3 (k) It is determined whether or not the audio data has been read (step SA84). When reading of the audio data in the designated section is completed, the STF 3 is reset to “0” (step SA85), and the PBF is inverted from “1 (audio reproduction)” to “0 (exemplary reproduction)” (step SA86). ). Then, the process proceeds to the flowchart of FIG. 18 and the processes of FIGS. 18 to 21 are repeated.

図21のステップSA84において、音声データの読み出しが終了していない場合には、中止スイッチ2gがオンされたか否かを判別し(ステップSA87)、このスイッチがオンされていない場合には、図19のステップSA68に移行して、図19乃至図21の処理を繰り返す。一方、中止スイッチ2gがオンされたときは、STF1、STF2、STF3をすべて「0」にリセットし(ステップSA88)、タイマインタラプト2を禁止する(ステップSA89)。そして、図17のステップSA46に移行して、模範データの音量・ピッチとストアされた音声データの音量・ピッチとのずれに基づく評価画面を作成して、次の区間聞き比べに備える。   In step SA84 in FIG. 21, if the reading of the audio data is not completed, it is determined whether or not the cancel switch 2g is turned on (step SA87). If this switch is not turned on, FIG. The process proceeds to step SA68, and the processes of FIGS. 19 to 21 are repeated. On the other hand, when the stop switch 2g is turned on, the STF1, STF2, and STF3 are all reset to “0” (step SA88), and the timer interrupt 2 is prohibited (step SA89). Then, the process proceeds to step SA46 in FIG. 17 to create an evaluation screen based on the difference between the volume / pitch of the model data and the volume / pitch of the stored audio data, and prepare for the next section comparison.

図5に示した評価画面において、カーソルスイッチ2cの操作で「特訓」のアイコンが選択された場合には、図5の評価画面から図9の特訓の画面に移行して、ピッチ、音量、発音タイミングのずれが所定値より大きい区間を間違った区間と判定して、その区間を自動的に選択し、その区間を繰り返し特訓することを促す。この場合には、例えば、図9に示すように、模範の歌声に合わせるようなアドバイスを表示する。また、上記の聞き比べの場合と同様に、模範データの演奏を適宜再生してもよい。繰り返し特訓した結果、ピッチ、音量、発音タイミングのずれが所定値以下になった場合には、図10の画面を表示する。   In the evaluation screen shown in FIG. 5, when the “special training” icon is selected by operating the cursor switch 2c, the screen shifts from the evaluation screen of FIG. 5 to the special training screen of FIG. A section having a timing difference larger than a predetermined value is determined as a wrong section, the section is automatically selected, and it is urged to repeatedly train the section. In this case, for example, as shown in FIG. 9, advice that matches the exemplary singing voice is displayed. Further, as in the case of the above-described listening comparison, the performance of the model data may be appropriately reproduced. As a result of repeated training, if the pitch, volume, and sounding timing shift are below a predetermined value, the screen of FIG. 10 is displayed.

以上のように、上記実施形態によれば、CPU11は、カラオケ曲の伴奏に応じてマイクから入力された歌唱者の音声信号をアナログからデジタルの音声データに変換して、RAM13のエリアに一時的に記憶し、RAM13又はROM14に予め記憶されたその曲に対する模範データ又はRAM13に一時的に記憶された音声データを選択的に読み出して音源部17によって再生させ、音声データと模範データとを比較して、曲に対す歌唱力を評価して表示部3に出力する。
したがって、音高や発声タイミングなどを間違って歌った箇所について、歌唱者がその間違いの程度を容易に認識して、正確な音高や発声タイミングなどを把握することで、歌唱力の向上を支援できる。
As described above, according to the above embodiment, the CPU 11 converts the singer's voice signal input from the microphone according to the accompaniment of the karaoke song from analog to digital voice data, and temporarily stores it in the area of the RAM 13. The model data for the song stored in advance in the RAM 13 or the ROM 14 or the voice data temporarily stored in the RAM 13 is selectively read out and reproduced by the sound source unit 17 to compare the voice data with the model data. Then, the singing ability for the music is evaluated and output to the display unit 3.
Therefore, singers can easily improve the singing ability by easily recognizing the level of mistakes and singing the correct pitches and utterance timings, etc. it can.

この場合において、CPU11は、曲の所定区間ごとに音声データと模範データとを比較して各区間の評価結果を表示部3に出力する。
したがって、正確な音高や発声タイミングなどをきめ細かく指導することができる。
In this case, the CPU 11 compares the audio data with the model data for each predetermined section of the music and outputs the evaluation result of each section to the display unit 3.
Therefore, it is possible to provide detailed guidance on accurate pitches and utterance timings.

また、上記実施形態においては、カラオケ装置の発明、すなわち物の発明について説明したが、このカラオケ装置内にフラッシュROMなどの不揮発性メモリを設けて、CD−ROMやFD(フレキシブルディスク)に記憶されているカラオケ情報処理のプログラム、あるいは、ネットワークインターフェース19を介して、インターネットなどのネットワークからダウンロードしたカラオケ情報処理のプログラムを、その不揮発性メモリにインストールして、CPU11がそのプログラムを実行する構成も可能である。この場合には、プログラムの発明、記録媒体の発明、および、情報処理方法の発明を実現する。   In the above embodiment, the invention of the karaoke apparatus, that is, the invention of the product has been described. However, a non-volatile memory such as a flash ROM is provided in the karaoke apparatus and stored in a CD-ROM or FD (flexible disk). It is also possible to install a karaoke information processing program or a karaoke information processing program downloaded from a network such as the Internet via the network interface 19 in the nonvolatile memory so that the CPU 11 executes the program. It is. In this case, the invention of the program, the invention of the recording medium, and the invention of the information processing method are realized.

すなわち、そのプログラムの発明は、曲の伴奏に応じて所定の音声入力手段から入力された第1の音声信号を所定の記憶手段に一時的に記憶する第1のステップと、前記記憶手段又は他の記憶手段に予め記憶された前記曲に対する第2の音声信号又は前記記憶手段に一時的に記憶された第1の音声信号を選択的に読み出して所定の再生手段に再生させる第2のステップと、前記第1の音声信号と前記第2の音声信号とを比較して前記曲に対する当該第1の音声信号の歌唱力を評価して当該評価結果を出力する第3のステップと、をコンピュータに実行させる。
したがって、音高や発声タイミングなどを間違って歌った箇所について、歌唱者がその間違いの程度を容易に認識して、正確な音高や発声タイミングなどを把握することで、歌唱力の向上を支援できる。
That is, the invention of the program includes a first step of temporarily storing, in the predetermined storage means, the first audio signal input from the predetermined audio input means in accordance with the musical accompaniment, and the storage means or the like. A second step of selectively reading out the second audio signal for the song stored in advance in the storage means or the first audio signal temporarily stored in the storage means and causing the predetermined reproduction means to reproduce the second audio signal; A third step of comparing the first audio signal and the second audio signal to evaluate the singing ability of the first audio signal for the song and outputting the evaluation result to a computer; Let it run.
Therefore, singers can easily improve the singing ability by easily recognizing the level of mistakes in the parts where they sang the pitch or utterance timing, etc. it can.

本発明の実施形態におけるカラオケシステムのリモコン装置の外観図。The external view of the remote control apparatus of the karaoke system in embodiment of this invention. 本発明の実施形態におけるカラオケシステムの構成を示すブロック図。The block diagram which shows the structure of the karaoke system in embodiment of this invention. 図2の表示部に表示されるカラオケの上達支援モードの初期画面を示す図。The figure which shows the initial screen of the karaoke progress support mode displayed on the display part of FIG. 図2の表示部に表示されるカラオケ演奏中のリアルタイムの評価画面を示す図。The figure which shows the real-time evaluation screen during the karaoke performance displayed on the display part of FIG. 図2の表示部に表示される曲が終了したときの全体の評価画面を示す図。The figure which shows the whole evaluation screen when the music displayed on the display part of FIG. 2 is complete | finished. 図2の表示部に表示される手本聞き比べの画面を示す図。The figure which shows the screen of the example listening comparison displayed on the display part of FIG. 図2の表示部に表示される手本聞き比べの音声再生の画面を示す図。The figure which shows the audio | voice reproduction | regeneration screen of the example listening comparison displayed on the display part of FIG. 図2の表示部に表示される手本聞き比べの模範再生の画面を示す図。The figure which shows the screen of the model reproduction | regeneration of the example listening comparison displayed on the display part of FIG. 図2の表示部に表示される特訓の画面を示す図。The figure which shows the screen of the special training displayed on the display part of FIG. 図2の表示部に表示される特訓の画面を示す図。The figure which shows the screen of the special training displayed on the display part of FIG. カラオケの曲データのフォーマットを示す図。The figure which shows the format of the song data of karaoke. 図11の曲データにおける模範データのフォーマットを示す図。The figure which shows the format of the model data in the music data of FIG. 図2のCPUによって実行されるカラオケ情報処理のフローチャート。The flowchart of the karaoke information processing performed by CPU of FIG. に続くカラオケ情報処理のフローチャート。The flowchart of karaoke information processing following. に続くカラオケ情報処理のフローチャート。The flowchart of karaoke information processing following. に続くカラオケ情報処理のフローチャート。The flowchart of karaoke information processing following. に続くカラオケ情報処理のフローチャート。The flowchart of karaoke information processing following. に続くカラオケ情報処理のフローチャート。The flowchart of karaoke information processing following. に続くカラオケ情報処理のフローチャート。The flowchart of karaoke information processing following. に続くカラオケ情報処理のフローチャート。The flowchart of karaoke information processing following. に続くカラオケ情報処理のフローチャート。The flowchart of karaoke information processing following. 図2のCPUによって実行されるタイマインタラプト1のフローチャート。The flowchart of the timer interrupt 1 performed by CPU of FIG. 図2のCPUによって実行されるタイマインタラプト2のフローチャート。The flowchart of the timer interrupt 2 performed by CPU of FIG.

符号の説明Explanation of symbols

1 カラオケシステムのリモコン装置
2 スイッチ部
3 表示部
11 CPU
13 RAM
14 ROM
15 ビデオ処理部
16 オーディオ処理部
17 音源部
18 マイクアンプ
19 ネットワークインターフェース
DESCRIPTION OF SYMBOLS 1 Remote control apparatus of karaoke system 2 Switch part 3 Display part 11 CPU
13 RAM
14 ROM
DESCRIPTION OF SYMBOLS 15 Video processing part 16 Audio processing part 17 Sound source part 18 Microphone amplifier 19 Network interface

Claims (5)

所定の記憶手段から曲の伴奏データ及び当該曲を歌唱した模範音声データを順次読み出す読み出し手段と、
前記伴奏データの読み出しに応じて歌唱された歌唱音声データを所定の音声入力手段により入力して前記記憶手段に記憶させる記憶制御手段と、
この音声入力手段により入力された歌唱音声データと前記読み出された模範音声データとを比較して、前記曲に対する当該歌唱音声信号の歌唱力を評価して当該評価結果を出力する歌唱評価手段と、
この歌唱評価手段による評価結果の出力の後に、前記記憶手段に記憶された歌唱音声データ及び模範音声データを交互に読み出して出力する読み出し制御手段と、
を備えたことを特徴とするカラオケ装置。
Reading means for sequentially reading accompaniment data of the song and exemplary voice data singing the song from the predetermined storage means;
Storage control means for inputting singing voice data sung in response to reading of the accompaniment data by a predetermined voice input means and storing the data in the storage means;
Singing evaluation means for comparing the singing voice data input by the voice input means with the read out model voice data, evaluating the singing power of the singing voice signal for the song, and outputting the evaluation result; ,
After the output of the evaluation result by the singing evaluation means, the reading control means for alternately reading out and outputting the singing voice data and the model voice data stored in the storage means,
A karaoke apparatus comprising:
前記曲は複数の区間に分割され、前記読み出し制御手段は、前記曲の指定された区間に対応する歌唱音声データと模範音声データとを交互に読み出して出力することを特徴とする請求項1に記載のカラオケ装置。   The song is divided into a plurality of sections, and the reading control means alternately reads and outputs singing voice data and model voice data corresponding to a designated section of the song. The karaoke device described. 前記歌唱評価手段によって出力される評価結果を表示する表示手段をさらに備えたことを特徴とする請求項2に記載のカラオケ装置。   The karaoke apparatus according to claim 2, further comprising display means for displaying an evaluation result output by the singing evaluation means. 前記歌唱評価手段は、前記歌唱音声信号および前記模範音声信号の音高および発声タイミングをそれぞれ比較して評価結果を出力することを特徴とする請求項1に記載のカラオケ装置。   2. The karaoke apparatus according to claim 1, wherein the singing evaluation unit outputs an evaluation result by comparing pitches and utterance timings of the singing voice signal and the model voice signal. 所定の記憶手段から曲の伴奏データ及び当該曲を歌唱した模範音声データを順次読み出すステップと、
前記伴奏データの読み出しに応じて歌唱された歌唱音声データを所定の音声入力手段により入力して前記記憶手段に記憶させるステップと、
この音声入力手段により入力された歌唱音声データと前記読み出された模範音声データとを比較して、前記曲に対する当該歌唱音声信号の歌唱力を評価して当該評価結果を出力するステップと、
この評価結果の出力の後に、前記記憶手段に記憶された歌唱音声データ及び模範音声データを交互に読み出して出力するステップと、
をコンピュータに実行させることを特徴とするカラオケ情報処理のプログラム。
Sequentially reading accompaniment data of the song and exemplary voice data singing the song from the predetermined storage means;
Singing voice data sung in response to reading of the accompaniment data is input by a predetermined voice input means and stored in the storage means;
Comparing the singing voice data input by the voice input means with the read exemplary voice data, evaluating the singing power of the singing voice signal for the song, and outputting the evaluation result;
After the output of the evaluation result, the step of alternately reading out and outputting the singing voice data and the model voice data stored in the storage unit;
A karaoke information processing program characterized by causing a computer to execute.
JP2007076101A 2007-03-23 2007-03-23 Karaoke device and program for karaoke information processing Pending JP2008233736A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007076101A JP2008233736A (en) 2007-03-23 2007-03-23 Karaoke device and program for karaoke information processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007076101A JP2008233736A (en) 2007-03-23 2007-03-23 Karaoke device and program for karaoke information processing

Publications (1)

Publication Number Publication Date
JP2008233736A true JP2008233736A (en) 2008-10-02

Family

ID=39906560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007076101A Pending JP2008233736A (en) 2007-03-23 2007-03-23 Karaoke device and program for karaoke information processing

Country Status (1)

Country Link
JP (1) JP2008233736A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8541153B2 (en) 2010-01-12 2013-09-24 Fuji Xerox Co., Ltd. Toner for developing electrostatic image, developer for electrostatic image, toner cartridge, process cartridge, image forming method, and image forming apparatus
US8911923B2 (en) 2012-03-23 2014-12-16 Fuji Xerox Co., Ltd. Toner for developing electrostatic charge image, electrostatic charge image developer, toner cartridge, developer cartridge, process cartridge, image forming apparatus, and image forming method
US8945806B2 (en) 2012-03-23 2015-02-03 Fuji Xerox Co., Ltd. Electrostatic charge image developing toner, electrostatic charge image developer, toner cartridge, developer cartridge, process cartridge, image forming apparatus, and image forming method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8541153B2 (en) 2010-01-12 2013-09-24 Fuji Xerox Co., Ltd. Toner for developing electrostatic image, developer for electrostatic image, toner cartridge, process cartridge, image forming method, and image forming apparatus
US8911923B2 (en) 2012-03-23 2014-12-16 Fuji Xerox Co., Ltd. Toner for developing electrostatic charge image, electrostatic charge image developer, toner cartridge, developer cartridge, process cartridge, image forming apparatus, and image forming method
US8945806B2 (en) 2012-03-23 2015-02-03 Fuji Xerox Co., Ltd. Electrostatic charge image developing toner, electrostatic charge image developer, toner cartridge, developer cartridge, process cartridge, image forming apparatus, and image forming method

Similar Documents

Publication Publication Date Title
JP3598598B2 (en) Karaoke equipment
JP3709631B2 (en) Karaoke equipment
JP2956569B2 (en) Karaoke equipment
JPH09258729A (en) Tune selecting device
JP4321476B2 (en) Electronic musical instruments
JPH0830284A (en) Karaoke device
JP3975526B2 (en) Karaoke equipment
JP4487632B2 (en) Performance practice apparatus and performance practice computer program
JP2008233736A (en) Karaoke device and program for karaoke information processing
JP4038836B2 (en) Karaoke equipment
JP3861381B2 (en) Karaoke equipment
JP4650182B2 (en) Automatic accompaniment apparatus and program
JP2004205818A (en) Karaoke machine
JP4171680B2 (en) Information setting device, information setting method, and information setting program for music playback device
JP4175337B2 (en) Karaoke equipment
JP2000047677A (en) Karaoke device
JP5397637B2 (en) Karaoke equipment
JP2002372981A (en) Karaoke system with voice converting function
JP4007298B2 (en) Karaoke device and program
JP2008233558A (en) Electronic musical instrument and program
JP3887957B2 (en) Karaoke equipment
JP3918308B2 (en) Karaoke equipment
JP4453580B2 (en) Karaoke system and karaoke device
JP4534926B2 (en) Image display apparatus and program
JP3975528B2 (en) Karaoke equipment