JP2008233736A - Karaoke device and program for karaoke information processing - Google Patents
Karaoke device and program for karaoke information processing Download PDFInfo
- Publication number
- JP2008233736A JP2008233736A JP2007076101A JP2007076101A JP2008233736A JP 2008233736 A JP2008233736 A JP 2008233736A JP 2007076101 A JP2007076101 A JP 2007076101A JP 2007076101 A JP2007076101 A JP 2007076101A JP 2008233736 A JP2008233736 A JP 2008233736A
- Authority
- JP
- Japan
- Prior art keywords
- data
- singing
- song
- voice data
- karaoke
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
Description
本発明は、カラオケ装置およびカラオケ情報処理のプログラムに関し、特に、曲の演奏に応じて入力された音声信号を評価するカラオケ装置およびカラオケ情報処理のプログラムに関するものである。 The present invention relates to a karaoke apparatus and a karaoke information processing program, and more particularly, to a karaoke apparatus and a karaoke information processing program for evaluating an audio signal input according to the performance of a song.
曲の演奏に応じて入力された音声信号を評価するカラオケ装置については多くの提案がなされている。例えば、ある提案のカラオケ装置における歌唱練習支援システムにおいては、音高を間違って歌った箇所の正確な音を歌唱者に聴かせ、その音と同じになるように、すぐに反復して発声して練習させることができるようになっている。この提案によれば、楽曲の演奏データを処理してカラオケ伴奏音楽を音響出力するとともに、その楽曲の歌詞データを処理して歌詞字幕を映像出力するカラオケ装置において、楽曲演奏中に指定箇所に戻って再演奏する旨の利用者入力を受け付けたとき、指定箇所から再演奏するとともに、この再演奏時には、主旋律の演奏音量を他の演奏音量に対して相対的に大きくするような構成になっている。(特許文献1参照)
しかしながら、上記特許文献1を含めた従来の技術においては、音高や発声タイミングなどを間違って歌った箇所の正確な音を歌唱者に聴かせて、その箇所をすぐに反復して発声して練習させたとしても、音高や発声タイミングなどがどの程度間違っているかを歌唱者が把握することは極めて困難である。何故ならば、そもそも歌唱者は、曲の伴奏および歌詞表示に意志的に合わせて、正確な音高や発声タイミングだと思って歌っているのであるから、間違って歌った箇所を反復しても、自分の間違いの程度を認識することは困難だからである。
本発明は、このような従来の課題を解決するためのものであり、音高や発声タイミングなどを間違って歌った箇所について、歌唱者がその間違いの程度を容易に認識して、正確な音高や発声タイミングなどを把握することで、歌唱力の向上を支援できるようにすることを目的とする。
However, in the conventional techniques including the above-mentioned
The present invention is for solving such a conventional problem, and a singer easily recognizes the level of mistakes in a place where the singing is mistaken in pitch or utterance timing, so that accurate sound can be obtained. The purpose is to be able to support the improvement of singing ability by grasping the height and utterance timing.
請求項1に記載のカラオケ装置は、所定の記憶手段から曲の伴奏データ及び当該曲を歌唱した模範音声データを順次読み出す読み出し手段と、前記伴奏データの読み出しに応じて歌唱された歌唱音声データを所定の音声入力手段により入力して前記記憶手段に記憶させる記憶制御手段と、この音声入力手段により入力された歌唱音声データと前記読み出された模範音声データとを比較して、前記曲に対する当該歌唱音声信号の歌唱力を評価して当該評価結果を出力する歌唱評価手段と、この歌唱評価手段による評価結果の出力の後に、前記記憶手段に記憶された歌唱音声データ及び模範音声データを交互に読み出して出力する読み出し制御手段と、を備えたことを特徴とする。
The karaoke apparatus according to
請求項1のカラオケ装置において、請求項2に記載したように、前記曲は複数の区間に分割され、前記読み出し制御手段は、前記曲の指定された区間に対応する歌唱音声データと模範音声データとを交互に読み出して出力することを特徴とする。
2. The karaoke apparatus according to
請求項2のカラオケ装置において、請求項3に記載したように、前記歌唱評価手段によって出力される評価結果を表示する表示手段をさらに備えたことを特徴とする。
3. The karaoke apparatus according to
請求項1のカラオケ装置において、請求項4に記載したように、前記歌唱評価手段は、前記歌唱音声信号および前記模範音声信号の音高および発声タイミングをそれぞれ比較して評価結果を出力することを特徴とする。
In the karaoke apparatus of
請求項5に記載のカラオケ情報処理のプログラムは、所定の記憶手段から曲の伴奏データ及び当該曲を歌唱した模範音声データを順次読み出すステップと、
前記伴奏データの読み出しに応じて歌唱された歌唱音声データを所定の音声入力手段により入力して前記記憶手段に記憶させるステップと、
この音声入力手段により入力された歌唱音声データと前記読み出された模範音声データとを比較して、前記曲に対する当該歌唱音声信号の歌唱力を評価して当該評価結果を出力するステップと、
この評価結果の出力の後に、前記記憶手段に記憶された歌唱音声データ及び模範音声データを交互に読み出して出力するステップと、
をコンピュータに実行させることを特徴とする。
The program for karaoke information processing according to
Singing voice data sung in response to reading of the accompaniment data is input by a predetermined voice input means and stored in the storage means;
Comparing the singing voice data input by the voice input means with the read exemplary voice data, evaluating the singing power of the singing voice signal for the song, and outputting the evaluation result;
After the output of the evaluation result, the step of alternately reading out and outputting the singing voice data and the model voice data stored in the storage unit;
Is executed by a computer.
本発明のカラオケ装置およびカラオケ情報処理のプログラムによれば、音高や発声タイミングなどを間違って歌った箇所について、歌唱者がその間違いの程度を容易に認識して、正確な音高や発声タイミングなどを把握することで、歌唱力の向上を支援できるという効果が得られる。 According to the karaoke apparatus and the karaoke information processing program of the present invention, the singer easily recognizes the degree of the mistake about the part where the pitch or the utterance timing is wrongly sung, and the accurate pitch or utterance timing. By grasping, etc., the effect of improving the singing ability can be obtained.
以下、本発明によるカラオケ装置の実施形態について、図を参照して説明する。
図1は、実施形態におけるカラオケシステムのリモコン装置1の外観図である。図1に示すように、リモコン装置1にはスイッチ部2および液晶表示器であるLCD表示部3が設けられている。スイッチ部2には、電源スイッチの他にカラオケ演奏に必要な各種のスイッチ、例えば、曲を検索するための曲名スイッチ2a、演奏の開始をするためのスタートスイッチ2b、LCD表示部3のアイコンなどを選択および決定するためのカーソルスイッチ2c、文字、数字、記号を入力するいわゆるテンキースイッチ2d、曲の区間を指定するための区間指定スイッチ2e(詳細は後述)、現在の状態から前の状態に戻るための戻るスイッチ2f、演奏を中止する中止スイッチ2g、音量を設定するスイッチ、テンポを設定するスイッチ、キーを設定するスイッチなどが設けられている。LCD表示部3は、カラオケ演奏に関する曲名、歌詞、その他を表示する。詳細な表示内容については後述する。
Hereinafter, an embodiment of a karaoke apparatus according to the present invention will be described with reference to the drawings.
FIG. 1 is an external view of a
図2は、実施形態におけるカラオケシステムの構成を示すブロック図である。このカラオケシステムは、図1のリモコン装置1と、テレビ受像機などの大型のモニタ装置やスピーカを備えたサウンドシステムとを組み合わせた構成になっている。リモコン装置1とモニタ装置およびサウンドシステムは赤外線通信、FM電波通信、ブルートゥース(登録商標)通信などの近距離無線通信によってデータおよびコマンドを送受信するようになっている。すなわち、リモコン装置1のLCD表示部3に表示される画像は、同時にモニタ装置にも表示される。ただし、ここでは説明を簡単にするために、LCD表示部3を代表してカラオケシステムの表示手段とする。
FIG. 2 is a block diagram showing a configuration of the karaoke system in the embodiment. This karaoke system is configured by combining the
図2において、CPU11は、システムバス12を介して、図1に示したスイッチ部2、表示部3のほかに、ワークメモリであるRAM13、プログラムメモリであるROM14、ビデオ処理部15、オーディオ処理部16、音源部17、マイクアンプ18、およびネットワークインターフェース19に接続されており、これら各部との間でデータおよびコマンドを授受しながら、このカラオケシステム全体を制御する。
2, in addition to the
ROM14は、CPU11によって実行されるカラオケ情報処理のプログラムやその他の制御プログラム、および初期データの他、曲名のデータ、並びに各曲に対応する伴奏曲データおよび歌詞データ、音声合成による模範データ、および背景画面のデータを記憶している。RAM13は、CPU11によって処理されるデータを一時的に記憶する。ビデオ処理部15は、CPU11の指示に応じて、検索された歌手名、曲名、歌詞データ、背景画面のデータを合成して表示部3に送出する。マイクアンプ18は、マイク(図示せず)から入力される歌唱者の音声信号を増幅する。オーディオ処理部16は、マイクアンプ18から入力される音声信号をアナログからデジタルに変換する。RAM13は、デジタルに変換された歌唱者の音声データを一時的に記憶するとともに、CPU11によって実行されるカラオケ情報処理に必要な各種のレジスタやフラグを有する。音源部17は、上記のサウンドシステムに相当し、CPU11の指示に応じて、伴奏曲データと模範の音声データ又はRAM13の音声データをデジタルからアナログに変換し、フィルタ処理や増幅処理などを施してスピーカから発音する。ネットワークインターフェース19は、インターネットなどのネットワークから、例えば、MIDI形式の曲データを受信する。
The
なお、図には示していないが、マイクより入力されてマイクアンプ18で増幅されたアナログの音声信号は、直接スピーカから発音される。すなわち、歌唱者の音声信号は、デジタルの音声データとして録音されると同時に、読み出された伴奏データに応じた楽音信号とともにスピーカから発音される。大型のモニタ装置としてテレビ受像機を利用する場合には、アナログの音声信号および楽音信号は、無線信号で変調されて送信する構成も可能である。
Although not shown in the figure, an analog audio signal input from a microphone and amplified by the
図3乃至図10は、表示部3に表示されるカラオケの上達支援モードの画面を示す図である。図3は上達支援モードの初期画面、図4はカラオケ演奏中のリアルタイムの評価画面、図5は曲が終了したときの全体の評価画面、図6乃至図10の画面については後述する。
図11および図12は、ROM14に記憶されているカラオケの曲データ、あるいは、ネットワークインターフェース19を介してインターネットなどのネットワークから受信してRAM13に記憶された曲データのフォーマットを示す図である。図11において、複数の曲(0)〜曲(N)の各々は、伴奏データおよび模範データで構成されている。各曲の伴奏データは、複数の区間(0)〜区間(M)に区分されており、各区間には歌詞データ、タイムデータ、および伴奏のイベントデータがアドレスに従って記憶されている。また、各曲の模範データは、図12に示すように、タイムデータおよび音声合成による歌唱のイベントデータがアドレスに従って記憶されている。なお、この模範データは、音声合成による歌唱データに限定されず、例えば、プロの歌手が歌った音声をPCM録音した歌唱データで構成してもよい。
3 to 10 are diagrams showing screens in the karaoke progress support mode displayed on the
11 and 12 are diagrams showing the format of karaoke song data stored in the
図13乃至図21は、CPU11によって実行されるカラオケ情報処理のメインルーチンのフローチャートであり、図22および図23は、一定時間ごとにタイマ(図示せず)から入力される割り込みに応じて実行されるタイマインタラプト1およびタイマインタラプト2のフローチャートである。これらのフローチャートおよび図3乃至図10のカラオケの画面、図11および図12の曲データに基づいて、実施形態におけるカラオケ情報処理の動作について説明する。
FIGS. 13 to 21 are flowcharts of a main routine of karaoke information processing executed by the
図13において、RAM13の音声データのエリア、レジスタ、フラグなどの初期化、タイマインタラプト1およびタイマインタラプト2を禁止するイニシャライズを行って(ステップSA1)、曲選択画面(図示せず)を表示する(ステップSA2)。この曲選択画面においては、「曲名又は歌手名を入力して下さい」などのメッセージを表示して、図1のリモコン装置1における曲名スイッチ2a又は歌手名スイッチの操作をユーザに対して促す。ユーザのスイッチ操作に応じて、1つ又は複数の曲名を表示する。曲名が複数の場合には、カーソルスイッチ2c又はテンキースイッチ2dの操作をユーザに対して促すようなメッセージを表示する。ユーザのスイッチ操作によって1つの曲名が選択されると、曲選択処理を行って(ステップSA3)、曲選択番号をレジスタnにセットする(ステップSA4)。すなわち、ROM14又はRAM13に記憶されている曲の中から、レジスタnの番号に対応する曲(n)を検索して指定する。
In FIG. 13, initialization of the audio data area, register, flag, etc. in
次に、スタートスイッチ2bがオンされたか否かを判別する(ステップSA5)。スタートスイッチ2bはモメンタリスイッチであり、このスイッチがオンされたときは、伴奏データ用のフラグSTF1および模範データ用のフラグSTF2を「1」にセットする(ステップSA6)。さらに、伴奏データの区間を指定するレジスタKUKAN1を「0(最初の区間)」にセットし、模範データの区間を指定するレジスタKUKAN2を「0(最初の区間)」にセットする(ステップSA7)。次に、背景画面を表示し(ステップSA8)、曲(n)の伴奏データでKUKAN1(0)の先頭位置のアドレスを指定する(ステップSA9)。
Next, it is determined whether or not the
次に、図14のフローチャートに移行して、KUKAN1(0)の先頭位置のアドレスから読み出された歌詞データを背景画面に重畳して、図3に示すように表示する(ステップSA10)。この後、アドレスをインクリメントして次のデータを読み出し(ステップSA11)、読み出されたタイムデータをレジスタT1にストアする(ステップSA12)。さらに、曲(n)の模範データでKUKAN2(0)の先頭位置のアドレスを指定し(ステップSA13)、そのアドレスから読み出されたタイムデータをレジスタT2にストアする(ステップSA14)。そして、タイマインタラプト1の禁止を解除する(ステップSA15)。なお、カラオケの曲のほとんどは、いきなり歌が始まることはなく、最初に伴奏のイントロ部分があるので、模範データの最初のタイムデータは、少なくともこのイントロ部分の時間長を含むタイムデータになっている。すなわち、伴奏データのタイムと模範データのタイムとは、互いに独立しているので、2種類のレジスタT1、T2によってデータ読み出しの時間を管理する。 Next, the process proceeds to the flowchart of FIG. 14, and the lyric data read from the address of the head position of KUKAN1 (0) is superimposed on the background screen and displayed as shown in FIG. 3 (step SA10). Thereafter, the address is incremented to read the next data (step SA11), and the read time data is stored in the register T1 (step SA12). Further, the address of the head position of KUKAN2 (0) is specified by the model data of the music piece (n) (step SA13), and the time data read from the address is stored in the register T2 (step SA14). Then, the prohibition of the timer interrupt 1 is canceled (step SA15). Most of the karaoke songs do not start suddenly, and there is an intro part of the accompaniment first, so the first time data of the model data is time data including at least the length of this intro part. Yes. That is, the accompaniment data time and the model data time are independent of each other, and therefore, the data read time is managed by the two types of registers T1 and T2.
タイマインタラプト1の禁止を解除することにより、一定時間が経過するたびに、図22のタイマインタラプト1を実行する。すなわち、T2のタイムデータの値をデクリメントし(ステップSB1)、T1のタイムデータの値をデクリメントする(ステップSB2)。また、発声タイミングをガイドするために、表示部3の画面における歌詞表示の色替え処理を行う(ステップSB3)。さらに、マイクより入力されて、マイクアンプ18で増幅され、オーディオ処理部16によってアナログからデジタルに変換された音声データを取り込み(ステップSB4)、その音声データのピッチ(音高)および音量を検出して(ステップSB5)、KUKAN1の区間番号とともに音声データをRAM13のエリアにストアする(ステップSB6)。この場合において、RAM13のアドレスを一定時間ごとにインクリメントしながら音声データをストアする。ステップSB6の後は、メインルーチンに戻る。
By canceling the prohibition of the timer interrupt 1, the timer interrupt 1 shown in FIG. 22 is executed every time a predetermined time elapses. That is, the value of the time data of T2 is decremented (step SB1), and the value of the time data of T1 is decremented (step SB2). Further, in order to guide the utterance timing, a color change process for displaying lyrics on the screen of the
図15のフローチャートにおいて、STFが「1(伴奏演奏中)」であるか否かを判別する(ステップSA16)。STF1は図13のステップSA6において「1」にセットされているので、T1の値が「0」に達したか否かを判別する(ステップSA17)。T1の値が「0」に達したときは、アドレスをインクリメントして次のデータを読み出す(ステップSA18)。そして、指定された区間の伴奏データが終了したか否かを判別し(ステップSA19)、区間の伴奏データが終了していない場合には、読み出したデータがイベントであるかタイムであるかを判別する(ステップSA20)。読み出したデータがイベントである場合には音源部17に送付し(ステップSA21)、一方、読み出したデータがタイムである場合にはレジスタT1にストアする(ステップSA22)。 In the flowchart of FIG. 15, it is determined whether or not the STF is “1 (accompaniment performance)” (step SA16). Since STF1 is set to “1” in step SA6 in FIG. 13, it is determined whether or not the value of T1 has reached “0” (step SA17). When the value of T1 reaches “0”, the address is incremented and the next data is read (step SA18). Then, it is determined whether or not the accompaniment data of the designated section has ended (step SA19). If the accompaniment data of the section has not ended, it is determined whether the read data is an event or a time. (Step SA20). If the read data is an event, it is sent to the sound source unit 17 (step SA21). On the other hand, if the read data is time, it is stored in the register T1 (step SA22).
読み出したイベントデータを音源部17に送付した後は、アドレスをインクリメントしてステップSA18に移行し、次のデータの読み出しを行う。一方、読み出したタイムデータをT1にストアした後は、図13のステップSA5に移行してスタートスイッチがオンされたか否かを判別する。スタートスイッチがオンされない場合には、再び図15のフローチャートに移行して、T1の値が「0」に達したときは、アドレスをインクリメントして次のデータを読み出す。したがって、スタートスイッチがオンされず、且つ、指定された区間のデータが終了しない限り、ステップSA5、ステップSA18乃至ステップSA20、ステップSA21又はステップSA22のループを繰り返し実行して、指定された区間の伴奏データを音源部17に送付してスピーカから発音させる。
After the read event data is sent to the
図15のステップSA19において、現在指定されている区間のデータが終了したときは、レジスタKUKAN1の値をインクリメントして次の区間を指定する(ステップSA23)。このとき、インクリメントしたKUKAN1の値が最終の区間の値Mより大きくなったか否か、すなわち、その区間の伴奏の楽音が終了したか否かを判別する(ステップSA24)。KUKAN1の値が最終の区間の値M以内である場合には、曲(n)の模範データで新たなKUKAN1の先頭位置のアドレスを指定し(ステップSA25)、そのアドレスから読み出された歌詞データで表示画面を書き換える(ステップSA26)。この後は、スタートスイッチがオンされず、且つ、指定された区間のデータが終了しない限り、ステップSA5、ステップSA18乃至ステップSA20、ステップSA21又はステップSA22のループを繰り返し実行して、指定された区間の伴奏データを音源部17に送付してスピーカから発音させる。
In step SA19 in FIG. 15, when the data of the currently designated section is completed, the value of the register KUKAN1 is incremented to designate the next section (step SA23). At this time, it is determined whether or not the incremented KUKAN1 value has become larger than the value M of the last section, that is, whether or not the musical sound of the accompaniment in that section has ended (step SA24). If the value of KUKAN1 is within the value M of the last section, the address of the new KUKAN1 head position is specified by the model data of the song (n) (step SA25), and the lyrics data read from that address To rewrite the display screen (step SA26). After this, unless the start switch is turned on and the data of the designated section is not completed, the loop of step SA5, step SA18 to step SA20, step SA21 or step SA22 is repeatedly executed to designate the designated section. The accompaniment data is sent to the
図15のステップSA17において、T1の値が「0」に達していない場合には、図16のフローチャートに移行して、STF2が「1(歌唱中)」であるか否かを判別し(ステップSA28)、STF2は図13のステップSA6において「1」にセットされているので、レジスタT2の値が「0」に達したか否かを判別する(ステップSA29)。T2の値が「0」に達したときは、模範データのアドレスをインクリメントして、次のデータを読み出す(ステップSA30)。 If the value of T1 has not reached “0” in step SA17 in FIG. 15, the process proceeds to the flowchart in FIG. 16 to determine whether STF2 is “1 (singing)” (step S17). SA28), since STF2 is set to “1” in step SA6 of FIG. 13, it is determined whether or not the value of register T2 has reached “0” (step SA29). When the value of T2 reaches “0”, the address of the model data is incremented and the next data is read (step SA30).
ステップSA30においてアドレスをインクリメントして次のデータを読み出したときは、現在指定している区間のデータが終了したか否かを判別する(ステップSA31)。その区間のデータが終了していない場合には、読み出したデータがイベントすなわち模範データのイベントであるか、又はタイムデータであるかを判別する(ステップSA32)。読み出したデータがイベントの場合には、その模範データのイベントのピッチと音量を抽出する(ステップSA33)。次に、図22のタイマインタラプト1のステップSB4においてマイクから取り込まれ、ステップSB5において検出され、ステップSB6においてRAM13にストアされた音声のピッチと音量の比較処理を行う(ステップSA34)。
When the address is incremented and the next data is read out in step SA30, it is determined whether or not the data in the currently designated section has been completed (step SA31). If the data in the section has not ended, it is determined whether the read data is an event, that is, an example data event or time data (step SA32). If the read data is an event, the pitch and volume of the event of the model data are extracted (step SA33). Next, a comparison process is performed between the pitch and volume of the audio captured from the microphone in step SB4 of the timer interrupt 1 in FIG. 22, detected in step SB5, and stored in the
次に、模範データのピッチおよび音量とマイクから取り込まれた音声のピッチおよび音量とを比較した結果、ピッチおよび音量のずれが所定値を超えているか否かを判別する(ステップSA35)。ずれが所定値を超えている場合には、図4に示すように、画面に警告表示(NG)を行い(ステップSA36)、ずれが所定値以下の場合には警告表示(表示されている場合には)を消灯する(ステップSA37)。警告表示又は警告表示の消灯の後は、音量およびピッチのずれをKUKAN1の値とともに、RAM13のエリアにストアする(ステップSA38)。この後は、ステップSA30に移行して次のデータの読み出しを行う。
Next, as a result of comparing the pitch and volume of the model data with the pitch and volume of the sound taken in from the microphone, it is determined whether or not the deviation of the pitch and volume exceeds a predetermined value (step SA35). If the deviation exceeds a predetermined value, a warning display (NG) is displayed on the screen as shown in FIG. 4 (step SA36), and if the deviation is less than the predetermined value, a warning display (if displayed) Is turned off (step SA37). After the warning display or the warning display is turned off, the volume and pitch deviation are stored in the area of the
読み出したデータが、ステップSA32においてタイムであると判別したときは、レジスタT2にタイムデータをストアする(ステップSA39)。次に、図13のステップSA5に移行して、スタートスイッチ2bがオンされたか否かを判別するが、このスイッチがオンされない場合には、図15のフローチャートに移行して、ステップSA17においてT1の値が「0」に達していない場合には、図16のフローチャートに移行して、STF2が「1」であると判別する。したがって、図22のタイマインタラプト1の処理により、図16のステップSA29においてT2の値が「0」に達したか否かを判別する。
When the read data is determined to be time in step SA32, the time data is stored in the register T2 (step SA39). Next, the process proceeds to step SA5 in FIG. 13 to determine whether or not the
T2の値が「0」に達したときは、ステップSA30において次のイベントデータを読み出して、現在指定されている区間のデータが終了でない限り、ステップSA32乃至ステップSA38の処理を繰り返す。読み出したデータがタイムの場合には、図13のステップSA5、図15のステップSA16、図15のステップSA28、ステップSA29へと順に移行して、T2の値が「0」に達したときは、読み出したイベントデータに基づいて、ステップSA32乃至ステップSA38の処理を繰り返しながら、マイクから取り込まれる音声データと模範データのピッチおよび音量のずれをリアルタイムで表示し、音声データのピッチおよび音量RAM13にストアする。
When the value of T2 reaches “0”, the next event data is read out in step SA30, and the processes in steps SA32 to SA38 are repeated unless the data in the currently specified section is completed. When the read data is time, the process proceeds to step SA5 in FIG. 13, step SA16 in FIG. 15, step SA28 in FIG. 15, and step SA29 in order, and when the value of T2 reaches “0”, Based on the read event data, while repeating the processing of step SA32 to step SA38, the pitch and volume deviation between the voice data and the model data captured from the microphone is displayed in real time and stored in the pitch and
図16のステップSA31において、現在指定されている区間のデータが終了したときは、KUKAN2の値をインクリメントして次の区間を指定する(ステップSA40)。このとき、インクリメントしたKUKAN2の値が最後の区間の値Mを超えているか否かを判別する(ステップSA41)。KUKAN2の値がMを超えていない場合には、曲(n)の模範データで新たなKUKAN2の先頭位置のアドレスを指定して(ステップSA42)、ステップSA32において、そのアドレスのデータを判別する。KUKAN2の先頭位置のデータはイベントであるので、ステップSA33乃至ステップSA38の処理を繰り返す。 In step SA31 of FIG. 16, when the data of the currently designated section is completed, the value of KUKAN2 is incremented to designate the next section (step SA40). At this time, it is determined whether or not the incremented KUKAN2 value exceeds the value M of the last section (step SA41). If the value of KUKAN2 does not exceed M, the address of the start position of the new KUKAN2 is designated by the model data of the song (n) (step SA42), and the data at that address is discriminated in step SA32. Since the data at the head position of KUKAN2 is an event, the processing from step SA33 to step SA38 is repeated.
図16のステップSA41において、KUKAN1の値が最終の区間の値Mより大きくなった場合、すなわち、曲の歌詞の部分が終了した場合には、STF2に「2(歌詞終了)」をセットする(ステップSA43)。そして、図13のステップSA5に移行して、スタートスイッチ2bがオンされたか否かを判別する。スタートスイッチ2bがオンされない場合には、図15のフローチャートに移行して、ステップSA17においてT1が「0」に達したか否かを判別し、T1が「0」に達したときは、上記した図15の処理を繰り返す。T1が「0」に達していない場合には、図16のフローチャートに移行して、ステップSA29においてT2が「0」に達したか否かを判別し、T2が「0」に達したときは、上記した図16の処理を繰り返す。
In step SA41 in FIG. 16, when the value of KUKAN1 becomes larger than the value M of the last section, that is, when the lyric portion of the song ends, “2 (end of lyric)” is set in STF2 ( Step SA43). Then, the process proceeds to step SA5 in FIG. 13 to determine whether or not the
図15のステップSA24において、KUKAN1の値が最終の区間の値Mより大きくなった場合、すなわち、曲の歌詞が終了し、且つ、伴奏のエンディング部分を含めて曲の伴奏が終了した場合には、STF1に「2(曲終了)」をセットする(ステップSA27)。そして、図13のステップSA5に移行して、スタートスイッチ2bがオンされたか否かを判別する。このスタートスイッチ2bがオンされたときは、終了した同じ曲の演奏を再び開始するが、スタートスイッチ2bがオンされない場合には、図15のフローチャートに移行する。そして、ステップSA16においてSTF1が「1」でなく「2」の場合、又は、ステップSA17においてT1が「0」に達していない場合には、図16のフローチャートに移行する。そして、ステップSA28においてSTF2が「1」でなく「2」の場合、又は、ステップSA29においてT2が「0」に達していない場合には、図17のフローチャートに移行する。
In step SA24 of FIG. 15, when the value of KUKAN1 is larger than the value M of the last section, that is, when the lyrics of the song are finished and the accompaniment of the song including the ending part of the accompaniment is finished. , “2 (end of music)” is set in STF1 (step SA27). Then, the process proceeds to step SA5 in FIG. 13 to determine whether or not the
図17において、STF1およびSTF2が共に「2」であるか否かを判別する(ステップSA44)。いずれか一方が「1」の場合には、図14のフローチャートに移行して上記した処理を繰り返すが、STF1およびSTF2が共に「2」である場合、すなわち、曲が終了している場合には、タイマインタラプト1を禁止する(ステップSA45)。次に、RAM13にストアされた音声データの音量およびピッチと、模範データの音量およびピッチとのずれに基づき評価画面を作成し(ステップSA46)。その評価画面を表示する(ステップSA47)。
In FIG. 17, it is determined whether or not both STF1 and STF2 are “2” (step SA44). If either one is “1”, the process proceeds to the flowchart of FIG. 14 and the above-described processing is repeated. However, when both STF1 and STF2 are “2”, that is, when the music is finished. The timer interrupt 1 is prohibited (step SA45). Next, an evaluation screen is created based on the difference between the volume and pitch of the audio data stored in the
図5および図1の表示部2に評価画面の一例を示す。評価対象のパラメータとしては、RAM13にストアしたピッチ(P)、音量(V)のずれの他に、発音タイミング(T)のずれがある。評価画面には、総合の評価だけでなく、各区間における評価も表示される。また、評価画面には「手本」および「特訓」のアイコンが表示される。カーソルスイッチ2cによって「手本」のアイコンが選択された場合には、図6に示すように、模範の歌と歌唱者の歌を聞き比べるために、区間聞き比べの画面が表示され、区間の指定を促すメッセージが表示される。なお、図5に示すように、間違った区間(0、1、2)だけを画面に表示してもよいし、図1に示すように、すべての区間(0、1、2…M)を画面に表示して、間違った区間(0、1、2)にNGマークを表示してもよい。
An example of the evaluation screen is shown on the
区間の指定を促すメッセージが表示された場合には、区間指定スイッチ2eおよびテンキースイッチ2d又はカーソルスイッチ2cのオン操作によって区間が指定されたか否かを判別する(ステップSA48)。区間指定スイッチ2e等のオン操作がされない場合には、戻るスイッチ2fがオンされたか否かを判別し(ステップSA49)、このスイッチがオンされたときは、RAM13にストアされている音声データの音量、ピッチのデータをクリアして(ステップSA50)、図13のステップSA2に移行して、曲選択画面を表示する。
If a message prompting the designation of a section is displayed, it is determined whether or not a section has been designated by turning on the
図17のステップSA48において、区間指定スイッチがオン操作されて区間が指定されたときは、その指定区間の番号をレジスタkにセットして(ステップSA51)、模範データ又はマイクから取り込まれた音声データのいずれか一方の再生を指定するフラグPBFを「0」にセットし(ステップSA52)、STF1を「1」にセットする(ステップSA53)。さらに、KUKAN1にkの値をセットする(ステップSA54)。 In step SA48 of FIG. 17, when the section designation switch is turned on and a section is designated, the number of the designated section is set in the register k (step SA51), and the model data or the audio data captured from the microphone Is set to "0" (step SA52), and STF1 is set to "1" (step SA53). Further, the value of k is set in KUKAN1 (step SA54).
次に、図18のフローチャートに移行して、曲(n)の伴奏データのKUKAN1(k)の先頭位置のアドレスを指定する(ステップSA55)。次に、指定されたアドレスの歌詞データを読み出して表示する(ステップSA56)。次に、アドレスをインクリメントして、次のデータすなわち伴奏データの最初のタイムデータを読み出す(ステップSA57)。そして、読み出したタイムデータをレジスタT1にストアする(ステップSA58)。 Next, proceeding to the flowchart of FIG. 18, the address of the head position of KUKAN1 (k) of the accompaniment data of the song (n) is designated (step SA55). Next, the lyrics data at the designated address is read and displayed (step SA56). Next, the address is incremented, and the next data, that is, the first time data of accompaniment data is read (step SA57). Then, the read time data is stored in the register T1 (step SA58).
次に、PBFが「1(音声再生)」であるか又は「0(模範再生)」であるかを判別する(ステップSA59)。PBFが「0」である場合には、STF2を「1」にセットして(ステップSA60)、KUKAN2にkの値をセットする(ステップSA61)。そして、曲(n)の模範データのKUKAN2(k)の先頭位置のアドレスを指定し(ステップSA62)、そのアドレスから読み出されたデータすなわち模範データの最初のタイムデータをレジスタT2にストアする(ステップSA63)。 Next, it is determined whether the PBF is “1 (audio reproduction)” or “0 (exemplary reproduction)” (step SA59). If PBF is “0”, STF2 is set to “1” (step SA60), and the value of k is set to KUKAN2 (step SA61). Then, the address of the start position of KUKAN2 (k) of the model data of the song (n) is designated (step SA62), and the data read from that address, that is, the first time data of the model data is stored in the register T2 ( Step SA63).
一方、ステップSA59において、PBFが「1」である場合には、フラグSTF3を「1(音声再生中)」にセットし(ステップSA64)、音声データの区間を指定するKUKAN3にkの値をセットする(ステップSA65)。そして、RAM13にストアされた音声データのうちKUKAN3(k)の先頭に対応する位置のアドレスを指定する(ステップSA66)。ステップSA63において、模範データの最初のタイムデータをT2にストアした後、又は、ステップSA66において、音声データのアドレスを指定した後は、タイマインタラプト2を禁止解除する(ステップSA67)。そして、図19のフローチャートに移行する。
On the other hand, if the PBF is “1” in step SA59, the flag STF3 is set to “1 (during audio playback)” (step SA64), and the value of k is set to KUKAN3 that designates the audio data section (Step SA65). Then, the address of the position corresponding to the head of KUKAN3 (k) in the audio data stored in the
したがって、一定時間が経過するたびに、図23のタイマインタラプト2を実行する。すなわち、T1のタイムデータの値をデクリメントし(ステップSC1)、発声タイミングを再認識できるように歌詞表示の色替え処理を行う(ステップSC2)。次に、STF2が「1」であるか否かを判別し(ステップSC3)、STF2が「1」である場合、すなわち模範データの再生の場合には、T2のタイムデータの値をデクリメントする(ステップSC4)。一方、STF2が「1」でない場合、すなわち音声データの再生の場合には、タイマインタラプト1のタイミングで指定したRAM13のアドレスにストアされた音声データを音源部17に出力する(ステップSC5)。音声データを出力した後、又は、T2の値をデクリメントした後は、メインルーチンに戻る。
Therefore, the timer interrupt 2 shown in FIG. 23 is executed every time a predetermined time elapses. That is, the time data value of T1 is decremented (step SC1), and the lyric display color changing process is performed so that the utterance timing can be recognized again (step SC2). Next, it is determined whether or not STF2 is “1” (step SC3). When STF2 is “1”, that is, when reproducing model data, the value of the time data of T2 is decremented ( Step SC4). On the other hand, when STF2 is not “1”, that is, when audio data is to be reproduced, the audio data stored at the address of
図19のフローチャートにおいて、STF1が「1」であるか否かを判別し(ステップSA68)、STF1が「1」である場合、すなわち指定された区間kの伴奏データを演奏している場合には、T1の値が「0」に達したか否かを判別する(ステップSA69)。T1の値が「0」に達したときは、アドレスをインクリメントして、次のデータを読み出す(ステップSA70)。このとき区間データが終了したか否かを判別し(ステップSA71)、区間データが終了していない場合には、読み出されたデータがイベントであるか又はタイムであるかを判別する(ステップSA72)。読み出されたデータがイベントである場合には音源部17に送付し(ステップSA73)、読み出されたデータがタイムである場合にはT1にストアする(ステップSA74)。 In the flowchart of FIG. 19, it is determined whether or not STF1 is “1” (step SA68). When STF1 is “1”, that is, when accompaniment data in the designated section k is being played. , It is determined whether or not the value of T1 has reached “0” (step SA69). When the value of T1 reaches “0”, the address is incremented and the next data is read (step SA70). At this time, it is determined whether or not the section data has ended (step SA71). If the section data has not ended, it is determined whether the read data is an event or a time (step SA72). ). If the read data is an event, it is sent to the sound source unit 17 (step SA73), and if the read data is time, it is stored in T1 (step SA74).
読み出されたイベントデータを音源部17に送付した後は、アドレスをインクリメントして、ステップSA70に移行して次のデータを読み出す。一方、読み出されたタイムデータをT1にストアした後は、ステップSA68に移行して、STF1が「1」である場合、且つ、ステップSA69においてT1の値が「0」に達したときは、アドレスをインクリメントして、ステップSA70に移行して次のデータを読み出す。すなわち、STF1が「1」である場合には、ステップSA71において区間データが終了でない限り、時間の経過に伴って、読み出された伴奏データのイベントを音源部17に順次送付する。
After the read event data is sent to the
ステップSA69においてT1の値が「0」に達していない場合には、図20のフローチャートにおいて、STF2が「1」であるか否かを判別し(ステップSA75)、STF2が「1」である場合、すなわち指定された区間kの模範データを再生している場合には、図6の画面から図8の模範再生の画面に移行して、T2の値が「0」に達したか否かを判別する(ステップSA76)。T2の値が「0」に達したときは、アドレスをインクリメントして、次のデータを読み出す(ステップSA77)。このとき区間データが終了したか否かを判別し(ステップSA78)、区間データが終了していない場合には、読み出されたデータがイベントであるか又はタイムであるかを判別する(ステップSA79)。読み出されたデータがイベントである場合には音源部17に送付し(ステップSA80)、読み出されたデータがタイムである場合にはT1にストアする(ステップSA81)。 If the value of T1 does not reach “0” in step SA69, it is determined whether or not STF2 is “1” in the flowchart of FIG. 20 (step SA75), and STF2 is “1”. That is, when reproducing the model data of the designated section k, the screen shifts from the screen of FIG. 6 to the screen of model playback of FIG. 8, and whether or not the value of T2 has reached “0”. A determination is made (step SA76). When the value of T2 reaches “0”, the address is incremented and the next data is read (step SA77). At this time, it is determined whether or not the section data has ended (step SA78). If the section data has not ended, it is determined whether the read data is an event or a time (step SA79). ). If the read data is an event, it is sent to the sound source unit 17 (step SA80), and if the read data is time, it is stored in T1 (step SA81).
読み出されたイベントデータを音源部17に送付した後は、アドレスをインクリメントして、ステップSA77に移行して次のデータを読み出す。一方、読み出されたタイムデータをT2にストアした後は、ステップSA75に移行して、STF2が「1」である場合、且つ、ステップSA76においてT2の値が「0」に達したときは、アドレスをインクリメントして、ステップSA77に移行して次のデータを読み出す。すなわち、STF2が「1」である場合には、ステップSA78において区間データが終了でない限り、時間の経過に伴って、読み出された模範データのイベントを音源部17に順次送付する。ステップSA78において、区間データが終了したときは、STF2を「0」にリセットし、PBFを「0(模範再生)」から「1(音声再生)」に反転する(ステップSA82)。
After the read event data is sent to the
ステップSA76においてT2の値が「0」に達していない場合には、図6の画面から図7の音声再生の画面に移行して、図21のフローチャートにおいて、STF3が「1」であるか否かを判別し(ステップSA83)、STF3が「1」である場合、すなわち指定された区間であるKUKAN3(k)の音声データを再生している場合には、KUKAN3(k)の指定区間内に音声データの読み出しが終了したか否かを判別する(ステップSA84)。指定区間内の音声データの読み出しが終了したときは、STF3を「0」にリセットし(ステップSA85)、PBFを「1(音声再生)」から「0(模範再生)」に反転する(ステップSA86)。そして、図18のフローチャートに移行して、図18乃至図21の処理を繰り返す。
If the value of T2 does not reach “0” in step SA76, the screen shifts from the screen of FIG. 6 to the audio playback screen of FIG. 7, and whether STF3 is “1” in the flowchart of FIG. (Step SA83), when STF3 is “1”, that is, when the audio data of KUKAAN3 (k), which is the designated section, is being reproduced, within the designated section of KUKAAN3 (k) It is determined whether or not the audio data has been read (step SA84). When reading of the audio data in the designated section is completed, the
図21のステップSA84において、音声データの読み出しが終了していない場合には、中止スイッチ2gがオンされたか否かを判別し(ステップSA87)、このスイッチがオンされていない場合には、図19のステップSA68に移行して、図19乃至図21の処理を繰り返す。一方、中止スイッチ2gがオンされたときは、STF1、STF2、STF3をすべて「0」にリセットし(ステップSA88)、タイマインタラプト2を禁止する(ステップSA89)。そして、図17のステップSA46に移行して、模範データの音量・ピッチとストアされた音声データの音量・ピッチとのずれに基づく評価画面を作成して、次の区間聞き比べに備える。 In step SA84 in FIG. 21, if the reading of the audio data is not completed, it is determined whether or not the cancel switch 2g is turned on (step SA87). If this switch is not turned on, FIG. The process proceeds to step SA68, and the processes of FIGS. 19 to 21 are repeated. On the other hand, when the stop switch 2g is turned on, the STF1, STF2, and STF3 are all reset to “0” (step SA88), and the timer interrupt 2 is prohibited (step SA89). Then, the process proceeds to step SA46 in FIG. 17 to create an evaluation screen based on the difference between the volume / pitch of the model data and the volume / pitch of the stored audio data, and prepare for the next section comparison.
図5に示した評価画面において、カーソルスイッチ2cの操作で「特訓」のアイコンが選択された場合には、図5の評価画面から図9の特訓の画面に移行して、ピッチ、音量、発音タイミングのずれが所定値より大きい区間を間違った区間と判定して、その区間を自動的に選択し、その区間を繰り返し特訓することを促す。この場合には、例えば、図9に示すように、模範の歌声に合わせるようなアドバイスを表示する。また、上記の聞き比べの場合と同様に、模範データの演奏を適宜再生してもよい。繰り返し特訓した結果、ピッチ、音量、発音タイミングのずれが所定値以下になった場合には、図10の画面を表示する。
In the evaluation screen shown in FIG. 5, when the “special training” icon is selected by operating the
以上のように、上記実施形態によれば、CPU11は、カラオケ曲の伴奏に応じてマイクから入力された歌唱者の音声信号をアナログからデジタルの音声データに変換して、RAM13のエリアに一時的に記憶し、RAM13又はROM14に予め記憶されたその曲に対する模範データ又はRAM13に一時的に記憶された音声データを選択的に読み出して音源部17によって再生させ、音声データと模範データとを比較して、曲に対す歌唱力を評価して表示部3に出力する。
したがって、音高や発声タイミングなどを間違って歌った箇所について、歌唱者がその間違いの程度を容易に認識して、正確な音高や発声タイミングなどを把握することで、歌唱力の向上を支援できる。
As described above, according to the above embodiment, the
Therefore, singers can easily improve the singing ability by easily recognizing the level of mistakes and singing the correct pitches and utterance timings, etc. it can.
この場合において、CPU11は、曲の所定区間ごとに音声データと模範データとを比較して各区間の評価結果を表示部3に出力する。
したがって、正確な音高や発声タイミングなどをきめ細かく指導することができる。
In this case, the
Therefore, it is possible to provide detailed guidance on accurate pitches and utterance timings.
また、上記実施形態においては、カラオケ装置の発明、すなわち物の発明について説明したが、このカラオケ装置内にフラッシュROMなどの不揮発性メモリを設けて、CD−ROMやFD(フレキシブルディスク)に記憶されているカラオケ情報処理のプログラム、あるいは、ネットワークインターフェース19を介して、インターネットなどのネットワークからダウンロードしたカラオケ情報処理のプログラムを、その不揮発性メモリにインストールして、CPU11がそのプログラムを実行する構成も可能である。この場合には、プログラムの発明、記録媒体の発明、および、情報処理方法の発明を実現する。
In the above embodiment, the invention of the karaoke apparatus, that is, the invention of the product has been described. However, a non-volatile memory such as a flash ROM is provided in the karaoke apparatus and stored in a CD-ROM or FD (flexible disk). It is also possible to install a karaoke information processing program or a karaoke information processing program downloaded from a network such as the Internet via the
すなわち、そのプログラムの発明は、曲の伴奏に応じて所定の音声入力手段から入力された第1の音声信号を所定の記憶手段に一時的に記憶する第1のステップと、前記記憶手段又は他の記憶手段に予め記憶された前記曲に対する第2の音声信号又は前記記憶手段に一時的に記憶された第1の音声信号を選択的に読み出して所定の再生手段に再生させる第2のステップと、前記第1の音声信号と前記第2の音声信号とを比較して前記曲に対する当該第1の音声信号の歌唱力を評価して当該評価結果を出力する第3のステップと、をコンピュータに実行させる。
したがって、音高や発声タイミングなどを間違って歌った箇所について、歌唱者がその間違いの程度を容易に認識して、正確な音高や発声タイミングなどを把握することで、歌唱力の向上を支援できる。
That is, the invention of the program includes a first step of temporarily storing, in the predetermined storage means, the first audio signal input from the predetermined audio input means in accordance with the musical accompaniment, and the storage means or the like. A second step of selectively reading out the second audio signal for the song stored in advance in the storage means or the first audio signal temporarily stored in the storage means and causing the predetermined reproduction means to reproduce the second audio signal; A third step of comparing the first audio signal and the second audio signal to evaluate the singing ability of the first audio signal for the song and outputting the evaluation result to a computer; Let it run.
Therefore, singers can easily improve the singing ability by easily recognizing the level of mistakes in the parts where they sang the pitch or utterance timing, etc. it can.
1 カラオケシステムのリモコン装置
2 スイッチ部
3 表示部
11 CPU
13 RAM
14 ROM
15 ビデオ処理部
16 オーディオ処理部
17 音源部
18 マイクアンプ
19 ネットワークインターフェース
DESCRIPTION OF
13 RAM
14 ROM
DESCRIPTION OF
Claims (5)
前記伴奏データの読み出しに応じて歌唱された歌唱音声データを所定の音声入力手段により入力して前記記憶手段に記憶させる記憶制御手段と、
この音声入力手段により入力された歌唱音声データと前記読み出された模範音声データとを比較して、前記曲に対する当該歌唱音声信号の歌唱力を評価して当該評価結果を出力する歌唱評価手段と、
この歌唱評価手段による評価結果の出力の後に、前記記憶手段に記憶された歌唱音声データ及び模範音声データを交互に読み出して出力する読み出し制御手段と、
を備えたことを特徴とするカラオケ装置。
Reading means for sequentially reading accompaniment data of the song and exemplary voice data singing the song from the predetermined storage means;
Storage control means for inputting singing voice data sung in response to reading of the accompaniment data by a predetermined voice input means and storing the data in the storage means;
Singing evaluation means for comparing the singing voice data input by the voice input means with the read out model voice data, evaluating the singing power of the singing voice signal for the song, and outputting the evaluation result; ,
After the output of the evaluation result by the singing evaluation means, the reading control means for alternately reading out and outputting the singing voice data and the model voice data stored in the storage means,
A karaoke apparatus comprising:
前記伴奏データの読み出しに応じて歌唱された歌唱音声データを所定の音声入力手段により入力して前記記憶手段に記憶させるステップと、
この音声入力手段により入力された歌唱音声データと前記読み出された模範音声データとを比較して、前記曲に対する当該歌唱音声信号の歌唱力を評価して当該評価結果を出力するステップと、
この評価結果の出力の後に、前記記憶手段に記憶された歌唱音声データ及び模範音声データを交互に読み出して出力するステップと、
をコンピュータに実行させることを特徴とするカラオケ情報処理のプログラム。 Sequentially reading accompaniment data of the song and exemplary voice data singing the song from the predetermined storage means;
Singing voice data sung in response to reading of the accompaniment data is input by a predetermined voice input means and stored in the storage means;
Comparing the singing voice data input by the voice input means with the read exemplary voice data, evaluating the singing power of the singing voice signal for the song, and outputting the evaluation result;
After the output of the evaluation result, the step of alternately reading out and outputting the singing voice data and the model voice data stored in the storage unit;
A karaoke information processing program characterized by causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007076101A JP2008233736A (en) | 2007-03-23 | 2007-03-23 | Karaoke device and program for karaoke information processing |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007076101A JP2008233736A (en) | 2007-03-23 | 2007-03-23 | Karaoke device and program for karaoke information processing |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008233736A true JP2008233736A (en) | 2008-10-02 |
Family
ID=39906560
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007076101A Pending JP2008233736A (en) | 2007-03-23 | 2007-03-23 | Karaoke device and program for karaoke information processing |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008233736A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8541153B2 (en) | 2010-01-12 | 2013-09-24 | Fuji Xerox Co., Ltd. | Toner for developing electrostatic image, developer for electrostatic image, toner cartridge, process cartridge, image forming method, and image forming apparatus |
US8911923B2 (en) | 2012-03-23 | 2014-12-16 | Fuji Xerox Co., Ltd. | Toner for developing electrostatic charge image, electrostatic charge image developer, toner cartridge, developer cartridge, process cartridge, image forming apparatus, and image forming method |
US8945806B2 (en) | 2012-03-23 | 2015-02-03 | Fuji Xerox Co., Ltd. | Electrostatic charge image developing toner, electrostatic charge image developer, toner cartridge, developer cartridge, process cartridge, image forming apparatus, and image forming method |
-
2007
- 2007-03-23 JP JP2007076101A patent/JP2008233736A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8541153B2 (en) | 2010-01-12 | 2013-09-24 | Fuji Xerox Co., Ltd. | Toner for developing electrostatic image, developer for electrostatic image, toner cartridge, process cartridge, image forming method, and image forming apparatus |
US8911923B2 (en) | 2012-03-23 | 2014-12-16 | Fuji Xerox Co., Ltd. | Toner for developing electrostatic charge image, electrostatic charge image developer, toner cartridge, developer cartridge, process cartridge, image forming apparatus, and image forming method |
US8945806B2 (en) | 2012-03-23 | 2015-02-03 | Fuji Xerox Co., Ltd. | Electrostatic charge image developing toner, electrostatic charge image developer, toner cartridge, developer cartridge, process cartridge, image forming apparatus, and image forming method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3598598B2 (en) | Karaoke equipment | |
JP3709631B2 (en) | Karaoke equipment | |
JP2956569B2 (en) | Karaoke equipment | |
JPH09258729A (en) | Tune selecting device | |
JP4321476B2 (en) | Electronic musical instruments | |
JPH0830284A (en) | Karaoke device | |
JP3975526B2 (en) | Karaoke equipment | |
JP4487632B2 (en) | Performance practice apparatus and performance practice computer program | |
JP2008233736A (en) | Karaoke device and program for karaoke information processing | |
JP4038836B2 (en) | Karaoke equipment | |
JP3861381B2 (en) | Karaoke equipment | |
JP4650182B2 (en) | Automatic accompaniment apparatus and program | |
JP2004205818A (en) | Karaoke machine | |
JP4171680B2 (en) | Information setting device, information setting method, and information setting program for music playback device | |
JP4175337B2 (en) | Karaoke equipment | |
JP2000047677A (en) | Karaoke device | |
JP5397637B2 (en) | Karaoke equipment | |
JP2002372981A (en) | Karaoke system with voice converting function | |
JP4007298B2 (en) | Karaoke device and program | |
JP2008233558A (en) | Electronic musical instrument and program | |
JP3887957B2 (en) | Karaoke equipment | |
JP3918308B2 (en) | Karaoke equipment | |
JP4453580B2 (en) | Karaoke system and karaoke device | |
JP4534926B2 (en) | Image display apparatus and program | |
JP3975528B2 (en) | Karaoke equipment |