JP4654889B2 - Playback device - Google Patents
Playback device Download PDFInfo
- Publication number
- JP4654889B2 JP4654889B2 JP2005333324A JP2005333324A JP4654889B2 JP 4654889 B2 JP4654889 B2 JP 4654889B2 JP 2005333324 A JP2005333324 A JP 2005333324A JP 2005333324 A JP2005333324 A JP 2005333324A JP 4654889 B2 JP4654889 B2 JP 4654889B2
- Authority
- JP
- Japan
- Prior art keywords
- voice
- data
- sound
- learner
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
Description
本発明は、手本となる音と学習者が発する音との違いを学習者に示す技術に関する。 The present invention relates to a technique for showing a learner the difference between a sound as a model and a sound emitted by a learner.
語学学習において、発音練習を行う際には、CD(Compact Disk)等の記録媒体に記録された模範音声を再生し、その模範音声の真似をして発音するという学習方法が広く用いられている。これは模範音声の真似をすることで正しい発音を身につけることを目的とするものである。このような学習を行う場合、学習者は自分の発音を客観的に把握し、模範音声との違いを認識して発音を改善していくこととなるが、模範音声と同じ発音ができているか否かを学習者自身が自分の発音を聞いて客観的に把握するのは難しい。そこで、例えば、特許文献1に開示されているように、学習者が客観的に自分の音声を把握できるようにする技術が考案されている。特許文献1に開示されている語学学習装置は、学習者の音声から母音を抽出し、抽出した母音のピッチや発話時間をグラフ化している。
さて、正しい発音を行うには、発音のピッチやリズム等の動的な変化を模範音声に合わせることが重要であると言われている。特許文献1に開示された技術によれば、母音のピッチや発話時間・発音タイミング等の静的なデータがグラフ化されるため、学習者は自分の音声を客観的に把握することができる。しかしながら、静的なデータが表示されるのみであり、例えば、発音リズム等の発音の動的な変化を把握することは難しいため、特許文献1に開示されている技術では、学習者と模範音声との発音リズムの動的な違いを把握し、どの点を改善すれば良いのかを見つけるのが難しいという問題がある。
Now, it is said that in order to perform correct pronunciation, it is important to match dynamic changes such as the pitch and rhythm of pronunciation with the model voice. According to the technique disclosed in
本発明は、上述した背景の下になされたものであり、その目的は、学習者の音声のリズムと、お手本の音声のリズムとの違いを学習者が把握できるようにすることにある。 The present invention has been made under the above-described background, and an object thereof is to enable a learner to understand the difference between a learner's voice rhythm and a model voice rhythm.
上述した課題を解決するために本発明は、発音すべき音に対応した音データを予め定められた区間に区切って記憶する記憶手段と、前記記憶手段から前記音データを読み出して再生処理をする再生手段と、収音した音に対応するデータを収音データとして生成する収音データ生成手段と、前記収音データに対して前記音データの区切りに対応する部分を認識し、対応する区切りを付加する位置付加手段と、前記各区間の時間長に対応した表示幅を有する表示区間を連ねて形成されるスケールを表示する表示手段と、前記再生手段による再生処理に同期して、前記音データの各区間における再生位置を前記スケールの各表示区間に対して表示させる第1表示制御手段と、前記収音データを再生処理する収音データ再生処理手段と、前記収音データ再生処理手段に同期して、前記位置付加手段により区切られた前記収音データの各区間における再生位置を前記スケールの各表示区間に対して表示する第2表示制御手段とを具備することを特徴とする再生装置を提供する。 In order to solve the above-described problems, the present invention is configured to store sound data corresponding to a sound to be sounded by dividing the sound data into predetermined sections, and to read the sound data from the storage means and perform reproduction processing. Reproducing means, sound collection data generating means for generating data corresponding to the collected sound as sound collection data, recognizing a portion corresponding to the sound data delimiter for the sound collection data, and corresponding delimiter Synchronizing with the reproduction processing by the reproducing means, the position adding means for adding, the display means for displaying the scale formed by connecting the display sections having the display width corresponding to the time length of each section, the sound data First display control means for displaying the reproduction position in each section of the scale for each display section of the scale, sound collection data reproduction processing means for reproducing the sound collection data, and the sound collection data And second display control means for displaying the reproduction position in each section of the collected sound data divided by the position adding means for each display section of the scale in synchronization with the reproduction processing means. Is provided.
この態様においては、前記記憶手段は複数の異なる音データを記憶し、前記記憶手段に記憶された複数の音データのひとつを選択する選択手段を有し、前記再生手段は、前記選択手段により選択された音データを前記記憶手段から読み出して再生処理をするようにしてもよい。 In this aspect, the storage means stores a plurality of different sound data, and has a selection means for selecting one of the plurality of sound data stored in the storage means, and the reproduction means is selected by the selection means. The reproduced sound data may be read from the storage means and reproduced.
本発明によれば、学習者は、学習者の音声のリズムと、お手本の音声のリズムとの違いを把握することができる。 According to the present invention, the learner can grasp the difference between the rhythm of the learner's voice and the rhythm of the model voice.
以下、図面を参照して本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[実施形態の構成]
図1は、本発明の実施形態に係る語学学習装置1のハードウェア構成を例示したブロック図である。図1に示したように、語学学習装置1の各部は、バス101に接続されており、このバス101を介して各部間で信号やデータの授受を行う。
[Configuration of the embodiment]
FIG. 1 is a block diagram illustrating a hardware configuration of a
マイクロホン109は、音声処理部108に接続されており、入力される音声を電気信号(以下、音声信号と称する)に変換して音声処理部108へ出力する。スピーカ110は、音声処理部108に接続されており、音声処理部108から出力される信号に対応した音を出力する。音声処理部108は、マイクロホン109から入力される音声信号をデジタルデータに変換して出力する機能や、音声を表すデジタルデータをアナログの音声信号に変換し、スピーカ110へ出力する機能を備えている。ここで、マイクロホン109には、語学学習装置1を使用する学習者の音声が入力されるため、音声処理部108において変換される音声信号のデジタルデータを学習者データと称し、マイクロホン109に入力された音声(学習者データが示す音声)を学習者音声と称する。
The
表示部106は、例えば、液晶ディスプレイ等の表示デバイスを備えており、CPU102の制御の下、文字列や各種メッセージ、語学学習装置1を操作するためのメニュー画面等を表示する。入力部107は、キーボードやマウス等(いずれも図示略)の入力装置を具備しており、キーの押下やマウスの操作等に応じて操作内容に対応した信号をCPU102へ出力する。
The
記憶部105は、HDD(Hard Disk Drive)装置を備えており、各種データを記憶する。具体的には、記憶部105は、音声処理部108から出力される学習者データを記憶する。また、記憶部105は、語学学習に用いられる例文を表す例文テキストデータと、ネイティブスピーカが例文を読み上げた時の音声(以下、模範音声と称する)を表すデジタルデータ(以下、模範音声データと称する)とを記憶している。記憶部105は、図2に例示したフォーマットの例文テーブルTB1を記憶しており、このテーブルに例文テキストデータと、模範音声データのファイル名と、各例文テキストデータを一意に識別する識別子とを対応付けて格納している。
The
また、記憶部105は、記憶している例文に対応して、図3に例示したフォーマットのピッチテーブルTB2を記憶している。ピッチテーブルTB2において、識別子フィールドには、例文テキストデータを一意に識別する識別子が格納されている。なお、この識別子は、例文テーブルTB1に格納されている識別子と同じ識別子である。
また、フレーム番号フィールドには、識別子フィールドの識別子で特定される例文の模範音声を、時間軸上で所定の時間枠(フレーム)で分割した時の各フレームを示す番号が格納される。例えば、1フレーム=100msecである場合、模範音声において「One centimeter is ten millimeters.」という例文が2.6秒で読み上げられていると、図4に示したように、音声は26のフレームに分割される。ピッチテーブルTB2には、この26の各フレームを示す1〜26の数字が格納される。
In addition, the
The frame number field stores a number indicating each frame when the exemplary voice of the example sentence specified by the identifier in the identifier field is divided in a predetermined time frame (frame) on the time axis. For example, when 1 frame = 100 msec, if the example voice “One centimeter is ten millimeters” is read out in 2.6 seconds, the voice is divided into 26 frames as shown in FIG. Is done. In the pitch table TB2,
また、ピッチフィールドには、模範音声の各フレーム時点における音声のピッチを示すピッチデータが格納される。例えば、図4に示したように、模範音声の時間軸上の3フレーム目の時点での音声のピッチがXである場合、図3に示したように、フレーム番号「3」が格納されている行に「X」が格納される。
また、単語フィールドには、どのフレームが、例文中のどの単語に対応しているかを示すデータが格納されている。例えば、「One centimeter is ten millimeters.」において、模範音声の時間軸上の1フレーム目の音声と、2フレーム目の音声とが例文の「One」に対応している場合、図3に示したように、フレーム番号「1」と「2」が格納されている行に「One」という文字列が格納される。
The pitch field stores pitch data indicating the pitch of the voice at each frame time of the model voice. For example, as shown in FIG. 4, when the pitch of the voice at the third frame on the time axis of the model voice is X, the frame number “3” is stored as shown in FIG. “X” is stored in the existing row.
The word field stores data indicating which frame corresponds to which word in the example sentence. For example, in “One centimeter is ten millimeters.”, The case where the first frame sound and the second frame sound on the time axis of the model sound correspond to the example sentence “One” is shown in FIG. In this way, the character string “One” is stored in the row where the frame numbers “1” and “2” are stored.
また、記憶部105は、図5に例示したフォーマットの単語テーブルTB3を記憶しており、このテーブルに、例文を示す識別子と、例文に含まれている各単語のテキストデータと、各単語の発話開始時間とを対応付けて格納している。
In addition, the
CPU(Central Processing Unit)102は、ROM(Read Only Memory)103に記憶されているプログラムを、RAM(Random Access Memory)104を作業エリアにして実行する。 A CPU (Central Processing Unit) 102 executes a program stored in a ROM (Read Only Memory) 103 using a RAM (Random Access Memory) 104 as a work area.
[実施形態の動作]
次に本実施形態の動作について説明する。
まず、学習者が例文の一覧の表示を指示する操作を行うと、CPU102は例文テーブルTB1に格納されている例文テキストデータを読み出し(図6:ステップSA1)、読み出したデータが表す例文の一覧を表示部106に表示する(ステップSA2)。この後、学習者が入力部107を操作し、表示された例文の一つを選択する操作を行うと(ステップSA3;YES)、CPU102は、表示部106に表示されている画面と、入力部107から送られる信号に基づいて、選択された例文を特定する(ステップSA4)。CPU102は、選択された例文を特定すると、例文テーブルTB1において、選択された例文に対応付けて格納されている模範音声データのファイル名を読み出す(ステップSA5)。例えば、図2に示したテーブルにおいて、識別子が「001」である例文が選択された場合、ファイル名「a001」が読み出される。
[Operation of the embodiment]
Next, the operation of this embodiment will be described.
First, when the learner performs an operation to instruct display of a list of example sentences, the
次にCPU102は、読み出したファイル名で特定される模範音声データを記憶部105から読み出し、読み出した模範音声データを音声処理部108へ出力する(ステップSA6)。また、CPU102は、表示部106を制御し、選択された例文と、例文の模範音声のピッチとを表示する(ステップSA7)。ここでは、識別子が「001」である例文が選択されているので、識別子「001」に対応付けて例文テーブルTB1に格納されている例文テキストデータが読み出され、識別子「001」が格納されているピッチテーブルTB2からピッチデータが読み出される。そして、図7に示したように、読み出された例文テキストデータに従って、選択された例文が表示され、読み出されたピッチデータに従って、例文の模範音声のピッチが表示される。
なお、図7において、表示される例文の長さ、およびピッチの長さは、模範音声データの全体の再生時間長に対応しており、例文の左端およびピッチ表示の左端が模範音声の再生開始時点を示しており、例文の右端およびピッチ表示の右端が模範音声の再生終了時点を表している。また、表示されるピッチは、各フレームのピッチをつないだ波形として表示される。
Next, the
In FIG. 7, the length of the displayed example sentence and the length of the pitch correspond to the entire playback time length of the model voice data, and the left end of the example sentence and the left end of the pitch display start playback of the model voice. The right end of the example sentence and the right end of the pitch display indicate the end point of reproduction of the model voice. The displayed pitch is displayed as a waveform connecting the pitches of the frames.
音声処理部108に模範音声データが入力されると、デジタルデータである模範音声データがアナログの信号に変換されてスピーカ110へ出力され、スピーカ110から模範音声が再生される。CPU102は、模範音声の再生が開始されると、表示部106を制御し、表示した例文において音声再生されている部分を示すバー10を表示する(ステップSA8)。例えば、CPU102は、フレーム「3」の部分(発音開始時点から見て200msec〜300msecの間)の音声が再生されているタイミングでは、図7(a)に示したように、フレーム「3」のピッチが表示されている部分を100msecの時間をかけてバー10が移動するように表示し、フレーム「4」の部分(発音開始時点から見て300msec〜400msecの間)の音声が再生されているタイミングでは、図7(b)に示したように、フレーム「4」のピッチが表示されている部分を100msecの時間をかけてバー10が移動するように表示する。このように、再生されるフレーム番号に同期してバー10の横方向の表示位置が制御される。
When the model voice data is input to the voice processing unit 108, the model voice data which is digital data is converted into an analog signal and output to the
CPU102は、模範音声の再生が終了すると、表示部106を制御し、例えば、「キーを押してから発音し、発音が終わったら再度キーを押してください」という、例文の発音を促すメッセージを表示する(ステップSA9)。学習者は、スピーカ110から出力された模範音声を聞いた後、メッセージに従って入力部107を操作し、模範音声を真似て例文を読み上げる。学習者の音声はマイクロホン109によって音声信号に変換され、変換された信号が音声処理部108へ出力される。音声処理部108は、マイクロホン109から出力された音声信号が入力されると、音声信号をデジタルデータである学習者データに変換する。この学習者データは、音声処理部108から出力され、記憶部105に記憶される。
When the reproduction of the model voice is finished, the
学習者が発音を終了して入力部107を操作すると(ステップSA10;YES)、CPU102は、学習者データが示す音声の長さを調整し、模範音声データが示す模範音声の長さと、学習者データが示す学習者の音声の長さとが同じとなるように学習者データを処理する(ステップSA11)。図8は、模範音声の波形とマイクロホン109に入力された学習者音声の波形とを例示した図である。図8においては、模範音声の波形および学習者音声の波形は同じ例文を発話した時のものを示しているが、発話速度が異なっているため、音声波形の長さが異なっている。CPU102は、模範音声データと学習者データを解析し、模範音声の長さと学習者音声の長さ(図8のΔt)を求める。図8に示したように、学習者音声の長さが模範音声の長さよりΔt長い場合、学習者音声の長さをΔt分だけ縮める処理を行う。
When the learner finishes pronunciation and operates the input unit 107 (step SA10; YES), the
次にCPU102は、模範音声の波形と学習者音声の波形とを、図9に示したように所定の時間間隔(100msec)で区切って複数のフレームに分割する。そして、模範音声の各フレームの音声波形と、学習者音声の各フレームの音声波形との対応付けをDP(Dynamic Programming)マッチング法を用いて行う(ステップSA12)。例えば、図9に例示した波形においては、模範音声のフレームA1は、学習者音声のフレームB1に対応付けされ、模範音声のフレームA3は、学習者音声のフレームB4に対応付けされる。
Next, the
CPU102は、模範音声と学習者音声との対応付けが終了すると、各音声波形を単語の発音毎に分割する(ステップSA13)。具体的には、まず、模範音声については、単語テーブルTB3から発話開始時間を読み出す。ここで、学習者が選択した例文が「One centimeter is ten centimeter.」であるので、まず、「One」の発話開始時間「0.0sec」が単語テーブルTB3から読み出される。CPU102は、図9に示したように、音声波形の「0.0sec」の位置のフレームに(フレームA1)単語の区切りを示す情報(以下、単語区切り情報Cと称する)を付加する。次にCPU102は「centimeter」の発話開始時間「0.2sec」を単語テーブルTB3から読み出し、発音開始から0.2sec後の位置に対応したフレーム(フレームA3)に単語区切り情報Cを付加する。
When the association between the model voice and the learner voice ends, the
CPU102は、模範音声について最後の単語「millimeters」まで単語区切り情報Cを付加すると、次に、学習者音声について単語区切り情報を付加する。まず、CPU102は、模範音声において単語区切り情報が付加されたフレームを抽出する。そして、抽出されたフレームに対応したフレームを、学習者音声において特定し、特定したフレームに単語区切り情報Cを付加する。例えば、単語区切り情報Cが付加されたフレームA1が抽出されると、上述したステップSA12の処理によってフレームA1はフレームB1に対応付けされているので、CPU102は、フレームA1に対応しているフレームB1を特定し、このフレームB1に単語区切り情報を付加する。また、単語区切り情報が付加されたフレームA3が抽出されると、上述したステップSA12の処理によってフレームA3はフレームB4に対応付けされているので、CPU102は、フレームA3に対応付けされたフレームB4を特定し、このフレームB4に単語区切り情報Cを付加する。
After adding the word break information C to the last word “millimeters” for the model voice, the
CPU102は、フレームに単語区切り情報を付加して音声波形を単語の発音毎に分割すると、学習者音声について、各単語の音声のピッチと発話時間とを算出する(ステップSA14)。例えば、学習者音声の「One」の場合、「One」の発音を表す音声波形として、フレームB1〜フレームB3までの音声波形が抽出される。そして、抽出した音声波形が解析され、音声のピッチと各単語の発話時間とが算出される。
When
次にCPU102は、記憶部105に記憶した学習者データを音声処理部108へ出力する(ステップSA15)。また、CPU102は表示部106を制御し、選択された例文と、ステップSA14で求めた学習者の音声のピッチとを、模範音声のピッチを表示した時と同様に表示する(ステップSA16)。ここで、例文の各単語およびピッチの横方向の表示長さは、模範音声のピッチを表示した時の表示長さと同じ長さにされる。
なお、表示される画面においては、例文の左端およびピッチ表示の左端が模範音声の再生開始時点を示しており、例文の右端およびピッチ表示の右端が模範音声の再生終了時点を表している。
Next, the
In the displayed screen, the left end of the example sentence and the left end of the pitch display indicate the playback start time of the model voice, and the right end of the example sentence and the right end of the pitch display indicate the playback end time of the model sound.
音声処理部108に学習者データが入力されると、デジタルデータである学習者データがアナログの信号に変換されてスピーカ110へ出力され、スピーカ110から学習者の音声が再生される。CPU102は、学習者の音声が再生されると、表示部106を制御し、表示した例文において音声再生されている部分を示すバーを表示する(ステップSA17)。
When learner data is input to the voice processing unit 108, the learner data that is digital data is converted into an analog signal and output to the
ここでCPU102は、学習者の「One」の発話時間が、模範音声の「One」の発話時間と同じである場合、模範音声を再生した時と同じ速度で「One」のピッチの表示区間を移動するようにバー10を表示する。即ち、学習者の「One」の発話時間が、模範音声の「One」の発話時間と同じ200msecであった場合、バー10は、「One」のピッチの表示区間を200msecの時間をかけて移動するように表示される。一方、学習者の「One」の発話時間が、模範音声の「One」の発話時間と異なり、例えば、300msecであった場合、バー10は、「One」のピッチの表示区間を300msecの時間をかけて移動するように表示される。即ち、表示画面において「One」の区間を移動するバー10の速度が、模範音声を再生した時のバー10の移動速度より遅くなるので、このバー10の移動を見た学習者は、自分の「One」の発話時間が模範音声の「One」の発話時間より長くなっていることを知ることができる。また、学習者の「One」の発話時間が例えば模範音声の「One」の発音より短い100msecあった場合、「One」のピッチの表示区間を100msecの時間をかけて移動するようにバー10が表示される。即ち、表示画面において「One」の区間を移動するバー10の速度が、模範音声を再生した時のバー10の移動速度より早くなるので、このバー10の移動を見た学習者は、自分の「One」の発話時間が模範音声の「One」の発話時間より短くなっていることを知ることができる。
Here, when the utterance time of the learner's “One” is the same as the utterance time of the model voice “One”, the
CPU102は、他の単語についても同様に、ステップSA14で算出した発話時間に従ってバー10を移動させて表示し、学習者の音声の再生が終了すると、表示部106を制御し、選択した例文の発音練習を再度行うのか、他の例文の発音練習を行うのかを確認するメニュー画面を表示する(ステップSA18)。学習者が入力部107を操作し、別の例文の発音練習を行う旨の操作を行った場合(ステップSA19;YES)、CPU102は、ステップSA1に処理の流れを戻し、ステップSA1以降の処理を再び実行する。また、学習者が入力部107を操作し、選択した例文の発音練習を再度行う旨の操作を行った場合(ステップSA20;YES)、CPU102は、ステップSA9に処理の流れを戻し、ステップSA9以降の処理を再び実行する。
Similarly, the
以上説明したように、本実施形態によれば、模範音声における発音リズムの動的な変化と、学習者の音声における発音リズムの動的な変化とが表示されるので、学習者は、自身の音声と、模範音声との発音リズムの違いを把握することができる。そして、模範音声との発音リズムの違いを把握することができるようになるので、発音を模範音声に近づけることが容易となる。 As described above, according to the present embodiment, the dynamic change of the pronunciation rhythm in the model voice and the dynamic change of the pronunciation rhythm in the learner's voice are displayed. It is possible to grasp the difference in pronunciation rhythm between voice and model voice. And since it becomes possible to grasp the difference in pronunciation rhythm with the model voice, it becomes easy to bring the pronunciation close to the model voice.
[変形例]
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、以下のように、他の様々な形態で実施可能である。
[Modification]
As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above, It can implement with other various forms as follows.
上述した実施形態においては、学習者の音声の再生位置を示すバーを表示する際、模範音声の再生位置を示すバーを同時に表示するようにしてもよい。このような態様によれば、模範音声に対してどの程度早く(遅く)発音しているかを具体的に知ることができる。また、学習者の音声のピッチを表示する際には、図10に示したように、模範音声のピッチを重ねて表示するようにしてもよい。 In the above-described embodiment, when the bar indicating the playback position of the learner's voice is displayed, the bar indicating the playback position of the model voice may be displayed at the same time. According to such an aspect, it is possible to specifically know how early (slow) the pronunciation of the model voice is. Further, when the pitch of the learner's voice is displayed, the pitch of the model voice may be displayed so as to overlap as shown in FIG.
上述した実施形態では、語学学習装置1は、フランス語やドイツ語等、英語だけでなく他の言語の例文と模範音声とを記憶して再生するようにしてもよい。
In the embodiment described above, the
上述した実施形態においては、模範音声および学習者の音声のピッチを表示しているが、ピッチを表示しないようにし、バー10を表示されている例文上に表示するようにしてもよい。また、ピッチを表示する代わりに時間軸を表示するようにしてもよい。
In the embodiment described above, the pitch of the model voice and the learner's voice is displayed, but the pitch may not be displayed, and the
上述した実施形態においては、バー10により音声の再生部分を表しているが、再生済みの部分の色を、再生されていない部分の色とは異なる色に変えるようにして音声の再生位置を表すようにしてもよい。
また、上述した実施形態においては、1フレームの時間間隔を100msecとしているが、1フレームの時間間隔は、100msec以外であってもよい。
また、上述した実施形態においては、例文を表示する際に単語毎に区切りを表示しているが、音素毎に区切りを表示するようにしてもよい。
また、上述した実施形態においては、音声のパワーの時間的変化を解析し、ピッチに替えて解析した音声パワーの時間的変化を表示するようにしてもよい。
In the above-described embodiment, the audio reproduction portion is represented by the
In the above-described embodiment, the time interval of one frame is 100 msec, but the time interval of one frame may be other than 100 msec.
Further, in the above-described embodiment, when displaying an example sentence, a break is displayed for each word, but a break may be displayed for each phoneme.
In the above-described embodiment, the temporal change in voice power may be analyzed, and the temporal change in voice power analyzed instead of the pitch may be displayed.
上述した実施形態においては、CPU102が実行するプログラムを記憶部105に記憶させ、CPU102は記憶部105からプログラムを読み出して実行するようにしてもよい。また、語学学習装置1に通信機能を持たせ、CPU102が実行するプログラムを通信ネットワークを介してダウンロードして記憶部105に記憶させるようにしてもよい。また、語学学習装置1は、CD−ROM等の記録媒体に記録されたプログラムを読みとり、読みとったプログラムを記憶部105に記憶するようにしてもよい。
In the embodiment described above, the program executed by the
1・・・語学学習装置、101・・・バス、102・・・CPU、103・・・ROM、104・・・RAM、105・・・記憶部、106・・・表示部、107・・・入力部、108・・・音声処理部、109・・・マイクロホン、110・・・スピーカ。
DESCRIPTION OF
Claims (2)
前記記憶手段から前記音データを読み出して再生処理をする再生手段と、
収音した音に対応するデータを収音データとして生成する収音データ生成手段と、
前記収音データに対して前記音データの区切りに対応する部分を認識し、対応する区切りを付加する位置付加手段と、
前記各区間の時間長に対応した表示幅を有する表示区間を連ねて形成されるスケールを表示する表示手段と、
前記再生手段による再生処理に同期して、前記音データの各区間における再生位置を前記スケールの各表示区間に対して表示させる第1表示制御手段と、
前記収音データを再生処理する収音データ再生処理手段と、
前記収音データ再生処理手段に同期して、前記位置付加手段により区切られた前記収音データの各区間における再生位置を前記スケールの各表示区間に対して表示する第2表示制御手段と
を具備することを特徴とする再生装置。 Storage means for storing sound data corresponding to the sound to be pronounced divided into predetermined sections;
Reproduction means for reading out the sound data from the storage means and performing reproduction processing;
Sound collection data generating means for generating data corresponding to the collected sound as sound collection data;
A position adding means for recognizing a portion corresponding to the delimiter of the sound data with respect to the collected sound data and adding a corresponding delimiter;
Display means for displaying a scale formed by connecting display sections having a display width corresponding to the time length of each section;
First display control means for displaying the reproduction position in each section of the sound data for each display section of the scale in synchronization with the reproduction processing by the reproduction means;
Sound collection data reproduction processing means for reproducing the sound collection data;
Second display control means for displaying the reproduction position in each section of the collected sound data divided by the position adding means for each display section of the scale in synchronization with the collected sound data reproduction processing means. A reproducing apparatus.
前記記憶手段に記憶された複数の音データのひとつを選択する選択手段を有し、
前記再生手段は、前記選択手段により選択された音データを前記記憶手段から読み出して再生処理をすること
を特徴とする請求項1に記載の再生装置。 The storage means stores a plurality of different sound data,
Selecting means for selecting one of a plurality of sound data stored in the storage means;
The playback apparatus according to claim 1, wherein the playback means reads out the sound data selected by the selection means from the storage means and performs playback processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005333324A JP4654889B2 (en) | 2005-11-17 | 2005-11-17 | Playback device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005333324A JP4654889B2 (en) | 2005-11-17 | 2005-11-17 | Playback device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007140079A JP2007140079A (en) | 2007-06-07 |
JP4654889B2 true JP4654889B2 (en) | 2011-03-23 |
Family
ID=38203022
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005333324A Expired - Fee Related JP4654889B2 (en) | 2005-11-17 | 2005-11-17 | Playback device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4654889B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4970392B2 (en) * | 2008-09-16 | 2012-07-04 | ウインボンド エレクトロニクス コーポレイション | Voice recording and playback method and electronic dictionary using the method |
JP6155102B2 (en) * | 2013-06-11 | 2017-06-28 | 株式会社ジャストシステム | Learning support device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003186379A (en) * | 2001-12-13 | 2003-07-04 | Animo:Kk | Program for voice visualization processing, program for voice visualization figure display and for voice and motion image reproduction processing, program for training result display, voice-speech training apparatus and computer system |
JP2005031604A (en) * | 2003-07-12 | 2005-02-03 | Ikuo Nishimoto | English learning system |
JP2005077678A (en) * | 2003-08-29 | 2005-03-24 | Casio Comput Co Ltd | Text and voice synchronizing device and text and voice synchronization processing program |
-
2005
- 2005-11-17 JP JP2005333324A patent/JP4654889B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003186379A (en) * | 2001-12-13 | 2003-07-04 | Animo:Kk | Program for voice visualization processing, program for voice visualization figure display and for voice and motion image reproduction processing, program for training result display, voice-speech training apparatus and computer system |
JP2005031604A (en) * | 2003-07-12 | 2005-02-03 | Ikuo Nishimoto | English learning system |
JP2005077678A (en) * | 2003-08-29 | 2005-03-24 | Casio Comput Co Ltd | Text and voice synchronizing device and text and voice synchronization processing program |
Also Published As
Publication number | Publication date |
---|---|
JP2007140079A (en) | 2007-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2003186379A (en) | Program for voice visualization processing, program for voice visualization figure display and for voice and motion image reproduction processing, program for training result display, voice-speech training apparatus and computer system | |
US20230317090A1 (en) | Voice conversion device, voice conversion method, program, and recording medium | |
JP2013025299A (en) | Transcription support system and transcription support method | |
JP5743625B2 (en) | Speech synthesis editing apparatus and speech synthesis editing method | |
JP4797597B2 (en) | Language learning device | |
JP4654889B2 (en) | Playback device | |
JP3617603B2 (en) | Audio information encoding method and generation method thereof | |
KR20060031449A (en) | Voice-based automatic lip-synchronization animation apparatus, voice-based automatic lip-synchronization animation method, and storage medium | |
JP2001134283A (en) | Device and method for synthesizing speech | |
JP2007139868A (en) | Language learning device | |
JP2000250401A (en) | Method and device for learning language, and medium where program is recorded | |
JP5605731B2 (en) | Voice feature amount calculation device | |
JP2001125599A (en) | Voice data synchronizing device and voice data generator | |
JP5093387B2 (en) | Voice feature amount calculation device | |
JP5042485B2 (en) | Voice feature amount calculation device | |
JPS6184771A (en) | Voice input device | |
JP4543919B2 (en) | Language learning device | |
JP5471138B2 (en) | Phoneme code converter and speech synthesizer | |
JP2010085581A (en) | Lyrics data display, lyrics data display method, and lyrics data display program | |
JPH02251998A (en) | Voice synthesizing device | |
JP5481958B2 (en) | Phoneme code converter and speech synthesizer | |
JPH11344997A (en) | Voice synthesis method | |
JP6387044B2 (en) | Text processing apparatus, text processing method, and text processing program | |
JP2006284645A (en) | Speech reproducing device, and reproducing program and reproducing method therefor | |
JPH1063287A (en) | Pronunciation trainer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081017 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100916 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101124 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101207 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140107 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |