JPS6348080B2 - - Google Patents
Info
- Publication number
- JPS6348080B2 JPS6348080B2 JP57088560A JP8856082A JPS6348080B2 JP S6348080 B2 JPS6348080 B2 JP S6348080B2 JP 57088560 A JP57088560 A JP 57088560A JP 8856082 A JP8856082 A JP 8856082A JP S6348080 B2 JPS6348080 B2 JP S6348080B2
- Authority
- JP
- Japan
- Prior art keywords
- audio signal
- input
- data
- silent
- stored
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired
Links
- 230000005236 sound signal Effects 0.000 claims description 38
- 238000000034 method Methods 0.000 claims description 9
- 238000005259 measurement Methods 0.000 claims description 4
- 230000004044 response Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 3
- 239000012141 concentrate Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
Landscapes
- Management Or Editing Of Information On Record Carriers (AREA)
- Selective Calling Equipment (AREA)
- Alarm Systems (AREA)
Description
【発明の詳細な説明】
〔発明の技術分野〕
本発明は音声応答、音声認識等の音声処理装置
において電気信号に変換された音声情報を所定の
処理に供するため音声信号から有効な語句成分の
みを抽出し出力記録媒体に格納する際の音声情報
の自動偏集方法に関するものである。[Detailed Description of the Invention] [Technical Field of the Invention] The present invention uses only effective word components from the audio signal in order to subject audio information converted to an electrical signal to predetermined processing in a speech processing device such as a speech response or speech recognition device. This invention relates to an automatic concentration method for audio information when extracting audio information and storing it on an output recording medium.
例えば、音声応答装置においては、予め各種の
断片的な語句を記憶装置に格納しておき、音声応
答させる際に前記語句のうちいくつかを選択しそ
れらを所定の順序で順次再生することにより、意
味のある応答文を適宜合成し出力するようにして
いた。この場合、記憶装置に格納する各語句の前
後に不要な無音部分が付いていると記憶装置にお
ける情報記憶効率の低下を招くばかりか、合成再
生時に不自然な応答文となる場合があり、また無
音部分は必要ならば合成再生時に適宜付加できる
ため記憶装置への語句の格納に際しては極力不要
な無音部分を排除し語句のみを格納することが望
ましい。
For example, in a voice response device, various fragmentary phrases are stored in a storage device in advance, and when making a voice response, some of the phrases are selected and sequentially reproduced in a predetermined order. Meaningful response sentences were appropriately synthesized and output. In this case, if there are unnecessary silent parts before and after each word to be stored in the storage device, not only will the information storage efficiency in the storage device be reduced, but also an unnatural response sentence may result during synthetic playback. If necessary, silent parts can be added as appropriate during synthetic reproduction, so when storing words in a storage device, it is desirable to eliminate unnecessary silent parts as much as possible and store only the words.
従来、この種の装置において語句情報を記憶装
置に格納するに際しては、予め各種語句を適宜間
隔で発声しこれを磁気テープ等の記録媒体に一旦
記録し、これを再生しながら操作者が語句の最初
と最後を判定し、語句を読出す際に必要なアドレ
ス、検索用識別符号等の付加情報を付加しつつ他
の記録媒体に再度記録するようにして偏集してい
た。 Conventionally, when storing phrase information in a storage device in this type of device, various phrases are uttered at appropriate intervals in advance and recorded on a recording medium such as a magnetic tape, and the operator records the phrases while playing back the recorded phrases. The beginning and end of words are determined, and additional information such as an address and a search identification code necessary for reading a word is added thereto, and the words are recorded again on another recording medium.
すなわち第1図に偏集前の音声波形を模式的に
示すように、語句W1,W2の前後に無音区間S
1,S2,S3が存在するが、この無音区間S1
〜S3を操作者が聴き取り、認識して語句の最初
と最後を判断し語句の偏集を行なつていた。この
ため偏集に長時間を要し、また操作者の肉体的、
精神的負担も少なくなかつた。 That is, as shown schematically in Figure 1, which shows the speech waveform before decentralization, there are silent sections S before and after the words W1 and W2.
1, S2, and S3 exist, but this silent section S1
An operator listens to and recognizes ~S3, determines the beginning and end of a phrase, and performs a collection of phrases. For this reason, it takes a long time to concentrate, and the operator's physical
The mental burden was also considerable.
これに対し、簡易に偏集を行なうには、例えば
操作者の指示により発声者が予定の語句を発声
し、この語句のみを操作者が記録媒体に記録しつ
つ語句の前後の処理(付加情報の付加等)を行な
うようにすることが考えられる。しかしながら、
この場合偏集作業自体は再干簡略化されるが、偏
集に際し必ず発声音と操作者が同時に存在しなけ
ればならないこと、その場合は編集のための記録
装置が存在し且つ周囲の騒音等の少ない録音スタ
ジオ等のごとき場所でなければならないことなど
付帯的条件が増加し、結果的に編集が一層煩雑と
なる。 On the other hand, in order to easily perform biasing, for example, a speaker utters a scheduled word based on an operator's instructions, and the operator records only this word on a recording medium while processing the words before and after the word (additional information It is conceivable to add however,
In this case, the concentration work itself is simplified once again, but the vocalization and the operator must be present at the same time during concentration, in which case a recording device for editing must be present, and surrounding noise etc. must be present at the same time. This increases additional conditions, such as the need to be in a location such as a recording studio with limited availability, and as a result, editing becomes even more complicated.
本発明は音声情報の編集に際し全く人手を介さ
ずに語句情報を自動偏集することを可能とする音
声処理装置における音声情報の自動偏集方法を提
供することを目的としている。
SUMMARY OF THE INVENTION An object of the present invention is to provide a method for automatically collecting speech information in a speech processing device, which makes it possible to automatically collect word information without any human intervention when editing speech information.
本発明は無音区間を認定するための基準レベル
と基準時間を予め任意に設定し、これらを入力音
声信号と比較し、認定された無音区間と無音区間
の間のレベルの高い部分のみを語句音声と認定し
この部分のみを付加情報を付して出力媒体に格納
することを特徴としている。
The present invention arbitrarily sets a reference level and a reference time in advance to identify a silent section, compares these with the input audio signal, and selects only the parts with a high level between the certified silent sections and the word/phrase speech. The feature is that only this part is recognized and stored on the output medium with additional information attached.
第2図は本発明の一実施例を適用した装置の構
成を示すものであり、第3図は同実施例の処理の
流れを示すものである。
FIG. 2 shows the configuration of an apparatus to which an embodiment of the present invention is applied, and FIG. 3 shows the processing flow of the embodiment.
第2図において、1は被編集音声信号が入力さ
れる入力端子であり、偏集格納すべき音声情報が
電気信号の形で且つ語句毎にある程度以上の時間
間隔を存して入力される。2は入力端子1に入力
されたアナログ音声信号をデイジタル情報に変換
するA/D(アナログ/デイジタル)変換装置、
3は無音区間を認定するための基準レベルおよび
基準時間を設定入力する入力装置である。 In FIG. 2, reference numeral 1 denotes an input terminal into which the audio signal to be edited is input, and the audio information to be concentrated and stored is inputted in the form of an electric signal and at a certain time interval or more for each word. 2 is an A/D (analog/digital) converter that converts the analog audio signal input to the input terminal 1 into digital information;
Reference numeral 3 denotes an input device for setting and inputting a reference level and reference time for recognizing a silent section.
ここで、基準レベルとは無音でないとみなす最
低レベルであつて、入力音声信号中の雑音等と音
声を弁別するための情報であり、この基準レベル
未満を音声無しすなわち無音状態とみなす。また
基準時間とは語句中であるとみなす最低の無音状
態持続時間であつて、語句中の短時間の無音状態
と語句間の無音状態とを弁別するための情報であ
り、この基準時間以上無音状態が持続したとき、
それを語句間の無音区間とみなす。したがつて、
この基準時間は前述した入力音声信号の語句の時
間間隔に基づいて設定する。 Here, the reference level is the lowest level that is considered to be non-silent, and is information for distinguishing speech from noise etc. in the input audio signal, and anything below this reference level is considered to be no speech, that is, a silent state. In addition, the reference time is the minimum duration of silence that is considered to be in a word and phrase, and is information for distinguishing between a short period of silence within a word and a silence between words. When the condition persists,
This is regarded as a silent interval between words. Therefore,
This reference time is set based on the time interval between words of the input audio signal described above.
4はバツフアメモリ4aを有する偏集処理装置
であり、例えば電子計算機等を用いて構成され、
A/D変換装置2から入力されるデイジタル化さ
れた入力音声信号について前述の入力装置3によ
り入力設定された基準レベルおよび基準時間に基
づいて語句間の無音区間と語句とを弁別し語句部
分のみを抽出する。5は偏集処理装置4で抽出さ
れた語句の音声情報を出力記録媒体に格納する出
力記録装置である。 4 is a concentrated processing device having a buffer memory 4a, which is configured using, for example, an electronic computer,
Based on the reference level and reference time input and set by the input device 3 described above, the digitized input audio signal input from the A/D converter 2 is discriminated between silent intervals between words and phrases, and only the word portions are discriminated. Extract. Reference numeral 5 denotes an output recording device that stores audio information of words extracted by the polarization processing device 4 on an output recording medium.
このような構成における動作を第3図を参照し
て説明する。 The operation in such a configuration will be explained with reference to FIG.
本来の偏集処理に先立ち、予備処理として入力
装置3によつて、先に述べた基準レベルおよび基
準時間の設定入力を行なう(処理P1)と、これ
らの情報が偏集処理装置4内のバツフアメモリ4
aに格納される(処理P2)。次に本来の編集処理
が開始されると、まず入力端子1からの入力被編
集音声信号が入力され(処理P3)、A/D変換装
置2でA/D変換されデイジタル情報にコード化
される(処理P4)。このようにしてデイジタル化
された入力音声信号が偏集処理装置4内でバツフ
アメモリ4aに保持された基準レベルと比較され
(処理P5)、基準レベル以上の場合フラグAがセ
ツトされているか否かを調べ(処理P6)、セツト
されていない場合には該入力音声信号を出力記録
装置5に与えて出力記録媒体に格納し(処理
P7)、その後、次の音声信号入力処理(処理P3)
に移行する。 Prior to the actual concentration processing, the aforementioned reference level and reference time settings are entered through the input device 3 as a preliminary process (processing P1), and this information is stored in the buffer memory in the concentration processing device 4. 4
a (processing P2). Next, when the original editing process is started, the input audio signal to be edited is first input from the input terminal 1 (processing P3), A/D converted by the A/D converter 2, and encoded into digital information. (Processing P4). The input audio signal digitized in this way is compared with the reference level held in the buffer memory 4a within the concentration processing device 4 (processing P5), and if it is equal to or higher than the reference level, it is determined whether flag A is set or not. Check (processing P6), and if it is not set, give the input audio signal to the output recording device 5 and store it in the output recording medium (processing
P7), then the next audio signal input processing (processing P3)
to move to.
入力音声信号が基準レベルと比較され(処理
P5)、入力音声信号が基準レベル未満の無音状態
である場合はフラグBがセツトされているか否か
を調べ(処理P8)、セツトされていない場合には
その継続時間が基準時間以上か否かが判定される
(処理P9)。無音継続時間が基準時間未満である
場合は入力音声信号が無音区間データとしてバツ
フアメモリ等に保存され同時に無音区間データが
保存されていることを示すフラグAがセツトされ
(処理10)、しかる後に次の音声信号入力処理(処
理P3)に移行する。 The input audio signal is compared to a reference level (processed
P5), if the input audio signal is in a silent state below the reference level, check whether flag B is set (processing P8), and if not set, check whether the duration is longer than the reference time or not. is determined (processing P9). If the silence duration time is less than the reference time, the input audio signal is stored as silence section data in a buffer memory, etc., and at the same time, a flag A indicating that the silence section data is saved is set (processing 10), and then the next step is performed. Shift to audio signal input processing (processing P3).
無音継続時間の判定(処理P9)の結果、無音
継続時間が基準時間以上となつた場合には、語句
間の無音区間が検出された場合であるので無音継
続時間の計測データを初期化するとともに、保存
されていた無音区間データをクリアし且つフラグ
Aをリセツトし(処理P11)、それまでに出力記
録媒体に格能された一連の音声データを1語とし
てアドレス、検索用識別符号等の付加情報を付加
し(処理P12)、次の音声データ処理用の初期化
処理(処理P13)を行なつた後、以後無音状態が
継続する場合の入力無音データを読みとばすため
のフラグBをセツトして(処理P14)、次の音声
信号入力処理(処理P3)に移行する。したがつ
て、この状態で無音データが入力された場合は、
レベル認識処理(処理P5)を経て、フラグBの
セツトの有無が判定され(処理P8)、フラグBが
セツトされているので、直ちに次の音声信号入力
処理(処理P3)に移行する。 As a result of determining the silence duration (processing P9), if the silence duration is equal to or greater than the reference time, this means that a silence interval between words has been detected, so the measurement data for the silence duration is initialized. , clears the saved silent section data and resets flag A (processing P11), and adds an address, search identification code, etc. to the series of audio data that has been output to the output recording medium as one word. After adding information (processing P12) and performing initialization processing for the next audio data processing (processing P13), flag B is set to skip input silent data if the silent state continues. (processing P14), and moves to the next audio signal input processing (processing P3). Therefore, if silent data is input in this state,
After level recognition processing (processing P5), it is determined whether flag B is set (processing P8), and since flag B is set, the process immediately moves to the next audio signal input processing (processing P3).
入力音声信号のレベル判定(処理P5)の結果、
入力音声信号が基準レベル以上であつて、フラグ
Aがセツトされていると判定(処理P6)された
場合、保存されている無音区間データは語句中の
短かい無音部分であるので、それをそのまま出力
記録媒体に格納し(処理P15)、次いで保存され
ていた無音区間データをクリアしフラグAをリセ
ツトし計測時間(無音持続時間)を初期化し(処
理P16)、しかる後に入力音声データを出力記録
媒体に格納して(処理P7)、次の音声信号の取り
込み(処理P3)に移る。 As a result of input audio signal level judgment (processing P5),
If it is determined that the input audio signal is above the reference level and flag A is set (processing P6), the saved silent section data is a short silent section in a word, so it is left as is. Store it in the output recording medium (processing P15), then clear the saved silent section data, reset flag A, initialize the measurement time (silent duration) (processing P16), and then output and record the input audio data. The audio signal is stored in the medium (processing P7), and the process moves on to capturing the next audio signal (processing P3).
このようにして、入力音声信号のうち、語句情
報のみが自動的に弁別抽出され、所要の情報が付
加されて出力記録媒体に格納される。したがつ
て、音声情報の偏集格納作業が飛躍的に簡素化さ
れる。 In this way, only word information is automatically extracted from the input audio signal, and the required information is added and stored on the output recording medium. Therefore, the task of collecting and storing audio information is dramatically simplified.
なお本発明は上述し且つ図面に示す実施例にの
み限定されることなく、その要旨を変更しない範
囲内で種々変形して実施することができる。 Note that the present invention is not limited to the embodiments described above and shown in the drawings, but can be implemented with various modifications without changing the gist thereof.
例えば、上記実施例において、入力端子1に入
力される音声信号は記録媒体から再生された信号
でも、マイクロホン等を介して直接入力された信
号でも良い、もちろん、編集処理された音声デー
タは音声応答における格納音声データとして用い
るだけでなく、音声認識等の音声処理にあたつて
も語句の弁別は必要であるので、このような音声
処理の入力処理として本発明は応用できる。 For example, in the above embodiment, the audio signal input to the input terminal 1 may be a signal reproduced from a recording medium or a signal input directly via a microphone, etc. Of course, the edited audio data may be a signal that is input as a voice response. Since word discrimination is necessary not only for use as stored voice data in , but also for voice processing such as voice recognition, the present invention can be applied to input processing for such voice processing.
また、処理のアルゴリズムも第3図に示したも
のに限らず、要は予め設定した基準レベルにより
無音状態を認識し、この無音状態がやはり予め設
定した基準時間以上継続した場合にのみ、その無
音区間の開始前までの一連の音声データを1語句
とみなして格納し、その無音区間は不要データと
して排除するものであればよい。 In addition, the processing algorithm is not limited to the one shown in Figure 3, but the point is that silence is recognized based on a preset reference level, and only when this silence continues for longer than a preset reference time, the silence is detected. It is sufficient to store a series of audio data up to the start of the section as one word and to exclude the silent section as unnecessary data.
本発明によれば、音声情報の編集に際しての語
句情報の自動編集処理を実現し得る音声処理装置
における音声情報の自動編集方法を提供すること
ができる。
According to the present invention, it is possible to provide an automatic editing method of audio information in an audio processing device that can realize automatic editing processing of phrase information when editing audio information.
第1図は処理すべき音声情報波形の一例を示す
模式的音声波形図、第2図は本発明の一実施例の
適用された自動編集装置の構成を示すブロツク
図、第3図は本発明の一実施例の処理の流れを示
すフローチヤートである。
1……入力端子、2……A/D変換装置、3…
…入力装置、4……編集処理装置、4a……バツ
フアメモリ、5……出力記録装置。
FIG. 1 is a schematic audio waveform diagram showing an example of the audio information waveform to be processed, FIG. 2 is a block diagram showing the configuration of an automatic editing device to which an embodiment of the present invention is applied, and FIG. 3 is a diagram of the present invention. 2 is a flowchart showing the processing flow of one embodiment. 1...Input terminal, 2...A/D converter, 3...
...Input device, 4...Editing processing device, 4a...Buffer memory, 5...Output recording device.
Claims (1)
音声情報を所定の処理に供するため音声信号から
有効な成分のみを抽出し出力記録媒体に格納する
にあたり、 外部から予め設定した無音状態を判定する基準
レベルおよび同無音状態を判定する基準時間とに
基づき、 第1条件として、入力音声信号が前記基準レベ
ル未満であり且つ入力無音データを読み飛ばすた
めのフラグBがセツトされているときは、次の音
声信号の入力に移行し、 第2条件として、入力音声信号が前記基準レベ
ル未満であり且つ入力無音データを読み飛ばすた
めのフラグBがリセツトされており且つ基準レベ
ル未満持続時間が前記基準時間未満のときは、当
該入力音声信号を無音区間データとしてバツフア
メモリに保存し且つバツフアメモリに無音区間デ
ータが保存されていることを示すフラグAをセツ
トした後に次の音声信号の入力に移行し、 第3条件として、入力した音声信号が前記基準
レベル未満であり且つ基準レベル未満持続時間が
前記基準時間以上のときは、基準レベル未満持続
時間の計測データを初期化し、既にバツフアメモ
リに保存されている無音区間データのクリアを行
ない、バツフアメモリに無音区間データが保存さ
れていることを示すフラグAをリセツトし、出力
記録媒体に対し格納済みの一連の音声データを一
語とするためにアドレス、検索用識別符号等の付
加情報を付加し、次の音声データ処理に備えて切
期化処理を行い、これ以後無音状態が継続する場
合の入力無音データを読み飛ばすためのフラグB
をセツトした後に次の音声信号の入力に移行し、 第4条件として、入力した音声信号が前記基準
レベル以上であり且つバツフアメモリに無音区間
データが保存されていることを示すフラグAがセ
ツトされているときは、当該無音区間データを出
力記録媒体に格納し、既にバツフアメモリに保存
されている無音区間データのクリアを行ない、バ
ツフアメモリに無音区間データが保存されている
ことを示すフラグAをリセツトし、基準レベル未
満持続時間の計測データを初期化し、出力記録媒
体に音声信号を格納した後に次の音声信号の入力
に移行し、 第5条件として、入力した音声信号が前記基準
レベル以上であり且つバツフアメモリに無音区間
データが保存されていることを示すフラグAがリ
セツトされているときは、当該音声信号を出力記
録媒体に格納した後に次の音声信号の入力に移行
する処理を行うことを特徴とする音声処理装置に
おける音声情報の自動偏集方法。[Claims] 1. In extracting only effective components from an audio signal and storing them in an output recording medium in order to subject the audio information converted to an electrical signal to predetermined processing in the audio processing device, silence preset from the outside is provided. Based on the reference level for determining the state and the reference time for determining the silent state, the first condition is that the input audio signal is less than the reference level, and a flag B for skipping the input silent data is set. If so, the next audio signal is input, and the second condition is that the input audio signal is less than the reference level, flag B for skipping input silent data is reset, and the duration of the input audio signal is less than the reference level. is less than the reference time, the input audio signal is stored in the buffer memory as silent section data, and a flag A indicating that silent section data is stored in the buffer memory is set, and then the input of the next audio signal is started. However, as a third condition, if the input audio signal is less than the reference level and the duration of less than the reference level is longer than the reference time, the measurement data of the duration of less than the reference level is initialized and the data is stored in the buffer memory. Clears the silent section data stored in the buffer memory, resets flag A indicating that silent section data is stored in the buffer memory, and sends an address to the output recording medium in order to convert the stored series of audio data into one word. Flag B for adding additional information such as a search identification code, performing a termination process in preparation for the next audio data processing, and skipping input silent data when the silent state continues thereafter.
After setting, the next audio signal is input, and as a fourth condition, a flag A is set indicating that the input audio signal is above the reference level and that silent section data is stored in the buffer memory. If the silent interval data is stored in the output recording medium, the silent interval data already stored in the buffer memory is cleared, and the flag A indicating that the silent interval data is stored in the buffer memory is reset. After initializing the measurement data of the duration below the reference level and storing the audio signal in the output recording medium, the input of the next audio signal is started, and as a fifth condition, the input audio signal is at the reference level or higher and the buffer memory is When a flag A indicating that silent section data is stored is reset, the audio signal is stored in the output recording medium and then processing is performed to input the next audio signal. A method for automatic concentration of audio information in an audio processing device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP57088560A JPS58205196A (en) | 1982-05-25 | 1982-05-25 | Automatic editting of voice information for voice processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP57088560A JPS58205196A (en) | 1982-05-25 | 1982-05-25 | Automatic editting of voice information for voice processor |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS58205196A JPS58205196A (en) | 1983-11-30 |
JPS6348080B2 true JPS6348080B2 (en) | 1988-09-27 |
Family
ID=13946250
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP57088560A Granted JPS58205196A (en) | 1982-05-25 | 1982-05-25 | Automatic editting of voice information for voice processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS58205196A (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5862365A (en) * | 1981-10-08 | 1983-04-13 | Mitsubishi Electric Corp | Engine igniter |
JPS60163278A (en) * | 1984-02-03 | 1985-08-26 | Japan Radio Co Ltd | Method for deleting soundless part in digital sound recording |
JPS60205598A (en) * | 1984-03-30 | 1985-10-17 | 日本電気株式会社 | Memory unit for digital voice signal |
JPS60169700U (en) * | 1984-04-19 | 1985-11-11 | オムロン株式会社 | Speech analysis and synthesis device |
JPS61189600A (en) * | 1985-02-19 | 1986-08-23 | 岩崎通信機株式会社 | Voice storage reproducer |
JPS6252784A (en) * | 1985-08-30 | 1987-03-07 | Pioneer Electronic Corp | Editing device |
JPH0679240B2 (en) * | 1985-09-27 | 1994-10-05 | 富士通株式会社 | Voice recorder |
JPS62125400A (en) * | 1985-11-27 | 1987-06-06 | 松下電器産業株式会社 | Digital recorder/reproducer |
JPS63197997A (en) * | 1987-02-12 | 1988-08-16 | 三洋電機株式会社 | Message transmission system |
JP2006227363A (en) * | 2005-02-18 | 2006-08-31 | Nhk Computer Service:Kk | Device and program for generating dictionary for broadcast speech |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5579500A (en) * | 1978-12-11 | 1980-06-14 | Hitachi Ltd | Speech answering system |
JPS5774796A (en) * | 1980-10-28 | 1982-05-11 | Citizen Watch Co Ltd | Voice recorder |
-
1982
- 1982-05-25 JP JP57088560A patent/JPS58205196A/en active Granted
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5579500A (en) * | 1978-12-11 | 1980-06-14 | Hitachi Ltd | Speech answering system |
JPS5774796A (en) * | 1980-10-28 | 1982-05-11 | Citizen Watch Co Ltd | Voice recorder |
Also Published As
Publication number | Publication date |
---|---|
JPS58205196A (en) | 1983-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0887788B1 (en) | Voice recognition apparatus for converting voice data present on a recording medium into text data | |
JPS5862699A (en) | Voice recognition equipment | |
JPS6348080B2 (en) | ||
JPH0234113B2 (en) | ||
JP3822534B2 (en) | Response control apparatus, method, response control program, and recording medium | |
JPS6029800A (en) | Voice analysis system | |
JPH07272447A (en) | Voice data editing system | |
US20040257943A1 (en) | Data reproducing device and control method of data reproducing device | |
US20040028384A1 (en) | Digital recording/reproducing apparatus | |
JP2003099094A (en) | Voice processing device | |
JP2555029B2 (en) | Voice recognition device | |
JPH07261779A (en) | Syllable recognition device | |
KR20070042000A (en) | Method for setting the title for a chapter of moving picture stream and apparatus therefor | |
JPH04158400A (en) | Information recording/reproducing device | |
JPH07296506A (en) | Sound recording/reproducing device | |
JP2005107617A5 (en) | ||
JP2001069436A (en) | Speaker information recording device and retrieving device | |
JPS5975299A (en) | Voice recognition equipment | |
AU736314B2 (en) | Audio spotting advisor | |
JPH11212590A (en) | Voice processor, recording medium with voice recognition program recorded, and recording medium with processing program recorded | |
JP2000132190A (en) | Voice recording and reproducing device | |
JPH07201133A (en) | Sound signal processor | |
JPS59105697A (en) | Voice recognition equipment | |
JP2000148189A (en) | Speech processing device | |
JPH11175100A (en) | Recorder or reproducing device |