[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPH0558555B2 - - Google Patents

Info

Publication number
JPH0558555B2
JPH0558555B2 JP8736490A JP3649087A JPH0558555B2 JP H0558555 B2 JPH0558555 B2 JP H0558555B2 JP 8736490 A JP8736490 A JP 8736490A JP 3649087 A JP3649087 A JP 3649087A JP H0558555 B2 JPH0558555 B2 JP H0558555B2
Authority
JP
Japan
Prior art keywords
tone
section
input
phonetic symbol
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP8736490A
Other languages
Japanese (ja)
Other versions
JPS6311999A (en
Inventor
Tadao Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Electric Co Ltd filed Critical Nippon Electric Co Ltd
Publication of JPS6311999A publication Critical patent/JPS6311999A/en
Publication of JPH0558555B2 publication Critical patent/JPH0558555B2/ja
Granted legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は中国語の音声認識装置に関し、特に、
中国語の漢字を検索する場合に有用な中国語の音
声認識装置に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a Chinese speech recognition device, and in particular,
This invention relates to a Chinese speech recognition device that is useful when searching for Chinese characters.

〔従来の技術〕[Conventional technology]

従来、中国語の漢字の検索にはタブレツト方式
が採用されている。このタブレツト方式における
入力では、中国語の全漢字がタブレツト上に印刷
された漢字にコードが付けられ、タブレツト上の
漢字が人手により検出され、ペンタツチ等の押下
により漢字コードが情報処理システムに入力され
る。
Traditionally, a tablet method has been used to search for Chinese characters. In this tablet method of input, all Chinese characters are printed on the tablet, and codes are attached to the characters, the characters on the tablet are detected manually, and the kanji codes are input into the information processing system by pressing a pen-touch or similar device. Ru.

一方、日本語では、単語レベルで発音された音
声を認識し、単語レベルで検索する装置が、すで
に実用化されている。
On the other hand, in Japanese, devices that recognize pronunciation at the word level and search at the word level have already been put into practical use.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

しかしながら、従来、中国語の単語を構成する
漢字を音声で認識する装置はなかつた。そのため
中国語の漢字の入力の際には、タブレツト上の中
国語の全漢字の内から1個の漢字を検出しなけれ
ばならないため多大の入力時間を必要とするとい
う欠点がある。
However, until now, there has been no device that recognizes the Chinese characters that make up Chinese words by voice. Therefore, when inputting Chinese characters, it is necessary to detect one character from among all the Chinese characters on the tablet, resulting in a disadvantage that a large amount of input time is required.

〔問題点を解決するための手段〕[Means for solving problems]

本発明の中国語の音声認識装置は、 音声を電気信号に変えアナログ・デジタル変換
を行う音声入力手段と、 この音声入力手段でアナログ・デジタル変換さ
れた音声信号を符号化する音声符号化制御手段
と、 この音声符号化制御手段で符号化された音声符
号化データを記憶する記憶手段と、 中国語の発音記号、声調およびこれら発音記号
および声調認識する合わせて発音された音声と対
応した音声符号化データを標準パターンとして予
め記憶する標準パターンフアイル手段と、 この標準パターンフアイル手段からの標準パタ
ーンとしての音声符号化データおよび前記記憶手
段からの音声符号化データを比較する比較手段
と、 この比較手段での比較結果が一致を示すとき、
前記標準パターンフアイル手段から一致のとれた
音声符号化データに対応する発音記号および声調
を認識結果として出力する出力手段とを含む。
The Chinese speech recognition device of the present invention includes a speech input means for converting speech into an electrical signal and performing analog-to-digital conversion, and a speech encoding control means for encoding the speech signal converted from analog to digital by the speech input means. a storage means for storing the encoded voice data encoded by the voice encoding control means; a phonetic symbol for Chinese, a tone, and a voice code that corresponds to the voice pronounced by recognizing these phonetic symbols and tone; a standard pattern file means for storing encoded data as a standard pattern in advance; a comparing means for comparing the audio encoded data as a standard pattern from the standard pattern file means and the audio encoded data from the storage means; When the comparison result shows a match,
and output means for outputting phonetic symbols and tone tones corresponding to the matched audio encoded data from the standard pattern file means as recognition results.

〔実施例〕〔Example〕

次に本発明について図面を参照しながら詳細に
説明する。
Next, the present invention will be explained in detail with reference to the drawings.

第1図を参照すると本発明の適用されるシステ
ムは、本発明の一実施例である中国語の音声認識
装置1と、情報処理システム7と、発音記号と声
調からなる組の順に中国語の漢字/数字文字パタ
ーンをフアイルするための漢字文字パターンフア
イル8とを備えている。
Referring to FIG. 1, the system to which the present invention is applied includes a Chinese speech recognition device 1 which is an embodiment of the present invention, an information processing system 7, and a Chinese language speech recognition device 1 that is an embodiment of the present invention, an information processing system 7, and a Chinese language speech recognition device 1 that is an embodiment of the present invention. A kanji character pattern file 8 is provided for storing kanji/numeric character patterns.

本発明の一実施例は、音声を入力するための音
声入力部2、データ入力のためのキーボード4、
発音記号、声調、中国語の漢字、および入力デー
タの少なくとも1つを表示するためのCRT3、
音声符号化データ、論理アドレス、発音記号およ
び声調を北京語音表の順にフアイルするための標
準パターンフアイル6、およびこれらの構成要素
を制御する制御部5から構成されている。
One embodiment of the present invention includes a voice input section 2 for inputting voice, a keyboard 4 for inputting data,
CRT3 for displaying at least one of phonetic symbols, tones, Chinese characters, and input data;
It is comprised of a standard pattern file 6 for storing audio encoded data, logical addresses, phonetic symbols and tones in the order of the Mandarin phonetic table, and a control section 5 that controls these components.

次にこの音声を入力し認識する中国語の音声認
識装置1の動作を第1図、第2図および第3図を
参照して詳細に説明する。音声認識の前提とし
て、標準パターンフアイル6の作成が必要であ
る。この標準パターンフアイル6の作成は以下の
ようにして行なわれる。第2図を参照すると、例
えば発音記号“wo”と声調“第3声(〓)”とを
合わせて音声“wo”が発音されるとき、キーボ
ード4で発音記号データ“wo”および声調記号
データ“3”が打鍵される。このようにして打鍵
されたデータ“wo”および“3”は、キーボー
ド制御部58の発音/声調記号データ部582を
介してフアイル制御部57に与えられ、発音/声
調記号書込部572により標準パターンフアイル
6の所定のアドレス、例えば第3図に示すアドレ
スn7に記憶される。このときデータ“wo”およ
び“3”がフアイル制御部57に与えられるとと
もに、フアイル作成処理である旨の信号が検索/
フアイル作成検出部62に与えられる。
Next, the operation of the Chinese speech recognition device 1 which inputs and recognizes this speech will be explained in detail with reference to FIGS. 1, 2, and 3. As a prerequisite for speech recognition, it is necessary to create a standard pattern file 6. This standard pattern file 6 is created as follows. Referring to FIG. 2, for example, when the sound "wo" is pronounced by combining the phonetic symbol "wo" and the tone "3rd tone (〓)", the keyboard 4 is used to display the phonetic symbol data "wo" and the tone symbol data. “3” is pressed. The data “wo” and “3” pressed in this way are given to the file control unit 57 via the pronunciation/tone symbol data section 582 of the keyboard control section 58, and are sent to the file control section 57 via the pronunciation/tone symbol data section 582, and are stored as standard data by the pronunciation/tone symbol writing section 572. It is stored at a predetermined address in the pattern file 6, for example address n7 shown in FIG. At this time, the data "wo" and "3" are given to the file control unit 57, and a signal indicating that file creation processing is being performed is sent to the search/file control unit 57.
It is given to the file creation detection section 62.

このような状態で発音された音声“wo”は、
音声入力部2で電気信号に変換され増幅されロー
パスフイルタを介してアナログ・デジタル変換さ
れる。この一例は、米国特許4239936号公報第3
図および第4欄の記載を参照できる。このように
変換されたデジタル形式の音声電気信号は、音声
符号化制御部2において、例えば適応型差動パル
ス符号変調(ADPCM)方式によりデジタル符号
化される。このような方式でデジタル符号化され
た音声符号化データは記憶部61に記憶されたあ
と読出され、検索/フアイル作成検出部62に与
えられる。検索/フアイル作成検出部62は前述
の信号でフアイル作成処理であることを検出して
いるため、与えられた音声符号化データをフアイ
ル制御部57の音声符号化データ書込部571に
与える。この音声符号化データ書込部571は、
標準パターンフアイル6の所定のアドレス、例え
ば第3図に示すアドレスn7に音声符号化データを
記憶する。このような方式で第3図に示す「阿」、
「日」、「在」、「本」、「中」、「〓」、「国」、「
文」、
「学」、「慰」のそれぞれの音声符号化データ、発
音記号および声調の組が所定のアドレスに格納さ
れ、標準パターンフアイル6が作成される。次に
本発明の一実施例の音声認識処理について詳細に
説明する。まず、発声された音声“wo”は、音
声入力部2でデイジタル信号に変換され、音声符
号化制御部2においてデジタル符号化され、音声
符号化データとして記憶部61に記憶される。こ
のときはキーボード4からのデータは与えられて
いないため、記憶部61から読出された音声符号
化データは、検索/フアイル作成検出部62で検
索処理と検出され、比較制御部51に与えられ
る。一方、標準パターンフアイル6からは、音声
符号化データ読出部573により音声符号化デー
タが順次読出され、比較制御部51に与えられ
る。比較制御部51では、検索/フアイル作成検
出部62から与えられるデータと、音声符号化デ
ータ読出部573から順次与えられるデータとが
順次比較される。一致判断部52は比較結果デー
タに基づいて、一致または不一致の判断がなされ
る。一致と判断されない限り、比較終了検出部5
3で標準パターンフアイル6の最終データと判断
されるまで比較制御部51で比較動作が繰返され
る。この結果、最終データまで不一致と判断され
続けたときには、比較終了検出部53で終了信号
を発生する。エラー表示制御部55はこの終了信
号に応答してエラーメツセージ読出部575にエ
ラーメツセージ読出指示を送出する。エラーメツ
セージ読出部575にエラーメツセージ読出指示
を送出する。エラーメツセージ読出部575はこ
の指示に応答して標準パターンフアイル6からエ
ラーメツセージを読出し、エラーメツセージ表示
部562に送出する。エラー表示制御部55は前
記終了信号に応答してエラーメツセージ表示部5
62に表示指示を出力する。エラーメツセージ表
示部562はこの表示指示に応答して、エラーメ
ツセージ読出部575から与えられるエラーメツ
セージをCRT3に表示する。このエラーメツセ
ージは中国語の発音が悪く標準パターンフアイル
6には記憶されていない発音である旨が示され、
発音で検索する人はもう一度正しい中国語の発音
での発声を試みる。
The sound “wo” pronounced in this condition is
The audio input unit 2 converts the signal into an electrical signal, amplifies it, and converts it from analog to digital through a low-pass filter. An example of this is U.S. Pat. No. 4,239,936 No. 3.
Reference may be made to the figures and the description in column 4. The digital audio electrical signal converted in this manner is digitally encoded in the audio encoding control section 2 using, for example, an adaptive differential pulse code modulation (ADPCM) method. The audio encoded data digitally encoded in this manner is stored in the storage section 61 and then read out and provided to the search/file creation detection section 62. Since the search/file creation detection unit 62 detects that file creation processing is being performed using the above-mentioned signal, it supplies the given audio encoded data to the audio encoded data writing unit 571 of the file control unit 57 . This audio encoded data writing section 571 is
The audio encoded data is stored at a predetermined address in the standard pattern file 6, for example address n7 shown in FIG. In this way, "A" shown in Figure 3,
"Japan", "Zai", "hon", "chu", "〓", "country", "
Sentence",
A set of audio encoded data, pronunciation symbols, and tones for each of "Gaku" and "Yoshi" is stored at a predetermined address, and a standard pattern file 6 is created. Next, speech recognition processing according to an embodiment of the present invention will be described in detail. First, the uttered voice "wo" is converted into a digital signal by the voice input section 2, digitally encoded by the voice encoding control section 2, and stored in the storage section 61 as voice encoded data. At this time, since no data is provided from the keyboard 4, the audio encoded data read from the storage section 61 is detected as a search process by the search/file creation detection section 62, and is provided to the comparison control section 51. On the other hand, audio encoded data is sequentially read out from the standard pattern file 6 by the audio encoded data reading section 573 and provided to the comparison control section 51. The comparison control section 51 sequentially compares the data provided from the search/file creation detection section 62 and the data sequentially provided from the audio encoded data reading section 573. The match determination unit 52 determines whether the data matches or does not match based on the comparison result data. Unless it is determined that there is a match, the comparison end detection unit 5
The comparison operation is repeated by the comparison control unit 51 until the data is determined to be the final data of the standard pattern file 6 at step 3. As a result, if it continues to be determined that the data do not match up to the final data, the comparison end detection section 53 generates an end signal. In response to this end signal, the error display control section 55 sends an error message reading instruction to the error message reading section 575. An error message read instruction is sent to the error message read section 575. In response to this instruction, the error message reading section 575 reads out the error message from the standard pattern file 6 and sends it to the error message display section 562. The error display control section 55 responds to the end signal to display the error message display section 5.
A display instruction is output to 62. In response to this display instruction, the error message display section 562 displays the error message provided from the error message reading section 575 on the CRT 3. This error message indicates that the Chinese pronunciation is bad and is not stored in the standard pattern file 6.
Those searching by pronunciation will try again to use the correct Chinese pronunciation.

一方、前記一致判断部52で一致と判断される
と、発音記号発生指示部54はフアイル制御部5
7の発音/声調記号読出部574に読出指示を出
す。この読出指示に応答して、発音/声調記号読
出部574は、標準パターンフアイル6から発音
記号“wo”と声調“3”とを読み出し通信制御
部59の送信部591を介して情報処理システム
7に送出する。これとともに、発音記号発生指示
部54は表示指示をCRT制御部56の発音/声
調記号表示部561に与え、この発音/声調記号
表示部561は発音/声調記号読出部574から
の発音記号“wo”および声調“3”をCRT3に
表示する。
On the other hand, if the match determination unit 52 determines that there is a match, the phonetic symbol generation instruction unit 54 sends the phonetic symbol generation instruction unit 54 to the file control unit
A reading instruction is issued to the pronunciation/tone symbol reading unit 574 of No. 7. In response to this read instruction, the pronunciation/tone symbol reading section 574 reads out the pronunciation symbol "wo" and the tone "3" from the standard pattern file 6, and sends them to the information processing system 7 via the transmission section 591 of the communication control section 59. Send to. At the same time, the phonetic symbol generation instruction section 54 gives a display instruction to the pronunciation/tone symbol display section 561 of the CRT control section 56, and this pronunciation/tone symbol display section 561 outputs the phonetic symbol "wo" from the pronunciation/tone symbol reading section 574. ” and tone “3” are displayed on the CRT3.

次に本発明の応用例であるこの発音記号“wo”
および声調“3”を与えられた情報処理システム
7および漢字文字パターンフアイル8の構成およ
びそれらの動作について第1図、第4図および第
5図を参照して詳細に説明する。第1図および第
4図を参照すると、中国語の音声認識装置1の制
御部5から与えられる発音記号“wo”と声調
“3”は情報処理システム7の通信制御部71を
介して記憶部72に記憶される。発音/声調比較
部73は記憶部72から読出される発音記号
“wo”および声調“3”と、漢字文字パターンフ
アイル8の第5図に示される発音記号“A”およ
び声調“1”とが比較される。比較結果が不一致
であるため、不一致が終了検出部74に通知され
る。終了検出部74は発音/声調比較部73で、
漢字文字パターンフアイル8の全ての発音記号/
声調と記憶部72から与えられる発音記号/声調
との比較が終了したか否かを判断し、終了してい
なければ終了するまで比較動作を順次繰返すよう
発音/声調比較部73に指示する。発音/声調比
較部73で、記憶部72から読出される発音記号
“wo”および声調“3”と、漢字文字パターンフ
アイル8の第5図に示される発音記号“wo”お
よび声調“3”とが比較される。比較結果は一致
を示すため、第5図に示される発音記号“wo”
および声調“3”と同じ組にある漢字文字パター
ン“1.我”が記憶部72に記憶される。この漢字
文字パターン“1.我”は記憶部72から通信制御
部71を介して制御部5に送られる。
Next, the phonetic symbol “wo” which is an application example of the present invention.
The configurations and operations of the information processing system 7 and the Kanji character pattern file 8 given the tone "3" will be explained in detail with reference to FIGS. 1, 4, and 5. Referring to FIGS. 1 and 4, the pronunciation symbol “wo” and tone “3” given from the control unit 5 of the Chinese speech recognition device 1 are transmitted to the storage unit via the communication control unit 71 of the information processing system 7. 72. The pronunciation/tone comparison unit 73 compares the phonetic symbol “wo” and tone “3” read from the storage unit 72 with the phonetic symbol “A” and tone “1” shown in FIG. 5 of the kanji character pattern file 8. be compared. Since the comparison result is a mismatch, the end detection unit 74 is notified of the mismatch. The end detection section 74 is a pronunciation/tone comparison section 73,
All phonetic symbols of Kanji character pattern file 8/
It is determined whether the comparison between the tone and the pronunciation symbol/tone given from the storage section 72 has been completed, and if the comparison has not been completed, the pronunciation/tone comparison section 73 is instructed to repeat the comparison operation sequentially until the comparison is completed. The pronunciation/tone comparison unit 73 compares the phonetic symbol “wo” and tone “3” read from the storage unit 72 with the phonetic symbol “wo” and tone “3” shown in FIG. 5 of the kanji character pattern file 8. are compared. The comparison result shows a match, so the phonetic symbol “wo” shown in Figure 5
The kanji character pattern “1. Ga” in the same group as tone “3” is stored in the storage unit 72. This kanji character pattern "1. w" is sent from the storage section 72 to the control section 5 via the communication control section 71.

発音/声調比較部73で、漢字文字パターンフ
アイル8からの全ての発音記号/声調が比較され
た結果、一致がとられないまま、終了検出部74
で終了が検出されたときには、エラーメツセージ
発生部75はエラーメツセージを発生する。この
エラーメツセージは通信制御部71を介して制御
部5に与えられる。次に情報処理システム7から
読出された漢字文字パターンおよびエラーメツセ
ージの選択表示処理について第1図、第2図、お
よび第5図を参照して詳細に説明する。
The pronunciation/tone comparing unit 73 compares all the phonetic symbols/tones from the kanji character pattern file 8, and as a result, no match is found, and the end detecting unit 74
When the end is detected, the error message generating section 75 generates an error message. This error message is given to the control section 5 via the communication control section 71. Next, the process of selecting and displaying the Kanji character patterns and error messages read out from the information processing system 7 will be described in detail with reference to FIGS. 1, 2, and 5.

まず漢字文字パターンの表示処理について以下
説明する。第1図および第2図を参照すると、情
報処理システム7から与えられた漢字文字パター
ン「1.我」は通信制御部59の受信部592およ
びCRT制御部56の漢字文字パターン表示部5
63を介してCRT3に表示される。このとき漢
字文字パターンは「1.我」一文字のみであるため
選択処理をする必要はない。なお、CRT画面に
はこの漢字文字パターン「1.我」の他、発音/声
調記号読出部574により標準パターンフアイル
6から読出され、発音/声調記号表示部561を
介してCRT3に発音記号「wo」および声調
「3」が表示されている。従つて、CRT画面には
「wo」および「3」の他「1.我」が表示される。
次に漢字文字パターンの表示のために選択処理の
必要な例を説明する。
First, the display processing of Kanji character patterns will be explained below. Referring to FIGS. 1 and 2, the kanji character pattern "1. が" given from the information processing system 7 is transmitted to the receiving section 592 of the communication control section 59 and the kanji character pattern display section 5 of the CRT control section 56.
63 to be displayed on the CRT3. At this time, since the kanji character pattern is only one character "1. w", there is no need to perform selection processing. In addition to this kanji character pattern "1. w", the CRT screen also displays the phonetic symbol "wo" which is read out from the standard pattern file 6 by the pronunciation/tone symbol reading section 574 and displayed on the CRT 3 via the pronunciation/tone symbol display section 561. ” and tone “3” are displayed. Therefore, in addition to "wo" and "3", "1. w" is displayed on the CRT screen.
Next, an example of selection processing required for displaying a Kanji character pattern will be explained.

検索は“我在日本国学〓中文”であるため、
「我」の次にキーボード4から発音記号データ
「ZAI」および声調記号データ“4”が入力され
るとともに「zai」が発音され音声入力部2で入
力される。このあと前述と同じ方式で標準パター
ンフアイル6の論理アドレスn2から発音記号
「ZAI」および声調「3」が読出されCRT3に表
示されるとともに情報処理システム7に送られ
る。情報処理システム7では発音記号「ZAI」お
よび声調「3」と一致のとれる漢字文字パターン
「1.再、2.在、3.〓」が漢字文字パターンフアイル
7から読み出され制御部5に送出される。制御部
5では受信部592および漢字文字パターン表示
部563を介してCRT3に「1.再、2.在、3.〓」
が表示される。検索者はこのCRT3画面をみて、
キーボード4から数字データ「3」を打鍵する。
この数字データ「3」はキーボード制御部58の
数字データ部581を介してCRT制御部56の
漢字文字パターン選択部564に与えられる。漢
字文字パターン選択部564は漢字文字パターン
表示部563により表示されているパターン「1.
再、2.在、3.〓」のうち「3.〓」のみを表示する
よう選択指示を、漢字文字パターン表示部563
に与える。漢字文字パターン表示部563はこの
指示に応答して「3.〓」のみを選択し、CRT3
に表示する。
Since the search is “Japanese Japanese Studies〓Chinese”,
Next to "wa", phonetic symbol data "ZAI" and tone symbol data "4" are input from the keyboard 4, and "zai" is pronounced and input by the voice input section 2. Thereafter, the phonetic symbol "ZAI" and the tone "3" are read out from the logical address n2 of the standard pattern file 6 in the same manner as described above, and are displayed on the CRT 3 and sent to the information processing system 7. In the information processing system 7, the kanji character pattern ``1. re, 2. zai, 3.〓'' that matches the phonetic symbol ``ZAI'' and the tone ``3'' is read out from the kanji character pattern file 7 and sent to the control unit 5. be done. The control unit 5 sends “1. re, 2. present, 3.〓” to the CRT 3 via the receiving unit 592 and the kanji character pattern display unit 563
is displayed. The searcher looks at this CRT3 screen,
Enter the numerical data "3" from the keyboard 4.
This numerical data “3” is given to the Kanji character pattern selection unit 564 of the CRT control unit 56 via the numerical data unit 581 of the keyboard control unit 58. The kanji character pattern selection section 564 selects the pattern "1." displayed by the kanji character pattern display section 563.
Kanji character pattern display section 563 instructs selection to display only "3.〓" among "re, 2.zai, 3.〓".
give to In response to this instruction, the kanji character pattern display section 563 selects only “3.〓” and displays the CRT3.
to be displayed.

次に制御部5から情報処理システム7に与えら
れた発音記号および声調が漢字文字パターンフア
イル8にないとき発生されるエラーメツセージの
制御部5での処理について説明する。第2図を参
照すると、第1図の情報処理システム7から発生
されるエラーメツセージは通信制御部59の受信
部592およびCRT制御部56の漢字文字パタ
ーン表示部563を介してCRT3に表示される。
この時CRT3には、発音/声調記号読出部57
4により標準パターンフアイル6から読出され、
発音/声調記号表示部561を介して送られた発
音記号および声調が表示されている。したがつ
て、CRT3には発音記号、声調の他エラーメツ
セージが合成されて表示される。この結果、検索
者は中国語の発音は良かつたが、漢字文字パター
ンフアイル8に発音された中国語の漢字文字パタ
ーンが存在しないことを認識する。上述の方式を
利用することにより、“我在日本国学〓中文”の
うち残りの“日本国学〓中文”も1語ずつ以下の
ように検索される。すなわち、音声入力部2から
“ri”が入力されるとともにキーボード4から発
音記号“RI”および声調“4”が入力される。
この入力に応答して制御部5は標準パターンフア
イル6のアドレスn1にある発音記号「RI」およ
び声調「4」を読出し、CRT3に表示するとと
もに、情報処理システム7に送出する。情報処理
システム7はこの発音記号「RI」および声調
「4」に基づいて漢字文字パターンフアイル8か
ら漢字文字パターン「1.日」を読出し、制御部5
を介してCRT3に表示する。
Next, the processing by the control section 5 of an error message generated when the phonetic symbol and tone given from the control section 5 to the information processing system 7 are not in the Kanji character pattern file 8 will be explained. Referring to FIG. 2, the error message generated from the information processing system 7 of FIG. .
At this time, the CRT 3 includes a pronunciation/tone symbol reading section 57.
4 is read from the standard pattern file 6,
The pronunciation symbols and tone sent via the pronunciation/tone symbol display section 561 are displayed. Therefore, the CRT 3 displays the phonetic symbols, tones, and error messages in a composite manner. As a result, the searcher recognizes that although the Chinese pronunciation is good, there is no pronounced Chinese Kanji character pattern in the Kanji character pattern file 8. By using the above-described method, the remaining "Nihon Kokugaku (Chinese studies) in Japan" out of "I am in Japan (Chinese studies in Japanese) (Chinese)" is also searched word by word as follows. That is, "ri" is input from the voice input unit 2, and the phonetic symbol "RI" and tone "4" are input from the keyboard 4.
In response to this input, the control section 5 reads out the phonetic symbol "RI" and the tone "4" at address n1 of the standard pattern file 6, displays them on the CRT 3, and sends them to the information processing system 7. The information processing system 7 reads the kanji character pattern "1. 日" from the kanji character pattern file 8 based on the phonetic symbol "RI" and the tone "4", and the control unit 5
Display on CRT3 via .

次に音声入力部2から“ben”が入力されると
ともにキーボード4から発音記号“BEN”およ
び声調“3”が入力される。この入力に応答して
制御部5は標準パターンフアイル6のアドレスn3
にある発音記号「BEN」および声調「3」を読
出し、CRT3に表示するとともに、情報処理シ
ステム7に送出する。情報処理システム7は、こ
の発音記号「BEN」および声調「4」に基づい
て漢字文字パターンフアイル8から漢字文字パタ
ーン「1.本、2.〓、3.〓」を読出し、制御部5を
介してCRT3に表示する。検索者により数字デ
ータ「1」がキーボード4に打鍵されることによ
り漢字文字パターン「1.本」のみが選択され、
CRT3に表示され、他の漢字パターン「2.〓、3.
〓」はCRT3の画面から削除される。
Next, "ben" is input from the voice input section 2, and the phonetic symbol "BEN" and tone "3" are input from the keyboard 4. In response to this input, the control unit 5 selects the address n 3 of the standard pattern file 6.
The phonetic symbol "BEN" and tone "3" are read out, displayed on the CRT 3, and sent to the information processing system 7. The information processing system 7 reads out the kanji character pattern "1.hon, 2.〓, 3.〓" from the kanji character pattern file 8 based on the phonetic symbol "BEN" and the tone "4", and reads it through the control unit 5. and display on CRT3. When the searcher types the numerical data "1" on the keyboard 4, only the kanji character pattern "1.hon" is selected.
Displayed on CRT3, other kanji patterns “2.〓, 3.
〓” will be deleted from the CRT3 screen.

それから、音声入力部2から“guo”が入力さ
れるとともにキーボード4から発音記号“GUO”
および声調“2”が入力される。この入力に応答
して制御部5は標準パターンフアイル6のアドレ
スn6にある発音記号「GUO」および声調「2」
を読出し、CRT3に表示するとともに、情報処
理システム7に送出する。情報処理システム7は
この発音記号「GUO」および声調「2」に基づ
いて漢字文字パターンフアイル8から漢字文字パ
ターン「1.国、2.〓、3.掴、4.中国、5.〓、6.〓、
7.〓」を読出し、制御部5を介してCRT3に表
示する。検索者により数字データ「1」がキーボ
ード4に打鍵されることにより漢字文字パターン
「1.国」のみが選択され、CRT3に表示され、他
の漢字パターン「2.〓、3.掴、4.〓、5.〓、6.〓、
7.〓」はCRT3の画面から削除される。
Then, "guo" is input from the voice input section 2, and the phonetic symbol "GUO" is input from the keyboard 4.
and tone "2" are input. In response to this input, the control unit 5 outputs the phonetic symbol "GUO" and tone "2" at the address n6 of the standard pattern file 6.
is read out, displayed on the CRT 3, and sent to the information processing system 7. The information processing system 7 generates a kanji character pattern from the kanji character pattern file 8 based on the phonetic symbol ``GUO'' and tone ``2''. .〓、
7. 〓” is read out and displayed on the CRT 3 via the control unit 5. When the searcher types the numerical data "1" on the keyboard 4, only the kanji character pattern "1. 国" is selected and displayed on the CRT 3, and other kanji patterns "2. 〓, 3. grab, 4. 〓、5.〓、6.〓、
7.〓” will be deleted from the CRT3 screen.

そのあと、音声入力部2から“xue”が入力さ
れるとともにキーボード4から発音記号“XUE”
および声調“2”が入力される。この入力に応答
して制御部5は標準パターンフアイル6のアドレ
スn9にある発音記号「XUE」および声調「2」
を読出し、CRT3に表示するとともに、情報処
理システム7に送出する。情報処理システム7は
この発音記号「XUE」および声調「2」に基づ
いて漢字文字パターンフアイル8から漢字文字パ
ターン「1.穴、2.〓、3.〓、4.学、5.〓、6.〓、7.
〓」を読出し、制御部5を介してCRT3に表示
する。検索者により数字データ「4」がキーボー
ド4に打鍵されることにより漢字文字パターン
「4.学」のみが選択され、CRT3に表示され、他
の漢字パターン「1.穴、2.〓、3.〓、5.〓、6.〓、
7.〓」はCRT3の画面から削除される。
After that, "xue" is input from the voice input section 2, and the phonetic symbol "XUE" is input from the keyboard 4.
and tone "2" are input. In response to this input, the control unit 5 outputs the phonetic symbol "XUE" and tone "2" at address n9 of the standard pattern file 6.
is read out, displayed on the CRT 3, and sent to the information processing system 7. The information processing system 7 generates the kanji character pattern ``1.ana, 2.〓, 3.〓, 4.gaku, 5.〓, 6 from the kanji character pattern file 8 based on the phonetic symbol ``XUE'' and tone ``2''. .〓、7.
〓” is read out and displayed on the CRT 3 via the control unit 5. When the searcher types the numeric data "4" on the keyboard 4, only the kanji character pattern "4. 学" is selected and displayed on the CRT 3, and other kanji patterns "1.ana, 2.〓, 3. 〓、5.〓、6.〓、
7.〓” will be deleted from the CRT3 screen.

次に、音声入力部2から“xi”が入力されると
ともにキーボード4から発音記号“XI”および
声調“2”が入力される。この入力に応答して制
御部5は標準パターンフアイル6のアドレスn5
ある発音記号「XI」および声調「2」を読出し、
CRT3に表示するとともに情報処理システム7
に送出する。情報処理システム7はこの発音記号
「XI」および声調「2」に基づいて漢字文字パタ
ーンフアイル8から漢字文字パターン「1.〓、2.
〓、3.〓、4.席、5.〓、6.〓、7.〓、8.〓、9.〓」
を読出し、制御部5を介してCRT3に表示する。
検索者により数字データ「1」がキーボード4に
打鍵されることにより漢字文字パターン「1.」の
みが選択され、CRT3に表示され、他の漢字パ
ターン「2.〓、3.〓、4.席、5.〓、6.〓、7.〓、8.
〓、9.〓」はCRT3の画面から削除される。
Next, "xi" is input from the voice input section 2, and the phonetic symbol "XI" and tone "2" are input from the keyboard 4. In response to this input, the control unit 5 reads out the phonetic symbol "XI" and tone "2" at address n5 of the standard pattern file 6,
Display on CRT3 and information processing system 7
Send to. The information processing system 7 generates Kanji character patterns "1.〓, 2.
〓, 3.〓, 4. seat, 5.〓, 6.〓, 7.〓, 8.〓, 9.〓”
is read out and displayed on the CRT 3 via the control unit 5.
When the searcher types the numerical data "1" on the keyboard 4, only the kanji character pattern "1." is selected and displayed on the CRT 3, and other kanji patterns "2.〓, 3.〓, 4." are selected. , 5.〓, 6.〓, 7.〓, 8.
〓, 9.〓” are deleted from the CRT3 screen.

そのあと、音声入力部2から“zhong”が入力
されるとともにキーボード4から発音記号
「ZHONG」および声調“1”が入力される。こ
の入力に応答して制御部5は標準パターンフアイ
ル6のアドレスn4にある発音記号「ZHONG」お
よび声調「1」を読出し、CRT3に表示すると
ともに情報処理システム7に送出する。情報処理
システム7はこの発音記号「ZHONG」および声
調「1」に基づいて漢字文字パターンフアイル8
から漢字文字パターン「1.中、2.忠、3.〓、4.〓、
5.衷、6.松、7.終、8.〓」を読出し、制御部5を
介してCRT3に表示する。検索者により数字デ
ータ「1」がキーボード4に打鍵されることによ
り漢字文字パターン「1.中」のみが選択され、
CRT3に表示され、他の漢字パターン「2.忠、3.
〓、4.〓、5.衷、6.松、7.終、8.〓」はCRT3の
画面から削除される。
Thereafter, "zhong" is input from the voice input section 2, and the phonetic symbol "ZHONG" and tone "1" are input from the keyboard 4. In response to this input, the control section 5 reads out the phonetic symbol "ZHONG" and the tone "1" at address n4 of the standard pattern file 6, displays them on the CRT 3, and sends them to the information processing system 7. The information processing system 7 creates a kanji character pattern file 8 based on the phonetic symbol "ZHONG" and tone "1".
Kanji character pattern from "1. middle, 2. chu, 3. 〓, 4. 〓,
5. 辷, 6. 松, 7. 端, 8.〓” are read out and displayed on the CRT 3 via the control unit 5. When the searcher types the numerical data "1" on the keyboard 4, only the kanji character pattern "1. 中" is selected.
Displayed on the CRT3, other kanji patterns "2. Chu, 3.
〓, 4. 〓, 5. 衷, 6. 松, 7. 〓, 8. 〓 are deleted from the CRT3 screen.

最後に、音声入力部2から“wen”が入力され
るとともにキーボード4から発音記号“WEN”
および声調“2”が入力される。この入力に応答
して制御部5は標準パターンフアイル6のアドレ
スn8にある発音記号「WEN」および声調「2」
を読出し、CRT3に表示するとともに情報処理
システム7に送出する。情報処理システム7はこ
の発音記号「WEN」および声調「2」に基づい
て漢字文字パターンフアイル8から漢字文字パタ
ーン「1.文、2.終、3.〓、4.蚊、5.〓、6.聞、7.〓」
を読出し、制御部5を介してCRT3に表示する。
検索者により数字データ「1」がキーボード4に
打鍵されることにより漢字文字パターン「1.文」
のみが選択され、CRT3に表示され、他の漢字
パターン「2.〓、3.〓、4.蚊、5.〓、6.聞、7.〓」
はCRT3の画面から削除される。
Finally, “wen” is input from the voice input section 2, and the phonetic symbol “WEN” is input from the keyboard 4.
and tone "2" are input. In response to this input, the control unit 5 outputs the phonetic symbol "WEN" and tone "2" at address n8 of the standard pattern file 6.
is read out, displayed on the CRT 3, and sent to the information processing system 7. The information processing system 7 generates a kanji character pattern from the kanji character pattern file 8 based on the phonetic symbol ``WEN'' and tone ``2''. . Listen, 7.〓”
is read out and displayed on the CRT 3 via the control unit 5.
When the searcher types the numerical data “1” on the keyboard 4, the kanji character pattern “1. sentence” is generated.
is selected and displayed on the CRT3, and other kanji patterns "2.〓, 3.〓, 4.mosquito, 5.〓, 6.mon, 7.〓"
will be deleted from the CRT3 screen.

〔発明の効果〕〔Effect of the invention〕

本発明の音声認識装置によれば、中国国内で使
用されている標準語で発言すればその音声が自動
的に情報処理可能な形で入力されるため、中国語
の漢字/数字の検索において高速な検索ができる
という効果がある。従来のタブレツト方式に比べ
て、本発明の装置を使用することにより、2.5倍
〜6倍の高速化を達成できるという効果がある。
According to the speech recognition device of the present invention, if you speak in the standard language used in China, the speech is automatically input in a form that can be processed, so you can search for Chinese characters/numbers quickly. This has the effect of allowing you to perform searches. Compared to the conventional tablet system, the use of the device of the present invention has the effect of achieving a speed increase of 2.5 to 6 times.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、本発明に適用されるシステムを示す
図、第2図は本発明一実施例の構成を示す図、第
3図は第2図の一実施例の標準パターンフアイル
の記憶形式を示す図、および第4図および第5図
は本発明の応用例を説明するための図である。 第1図から第5図において、1……中国語の音
声認識装置、2……音声入力部、3……CRT、
4……キーボード、5……制御部、6……標準パ
ターンフアイル、7……情報処理システム、8…
…漢字文字パターンフアイル、51……比較制御
部、52……一致判断部、53……比較終了検出
部、54……発音記号発生指示部、55……エラ
ー表示制御部、56……CRT制御部、57……
フアイル制御部、58……キーボード制御部、5
9……通信制御部、60……音声符号化制御部、
61……記憶部、62……検索/フアイル作成検
出部、71……通信制御部、72……記憶部、7
3……発音/声調比較部、74……終了検出部、
および75……エラーメツセージ発生部。
FIG. 1 is a diagram showing a system applied to the present invention, FIG. 2 is a diagram showing the configuration of an embodiment of the present invention, and FIG. 3 is a diagram showing the storage format of the standard pattern file of the embodiment shown in FIG. The figures shown, and FIGS. 4 and 5 are diagrams for explaining an application example of the present invention. In FIGS. 1 to 5, 1...Chinese speech recognition device, 2...Speech input unit, 3...CRT,
4...Keyboard, 5...Control unit, 6...Standard pattern file, 7...Information processing system, 8...
... Kanji character pattern file, 51 ... Comparison control section, 52 ... Match judgment section, 53 ... Comparison end detection section, 54 ... Phonetic symbol generation instruction section, 55 ... Error display control section, 56 ... CRT control Department, 57...
File control section, 58...Keyboard control section, 5
9... Communication control unit, 60... Audio encoding control unit,
61...Storage unit, 62...Search/file creation detection unit, 71...Communication control unit, 72...Storage unit, 7
3...Pronunciation/tone comparison section, 74...End detection section,
and 75...error message generating section.

Claims (1)

【特許請求の範囲】 1 音声を電気信号に変え、アナログ・デジタル
変換を行う音声入力手段と、 前記音声入力手段でアナログ・デジタル変換さ
れた音声電気信号を符号化する音声符号化制御手
段と、 前記音声符号化制御手段で符号化された音声符
号化データを記憶する記憶手段と、 前記音声符号化データと、この音声符号化デー
タと対応する発音記号および声調とを標準パター
ンとして複数個記憶する標準パターン格納手段
と、 前記音声符号化データと対応する前記発音記号
および前記声調が入力されているか否かを判定す
る第1の処理手段と、該第1の処理手段で該発音
記号および該声調が入力されていると判定された
場合、前記記憶手段から読み出した該音声符号化
データを対応する該発音記号および該声調ととも
に前記標準パターン格納手段に登録する第2の処
理手段と、該第1の処理手段で該発音記号および
該声調が入力されていないと判定された場合、前
記記憶手段から読み出された該音声符号化データ
と該標準パターン格納手段から読み出された該音
声符号化データとを順次比較する第3の処理手段
とを設けた制御手段と、 前記第3の処理手段で比較した結果一致する前
記音声符号化データに対応する前記発音記号およ
び声調を前記標準パターン格納手段から読み出し
て出力する出力手段とを備えたことを特徴とする
中国語の音声認識装置。
[Scope of Claims] 1. Audio input means for converting audio into an electrical signal and performing analog-to-digital conversion; audio encoding control means for encoding the audio electrical signal converted from analog to digital by the audio input means; storage means for storing encoded voice data encoded by the voice encoding control means; storing a plurality of the encoded voice data and phonetic symbols and tones corresponding to the encoded voice data as standard patterns; standard pattern storage means; first processing means for determining whether or not the phonetic symbol and tone corresponding to the audio encoded data have been input; a second processing means for registering the encoded speech data read from the storage means in the standard pattern storage means together with the corresponding phonetic symbol and the tone; If the processing means determines that the phonetic symbol and the tone have not been input, the encoded voice data read from the storage means and the encoded voice data read from the standard pattern storage means. a control means provided with a third processing means for sequentially comparing the results of the comparison; and a control means comprising: a third processing means for sequentially comparing the pronunciation symbols and tones corresponding to the encoded speech data that match as a result of the comparison by the third processing means from the standard pattern storage means; A Chinese speech recognition device characterized by comprising an output means for reading and outputting.
JP62036490A 1986-03-12 1987-02-18 Voice recognition equipment for chinese Granted JPS6311999A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP5236886 1986-03-12
JP61-52368 1986-03-12

Publications (2)

Publication Number Publication Date
JPS6311999A JPS6311999A (en) 1988-01-19
JPH0558555B2 true JPH0558555B2 (en) 1993-08-26

Family

ID=12912867

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62036490A Granted JPS6311999A (en) 1986-03-12 1987-02-18 Voice recognition equipment for chinese

Country Status (1)

Country Link
JP (1) JPS6311999A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1104799A1 (en) * 1999-11-30 2001-06-06 Patent-Treuhand-Gesellschaft für elektrische Glühlampen mbH Red emitting luminescent material

Also Published As

Publication number Publication date
JPS6311999A (en) 1988-01-19

Similar Documents

Publication Publication Date Title
CA1334869C (en) Method and apparatus for the generation of reports
JPS61107430A (en) Editing unit for voice information
JPH02163819A (en) Text processor
JP3476007B2 (en) Recognition word registration method, speech recognition method, speech recognition device, storage medium storing software product for registration of recognition word, storage medium storing software product for speech recognition
US4461023A (en) Registration method of registered words for use in a speech recognition system
US20040015356A1 (en) Voice recognition apparatus
US4831653A (en) System for registering speech information to make a voice dictionary
JPH0558555B2 (en)
JPH0560880B2 (en)
JPS5941226B2 (en) voice translation device
JP2002189490A (en) Method of pinyin speech input
JPS607514A (en) Word processor
JPH0863185A (en) Speech recognition device
JPS61248155A (en) Word processing system
JPS5816330A (en) Voice reading and collating system of japanese word processor
JPS58123126A (en) Dictionary retrieving device
JP3183686B2 (en) Language input device
JPS63189967A (en) Method and device for inputting abstract to slip
JPH1011427A (en) Automatic journal generating device
JPS60214071A (en) Hangul alphabet input unit
JPS6146557A (en) Speech word processor
JPS6055434A (en) Word processor device
JPS60149098A (en) Voice input unit
JPH064598A (en) Information storage retriever
JPH08297673A (en) Voice input translation system