JPH09319297A - Communicating device by speech and writing - Google Patents
Communicating device by speech and writingInfo
- Publication number
- JPH09319297A JPH09319297A JP8134972A JP13497296A JPH09319297A JP H09319297 A JPH09319297 A JP H09319297A JP 8134972 A JP8134972 A JP 8134972A JP 13497296 A JP13497296 A JP 13497296A JP H09319297 A JPH09319297 A JP H09319297A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- character
- unit
- data
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は音声筆談器、特に聾
唖者と健常者が文字認識や音声認識を利用して自由に会
話することができる福祉機器としての音声筆談器に適用
して有効な技術に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention is effective when applied to a voice writing device, and more particularly to a voice writing device as a welfare device that allows a deaf person and a healthy person to freely talk using character recognition and voice recognition. Regarding technology.
【0002】[0002]
【従来の技術】従来、聾唖者が健常者に意志(意思)を
伝えたり、会話する場合、手話や筆談で行っている。2. Description of the Related Art Conventionally, when a deaf person conveys a will to a healthy person or has a conversation, he or she uses sign language or writing.
【0003】一方、オーム社「マイクロコンピュータハ
ンドブック」昭和60年12月15日発行、P391〜P393には、
文字読取りにおける文字認識技術について記載されてい
る。また、同誌P903〜P924には、音声システム技法につ
いて記載され、P916およびP917には通常の書き方に従っ
て書かれた文字系列によるデータ(テキストデータ)か
ら音声を合成する技術(テキストからの音声合成)につ
いて、P918以降には音声認識について記載されている。On the other hand, Ohmic's "Microcomputer Handbook", published December 15, 1985, P391-P393,
It describes a character recognition technique for reading characters. Also, in the same magazines P903 to P924, voice system techniques are described, and in P916 and P917, a technique (voice synthesis from text) for synthesizing voice from data (text data) based on a character sequence written according to a normal writing method. , P918 and onward describes voice recognition.
【0004】また、電気学会論文誌C,第108巻10号P85
0〜P857には、音声認識技術,録音再生技術等について
記載されている。The Institute of Electrical Engineers of Japan, Journal C, Vol. 108, No. 10, P85
0 to P857 describe voice recognition technology, recording / playback technology, and the like.
【0005】[0005]
【発明が解決しようとする課題】手話を習得している聾
唖者同士や聾唖者と健常者との間の会話は、手話による
ため比較的順調に会話が行える。しかし、健常者におけ
る手話の習得率は低く、手話を心得ていない健常者と聾
唖者との会話は、身振り手振りによるため、正確な意志
を伝え難く、非常な困難さが伴う。DISCLOSURE OF THE INVENTION Since conversations between deaf people who have acquired sign language and between deaf people and normal people are in sign language, they can be conducted relatively smoothly. However, the learning rate of sign language in healthy people is low, and the conversation between a healthy person who is not aware of sign language and the deaf person is gesturing and gesturing, which makes it difficult to convey an accurate will and entails great difficulty.
【0006】本発明の目的は、聾唖者と健常者等との間
で簡単な操作で正確に意志を伝えることができる音声筆
談器を提供することにある。[0006] An object of the present invention is to provide a voice writing instrument capable of accurately transmitting a will between a deaf person and a normal person by a simple operation.
【0007】本発明の前記ならびにそのほかの目的と新
規な特徴は、本明細書の記述および添付図面からあきら
かになるであろう。The above and other objects and novel features of the present invention will be apparent from the description of this specification and the accompanying drawings.
【0008】[0008]
【課題を解決するための手段】本願において開示される
発明のうち代表的なものの概要を簡単に説明すれば、下
記のとおりである。The following is a brief description of an outline of typical inventions disclosed in the present application.
【0009】(1)文字入力手段と、音声入力手段と、
表示手段と、音声出力手段と、文字音声認識/出力制御
手段とを有し、前記文字音声認識/出力制御手段は前記
文字入力手段によって入力された文字を認識して文字デ
ータを出力する文字認識部と、前記文字認識部の文字デ
ータに基づいて音声データに変換して前記音声出力手段
に出力する規則音声合成部と、前記音声入力手段によっ
て入力された音声を認識して音声データを出力する音声
認識部と、前記音声認識部の音声データに基づいて文字
データに変換して前記表示手段に出力する表示部と、前
記各部を制御する制御部とからなっている。(1) Character input means, voice input means,
Character recognition which has a display means, a voice output means, and a character voice recognition / output control means, wherein the character voice recognition / output control means recognizes a character input by the character input means and outputs character data. Section, a regular voice synthesizing section for converting to voice data based on the character data of the character recognizing section and outputting the voice data to the voice output means, and a voice input by the voice input means for recognizing the voice data and outputting the voice data. The voice recognition unit includes a voice recognition unit, a display unit which converts the voice data of the voice recognition unit into character data and outputs the character data to the display unit, and a control unit which controls the respective units.
【0010】前記文字認識部はインタフェース部と、前
記文字入力手段による文字データを受けて文字の特徴を
抽出する特徴抽出部と、文字標準パターンメモリと、前
記特徴抽出部による文字データと前記文字標準パターン
メモリの文字標準パターンとを照合する照合部と、前記
特徴抽出部による文字データと前記文字標準パターンの
一致を判定して一致したテキストデータを出力する判定
処理部とからなり、前記音声認識部はインタフェース部
と、前記音声入力手段によるアナログ音声データを受け
るA/D変換器と、前記A/D変換器によって変換され
たデジタル音声データの音声の特徴を抽出する音声特徴
抽出部と、音声標準パターンメモリと、前記音声特徴抽
出部による音声データと前記音声標準パターンメモリの
音声標準パターンとを照合する照合部と、前記音声特徴
抽出部による音声データと前記音声標準パターンとの一
致を判定し一致したテキストデータを出力する判定処理
部とからなり、前記表示部はインタフェース部と、前記
文字/音声認識部から出力されたテキストデータに基づ
いて前記表示手段に文字データを出力するコントローラ
とからなり、前記規則音声合成部はインタフェース部
と、辞書メモリと、音源メモリと、前記辞書メモリおよ
び前記音源メモリの情報に基づいて前記文字認識部から
出力されたテキストデータを音声波形に変換する言語処
理/波形接続処理部と、前記言語処理/波形接続処理部
の音声データをアナログ音声データに変換して前記音声
出力手段に出力するD/A変換器とからなっている。The character recognition unit includes an interface unit, a feature extraction unit that receives character data from the character input unit to extract character features, a character standard pattern memory, character data from the feature extraction unit, and the character standard. The voice recognition unit includes a collation unit that collates a character standard pattern of a pattern memory, and a determination processing unit that determines whether the character data by the feature extraction unit matches the character standard pattern and outputs the matched text data. Is an interface unit, an A / D converter for receiving analog voice data from the voice input unit, a voice feature extraction unit for extracting voice features of the digital voice data converted by the A / D converter, and a voice standard. Pattern memory, voice data by the voice feature extraction unit, and voice standard pattern of the voice standard pattern memory And a determination processing unit that determines whether the voice data by the voice feature extraction unit matches the voice standard pattern and outputs the matched text data. The display unit includes an interface unit and the characters. / A controller for outputting character data to the display means based on the text data output from the voice recognition unit, wherein the regular voice synthesis unit includes an interface unit, a dictionary memory, a sound source memory, the dictionary memory and the A language processing / waveform connection processing unit that converts the text data output from the character recognition unit into a voice waveform based on the information in the sound source memory, and converts the voice data of the language processing / waveform connection processing unit into analog voice data. And a D / A converter for outputting to the audio output means.
【0011】前記規則音声合成部には入力データに基づ
いて所望の音声データを録音,再生する録音再生部が設
けられている。The regular voice synthesizing unit is provided with a recording / reproducing unit for recording and reproducing desired voice data based on input data.
【0012】前記文字入力手段は文字入力用ペンおよび
キーボードを備えたタッチパネル型の文字入力用タブレ
ットであり、前記表示手段は液晶ディスプレイパネルで
あり、前記音声入力手段は音声入力用マイクであり、前
記音声出力手段は音声出力用スピーカであり、前記文字
入力用タブレットは前記液晶ディスプレイパネル上に重
ねられて表示面と文字入力面が同一面となる構造となっ
ている。The character input means is a touch panel type character input tablet equipped with a character input pen and a keyboard, the display means is a liquid crystal display panel, the voice input means is a voice input microphone, and The voice output means is a voice output speaker, and the character input tablet is superposed on the liquid crystal display panel so that the display surface and the character input surface are flush with each other.
【0013】音声筆談器は以下のように使用される。 (1)聾唖者が健常者に伝えたいメッセージを文字入力
用ペンで文字入力用タブレットに入力する。入力された
文字データは文字認識部で認識された後、前記文字認識
部からテキストデータとして出力される。このテキスト
データは規則音声合成部で処理され、該当する単語ある
いは文章として音声データに変換され、音声出力用スピ
ーカから音声として発せられる。これによって聾唖者の
メッセージは健常者に音声として正確に伝えられる。The voice writing device is used as follows. (1) A deaf person inputs a message that he / she wants to convey to a healthy person into a character input tablet with a character input pen. The input character data is recognized by the character recognition unit and then output as text data from the character recognition unit. This text data is processed by the regular voice synthesizing unit, converted into voice data as a corresponding word or sentence, and emitted as voice from the voice output speaker. As a result, the message of the deaf person can be accurately transmitted as voice to the healthy person.
【0014】(2)健常者が聾唖者に伝えたいメッセー
ジを音声入力用マイクに向かって話す。入力された音声
データは音声認識部で認識された後、前記音声認識部か
らテキストデータとして出力される。このテキストデー
タは表示部で処理され該当する単語あるいは文章として
表示パネルに表示される。これによって健常者のメッセ
ージは聾唖者に文字として正確に伝えられる。(2) A healthy person speaks a message he or she wants to convey to the deaf person into the voice input microphone. The input voice data is recognized by the voice recognition unit and then output as text data from the voice recognition unit. This text data is processed by the display unit and displayed as a corresponding word or sentence on the display panel. As a result, the message of the healthy person is accurately transmitted to the deaf person as a character.
【0015】(3)また、聾唖者は文字入力用タブレッ
トのキーボードを押すことによって、予め録音されてい
る文章が音声出力用スピーカから発せられ、健常者に正
確に伝えられる。たとえば、「私は障害があり耳が良く
聞こえませんのでこの機械を使って会話したいのです
が、よろしければうなずいて下さい。」なる旨等の音声
出力を送出する。(3) Further, the deaf person presses the keyboard of the character input tablet, so that the prerecorded sentence is emitted from the voice output speaker and is accurately transmitted to the healthy person. For example, a voice output such as "I want to talk using this machine because I have a disability and cannot hear well, please nod." Is output.
【0016】前記(1)の手段によれば、聾唖者は入力
ペンを用いて文字入力用タブレットに文字を入力するだ
けで、聾唖者のメッセージを健常者に音声で伝えること
ができ、健常者による応答は健常者が音声入力用マイク
に向かって話すだけで、健常者のメッセージが表示パネ
ルに文字として表示されるため、手話を用いずまた健常
者は筆談を用いなくてもよくなり、双方の円滑な会話が
行えることになる。According to the above-mentioned means (1), the deaf person can convey the message of the deaf person to the normal person by voice, simply by inputting characters to the character input tablet using the input pen. The response by the normal person only speaks into the microphone for voice input, and since the message of the normal person is displayed as characters on the display panel, it is not necessary for the normal person to use written language without using sign language. Will be able to have a smooth conversation.
【0017】また、会話に先立って聾唖者は文字入力用
タブレットのキーボードを押すことによって、所望のメ
ッセージを健常者に伝えることができる。このメッセー
ジは、会話の途中や終了時にも行えるため、聾唖者の会
話に要する負担の軽減となる。Further, prior to the conversation, the deaf person can convey a desired message to a healthy person by pressing the keyboard of the character input tablet. This message can be sent during or after the conversation, which reduces the burden of the deaf person on the conversation.
【0018】[0018]
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を詳細に説明する。なお、発明の実施の形態を
説明するための全図において、同一機能を有するものは
同一符号を付け、その繰り返しの説明は省略する。BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In all the drawings for describing the embodiments of the present invention, components having the same functions are denoted by the same reference numerals, and their repeated description will be omitted.
【0019】(実施形態1)図1乃至図10は本発明の
一実施形態である音声筆談器に係わる図であり、図1は
音声筆談器のシステム構成を示すブロック図、図2は音
声筆談器の外観を示す斜視図、図3は文字認識部,規則
音声合成部,音声認識部および制御部によるシステム構
成を示すブロック図、図4は文字認識部の構成を示すブ
ロック図、図5は文字認識のための方向コードと入力文
字との相関を示す説明図、図6は認識された認識文字と
その方向コード列を示す説明図、図7は規則音声合成部
の構成を示すブロック図、図8は規則音声合成の原理を
示す説明図、図9は音声認識部の構成を示すブロック
図、図10は音声筆談器の使用方法を示すフローチャー
トである。(Embodiment 1) FIGS. 1 to 10 are diagrams relating to a voice writing device according to an embodiment of the present invention. FIG. 1 is a block diagram showing a system configuration of the voice writing device, and FIG. 2 is a voice writing device. 3 is a perspective view showing the external appearance of the device, FIG. 3 is a block diagram showing the system configuration of a character recognition unit, a regular voice synthesis unit, a voice recognition unit and a control unit, FIG. 4 is a block diagram showing the configuration of the character recognition unit, and FIG. FIG. 6 is an explanatory diagram showing a correlation between a direction code for character recognition and an input character, FIG. 6 is an explanatory diagram showing a recognized character recognized and a direction code string thereof, and FIG. 7 is a block diagram showing a configuration of a rule voice synthesis unit. FIG. 8 is an explanatory view showing the principle of regular voice synthesis, FIG. 9 is a block diagram showing the configuration of the voice recognition unit, and FIG. 10 is a flowchart showing how to use the voice writing device.
【0020】本実施形態の音声筆談器は、図2に示すよ
うにペンパソコンタイプの表示入力一体化装置5となっ
ている。The voice writing device of this embodiment is a pen-PC type integrated display / input device 5 as shown in FIG.
【0021】前記表示入力一体化装置5には、ケーブル
7を介して文字入力用ペン11が接続されている。A character input pen 11 is connected to the display / input integrated device 5 via a cable 7.
【0022】また、前記表示入力一体化装置5の傾斜し
た上面部分は表示パネル2によって表示手段が構成され
ている。表示パネル2は、図示はしないが液晶ディスプ
レイパネルで構成されている。また、前記液晶ディスプ
レイパネル上にはタッチパネル型の文字入力用タブレッ
ト1が設けられている。この文字入力用タブレット1
は、キーボード6を構成している。したがって、表示面
と文字入力面は同一面構造となっている。Further, the display panel 2 constitutes display means in the inclined upper surface portion of the display / input integrated device 5. Although not shown, the display panel 2 is composed of a liquid crystal display panel. A touch panel type character input tablet 1 is provided on the liquid crystal display panel. This character input tablet 1
Constitute the keyboard 6. Therefore, the display surface and the character input surface have the same surface structure.
【0023】前記文字入力用ペン11と文字入力用タブ
レット1によって文字入力手段が構成されている。した
がって、文字入力用ペン11で文字入力用タブレット1
上に文字を書くことによって、文字を入力(座標入力)
することができる。また、文字入力用ペン11でキーボ
ード6の所定のフアンクションキーを押すことによって
音声筆談器を操作することができる。The character input pen 11 and the character input tablet 1 constitute a character input means. Therefore, with the character input pen 11, the character input tablet 1
Enter characters by writing on them (coordinate input)
can do. Also, by pressing a predetermined function key of the keyboard 6 with the character input pen 11, the voice writing device can be operated.
【0024】一方、前記表示入力一体化装置5には、ケ
ーブル8を介して音声入力手段としての音声入力用マイ
ク3が接続されている。この音声入力用マイク3に向か
って音を発声(話)することによって音声を入力するこ
とができる。On the other hand, a voice input microphone 3 as voice input means is connected to the display / input integrated device 5 via a cable 8. A voice can be input by uttering (speaking) a sound into the voice input microphone 3.
【0025】また、前記表示入力一体化装置5には、音
声出力手段として音声出力用スピーカ4が内蔵されてい
る。Further, the display / input integrated device 5 has a built-in audio output speaker 4 as audio output means.
【0026】他方、前記表示入力一体化装置5内には、
図1に示すように、文字音声認識/出力制御手段15が
内蔵されている。On the other hand, in the display / input integrated device 5,
As shown in FIG. 1, a character voice recognition / output control means 15 is built in.
【0027】文字音声認識/出力制御手段15は、前記
文字入力用タブレット1に入力された文字を認識してテ
キストデータとして出力する文字認識部51と、前記文
字認識部51から出力されたテキストデータから文字デ
ータを音声データに変換して音声出力用スピーカ4に出
力する規則音声合成部52と、前記音声入力用マイク3
に入力された音声を認識してテキストデータとして出力
する音声認識部53と、前記音声認識部53から出力さ
れたテキストデータから音声データを文字データに変換
して表示パネル2に出力する表示部54と、前記文字認
識部51,規則音声合成部52,音声認識部53,表示
部54を制御する制御部55とからなっている。The character voice recognition / output control means 15 recognizes the characters input to the character input tablet 1 and outputs them as text data, and the text data output from the character recognition unit 51. A regular voice synthesizing unit 52 for converting the character data into voice data and outputting the voice data to the voice output speaker 4, and the voice input microphone 3
A voice recognition unit 53 that recognizes a voice input to and outputs it as text data, and a display unit 54 that converts the voice data from the text data output from the voice recognition unit 53 into character data and outputs the character data to the display panel 2. And a control unit 55 for controlling the character recognition unit 51, the regular voice synthesis unit 52, the voice recognition unit 53, and the display unit 54.
【0028】つぎに、前記文字認識部51,規則音声合
成部52,音声認識部53,表示部54,制御部55に
ついて説明する。Next, the character recognition unit 51, the regular voice synthesis unit 52, the voice recognition unit 53, the display unit 54, and the control unit 55 will be described.
【0029】制御部55は、CPU(中央処理装置)か
らなり、図3に示すようにバスA21およびバスB22
に接続され、前記バスA21およびバスB22にそれぞ
れ接続される文字認識部51,規則音声合成部52,音
声認識部53,表示部54を制御するようになってい
る。The control unit 55 is composed of a CPU (central processing unit) and, as shown in FIG. 3, has a bus A21 and a bus B22.
And a character recognition unit 51, a regular voice synthesis unit 52, a voice recognition unit 53, and a display unit 54 which are connected to the bus A21 and the bus B22, respectively.
【0030】文字認識部51は、図3および図4に示す
ように、判定処理部511,特徴抽出部512,照合部5
13,インタフェース部515がバスC23に接続さ
れ、前記インタフェース部515を介して前記バスA2
1およびバスB22に接続されている。また、前記照合
部513には文字標準パターンメモリ514が接続され
ている。As shown in FIGS. 3 and 4, the character recognition unit 51 includes a determination processing unit 511, a feature extraction unit 512, and a collation unit 5.
13, an interface unit 515 is connected to the bus C23, and the bus A2 is connected via the interface unit 515.
1 and the bus B22. A character standard pattern memory 514 is connected to the collating unit 513.
【0031】文字認識部51は、聾唖者が健常者に伝え
たいメッセージを文字入力用ペン11で文字入力用タブ
レット1に書いて入力した場合、その文字を認識するオ
ンライン文字認識機能を構成する。The character recognition unit 51 constitutes an online character recognition function for recognizing a character when the deaf person writes a message that he / she wants to convey to a normal person with the character input pen 11 on the character input tablet 1.
【0032】前記特徴抽出部512は、図3および図4
に示すように、前記文字入力用タブレット1からの出力
(座標データ)を受け、前記座標データから方向コード
を作成する。The feature extracting section 512 is shown in FIG. 3 and FIG.
As shown in (1), the output (coordinate data) from the character input tablet 1 is received and a direction code is created from the coordinate data.
【0033】例えば、方向コードは、図5に示すよう
に、縦横斜めとなる45度間隔の8方向のコード(0乃
至7)で入力文字を表示するようになっている。数字あ
るいは文字等はその特徴から方向コード列で示される。
例えば、数字「2」の方向コードは、数字「2」の書き
出しのSで示すスタートから始まって矢印に示すように
斜め右上がり方向(1),水平右方向(0),斜め右下
がり方向(7),斜め左下がり方向(5),垂直下方向
(6),水平右方向(0)と続き、書き終わりのEに至
ることから、図6に示すように、107560という方
向コード列のチェーンで表される。この107560な
る方向コード列によって再現される数値「2」は、同図
右に示すように各方向コード成分によってのみ表示され
るため、シンプルな形となる。For example, as the direction code, as shown in FIG. 5, the input characters are displayed by eight-direction codes (0 to 7) at 45-degree intervals that are vertically and horizontally inclined. A number or a character is indicated by a direction code string due to its characteristics.
For example, the direction code of the number "2" starts from the start indicated by S for writing the number "2" and goes to the diagonally rightward direction (1), the horizontal rightward direction (0), and the diagonal rightward direction (0) as shown by the arrow. 7), diagonal left downward direction (5), vertical downward direction (6), horizontal right direction (0), and so on until the end of writing E is reached, as shown in FIG. 6, a chain of direction code strings of 107560. It is represented by. The numerical value "2" reproduced by the direction code string of 107560 is displayed only by each direction code component as shown on the right side of FIG.
【0034】前記文字標準パターンメモリ514は、予
め対象とする文字毎に標準パターンとしてそれぞれの方
向コード列が記憶されている。In the character standard pattern memory 514, each direction code string is previously stored as a standard pattern for each target character.
【0035】前記照合部513は、前記特徴抽出部51
2から順次送られてくる方向コードと、前記文字標準パ
ターンメモリ514内の方向コードとを照らし合わせて
最も良く照合するものを答えとする。The collation unit 513 is the feature extraction unit 51.
The direction code sequentially sent from 2 and the direction code in the character standard pattern memory 514 are compared with each other, and the best match is set as the answer.
【0036】照合部513は、電気学会論文誌C,第10
8巻10号,昭和63年,P850〜P854にも記載されているよう
な動的計画法を用いたパターンマッチング回路によって
構成されている。The collating unit 513 is the 10th journal of the Institute of Electrical Engineers of Japan.
It is composed of a pattern matching circuit using dynamic programming as described in Volume 8, No. 10, 1988, P850-P854.
【0037】このパターンマッチング回路は、入力と標
準パターンとの差を求めるときに各文字の非線形の伸び
縮みを吸収しつつ全体としての類似性を求める。前述の
電気学会論文誌C,第108巻10号のP853に示される式
(1),式(2)を下記に表記する。This pattern matching circuit absorbs the non-linear expansion / contraction of each character when calculating the difference between the input and the standard pattern, and calculates the similarity as a whole. The equations (1) and (2) shown in P853 of the above-mentioned IEEJ Transactions C, Vol. 108, No. 10 are shown below.
【0038】[0038]
【数1】 [Equation 1]
【0039】ここで、d(i1j)は入力i1,標準jフ
レーム目の特徴量の間のチェビシェフ距離、xikは入
力iフレーム目,kチヤネルの特徴量、Yjkは標準j
フレーム目,kチヤネルの特徴量、lは特徴量のチヤネ
ル数,ここではl=16である。Where d (i 1 j) is the Chebyshev distance between the input i 1 and the standard j-th frame feature amount, x i k is the input i-th frame and k-channel feature amount, and Y j k is the standard value. j
The feature amount of the k-th channel in the frame, l is the number of channels of the feature amount, where l = 16.
【0040】[0040]
【数2】 [Equation 2]
【0041】ここで、D(i,j)は入力i,標準jフ
レームでの照合値、C(i,j)は入力i,標準jフレ
ームでの線形照合ラインからのミスアライメントを示す
値である。Here, D (i, j) is a matching value in the input i, standard j frame, and C (i, j) is a value indicating misalignment from the linear matching line in the input i, standard j frame. is there.
【0042】これら数1,数2は音声認識において用い
られるパターンマッチング処理を示すが、文字認識でも
同様な考え方で適用できる。Although these equations 1 and 2 show the pattern matching processing used in voice recognition, they can be applied in the same way to character recognition.
【0043】さらに付言すれば、音声認識では入力の各
時点における入力と標準パターンのマッチングをとるの
を、文字認識では入力と標準パターンの各方向コード間
のパターンマッチングをとるのだけが異なるのみであ
る。Further, in addition, in voice recognition, the input at each time of input and the standard pattern are matched, and in character recognition, only the pattern matching between the directional codes of the input and the standard pattern is different. is there.
【0044】前記判定処理部511は、前記照合部51
3の出力を受けて判定を行い、入力された文字を最終決
定し、テキストデータとして出力する。このテキストデ
ータは前記インタフェース部515からバスA21およ
びバスB22に送り出される。判定処理部511は文章
処理も行う。The determination processing unit 511 is configured to detect the collation unit 51.
3 is received, a judgment is made, the inputted character is finally decided, and it is outputted as text data. This text data is sent from the interface unit 515 to the bus A21 and the bus B22. The determination processing unit 511 also performs text processing.
【0045】文字認識部51では、入力された文字を特
徴抽出部512で文字データとして方向コード列(入力
文字方向コード列)に変換する。入力文字方向コード列
は順次照合部513に送られ、順次文字標準パターンメ
モリ514に記憶された方向コード列と照合され、最も
良く照合するものが答えとされる。判定処理部511は
答えとされた方向コード列を最終的に決定し、テキスト
データとして出力する。このテキストデータはインタフ
ェース部515からバスA21およびバスB22に送り
出される。In the character recognition unit 51, the input character is converted into a direction code string (input character direction code string) as character data by the feature extraction unit 512. The input character direction code string is sequentially sent to the matching unit 513, and is sequentially matched with the direction code string stored in the character standard pattern memory 514, and the one that matches best is the answer. The determination processing unit 511 finally determines the direction code string used as the answer and outputs it as text data. This text data is sent from the interface unit 515 to the bus A21 and the bus B22.
【0046】規則音声合成部52は、図3および図7に
示すように、バスD24に言語処理/波形接続処理部5
21,辞書メモリ522,音源メモリ523,D/A変換
器524,インタフェース部525,録音再生部526が
接続されている。規則音声合成部52は、前記文字認識
部51からのテキストデータを入力して該当する単語あ
るいは文章を音声出力する規則音声合成機能を構成して
いる。As shown in FIGS. 3 and 7, the regular voice synthesizing unit 52 connects the language processing / waveform connection processing unit 5 to the bus D24.
21, a dictionary memory 522, a sound source memory 523, a D / A converter 524, an interface unit 525, and a recording / playback unit 526 are connected. The regular voice synthesizing unit 52 constitutes a regular voice synthesizing function for inputting the text data from the character recognizing unit 51 and voice-outputting a corresponding word or sentence.
【0047】前記辞書メモリ522は単語に対応する読
みやアクセントが記憶されている。The dictionary memory 522 stores readings and accents corresponding to words.
【0048】前記音源メモリ523は、前記言語処理/
波形接続処理部521の言語処理部が出力した読みやア
クセントに対応する音素が記憶されている。The sound source memory 523 is used for the language processing /
The phonemes corresponding to the pronunciations and accents output by the language processing unit of the waveform connection processing unit 521 are stored.
【0049】D/A変換器524は、前記言語処理/波
形接続処理部521からの指令で音源メモリ523内の
音素を接続して出力された音声データをアナログ音声デ
ータとして前記音声出力用スピーカ4に出力する。The D / A converter 524 connects the phonemes in the sound source memory 523 according to a command from the language processing / waveform connection processing unit 521 and outputs the audio data as analog audio data. Output to.
【0050】前記インタフェース部525は、図3に示
すように、バスA21およびバスB22に接続されてい
る。インタフェース部525を介して前記テキストデー
タを受け取る。The interface section 525 is connected to the bus A21 and the bus B22 as shown in FIG. The text data is received via the interface unit 525.
【0051】前記録音再生部526は前記バスD24に
接続される音声伸長処理部5261と、前記音声伸長処
理部5261に接続される圧縮データメモリ5262か
らなっている。前記音声伸長処理部5261は、例え
ば、電気学会論文誌C,第108巻10号,昭和63年,P8
54〜P856に記載されているように、ADPCM(Adapti
ve Differential Pulse Code Modulation)圧縮・伸長方
式による構成になっている。圧縮データメモリ5262
は、前記ADPCM圧縮・伸長方式によって圧縮した音
声データが記憶される。The recording / playback unit 526 comprises a voice expansion processing unit 5261 connected to the bus D24, and a compressed data memory 5262 connected to the voice expansion processing unit 5261. The voice expansion processing unit 5261 is, for example, the Institute of Electrical Engineers of Japan, Volume 108, No. 10, 1988, P8.
As described in 54-P856, ADPCM (Adapti
ve Differential Pulse Code Modulation) It is configured by compression / expansion method. Compressed data memory 5262
Stores audio data compressed by the ADPCM compression / expansion method.
【0052】言語処理/波形接続処理部521は、言語
処理部と波形接続処理部とからなる。言語処理部は、前
記辞書メモリ522を参照して前記インタフェース部5
25を介して受け取ったテキストデータを単語と決定
し、その単語に対応する読み,アクセントを出力する。
また、波形接続処理部は、前記言語処理部が出力した読
み,アクセントに相当した音素を音源メモリ523から
読み出して出力する。The language processing / waveform connection processing section 521 comprises a language processing section and a waveform connection processing section. The language processing unit refers to the dictionary memory 522 to refer to the interface unit 5
The text data received via 25 is determined as a word, and the reading and accent corresponding to the word are output.
Further, the waveform connection processing unit reads out the phoneme corresponding to the reading and accent output from the language processing unit from the sound source memory 523 and outputs it.
【0053】図8は、辞書メモリ522を参照して言語
処理/波形接続処理部521によってテキストデータを
単語と決定する原理を示すものである。FIG. 8 shows the principle of determining text data as a word by the language processing / waveform connection processing unit 521 with reference to the dictionary memory 522.
【0054】例えば、テキストデータ入力が「わたしは
ぎじゅつしゃです。」と文字のストリングで表された場
合、言語処理は「私は/技術者/です。」と単語(漢
字)が決定され、読みが付与される。その後、波形接続
処理がなされる。For example, when the text data input is represented by a string of characters "I am Gyujutsusha.", The language processing determines the word (Kanji) as "I am / technologist / is." Is given. After that, waveform connection processing is performed.
【0055】図8の下段に示すように、文字「わ」,
「た」,「し」は、それぞれ特定の波形(音素)として
表される。そこで、波形接続処理部では、前記文字
「わ」,「た」,「し」の各波形を連続的に接続処理す
る。この波形は、D/A変換器524よってアナログ音
声データとして音声出力用スピーカ4に出力されるた
め、音声出力用スピーカ4から「わたし」なる言葉が発
声されることになる。As shown in the lower part of FIG. 8, the character "wa",
“Ta” and “shi” are represented as specific waveforms (phonemes). Therefore, the waveform connection processing unit continuously connects the waveforms of the characters "wa", "ta", and "shi". Since this waveform is output to the voice output speaker 4 as analog voice data by the D / A converter 524, the word "I" is uttered from the voice output speaker 4.
【0056】規則音声合成部52では、言語処理/波形
接続処理部521の言語処理部によって、前記辞書メモ
リ522を参照してテキストデータを単語と決定し、そ
の単語に対応する読み,アクセントに基づく音素を接続
して音声データとして出力する。In the rule voice synthesis unit 52, the language processing unit of the language processing / waveform connection processing unit 521 refers to the dictionary memory 522 to determine the text data as a word, and based on the reading and accent corresponding to the word. Connect phonemes and output as voice data.
【0057】これによって、聾唖者が文字入力用タブレ
ット1に入力した文字や言葉(文章)は、音声出力用ス
ピーカ4から音声で出力されるため、健常者に正確に伝
えられる。As a result, the characters and words (sentences) input by the deaf person into the character input tablet 1 are output as voice from the voice output speaker 4, and are therefore accurately transmitted to the healthy person.
【0058】一方、本実施形態の音声筆談器は、聾唖者
からの語り掛け時には、文字入力用タブレット1のキー
ボード6の所定のファンクションキーを押すことによっ
て、所定の内容の音声(決まり文句)を出力する構成に
なっている。この決まり文句は前記録音再生部526に
録音され、かつ必要に応じて再生される。キーボード6
を操作することによって、所定の決まり文句を新たに記
憶したり、修正削除することができる。On the other hand, the voice writing device of the present embodiment outputs a voice (fixed phrase) having a predetermined content by pressing a predetermined function key of the keyboard 6 of the character input tablet 1 when talking to a deaf person. It is configured to do. This phrase is recorded in the recording / playback unit 526 and is played back as necessary. Keyboard 6
By operating, it is possible to newly store a predetermined cliché or to correct and delete it.
【0059】例えば、決まり文句(語りかけ)として、
「私は障害があり耳が良く聞こえませんのでこの機械を
使って会話したいのですが、よろしければうなずいて下
さい。」旨等の語りかけが用意される。For example, as a fixed phrase (talking),
"I have a disability and I can't hear well, so I want to use this machine to talk, but if you don't mind, please nod me."
【0060】音声認識部53は、図3および図9に示す
ように、バスE25に判定処理部531,音声特徴抽出
部532,照合部533,インタフェース部535,A/
D変換器536が接続されている。また、前記照合部5
33には音声標準パターンメモリ534が接続されてい
る。前記インタフェース部535は、図3に示すよう
に、バスA21およびバスB22に接続されている。音
声認識部53は健常者が音声入力用マイク3を介して入
力した音声を認識する音声認識機能を構成している。As shown in FIG. 3 and FIG. 9, the voice recognition unit 53 includes a determination processing unit 531, a voice feature extraction unit 532, a collation unit 533, an interface unit 535, and A / E on the bus E25.
The D converter 536 is connected. In addition, the matching unit 5
A voice standard pattern memory 534 is connected to 33. The interface unit 535 is connected to the bus A21 and the bus B22 as shown in FIG. The voice recognition unit 53 has a voice recognition function of recognizing a voice input by a healthy person via the voice input microphone 3.
【0061】音声認識部53は、電気学会論文誌C,第
108巻10号P853〜P857に記載されているものと基本的に
同一である。The voice recognition unit 53 is the CJ
It is basically the same as that described in Vol. 108, No. 10, P853 to P857.
【0062】前記A/D変換器536は、前記音声出力
用スピーカ4に入力されたアナログ音声データを受け、
デジタル音声データに変換する。The A / D converter 536 receives the analog voice data input to the voice output speaker 4,
Convert to digital audio data.
【0063】前記音声特徴抽出部532は、電気学会論
文誌C,第108巻10号P85に示されているものと同様に1
6チャンネルのフィルタ処理構成となっている。この1
6チャンネルのフィルタ処理を行って、音声入力用マイ
ク3から入力された音声からそれぞれの音声の特徴を取
り出す。すなわち、発声された内容は音声入力用マイク
3を介して音声認識部53に入り、音声特徴抽出部53
2によって、例えばバンドパスフィルタ処理される。The speech feature extraction unit 532 has the same structure as the one shown in the Institute of Electrical Engineers of Japan C, Vol. 108, No. 10, P85.
It has a filter processing configuration of 6 channels. This one
The 6-channel filtering process is performed to extract the characteristics of each voice from the voice input from the voice input microphone 3. That is, the uttered contents enter the voice recognition unit 53 via the voice input microphone 3 and the voice feature extraction unit 53.
2, for example, bandpass filtering is performed.
【0064】前記照合部533は、前記文字認識部51
の照合部513と同様に照合回路からなり、音声入力用
マイク3から入力された音声と音声標準パターンとの各
時点の差を求めて全体としての類似性を求め、最も良く
照合するものを答えとする。すなわち、音声標準パター
ンメモリ534に記憶された認識対象である各単語に対
応するバンドパスフィルタ出力群と、順次音声特徴抽出
部532から送られてくるバンドパスフィルタ出力とを
照合部533で照合する。The collation unit 533 is the character recognition unit 51.
The matching unit 513 has a matching circuit similar to that of the matching unit 513, and finds the difference between the voice input from the voice input microphone 3 and the voice standard pattern at each time point to obtain the overall similarity, and gives the best match. And That is, the collating unit 533 collates the bandpass filter output group corresponding to each recognition target word stored in the voice standard pattern memory 534 with the bandpass filter output sequentially sent from the voice feature extracting unit 532. .
【0065】前記音声標準パターンメモリ534には、
認識対象の各単語に該当したフィルタ出力(音声標準パ
ターン)が格納されている。In the voice standard pattern memory 534,
The filter output (speech standard pattern) corresponding to each word to be recognized is stored.
【0066】前記判定処理部531は、前記照合部53
3の出力を受けて判定を行い、最も入力に照合するもの
を認識結果として最終決定する。テキストデータは前記
インタフェース部515からバスA21およびバスB2
2に送り出される。また、判定処理部531は会話処理
も行う。The determination processing unit 531 is provided with the collation unit 53.
The output of 3 is received and a determination is made, and the one that most matches the input is finally determined as the recognition result. Text data is transferred from the interface unit 515 to the bus A21 and the bus B2.
Sent to 2. The determination processing unit 531 also performs conversation processing.
【0067】音声認識部53では、入力されてデジタル
音声データとなった音声を音声特徴抽出部532で抽出
し、音声標準パターンメモリ534の音声標準パターン
と照合部533で照合し、判定処理部531で最終的に
決定し、テキストデータとして出力する。このテキスト
データはインタフェース部535からバスA21および
バスB22に送り出される。In the voice recognition unit 53, the voice that has been input and becomes digital voice data is extracted by the voice feature extraction unit 532, and is compared with the voice standard pattern of the voice standard pattern memory 534 by the collation unit 533, and the determination processing unit 531 is performed. Is finally determined in and output as text data. This text data is sent from the interface section 535 to the bus A21 and the bus B22.
【0068】表示部54は、図示はしないが前記バスA
21およびバスB22に接続されるインタフェース部を
有するとともに、このインタフェース部に接続されるバ
スに前記表示パネル2を形成する液晶ディスプレイパネ
ルを制御するコントローラが接続されている。このコン
トローラは、例えば液晶タイミング制御部とデータ駆動
部で構成されている。表示部54は前記音声認識部53
からのテキストデータを入力して該当する単語あるいは
文章を表示するように、文字データを表示パネル2に出
力する。表示部54は聾唖者に提示するための表示機能
を構成する。Although not shown in the figure, the display section 54 is provided with the bus A.
21 and an interface section connected to the bus B22, and a controller for controlling the liquid crystal display panel forming the display panel 2 is connected to the bus connected to the interface section. This controller is composed of, for example, a liquid crystal timing controller and a data driver. The display unit 54 is the voice recognition unit 53.
The character data is output to the display panel 2 so that the text data from is input and the corresponding word or sentence is displayed. The display unit 54 constitutes a display function for presenting the deaf person.
【0069】つぎに、本実施形態の音声筆談器の使用方
法について、図10のフローチャートを参照しながら説
明する。Next, a method of using the voice writing device of this embodiment will be described with reference to the flowchart of FIG.
【0070】聾唖者が健常者と会話したい時、会話が開
始される(ステップ101)。When the deaf person wants to have a conversation with a healthy person, the conversation is started (step 101).
【0071】聾唖者は、健常者に向かって会話をしたい
旨の語りかけを行う。この語りかけは、決まり文句とな
っていて、聾唖者が文字入力用タブレット1のキーボー
ド6の特定のファンクションキー(語りかけキー)を押
し下げることによって行われる(ステップ102)。The deaf person talks to a healthy person that he / she wants to have a conversation. This narrative is a fixed phrase, and is performed by the deaf person pressing down a specific function key (narrative key) on the keyboard 6 of the character input tablet 1 (step 102).
【0072】ファンクションキーの押し下げによって、
制御部55がこれを検出して規則音声合成部52の録音
再生部526に起動をかける。この結果、録音再生部5
26の圧縮データメモリ5262から予め記憶されてい
たデータが取り出され、音声伸長処理部5261で伸長
処理されて元の音声データに戻され、D/A変換器52
4でアナログ音声データに変換されて音声出力用スピー
カ4に出力される。By pressing down the function key,
The control unit 55 detects this and activates the recording / playback unit 526 of the regular voice synthesis unit 52. As a result, the recording / playback unit 5
The previously stored data is taken out from the compressed data memory 5262 of 26, is decompressed by the audio decompression processing unit 5261 and is returned to the original audio data, and the D / A converter 52
At 4, the analog voice data is converted and output to the voice output speaker 4.
【0073】この結果、例えば、「私は障害があり耳が
良く聞こえませんのでこの機械を使って会話したいので
すが、よろしければうなずいて下さい。」等の音声出力
が音声出力用スピーカ4から送出される(ステップ10
3)。As a result, for example, the voice output from the voice output speaker 4 is, for example, "I have a disability and cannot hear well, so I want to talk using this machine, but nod if you like." Sent out (step 10)
3).
【0074】聾唖者は、話し相手となる健常者が前記語
りかけを同意してうなずいたことを確認した後、文字入
力用ペン11を使って文字入力用タブレット1上に所望
の文字等を書いて健常者に意志を伝える。伝えたい意志
は、駅までの道順、買いたい品物がどこにあるか等局面
に応じて異なる。例えば、聾唖者は「東京駅までの道順
を教えて下さい。」と入力する。The deaf person, after confirming that the healthy person to be talked with has agreed with the narrative and nodded, writes a desired character or the like on the character input tablet 1 using the character input pen 11 to obtain a normal sound. Tell the will to others. The will to convey depends on the situation such as the route to the station and where the item you want to buy is. For example, a deaf person inputs "Please tell me the route to Tokyo station."
【0075】文字入力用タブレット1に入力すると、前
記制御部55によって起動された文字認識部51がこれ
らを認識して規則音声合成部52にインタフェース部5
25を介して該当するテキストデータを転送する(ステ
ップ104)。When the characters are input to the character input tablet 1, the character recognizing unit 51 activated by the control unit 55 recognizes them and the regular voice synthesizing unit 52 receives the interface unit 5.
The corresponding text data is transferred via 25 (step 104).
【0076】規則音声合成部52では、言語処理/波形
接続処理部521の言語処理部によって、前記辞書メモ
リ522を参照してテキストデータを単語と決定し、そ
の単語に対応する読み,アクセントに基づく音声データ
として出力する。この音声データは、D/A変換器52
4に送られアナログ音声データに変換されて音声出力用
スピーカ4に出力される(ステップ105)。In the rule voice synthesis unit 52, the language processing unit of the language processing / waveform connection processing unit 521 refers to the dictionary memory 522 to determine the text data as a word, and based on the reading and accent corresponding to the word. Output as voice data. This voice data is converted to D / A converter 52.
4 is converted to analog voice data and output to the voice output speaker 4 (step 105).
【0077】健常者は音声出力用スピーカ4から発する
言葉を聞き、正確に聾唖者の意志を知ることができる。A healthy person can know the intention of the deaf person accurately by listening to the words emitted from the voice output speaker 4.
【0078】そこで、健常者は聾唖者の問いに対する言
葉を音声入力用マイク3に向かって喋る。前記問いに対
しては、例えば「このとおりをちょくしんして 2かい
めのしんごうでみぎにまがると すぐそばに とうきょ
うえきがあります」等と発声する(ステップ106)。Therefore, the healthy person speaks the words for the question of the deaf person into the voice input microphone 3. In response to the above-mentioned question, say, "For example, if you go to the second floor for a second time, there will be a city near you" (step 106).
【0079】話した内容は音声入力用マイク3を介して
音声認識部53に入り、音声特徴抽出部532によっ
て、例えばバンドパスフィルタ処理される。認識に当た
っては予め音声標準パターンメモリ534に記憶された
認識対象である各単語に対応するバンドパスフィルタ出
力群と、順次音声特徴抽出部532から送られてくるバ
ンドパスフィルタ出力とを照合部533で照合して、さ
らにその出力を用いて判定処理部531で最も入力に照
合するものを認識結果として最終決定する。音声認識部
53で認識された内容はインタフェース部535からテ
キストデータとして送出される(ステップ107)。The spoken contents enter the voice recognition unit 53 via the voice input microphone 3 and are subjected to, for example, band pass filter processing by the voice feature extraction unit 532. At the time of recognition, the collating unit 533 compares the bandpass filter output group corresponding to each word to be recognized, which is stored in advance in the voice standard pattern memory 534, and the bandpass filter output sequentially sent from the voice feature extracting unit 532. The result of the collation is further determined, and the output of the collation is determined by the determination processing unit 531 as the recognition result. The contents recognized by the voice recognition unit 53 are sent as text data from the interface unit 535 (step 107).
【0080】前記音声認識部53から送り出されたテキ
ストデータは、インタフェース部535を介して表示部
54の液晶タイミング制御部とデータ駆動部で構成され
るコントローラに入力される。これにより、コントロー
ラは液晶ディスプレイパネルからなる表示パネル2を駆
動して表示パネル2の表示面に文字を表示する(ステッ
プ108)。The text data sent from the voice recognition unit 53 is input to the controller composed of the liquid crystal timing control unit and the data driving unit of the display unit 54 via the interface unit 535. As a result, the controller drives the display panel 2 which is a liquid crystal display panel to display characters on the display surface of the display panel 2 (step 108).
【0081】表示パネル2の表示面には「この通りを直
進して2回目の信号で右に曲がると、すぐそばに東京駅
があります。」と、漢字混じりの文字で表示されること
になる。On the display surface of the display panel 2, "If you go straight on this street and turn right at the second traffic light, you will find Tokyo Station in the immediate vicinity." It will be displayed in a mixture of Kanji characters. .
【0082】聾唖者は、表示パネル2に表示された文字
等を読む(目視)ことによって健常者の話した内容を正
確に理解することができ、問い掛けに対する答えが分か
り、一旦会話は成立(終了)する(ステップ109)。The deaf person can accurately understand the contents spoken by the healthy person by reading (visually) the characters displayed on the display panel 2, understand the answer to the question, and once the conversation is completed (end). (Step 109).
【0083】聾唖者が健常者の答えた内容に対して不満
を感じたり、または他の話しをしたい場合、すなわち、
会話をさらに続けたい場合は、ステップ104に戻っ
て、再度文字入力用タブレット1に文字を入力し、前記
手順を踏んで会話を続ける。会話を終了させたいと思う
まで、ステップ104〜ステップ109によるループを
繰り返し実行する。When the deaf person feels dissatisfied with the content of a normal person's answer or wants to talk about something else, that is,
If the user wants to continue the conversation further, the process returns to step 104, the character is input again to the character input tablet 1, and the conversation is continued by following the above procedure. The loop of steps 104 to 109 is repeatedly executed until it is desired to end the conversation.
【0084】聾唖者が会話を終了したい場合は、聾唖者
は再び文字入力用タブレット1のキーボード6のフアン
クションキーを押し下げる(ステップ110)。When the deaf person wants to end the conversation, the deaf person again depresses the function key of the keyboard 6 of the character input tablet 1 (step 110).
【0085】このフアンクションキーの押し下げによっ
て、規則音声合成部52内の録音再生部526から会話
終了メッセージ、例えば「どうもありがとうございまし
たおかげさまでよくわかりました」等と決まり文句が音
声入力用マイク3から発せられる(ステップ111)。By pressing down the function key, the conversation end message from the recording / reproducing unit 526 in the rule voice synthesizing unit 52, for example, a phrase such as "Thank you very much, I understand very well" etc. (Step 111).
【0086】健常者が、会話終了メッセージを聞いて同
意することによって、聾唖者と健常者の会話が完全に終
了する(ステップ112)。When the healthy person hears and agrees with the conversation end message, the conversation between the deaf person and the normal person is completed (step 112).
【0087】また、会話終了は当然にして健常者によっ
ても表明することができる。The end of the conversation can be naturally expressed by a healthy person.
【0088】本実施形態の音声筆談器を使用すれば、手
話を知らなくても聾唖者と健常者の会話は正確となりか
つ簡単になる。By using the voice-writing device of the present embodiment, the conversation between the deaf person and the normal person becomes accurate and simple without knowing the sign language.
【0089】また、健常者は、単に音声入力用マイクに
向かって話すだけであり、面倒な筆談が不要となること
から、負担は少なくなり、聾唖者との会話も楽しいもの
となる。Further, since a healthy person simply speaks into the voice input microphone and does not need troublesome writing, the burden is reduced and the conversation with the deaf person becomes pleasant.
【0090】以上本発明者によってなされた発明を実施
形態に基づき具体的に説明したが、本発明は上記実施形
態に限定されるものではなく、その要旨を逸脱しない範
囲で種々変更可能であることはいうまでもない。例え
ば、文字入力手段としての文字入力用タブレット1およ
び文字入力用ペン11を2組設ける構造とすれば、健常
者も図形による入力が可能となる。Although the invention made by the present inventor has been specifically described based on the embodiments, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the scope of the invention. Needless to say. For example, if a structure is provided in which two sets of the character input tablet 1 and the character input pen 11 as the character input means are provided, even a healthy person can input with a figure.
【0091】[0091]
【発明の効果】本願において開示される発明のうち代表
的なものによって得られる効果を簡単に説明すれば、下
記のとおりである。The effects obtained by the typical ones of the inventions disclosed in the present application will be briefly described as follows.
【0092】(1)聾唖者が常日頃慣れた手書き文字を
用いて文字入力用タブレットにメッセージを書けば、該
当する内容が相手(健常者)に音声として出力されて伝
達され、健常者は聾唖者の意志を正確に知ることができ
る。また、健常者は通常の会話音声を音声入力用マイク
に向かって発声すれば、その内容は表示パネルに文字と
なって表示されるため、聾唖者も健常者の意志を正確確
実に知ることができる。したがって、聾唖者と健常者等
との間で簡単な操作で正確に意志を伝えることができ
る。(1) If the deaf person writes a message on the character input tablet using handwritten characters that he or she is accustomed to on a daily basis, the corresponding content is output as voice to the other person (healthy person), and the normally person is deaf and deaf. Can know the will of the person accurately. In addition, if a normal person speaks a normal conversation voice into the voice input microphone, the content is displayed as characters on the display panel, so that the deaf person can know the will of the normal person accurately and surely. it can. Therefore, it is possible to accurately convey the intention between the deaf person and the healthy person by a simple operation.
【0093】(2)聾唖者と健常者との会話は、聾唖者
が表示パネルに手書きで文字等を書き、健常者が音声入
力用マイクに向かって話すだけで会話が成立するため、
手話を知らなくても会話できる。(2) A conversation between a deaf person and a normal person is established because the deaf person writes a character or the like by hand on the display panel and the normal person speaks into the voice input microphone.
You can talk without knowing sign language.
【0094】(3)健常者は、聾唖者に対して手書きで
意志を伝えることなく、音声入力用マイクに向かって話
すだけで聾唖者と会話ができるため、健常者の負担が軽
くなる。(3) The healthy person can talk with the deaf person by speaking into the voice input microphone without handwriting the intention to the deaf person, and the burden on the normal person is lightened.
【図1】本発明の一実施形態である音声筆談器のシステ
ム構成を示すブロック図である。FIG. 1 is a block diagram showing a system configuration of a voice writing device according to an embodiment of the present invention.
【図2】本実施形態の音声筆談器の外観を示す斜視図で
ある。FIG. 2 is a perspective view showing an external appearance of the voice writing device of the present embodiment.
【図3】本実施形態の音声筆談器のシステム構成におけ
る制御部と文字認識部,規則音声合成部および音声認識
部の相関を示すブロック図である。FIG. 3 is a block diagram showing a correlation among a control unit, a character recognition unit, a regular voice synthesis unit, and a voice recognition unit in the system configuration of the voice writing device of the present embodiment.
【図4】本実施形態の音声筆談器の文字認識部の構成を
示すブロック図である。FIG. 4 is a block diagram showing a configuration of a character recognition unit of the voice writing device of the present embodiment.
【図5】本実施形態の音声筆談器における文字認識のた
めの方向コードと入力文字との相関を示す説明図であ
る。FIG. 5 is an explanatory diagram showing a correlation between a direction code for character recognition and an input character in the voice writing device of the present embodiment.
【図6】本実施形態の音声筆談器において認識された認
識文字とその方向コード列を示す説明図である。FIG. 6 is an explanatory diagram showing a recognized character recognized by the voice writing device of the present embodiment and a direction code string thereof.
【図7】本実施形態の音声筆談器における規則音声合成
部の構成を示すブロック図である。FIG. 7 is a block diagram showing a configuration of a regular voice synthesis unit in the voice writing device of the present embodiment.
【図8】本実施形態の音声筆談器における規則音声合成
の原理を示す説明図である。FIG. 8 is an explanatory diagram showing the principle of regular voice synthesis in the voice writing device of the present embodiment.
【図9】本実施形態の音声筆談器における音声認識部の
構成を示すブロック図である。FIG. 9 is a block diagram showing a configuration of a voice recognition unit in the voice writing device of the present embodiment.
【図10】本実施形態の音声筆談器の使用方法を示すフ
ローチャートである。FIG. 10 is a flowchart showing a method of using the voice writing device of the present embodiment.
1…文字入力用タブレット、2…表示パネル、3…音声
入力用マイク、4…音声出力用スピーカ、5…表示入力
一体化装置、6…キーボード、7,8…ケーブル、11
…入力ペン、15…文字音声認識/出力制御手段、21
…バスA、22…バスB、23…バスC、24…バス
D、25…バスE、51…文字認識部、52…規則音声
合成部、53…音声認識部、54…表示部、55…制御
部、511…判定処理部、512…特徴抽出部、513
…照合部、514…文字標準パターンメモリ、515…
インタフェース部、521…言語処理/波形接続処理
部、522…辞書メモリ、523…音源メモリ、524
…D/A変換器、525…インタフェース部、526…
録音再生部、5261…音声伸長処理部、5262…圧
縮データメモリ、531…判定処理部、532…音声特
徴抽出部、533…照合部、534…音声標準パターン
メモリ、535…インタフェース部、536…A/D変
換器。DESCRIPTION OF SYMBOLS 1 ... Tablet for character input, 2 ... Display panel, 3 ... Microphone for audio input, 4 ... Speaker for audio output, 5 ... Integrated display / input device, 6 ... Keyboard, 7, 8 ... Cable, 11
... input pen, 15 ... character voice recognition / output control means, 21
... bus A, 22 ... bus B, 23 ... bus C, 24 ... bus D, 25 ... bus E, 51 ... character recognition section, 52 ... regular speech synthesis section, 53 ... speech recognition section, 54 ... display section, 55 ... Control unit, 511 ... Judgment processing unit, 512 ... Feature extraction unit, 513
... collation unit, 514 ... Character standard pattern memory, 515 ...
Interface unit, 521 ... Language processing / waveform connection processing unit, 522 ... Dictionary memory, 523 ... Sound source memory, 524
... D / A converter, 525 ... Interface unit, 526 ...
Recording / playback unit, 5261 ... Voice decompression processing unit, 5262 ... Compressed data memory, 531 ... Judgment processing unit, 532 ... Voice feature extraction unit, 533 ... Collation unit, 534 ... Voice standard pattern memory, 535 ... Interface unit, 536 ... A / D converter.
フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G10L 3/00 551 G10L 5/04 E 5/04 G06F 15/62 321A 322K Continuation of front page (51) Int.Cl. 6 Identification number Office reference number FI Technical display location G10L 3/00 551 G10L 5/04 E 5/04 G06F 15/62 321A 322K
Claims (4)
手段と、音声出力手段と、文字音声認識/出力制御手段
とを有し、前記文字音声認識/出力制御手段は前記文字
入力手段によって入力された文字を認識して文字データ
を出力する文字認識部と、前記文字認識部の文字データ
に基づいて音声データに変換して前記音声出力手段に出
力する規則音声合成部と、前記音声入力手段によって入
力された音声を認識して音声データを出力する音声認識
部と、前記音声認識部の音声データに基づいて文字デー
タに変換して前記表示手段に出力する表示部と、前記各
部を制御する制御部とからなっていることを特徴とする
音声筆談器。1. A character input unit, a voice input unit, a display unit, a voice output unit, and a character voice recognition / output control unit, wherein the character voice recognition / output control unit is operated by the character input unit. A character recognition unit that recognizes an input character and outputs character data, a rule voice synthesis unit that converts the character data of the character recognition unit into voice data and outputs the voice data to the voice output unit, and the voice input. A voice recognition unit for recognizing the voice input by the means and outputting voice data; a display unit for converting the voice data of the voice recognition unit into character data and outputting the character data to the display unit; and controlling the respective units. A voice writing device characterized by comprising a control unit for
前記文字入力手段による文字データを受けて文字の特徴
を抽出する特徴抽出部と、文字標準パターンメモリと、
前記特徴抽出部による文字データと前記文字標準パター
ンメモリの文字標準パターンとを照合する照合部と、前
記特徴抽出部による文字データと前記文字標準パターン
の一致を判定して一致したテキストデータを出力する判
定処理部とからなり、前記音声認識部はインタフェース
部と、前記音声入力手段によるアナログ音声データを受
けるA/D変換器と、前記A/D変換器によって変換さ
れたデジタル音声データの音声の特徴を抽出する音声特
徴抽出部と、音声標準パターンメモリと、前記音声特徴
抽出部による音声データと前記音声標準パターンメモリ
の音声標準パターンとを照合する照合部と、前記音声特
徴抽出部による音声データと前記音声標準パターンとの
一致を判定し一致したテキストデータを出力する判定処
理部とからなり、前記表示部はインタフェース部と、前
記文字/音声認識部から出力されたテキストデータに基
づいて前記表示手段に文字データを出力するコントロー
ラとからなり、前記規則音声合成部はインタフェース部
と、辞書メモリと、音源メモリと、前記辞書メモリおよ
び前記音源メモリの情報に基づいて前記文字認識部から
出力されたテキストデータを音声波形に変換する言語処
理/波形接続処理部と、前記言語処理/波形接続処理部
の音声データをアナログ音声データに変換して前記音声
出力手段に出力するD/A変換器とからなっていること
を特徴とする請求項1記載の音声筆談器。2. The character recognition unit includes an interface unit,
A feature extraction unit that receives the character data from the character input unit and extracts the feature of the character; a character standard pattern memory;
A collating unit that collates the character data by the feature extraction unit with the character standard pattern of the character standard pattern memory, and determines whether the character data by the feature extraction unit matches the character standard pattern and outputs the matched text data. The voice recognition unit comprises an interface unit, an A / D converter for receiving analog voice data from the voice input unit, and a voice feature of the digital voice data converted by the A / D converter. A voice feature extraction unit that extracts the voice standard pattern memory, a matching unit that matches the voice data of the voice feature extraction unit with the voice standard pattern of the voice standard pattern memory, and the voice data of the voice feature extraction unit. And a determination processing unit that determines the match with the voice standard pattern and outputs the matched text data, The display unit includes an interface unit and a controller that outputs character data to the display unit based on the text data output from the character / speech recognition unit. The rule voice synthesis unit includes an interface unit and a dictionary memory. A sound source memory, a language processing / waveform connection processing unit for converting the text data output from the character recognition unit into a voice waveform based on information in the dictionary memory and the sound source memory, and the language processing / waveform connection processing unit 2. The voice writing device according to claim 1, further comprising a D / A converter for converting the voice data of 1. to analog voice data and outputting the analog voice data to the voice output means.
づいて所望の音声データを録音,再生する録音再生部が
設けられていることを特徴とする請求項1または請求項
2記載の音声筆談器。3. The voice writing according to claim 1, wherein the regular voice synthesizing unit is provided with a recording / playback unit for recording and playing back desired voice data based on input data. vessel.
びキーボードを備えたタッチパネル型の文字入力用タブ
レットであり、前記表示手段は液晶ディスプレイパネル
であり、前記音声入力手段は音声入力用マイクであり、
前記音声出力手段は音声出力用スピーカであり、前記文
字入力用タブレットは前記液晶ディスプレイパネル上に
重ねられて表示面と文字入力面が同一面となる構造とな
っていることを特徴とする請求項1乃至請求項3のいず
れか1項記載の音声筆談器。4. The character input means is a touch panel type character input tablet provided with a character input pen and a keyboard, the display means is a liquid crystal display panel, and the voice input means is a voice input microphone. ,
The voice output means is a voice output speaker, and the character input tablet has a structure in which a display surface and a character input surface are flush with each other so as to be superimposed on the liquid crystal display panel. The voice writing device according to any one of claims 1 to 3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8134972A JPH09319297A (en) | 1996-05-29 | 1996-05-29 | Communicating device by speech and writing |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8134972A JPH09319297A (en) | 1996-05-29 | 1996-05-29 | Communicating device by speech and writing |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH09319297A true JPH09319297A (en) | 1997-12-12 |
Family
ID=15140918
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8134972A Withdrawn JPH09319297A (en) | 1996-05-29 | 1996-05-29 | Communicating device by speech and writing |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH09319297A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11308513A (en) * | 1998-04-17 | 1999-11-05 | Casio Comput Co Ltd | Image reproducing device and image reproducing method |
WO2004114107A1 (en) * | 2003-06-20 | 2004-12-29 | Nadeem Mohammad Qadir | Human-assistive wearable audio-visual inter-communication apparatus. |
JP2012252581A (en) * | 2011-06-03 | 2012-12-20 | Kyushu Institute Of Technology | Sign language recognition method and apparatus thereof |
CN105957514A (en) * | 2016-07-11 | 2016-09-21 | 吉林宇恒光电仪器有限责任公司 | Portable deaf-mute communication equipment |
KR101994845B1 (en) * | 2018-01-19 | 2019-07-01 | 주식회사 인텔리비전 | Toy with recognition for character and block |
CN110390239A (en) * | 2018-04-17 | 2019-10-29 | 现代自动车株式会社 | The control method of vehicle and communication system including the communication system for disabled person |
CN111108755A (en) * | 2017-09-14 | 2020-05-05 | 株式会社索思未来 | Electronic device control system, audio output device, and method |
-
1996
- 1996-05-29 JP JP8134972A patent/JPH09319297A/en not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11308513A (en) * | 1998-04-17 | 1999-11-05 | Casio Comput Co Ltd | Image reproducing device and image reproducing method |
WO2004114107A1 (en) * | 2003-06-20 | 2004-12-29 | Nadeem Mohammad Qadir | Human-assistive wearable audio-visual inter-communication apparatus. |
JP2012252581A (en) * | 2011-06-03 | 2012-12-20 | Kyushu Institute Of Technology | Sign language recognition method and apparatus thereof |
CN105957514A (en) * | 2016-07-11 | 2016-09-21 | 吉林宇恒光电仪器有限责任公司 | Portable deaf-mute communication equipment |
CN111108755A (en) * | 2017-09-14 | 2020-05-05 | 株式会社索思未来 | Electronic device control system, audio output device, and method |
CN111108755B (en) * | 2017-09-14 | 2022-04-01 | 株式会社索思未来 | Electronic device control system, audio output device, and method |
KR101994845B1 (en) * | 2018-01-19 | 2019-07-01 | 주식회사 인텔리비전 | Toy with recognition for character and block |
CN110390239A (en) * | 2018-04-17 | 2019-10-29 | 现代自动车株式会社 | The control method of vehicle and communication system including the communication system for disabled person |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5794204A (en) | Interactive speech recognition combining speaker-independent and speaker-specific word recognition, and having a response-creation capability | |
US5842168A (en) | Cartridge-based, interactive speech recognition device with response-creation capability | |
US6167376A (en) | Computer system with integrated telephony, handwriting and speech recognition functions | |
US6415256B1 (en) | Integrated handwriting and speed recognition systems | |
US20020111794A1 (en) | Method for processing information | |
US20100178956A1 (en) | Method and apparatus for mobile voice recognition training | |
Delgado et al. | Spoken, multilingual and multimodal dialogue systems: development and assessment | |
Fellbaum et al. | Principles of electronic speech processing with applications for people with disabilities | |
US20010056345A1 (en) | Method and system for speech recognition of the alphabet | |
JPH09319297A (en) | Communicating device by speech and writing | |
JPH08278972A (en) | Speech input translation device | |
Damper | Speech technology—implications for biomedical engineering | |
Morales et al. | Speech-based human and service robot interaction: An application for Mexican dysarthric people | |
JP2001318915A (en) | Font conversion device | |
JP2002268680A (en) | Hybrid oriental character recognition technology using key pad and voice in adverse environment | |
JPH0883092A (en) | Information inputting device and method therefor | |
JPH08297673A (en) | Voice input translation system | |
JPH1097280A (en) | Speech image recognition and translation device | |
JPH08329088A (en) | Speech input translation device | |
Fujie et al. | Recognition of positive/negative attitude and its application to a spoken dialogue system | |
JP2000206986A (en) | Language information detector | |
JP2001282098A (en) | Foreign language learning device, foreign language learning method and medium | |
JP2021103191A (en) | Information processor and information processing method | |
JPS6386652A (en) | Telephone incoming call information offering system | |
JPS60170885A (en) | Monosyllabic voice learning system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20030805 |