[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2005258577A - Character input device, character input method, character input program, and recording medium - Google Patents

Character input device, character input method, character input program, and recording medium Download PDF

Info

Publication number
JP2005258577A
JP2005258577A JP2004066038A JP2004066038A JP2005258577A JP 2005258577 A JP2005258577 A JP 2005258577A JP 2004066038 A JP2004066038 A JP 2004066038A JP 2004066038 A JP2004066038 A JP 2004066038A JP 2005258577 A JP2005258577 A JP 2005258577A
Authority
JP
Japan
Prior art keywords
character
character string
voice
input
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004066038A
Other languages
Japanese (ja)
Inventor
Toshiaki Wada
利昭 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2004066038A priority Critical patent/JP2005258577A/en
Publication of JP2005258577A publication Critical patent/JP2005258577A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Character Discrimination (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a character input device which improves a character recognition rate even for a distinctive hand-written character, and also provide a character input method, a character input program and a recording medium. <P>SOLUTION: The character input method has the following steps: a display step which displays a hand-written character on a tablet; a conversion step which converts the string of hand-written characters to a character string and replaces the former with the latter; a voice input step which acquires voice data inputted corresponding a prescribed character string among character strings; a voice recognition step which performs voice recognition and converts the voice data to a character string; a character string replacement step which make replacement with the character string obtained by the result of the voice recognition; a character dictionary updating step which corrects dictionary data for character recognition based on the replaced character string and the string of the hand-written characters; and a voice dictionary updating step which corrects dictionary data for voice recognition based on the replaced character string and the voice data corresponding to the replaced character string. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、手書き文字を認識する技術に関し、特に音声情報と組合わせて手書き文字の認識率を高める技術に関する。   The present invention relates to a technology for recognizing handwritten characters, and more particularly to a technology for increasing the recognition rate of handwritten characters in combination with audio information.

タブレットPCでは手書き文字認識が一般的に利用されている。しかし、文字の誤認識があった場合は、再度文字を筆記して入力する必要があるが、文字に癖がある場合は、繰り返して誤認識が発生するため何度も筆記入力する必要があった。   In tablet PCs, handwritten character recognition is generally used. However, if there is a misrecognition of a character, it is necessary to rewrite the character and input it.However, if there is a flaw in the character, a misrecognition will occur repeatedly, so it is necessary to input it repeatedly. It was.

この問題を解決するために、筆記と共に音声を入力し音声認識した結果で手書き文字の誤認識を修正する方法が提案されている。この方法によれば、音声によって手書き文字の誤認識を修正するため、修正作業が効率化するという効果を得ることができる。(例えば、特許文献1、特許文献2参照)。
特開平6−52240号公報 特開2002−259908号公報
In order to solve this problem, there has been proposed a method of correcting misrecognition of handwritten characters based on the result of speech recognition by inputting speech together with writing. According to this method, since the erroneous recognition of handwritten characters is corrected by voice, an effect of improving the efficiency of the correction work can be obtained. (For example, refer to Patent Document 1 and Patent Document 2).
JP-A-6-52240 JP 2002-259908 A

しかしながら、同じ癖の手書き文字は、やはりその後も何度も誤認識すると考えられるため、特許文献1、2に記載された発明を用いても、そのたびに音声認識して修正するという動作を繰り返すことになる。   However, it is considered that handwritten characters of the same font will be misrecognized many times thereafter, so even if the inventions described in Patent Literatures 1 and 2 are used, the operation of recognizing and correcting each time is repeated. It will be.

本発明は、かかる事情に鑑みてなされたものであり、誤認識を生ずるような癖のある手書き文字であっても使用しているうちに認識率を高めることのできる文字入力装置、文字入力方法、文字入力プログラム及び記録媒体を提供することを目的とする。   The present invention has been made in view of such circumstances, and a character input device and a character input method capable of increasing the recognition rate while using even a handwritten character having a habit that causes erroneous recognition. An object of the present invention is to provide a character input program and a recording medium.

上記課題を解決するための、本発明に係る請求項1に記載の文字入力装置は、タブレットにペンで手書き入力した文字をキャラクタ文字に変換する文字入力装置において、前記入力した手書き文字をタブレット上に表示する表示手段と、前記入力した手書き文字の列を文字認識用の辞書データに基づいて逐次的にキャラクタ文字列に変換し、タブレット上に表示された手書き文字をキャラクタ文字で置き換える変換手段と、前記変換手段が変換してタブレット上に表示したキャラクタ文字列のうち選択された所定のキャラクタ文字列を他と区別して表示する選択表示手段と、前記選択表示手段で表示された所定のキャラクタ文字列に対応して入力された音声データを取得する音声入力手段と、前記音声入力手段が取得した音声データを音声認識用の辞書データに基づいて音声認識して文字列に変換する音声認識手段と、前記音声認識した結果えられた文字列で、前記選択表示手段が表示したタブレット上のキャラクタ文字列を置き換える文字列置き換え手段と、前記文字列置き換え手段が置き換えた文字列と、その文字列に対応する前記変換手段がキャラクタ文字列に置き換える前の前記手書き文字の列とに基づいて前記文字認識用の辞書データを修正する文字辞書更新手段と、前記文字列置き換え手段が置き換えた文字列と、その文字列に対応する前記音声入力手段が取得した音声データとに基づいて前記音声認識用の辞書データを修正する音声辞書更新手段とを有する。   The character input device according to claim 1 according to the present invention for solving the above-described problem is a character input device that converts a character handwritten with a pen into a character character on the tablet. Display means for displaying on the display, and a conversion means for sequentially converting the input handwritten character string into a character character string based on the dictionary data for character recognition, and replacing the handwritten character displayed on the tablet with the character character; Selection display means for distinguishing and displaying a predetermined character string selected from among character strings converted by the conversion means and displayed on the tablet; and predetermined character characters displayed by the selection display means Voice input means for acquiring voice data input corresponding to the sequence; and voice authentication for the voice data acquired by the voice input means. Voice recognition means for voice recognition based on dictionary data for use and conversion to a character string, and a character string for replacing the character string on the tablet displayed by the selection display means with the character string obtained as a result of the voice recognition Based on the replacement means, the character string replaced by the character string replacement means, and the handwritten character string before the conversion means corresponding to the character string is replaced with the character character string, the dictionary data for character recognition is obtained. A voice for correcting the dictionary data for speech recognition based on the character dictionary updating means to be corrected, the character string replaced by the character string replacing means, and the voice data acquired by the voice input means corresponding to the character string Dictionary updating means.

また本発明に係る請求項2に記載の文字入力装置は、上記記載の発明である文字入力装置において、前記選択表示手段は、単語又は文節単位で所定のキャラクタ文字列を選択表示する。   According to a second aspect of the present invention, there is provided the character input device according to the first aspect, wherein the selection display means selectively displays a predetermined character string in units of words or phrases.

また本発明に係る請求項3に記載の文字入力装置は、上記記載の発明である文字入力装置において、前記選択表示手段は、前記タブレット上で選択されたキャラクタ文字列の選択範囲が単語又は文節になっていない場合には、選択範囲が単語又は文節となるように自動的に変更する。   The character input device according to claim 3 of the present invention is the character input device according to the invention described above, wherein the selection display means has a selection range of the character character string selected on the tablet as a word or a phrase. If not, the selection range is automatically changed to be a word or a phrase.

また本発明に係る請求項4に記載の文字入力方法は、タブレットにペンで手書き入力した文字をキャラクタ文字に変換する文字入力方法において、前記入力した手書き文字をタブレット上に表示する表示ステップと、前記入力した手書き文字の列を文字認識用の辞書データに基づいて逐次的にキャラクタ文字列に変換し、タブレット上に表示された手書き文字をキャラクタ文字で置き換える変換ステップと、前記変換ステップで変換されてタブレット上に表示されたキャラクタ文字列のうち選択された所定のキャラクタ文字列を他と区別して表示する選択表示ステップと、前記選択表示ステップで表示された所定のキャラクタ文字列に対応して入力された音声データを取得する音声入力ステップと、前記音声入力ステップが取得した音声データを音声認識用の辞書データに基づいて音声認識して文字列に変換する音声認識ステップと、前記音声認識した結果えられた文字列で、前記選択表示ステップで表示されたタブレット上のキャラクタ文字列を置き換える文字列置き換えステップと、前記文字列置き換えステップで置き換えた文字列と、その文字列に対応する前記変換手段がキャラクタ文字列に置き換える前の前記手書き文字の列とに基づいて前記文字認識用の辞書データを修正する文字辞書更新ステップと、前記文字列置き換えステップで置き換えた文字列と、その文字列に対応する前記音声入力ステップで取得した音声データとに基づいて前記音声認識用の辞書データを修正する音声辞書更新ステップと、を有する。   Moreover, the character input method according to claim 4 according to the present invention is a character input method for converting a character handwritten with a pen into a character character into a character character, and displaying the input handwritten character on the tablet, The input handwritten character string is sequentially converted into a character character string based on the dictionary data for character recognition, and the conversion step replaces the handwritten character displayed on the tablet with the character character. A selection display step for distinguishing and displaying a predetermined character character string selected from the character character strings displayed on the tablet, and an input corresponding to the predetermined character character string displayed in the selection display step A voice input step for acquiring the recorded voice data, and the voice data acquired by the voice input step. A voice recognition step for voice recognition based on dictionary data for voice recognition and converting it into a character string, and a character string on the tablet displayed in the selection display step in the character string obtained as a result of the voice recognition A character string replacement step for replacing the character string, the character string replaced in the character string replacement step, and the handwritten character string before the conversion means corresponding to the character string replaces the character string. The dictionary data for speech recognition based on the character dictionary updated step for correcting the dictionary data, the character string replaced in the character string replacement step, and the voice data acquired in the voice input step corresponding to the character string A speech dictionary updating step for correcting

また本発明に係る請求項5に記載の文字入力プログラムは、タブレットにペンで手書き入力した文字をキャラクタ文字に変換する文字入力プログラムにおいて、前記入力した手書き文字をタブレット上に表示する表示ステップと、前記入力した手書き文字の列を文字認識用の辞書データに基づいて逐次的にキャラクタ文字列に変換し、タブレット上に表示された手書き文字をキャラクタ文字で置き換える変換ステップと、前記変換ステップで変換されてタブレット上に表示されたキャラクタ文字列のうち選択された所定のキャラクタ文字列を他と区別して表示する選択表示ステップと、前記選択表示ステップで表示された所定のキャラクタ文字列に対応して入力された音声データを取得する音声入力ステップと、前記音声入力ステップが取得した音声データを音声認識用の辞書データに基づいて音声認識して文字列に変換する音声認識ステップと、前記音声認識した結果えられた文字列で、前記選択表示ステップで表示されたタブレット上のキャラクタ文字列を置き換える文字列置き換えステップと、前記文字列置き換えステップで置き換えた文字列と、その文字列に対応する前記変換手段がキャラクタ文字列に置き換える前の前記手書き文字の列とに基づいて前記文字認識用の辞書データを修正する文字辞書更新ステップと、前記文字列置き換えステップで置き換えた文字列と、その文字列に対応する前記音声入力ステップで取得した音声データとに基づいて前記音声認識用の辞書データを修正する音声辞書更新ステップと、をコンピュータに実行させる。   The character input program according to claim 5 of the present invention is a character input program for converting a character handwritten with a pen into a character character into a character character, and a display step for displaying the input handwritten character on the tablet. The input handwritten character string is sequentially converted into a character character string based on dictionary data for character recognition, and the conversion step replaces the handwritten character displayed on the tablet with the character character, and is converted in the conversion step. A selection display step for distinguishing and displaying a predetermined character character string selected from the character character strings displayed on the tablet, and an input corresponding to the predetermined character character string displayed in the selection display step A voice input step for acquiring the recorded voice data, and the voice input step A voice recognition step for voice recognition based on dictionary data for voice recognition to convert the voice data into a character string, and a character string obtained as a result of the voice recognition on the tablet displayed in the selection display step. Based on the character string replacement step for replacing the character string, the character string replaced in the character string replacement step, and the handwritten character string before the conversion means corresponding to the character string replaces the character string Based on the character dictionary update step of correcting the dictionary data for character recognition, the character string replaced in the character string replacement step, and the voice data acquired in the voice input step corresponding to the character string, the voice recognition And a voice dictionary update step of correcting the dictionary data.

また本発明に係る請求項6に記載の記録媒体は、タブレットにペンで手書き入力した文字をキャラクタ文字に変換する文字入力プログラムを記録した記録媒体において、前記入力した手書き文字をタブレット上に表示する表示ステップと、前記入力した手書き文字の列を文字認識用の辞書データに基づいて逐次的にキャラクタ文字列に変換し、タブレット上に表示された手書き文字をキャラクタ文字で置き換える変換ステップと、前記変換ステップで変換されてタブレット上に表示されたキャラクタ文字列のうち選択された所定のキャラクタ文字列を他と区別して表示する選択表示ステップと、前記選択表示ステップで表示された所定のキャラクタ文字列に対応して入力された音声データを取得する音声入力ステップと、前記音声入力ステップが取得した音声データを音声認識用の辞書データに基づいて音声認識して文字列に変換する音声認識ステップと、前記音声認識した結果えられた文字列で、前記選択表示ステップで表示されたタブレット上のキャラクタ文字列を置き換える文字列置き換えステップと、前記文字列置き換えステップで置き換えた文字列と、その文字列に対応する前記変換手段がキャラクタ文字列に置き換える前の前記手書き文字の列とに基づいて前記文字認識用の辞書データを修正する文字辞書更新ステップと、前記文字列置き換えステップで置き換えた文字列と、その文字列に対応する前記音声入力ステップで取得した音声データとに基づいて前記音声認識用の辞書データを修正する音声辞書更新ステップと、をコンピュータに実行させるためのプログラムを記録した。   According to a sixth aspect of the present invention, there is provided a recording medium according to the present invention, wherein the input handwritten character is displayed on the tablet in a recording medium in which a character input program for converting a character input by handwriting on the tablet to a character character is recorded. A conversion step of sequentially converting the input handwritten character string into a character character string based on dictionary data for character recognition, replacing the handwritten character displayed on the tablet with the character character, and the conversion A selection display step for distinguishing and displaying a predetermined character string selected from the character character strings converted in step and displayed on the tablet; and the predetermined character string displayed in the selection display step. A voice input step for acquiring correspondingly input voice data; and the voice input step. A voice recognition step for voice recognition based on dictionary data for voice recognition to convert the voice data acquired by the voice recognition into a character string, and a tablet displayed in the selection display step with the character string obtained as a result of the voice recognition. Based on the character string replacement step for replacing the character string above, the character string replaced in the character string replacement step, and the string of the handwritten characters before the conversion means corresponding to the character string replaces the character string Based on the character dictionary updated step for correcting the dictionary data for character recognition, the character string replaced in the character string replacement step, and the voice data acquired in the voice input step corresponding to the character string. A voice dictionary updating step for correcting dictionary data for recognition, and a program for causing a computer to execute It was recorded.

本発明によれば、誤認識を生ずるような癖のある手書き文字であっても使用しているうちに認識率を高めることができる。   According to the present invention, it is possible to increase the recognition rate while using even a handwritten character having a habit that causes erroneous recognition.

[第1の実施の形態]
図1は、本発明の第1の実施の形態の文字入力方法が適用される入力端末の外観を示す図である。
[First Embodiment]
FIG. 1 is a diagram showing an appearance of an input terminal to which the character input method according to the first embodiment of the present invention is applied.

入力端末1は、タブレット2、ペン3及びマイク4で構成されている。タブレット2は手書き文字を入力するための入力エリアであり、かつ入力された文字を認識して活字(キャラクタ)で表示する表示エリアである。ペン3は、表示部2に文字を手書き等するための入力操作ツールである。マイク4は、入力端末1に音声で入力するための入力手段である。   The input terminal 1 includes a tablet 2, a pen 3, and a microphone 4. The tablet 2 is an input area for inputting handwritten characters, and is a display area for recognizing input characters and displaying them as characters (characters). The pen 3 is an input operation tool for handwriting characters on the display unit 2. The microphone 4 is an input means for inputting to the input terminal 1 by voice.

次に、第1の実施の形態の文字入力方法の概要を説明する。   Next, an outline of the character input method according to the first embodiment will be described.

ユーザが、ペン3を用いてタブレット2に文字を手書きすると、その手書き文字5が認識されて活字6として表示される。ユーザが、修正したい文字の領域7をペン3を用いて指定すると、その領域7が反転表示される。そして、ユーザがマイク4からその領域7の文字を音声で入力すると、音声認識結果の文字でその領域7の文字が置き換えられる。   When a user handwrites a character on the tablet 2 using the pen 3, the handwritten character 5 is recognized and displayed as a type 6. When the user designates the area 7 of the character to be corrected using the pen 3, the area 7 is displayed in reverse video. Then, when the user inputs the characters in the region 7 from the microphone 4 by voice, the characters in the region 7 are replaced with the characters of the voice recognition result.

ユーザが、タブレット2に表示されている保存ボタン8を操作すると、文字認識された文書全体が保存される。ユーザが、タブレット2に表示されているクリアボタン9を操作すると、反転表示されている領域7が消去される。   When the user operates the save button 8 displayed on the tablet 2, the entire character-recognized document is saved. When the user operates the clear button 9 displayed on the tablet 2, the highlighted area 7 is erased.

図2は、本発明の第1の実施の形態の文字入力方法が適用される入力端末1の構成を示す図である。   FIG. 2 is a diagram illustrating a configuration of the input terminal 1 to which the character input method according to the first embodiment of this invention is applied.

入力端末1には、表示部11、ペン入力部12、音声入力部13、文字認識部14、音声認識部15、処理部16、プログラムメモリ17及び情報メモリ18が設けられている。   The input terminal 1 includes a display unit 11, a pen input unit 12, a voice input unit 13, a character recognition unit 14, a voice recognition unit 15, a processing unit 16, a program memory 17 and an information memory 18.

表示部11は、タブレット2との間で表示データの授受を行うインターフェースである。ペン入力部12は、ペン3で操作された入力データを受取るためのインターフェースである。音声入力部13は、マイク4から入力された音声データを受け取るためのインターフェースである。   The display unit 11 is an interface that exchanges display data with the tablet 2. The pen input unit 12 is an interface for receiving input data operated with the pen 3. The voice input unit 13 is an interface for receiving voice data input from the microphone 4.

文字認識部14は、ユーザが入力した手書き文字を認識する。音声認識部15は、ユーザが入力した音声を認識する。処理部16は、入力端末1の各部の動作を統括的に制御する。プログラムメモリ17は、処理部16で動作するプログラムを格納する。情報メモリ18は、処理部16で動作するそれぞれのプログラムが使用するデータを保存する。   The character recognition unit 14 recognizes a handwritten character input by the user. The voice recognition unit 15 recognizes voice input by the user. The processing unit 16 comprehensively controls the operation of each unit of the input terminal 1. The program memory 17 stores a program that operates in the processing unit 16. The information memory 18 stores data used by each program operating in the processing unit 16.

図3は、文字認識部14の構成を示す図である。文字認識部14には、図形処理部21、認識部22、文字列修正部23、文字認識ユーザ辞書24、文字認識辞書25及び言語解析辞書26が設けられている。   FIG. 3 is a diagram illustrating a configuration of the character recognition unit 14. The character recognition unit 14 includes a graphic processing unit 21, a recognition unit 22, a character string correction unit 23, a character recognition user dictionary 24, a character recognition dictionary 25, and a language analysis dictionary 26.

図形処理部21は、筆記文字列の回転や大きさの調整、細線化、文字の切り出し、ストロークの分解など、手書き文字に対する画像処理を実行する。認識部22は、ストローク特長による文字認識を実行する。文字列修正部23は、単語、文節、文節の連なり情報により文字列を修正する。   The graphic processing unit 21 executes image processing for handwritten characters such as rotation and size adjustment of written character strings, thinning, character segmentation, and stroke decomposition. The recognition unit 22 performs character recognition based on the stroke feature. The character string correcting unit 23 corrects the character string based on the word, phrase, and continuous string information.

文字認識ユーザ辞書24には、ユーザの書いた文字ストローク特徴に関する情報が記憶されている。文字認識辞書22には、標準的な文字のストローク特徴に関する情報が記憶されている。言語解析辞書26には、単語、文節、文節の連なり情報に関する情報が記憶されている。   The character recognition user dictionary 24 stores information related to character stroke characteristics written by the user. The character recognition dictionary 22 stores information related to standard character stroke characteristics. The language analysis dictionary 26 stores information related to word, phrase, and series information of phrases.

図4は、音声認識部15の構成を示す図である。音声認識部15は、音声処理部31、モデル生成部32、認識部33、文字列修正部34、音声認識ユーザ辞書35、音声認識辞書36、音響モデル辞書37及び言語解析辞書38を備えている。   FIG. 4 is a diagram illustrating a configuration of the voice recognition unit 15. The speech recognition unit 15 includes a speech processing unit 31, a model generation unit 32, a recognition unit 33, a character string correction unit 34, a speech recognition user dictionary 35, a speech recognition dictionary 36, an acoustic model dictionary 37, and a language analysis dictionary 38. .

音声処理部31は、入力音声信号のノイズ除去、フィルタ処理、音声特徴の抽出などの処理を実行する。モデル生成部32は、発音情報および発音源や音の連なりについての音響情報により、認識対象の比較モデルを生成する。認識部33は、入力音声の音声特徴と、比較モデルの音声特徴をもとに入力音声を語彙ごとに認識して文字列に変換する。文字列修正部34は、単語、文節、文節の連なり情報により文字列を修正する。   The audio processing unit 31 performs processing such as noise removal, filter processing, and extraction of audio features from the input audio signal. The model generation unit 32 generates a comparative model to be recognized based on the pronunciation information and the sound information about the sound source and the series of sounds. The recognition unit 33 recognizes the input speech for each vocabulary based on the speech features of the input speech and the speech features of the comparison model, and converts them into character strings. The character string correcting unit 34 corrects the character string based on the word, phrase, and series of phrase information.

音声認識ユーザ辞書35には、ユーザの発音の特徴に関する情報が記憶されている。音声認識辞書36には、認識対象語彙の音声に関する情報が記憶されている。音響モデル辞書37には、音素を単位とした音声特徴に関する情報が記憶されている。言語解析辞書38には、単語、文節、文節の連なり情報に関する情報が記憶されている。   The speech recognition user dictionary 35 stores information related to the user's pronunciation characteristics. The speech recognition dictionary 36 stores information related to the speech of the recognition target vocabulary. The acoustic model dictionary 37 stores information related to speech features in units of phonemes. The language analysis dictionary 38 stores information about words, phrases, and series information of phrases.

図5は、文字入力方法の概略の手順を示すフロー図である。   FIG. 5 is a flowchart showing a schematic procedure of the character input method.

ステップS01において、ペン3による入力操作が行われるまで待機する。そして、ステップS02〜S03において、タブレット2への筆記を検出したときは、文字認識処理(図6)を実行する。   In step S01, the process waits until an input operation with the pen 3 is performed. And in step S02-S03, when the writing to the tablet 2 is detected, a character recognition process (FIG. 6) is performed.

図6のステップT01〜T02において、図形処理部21は、筆記した文字列の傾きと大きさを正規化し(筆記パターンの正規化)、文字区切りを検出して1文字ずつの筆記文字パターンを切り出す(文字区切り検出)。そして、ステップT03〜T04において、認識部22は、筆記文字パターンの各1文字についてストローク(画)に分解し(ストローク分解)、1文字を構成するストロークの数及び各ストロークの位置、方向、長さをもとに文字候補を選定する(字形判定)。次に、ステップT05〜T06において、文字列修正部23は、認識対象文字の前後の文字の候補および既に認識済みの文字より構成される文字列が、単語や文節を構成できるか否かを判定し(文字列判定)、文字列判定で最も正しい文字列を構成した候補文字を認識結果として決定して(文字決定)リターンする。   In steps T01 to T02 of FIG. 6, the graphic processing unit 21 normalizes the inclination and size of the written character string (normalization of the writing pattern), detects a character break, and cuts out a written character pattern for each character. (Character separator detection). In steps T03 to T04, the recognition unit 22 decomposes each character of the handwritten character pattern into strokes (images) (stroke decomposition), the number of strokes constituting one character, and the position, direction, and length of each stroke. Based on the above, character candidates are selected (character shape determination). Next, in steps T05 to T06, the character string correcting unit 23 determines whether or not a character string composed of candidate characters before and after the recognition target character and already recognized characters can form a word or a phrase. (Character string determination), the candidate character that constitutes the most correct character string in the character string determination is determined as a recognition result (character determination), and the process returns.

文字認識された結果は、表示部11を介してタブレット2に活字として表示される。ユーザは表示された文字認識結果を確認して、文字が正しく認識されていると判断した場合は、次の手書き文字の入力操作を実行する。誤認識であると判断した場合は、その誤認識された文字列の領域7をペン3によって指定することで選択する。   The result of character recognition is displayed as a type on the tablet 2 via the display unit 11. When the user confirms the displayed character recognition result and determines that the character is recognized correctly, the user executes the next handwritten character input operation. If it is determined that it is erroneous recognition, the area 7 of the erroneously recognized character string is selected by specifying with the pen 3.

図5のステップS04〜S06において、誤認識であるとして活字文字列部分が選択された場合で、クリアボタン9が選択された場合は、選択された文字列部分を削除して次の入力操作を待つ待機状態となる。一方、ステップS04〜S05において、誤認識であるとして活字文字列部分が選択された場合で、音声が入力された場合は、ステップS07の修正処理(図7)を実行する。   In step S04 to S06 in FIG. 5, when the type character string part is selected as erroneous recognition and the clear button 9 is selected, the selected character string part is deleted and the next input operation is performed. It becomes a waiting state to wait. On the other hand, when the type character string portion is selected as being erroneous recognition in steps S04 to S05, and voice is input, the correction process in step S07 (FIG. 7) is executed.

図7のステップT10〜T11において、文字列修正部34は、選択された文字列が文節(又は単語)の境界であるかどうかを調べ、文節の境界でない場合は、文節境界になるように、選択された文字列を拡大して新たな文字列を選択範囲とする。例えば、「わたくしは、」という文字列に対して、ユーザが「たくしは、」と誤って選択した場合は、選択範囲を拡大して「わたくしは、」を新たな選択文字列とする。なお、本実施の形態では文節単位での修正について述べるが単語単位でも良い。   In steps T10 to T11 in FIG. 7, the character string correction unit 34 checks whether or not the selected character string is a boundary between phrases (or words). The selected character string is enlarged to make a new character string a selection range. For example, if the user mistakenly selects “I am a person” for the character string “I am,” the selection range is expanded and “I am a person” becomes a new selected character string. In this embodiment, correction in phrase units is described, but word units may be used.

ステップT12〜ステップT13において、音声入力部13を介して検出したユーザの音声入力に基づいて、音声認識処理(図8)を実行する。   In steps T12 to T13, the voice recognition process (FIG. 8) is executed based on the user's voice input detected via the voice input unit 13.

図8のステップP01〜P02において、音声処理部31は、入力音声のノイズや歪の除去、フーリエ変換などの音声処理を行い(音声分析)、処理された信号から、例えば、ケプストラム特徴などの音声特徴量を抽出する(音声特徴抽出)。そして、ステップP03〜P04において、モデル生成部32は、音声認識辞書と音声認識ユーザ辞書及び音響モデル辞書より認識対象の発音情報と音響情報を読み出して、比較用のモデル音声を生成し(モデル音声生成)、認識部33は、入力音声の特徴量とモデル音声の特徴量とを比較して類似性の高いモデル音声に対応する文字列を候補として選別する(候補文字列生成)。次に、ステップP05〜P06において、文字列修正部34は、選別された候補文字列及び既に認識済みの文字より構成される文字列が、単語や文節、文章を構成できるか否かを判定し(文字列判定)、文字列判定で最も正しい文字列を構成した候補文字を認識結果として決定して(文字決定)リターンする。   In steps P01 to P02 of FIG. 8, the sound processing unit 31 performs sound processing such as noise and distortion removal of input sound and Fourier transform (voice analysis), and for example, sounds such as cepstrum features from the processed signals. Extract feature values (voice feature extraction). In steps P03 to P04, the model generation unit 32 reads the pronunciation information and acoustic information to be recognized from the voice recognition dictionary, the voice recognition user dictionary, and the acoustic model dictionary, and generates a model voice for comparison (model voice). Generation), the recognition unit 33 compares the feature quantity of the input voice and the feature quantity of the model voice, and selects a character string corresponding to the model voice with high similarity as a candidate (candidate character string generation). Next, in steps P05 to P06, the character string correction unit 34 determines whether or not the character string composed of the selected candidate character string and the already recognized characters can form a word, a phrase, or a sentence. (Character string determination), the candidate character that constitutes the most correct character string in the character string determination is determined as a recognition result (character determination) and the process returns.

図7のステップT14において、選択した文字列を認識した結果で置き換えてタブレット2に表示し、ステップT15において、置き換えた文字列部分がユーザによって再び選択されたときは再度ステップT10〜T14を繰り返して実行する。そして、置き換えた文字列部分がユーザによって選択されないときは修正処理を終了してリターンする。   In step T14 of FIG. 7, the selected character string is replaced with the recognized result and displayed on the tablet 2. When the replaced character string portion is selected again by the user in step T15, steps T10 to T14 are repeated again. Execute. When the replaced character string portion is not selected by the user, the correction process is terminated and the process returns.

文字認識において誤認識した文字を、音声認識によって修正した後は、図5のステップS08において、学習処理(図9)を実行する。この学習処理では誤認識した手書き文字が以後正しく認識できるように学習を行う。   After the character that has been misrecognized in character recognition is corrected by voice recognition, a learning process (FIG. 9) is executed in step S08 of FIG. In this learning process, learning is performed so that misrecognized handwritten characters can be recognized correctly thereafter.

図9のステップT21において、修正部分として選択した文字列の手書き文字、修正後の認識結果の文字列、その文字列の手書きパターンを情報メモリ18に記憶する。また、ステップT22において、修正部分として選択した文字列に対応する音声入力、その修正後の認識結果の文字列を情報メモリ18に記憶する。   In step T21 of FIG. 9, the handwritten character of the character string selected as the correction portion, the character string of the recognition result after correction, and the handwritten pattern of the character string are stored in the information memory 18. In step T22, the voice input corresponding to the character string selected as the correction portion and the character string of the recognition result after the correction are stored in the information memory 18.

続いて、ステップT23において、平均のCPU利用率が所定値以下の場合に次の処理を実行する。ステップT24において、情報メモリ18に記憶されているユーザの手書き文字を文字認識辞書に登録されている基準手書き文字パターンに対応付けて分解する。即ち、ユーザの書いた文字のストロークの数、及び各ストロークの位置、方向、長さを抽出する。そして、その抽出結果を情報メモリ18に記憶されている修正後の認識結果の文字と対応づけて文字認識ユーザ辞書24に登録する。   Subsequently, in step T23, when the average CPU usage rate is equal to or less than a predetermined value, the following process is executed. In step T24, the user's handwritten character stored in the information memory 18 is decomposed in association with the reference handwritten character pattern registered in the character recognition dictionary. That is, the number of strokes of characters written by the user and the position, direction, and length of each stroke are extracted. Then, the extraction result is registered in the character recognition user dictionary 24 in association with the corrected recognition result character stored in the information memory 18.

この処理により、ユーザの手書きの癖がユーザ辞書に登録されたため、これ以降は、同じ癖の文字が入力されたときは、文字認識ユーザ辞書24を参照することにより、正しい候補文字を抽出することができ、認識率を高めることができる。   As a result of this processing, the user's handwritten font is registered in the user dictionary, and thereafter, when the same font character is input, the correct candidate characters are extracted by referring to the character recognition user dictionary 24. And the recognition rate can be increased.

次に、ステップT25において、情報メモリ18に記憶されているユーザの音声入力から得られる発音情報と音響情報とを修正後の認識結果の文字と対応づけて音声認識ユーザ辞書35に登録する。   Next, in step T25, the pronunciation information and the acoustic information obtained from the user's voice input stored in the information memory 18 are registered in the voice recognition user dictionary 35 in association with the corrected recognition result characters.

この処理により、これ以降は、比較用のモデル音声をユーザの音声により近似させることができるため、正しい候補文字を抽出する確率が高まり、認識率を高めることができる。さらに、この処理によって音声入力の認識率を高めることができれば、結果として本発明に係る文字認識率を高めることができる。   By this process, the model voice for comparison can be approximated by the voice of the user thereafter, so that the probability of extracting correct candidate characters is increased and the recognition rate can be increased. Furthermore, if the speech input recognition rate can be increased by this processing, the character recognition rate according to the present invention can be increased as a result.

なお、より積極的に音声認識率を高めるように、文字認識結果の修正過程で音声認識自体が誤認識した場合は、修正対象として選択した文字列をクリアを選択して削除し、正しく認識されるまで手書き入力と認識を繰り返すようにして、正しく認識した後、次の手書き入力に進んだ時点で、音声と正しい文字列を情報メモリ18に記憶するように構成しても良い。   In order to increase the speech recognition rate more positively, if the speech recognition itself is misrecognized during the process of correcting the character recognition result, the character string selected for correction is deleted by selecting Clear and is recognized correctly. The handwriting input and the recognition may be repeated until it is recognized, and the voice and the correct character string may be stored in the information memory 18 when the processing proceeds to the next handwriting input after the recognition.

図5のステップS08の学習処理を実行した後は、ステップS01において次の入力操作を待つ待機状態となる。   After the learning process in step S08 in FIG. 5 is executed, a standby state is waited for the next input operation in step S01.

そして、ステップS10〜S11において、タブレット2の保存ボタン8が操作されたときは、文字認識された文書を保存して文字入力処理を終了する。   In steps S10 to S11, when the save button 8 of the tablet 2 is operated, the character-recognized document is saved and the character input process is terminated.

本実施の形態によれば、誤認識を生じたユーザの手書き文字パターンと正しい文字を対応づけて文字認識辞書データに記憶するため、再度同じ癖の手書き文字が入力された場合には文字認識辞書データを参照することにより正しく認識された文字を抽出することができる。   According to the present embodiment, in order to store the handwritten character pattern of the user who caused the misrecognition and the correct character in association with each other in the character recognition dictionary data, when the same handwritten character of the same font is input again, the character recognition dictionary Characters that are correctly recognized can be extracted by referring to the data.

また、この誤認識の発生に伴って入力されるユーザの音声入力と正しい文字とを対応づけて音声認識データに記憶するため、ユーザの音声が入力された場合には、音声認識データを参照することによりユーザの発音の癖を加味して正しく認識された文字を抽出することができる。   In addition, since the user's voice input that is input in association with the occurrence of the erroneous recognition is associated with the correct character and stored in the voice recognition data, the voice recognition data is referred to when the user's voice is input. Accordingly, it is possible to extract characters that are correctly recognized in consideration of the pronunciation of the user.

なお、上述の実施の形態で説明した各機能は、ハードウエアを用いて構成しても良く、また、ソフトウエアを用いて各機能を記載したプログラムをコンピュータに読み込ませて実現しても良い。また、各機能は、適宜ソフトウエア、ハードウエアのいずれかを選択して構成するものであっても良い。   Each function described in the above embodiment may be configured using hardware, or may be realized by reading a program describing each function into a computer using software. Each function may be configured by appropriately selecting either software or hardware.

更に、各機能は図示しない記録媒体に格納したプログラムをコンピュータに読み込ませることで実現させることもできる。ここで本実施の形態における記録媒体は、プログラムを記録でき、かつコンピュータが読み取り可能な記録媒体であれば、その記録形式は何れの形態であってもよい。   Furthermore, each function can be realized by causing a computer to read a program stored in a recording medium (not shown). Here, as long as the recording medium in the present embodiment can record a program and can be read by a computer, the recording format may be any form.

なお、この発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.

本発明の第1の実施の形態の文字入力方法が適用される入力端末の外観を示す図。The figure which shows the external appearance of the input terminal to which the character input method of the 1st Embodiment of this invention is applied. 本発明の第1の実施の形態の文字入力方法が適用される入力端末の構成を示す図。The figure which shows the structure of the input terminal to which the character input method of the 1st Embodiment of this invention is applied. 文字認識部の構成を示す図。The figure which shows the structure of a character recognition part. 音声認識部の構成を示す図。The figure which shows the structure of a speech recognition part. 文字入力方法の概略の手順を示すフロー図。The flowchart which shows the procedure of the outline of a character input method. 文字認識処理の概略の手順を示すフロー図。The flowchart which shows the general | schematic procedure of a character recognition process. 修正処理の概略の手順を示すフロー図。The flowchart which shows the procedure of the outline of a correction process. 音声認識処理の概略の手順を示すフロー図。The flowchart which shows the procedure of the outline of a speech recognition process. 学習処理処理の概略の手順を示すフロー図。The flowchart which shows the outline procedure of a learning process process.

符号の説明Explanation of symbols

1…入力端末、2…タブレット、3…ペン、4…マイク、5…手書き文字、6…活字、7…領域、14…文字認識部、15…音声認識部、16…処理部、22…認識部、23…文字列修正部、24…文字認識ユーザ辞書、25…文字認識辞書、33…認識部、34…文字列修正部、35…音声認識ユーザ辞書、36…音声認識辞書。   DESCRIPTION OF SYMBOLS 1 ... Input terminal, 2 ... Tablet, 3 ... Pen, 4 ... Microphone, 5 ... Handwritten character, 6 ... Type, 7 ... Area | region, 14 ... Character recognition part, 15 ... Voice recognition part, 16 ... Processing part, 22 ... Recognition , 23 ... character string correction unit, 24 ... character recognition user dictionary, 25 ... character recognition dictionary, 33 ... recognition unit, 34 ... character string correction unit, 35 ... voice recognition user dictionary, 36 ... voice recognition dictionary.

Claims (6)

タブレットにペンで手書き入力した文字をキャラクタ文字に変換する文字入力装置において、
前記入力した手書き文字をタブレット上に表示する表示手段と、
前記入力した手書き文字の列を文字認識用の辞書データに基づいて逐次的にキャラクタ文字列に変換し、タブレット上に表示された手書き文字をキャラクタ文字で置き換える変換手段と、
前記変換手段が変換してタブレット上に表示したキャラクタ文字列のうち選択された所定のキャラクタ文字列を他と区別して表示する選択表示手段と、
前記選択表示手段で表示された所定のキャラクタ文字列に対応して入力された音声データを取得する音声入力手段と、
前記音声入力手段が取得した音声データを音声認識用の辞書データに基づいて音声認識して文字列に変換する音声認識手段と、
前記音声認識した結果えられた文字列で、前記選択表示手段が表示したタブレット上のキャラクタ文字列を置き換える文字列置き換え手段と、
前記文字列置き換え手段が置き換えた文字列と、その文字列に対応する前記変換手段がキャラクタ文字列に置き換える前の前記手書き文字の列とに基づいて前記文字認識用の辞書データを修正する文字辞書更新手段と、
前記文字列置き換え手段が置き換えた文字列と、その文字列に対応する前記音声入力手段が取得した音声データとに基づいて前記音声認識用の辞書データを修正する音声辞書更新手段と、
を有することを特徴とする文字入力装置。
In a character input device that converts characters handwritten with a pen to a tablet into character characters,
Display means for displaying the input handwritten character on a tablet;
Conversion means for sequentially converting the input handwritten character string into a character character string based on dictionary data for character recognition, and replacing the handwritten character displayed on the tablet with the character character;
Selection display means for distinguishing and displaying a predetermined character string selected from among character strings converted by the conversion means and displayed on the tablet;
Voice input means for acquiring voice data input corresponding to the predetermined character string displayed by the selection display means;
Voice recognition means for voice recognition based on dictionary data for voice recognition and converting the voice data acquired by the voice input means into a character string;
Character string replacement means for replacing the character string on the tablet displayed by the selection display means with the character string obtained as a result of the speech recognition;
A character dictionary for correcting the dictionary data for character recognition based on the character string replaced by the character string replacement unit and the string of handwritten characters before the conversion unit corresponding to the character string replaces the character string Update means;
A voice dictionary updating means for correcting the dictionary data for speech recognition based on the character string replaced by the character string replacing means and the voice data acquired by the voice input means corresponding to the character string;
A character input device comprising:
前記選択表示手段は、単語又は文節単位で所定のキャラクタ文字列を選択表示することを特徴とする請求項1の文字入力装置。   2. The character input device according to claim 1, wherein the selection display means selectively displays a predetermined character string in units of words or phrases. 前記選択表示手段は、前記タブレット上で選択されたキャラクタ文字列の選択範囲が単語又は文節になっていない場合には、選択範囲が単語又は文節となるように自動的に変更することを特徴とする請求項1または2に記載の文字入力装置。   When the selection range of the character string selected on the tablet is not a word or a phrase, the selection display means automatically changes the selection range to be a word or a phrase. The character input device according to claim 1 or 2. タブレットにペンで手書き入力した文字をキャラクタ文字に変換する文字入力方法において、
前記入力した手書き文字をタブレット上に表示する表示ステップと、
前記入力した手書き文字の列を文字認識用の辞書データに基づいて逐次的にキャラクタ文字列に変換し、タブレット上に表示された手書き文字をキャラクタ文字で置き換える変換ステップと、
前記変換ステップで変換されてタブレット上に表示されたキャラクタ文字列のうち選択された所定のキャラクタ文字列を他と区別して表示する選択表示ステップと、
前記選択表示ステップで表示された所定のキャラクタ文字列に対応して入力された音声データを取得する音声入力ステップと、
前記音声入力ステップが取得した音声データを音声認識用の辞書データに基づいて音声認識して文字列に変換する音声認識ステップと、
前記音声認識した結果えられた文字列で、前記選択表示ステップで表示されたタブレット上のキャラクタ文字列を置き換える文字列置き換えステップと、
前記文字列置き換えステップで置き換えた文字列と、その文字列に対応する前記変換手段がキャラクタ文字列に置き換える前の前記手書き文字の列とに基づいて前記文字認識用の辞書データを修正する文字辞書更新ステップと、
前記文字列置き換えステップで置き換えた文字列と、その文字列に対応する前記音声入力ステップで取得した音声データとに基づいて前記音声認識用の辞書データを修正する音声辞書更新ステップと、
を有することを特徴とする文字入力方法。
In a character input method for converting a character handwritten with a pen into a character character into a tablet,
A display step of displaying the input handwritten character on a tablet;
A conversion step of sequentially converting the input handwritten character string into a character character string based on dictionary data for character recognition, and replacing the handwritten character displayed on the tablet with a character character;
A selection display step for distinguishing and displaying a predetermined character string selected from among the character strings converted in the conversion step and displayed on the tablet;
A voice input step for acquiring voice data input corresponding to the predetermined character string displayed in the selection display step;
A voice recognition step of converting the voice data acquired in the voice input step into a character string by voice recognition based on dictionary data for voice recognition;
A character string replacing step of replacing the character character string on the tablet displayed in the selection display step with the character string obtained as a result of the speech recognition;
A character dictionary that corrects the dictionary data for character recognition based on the character string replaced in the character string replacement step and the handwritten character string before the conversion means corresponding to the character string replaces the character string. An update step;
A voice dictionary update step of correcting the dictionary data for voice recognition based on the character string replaced in the character string replacement step and the voice data acquired in the voice input step corresponding to the character string;
The character input method characterized by having.
タブレットにペンで手書き入力した文字をキャラクタ文字に変換する文字入力プログラムにおいて、
前記入力した手書き文字をタブレット上に表示する表示ステップと、
前記入力した手書き文字の列を文字認識用の辞書データに基づいて逐次的にキャラクタ文字列に変換し、タブレット上に表示された手書き文字をキャラクタ文字で置き換える変換ステップと、
前記変換ステップで変換されてタブレット上に表示されたキャラクタ文字列のうち選択された所定のキャラクタ文字列を他と区別して表示する選択表示ステップと、
前記選択表示ステップで表示された所定のキャラクタ文字列に対応して入力された音声データを取得する音声入力ステップと、
前記音声入力ステップが取得した音声データを音声認識用の辞書データに基づいて音声認識して文字列に変換する音声認識ステップと、
前記音声認識した結果えられた文字列で、前記選択表示ステップで表示されたタブレット上のキャラクタ文字列を置き換える文字列置き換えステップと、
前記文字列置き換えステップで置き換えた文字列と、その文字列に対応する前記変換手段がキャラクタ文字列に置き換える前の前記手書き文字の列とに基づいて前記文字認識用の辞書データを修正する文字辞書更新ステップと、
前記文字列置き換えステップで置き換えた文字列と、その文字列に対応する前記音声入力ステップで取得した音声データとに基づいて前記音声認識用の辞書データを修正する音声辞書更新ステップと、
をコンピュータに実行させるためのプログラム。
In a character input program that converts characters handwritten on the tablet with a pen to character characters,
A display step of displaying the input handwritten character on a tablet;
A conversion step of sequentially converting the input handwritten character string into a character character string based on dictionary data for character recognition, and replacing the handwritten character displayed on the tablet with a character character;
A selection display step for distinguishing and displaying a predetermined character string selected from among the character strings converted in the conversion step and displayed on the tablet;
A voice input step for acquiring voice data input corresponding to the predetermined character string displayed in the selection display step;
A voice recognition step of converting the voice data acquired in the voice input step into a character string by voice recognition based on dictionary data for voice recognition;
A character string replacing step of replacing the character character string on the tablet displayed in the selection display step with the character string obtained as a result of the speech recognition;
A character dictionary that corrects the dictionary data for character recognition based on the character string replaced in the character string replacement step and the handwritten character string before the conversion means corresponding to the character string replaces the character string An update step;
A voice dictionary update step of correcting the dictionary data for voice recognition based on the character string replaced in the character string replacement step and the voice data acquired in the voice input step corresponding to the character string;
A program that causes a computer to execute.
タブレットにペンで手書き入力した文字をキャラクタ文字に変換する文字入力プログラムを記録した記録媒体において、
前記入力した手書き文字をタブレット上に表示する表示ステップと、
前記入力した手書き文字の列を文字認識用の辞書データに基づいて逐次的にキャラクタ文字列に変換し、タブレット上に表示された手書き文字をキャラクタ文字で置き換える変換ステップと、
前記変換ステップで変換されてタブレット上に表示されたキャラクタ文字列のうち選択された所定のキャラクタ文字列を他と区別して表示する選択表示ステップと、
前記選択表示ステップで表示された所定のキャラクタ文字列に対応して入力された音声データを取得する音声入力ステップと、
前記音声入力ステップが取得した音声データを音声認識用の辞書データに基づいて音声認識して文字列に変換する音声認識ステップと、
前記音声認識した結果えられた文字列で、前記選択表示ステップで表示されたタブレット上のキャラクタ文字列を置き換える文字列置き換えステップと、
前記文字列置き換えステップで置き換えた文字列と、その文字列に対応する前記変換手段がキャラクタ文字列に置き換える前の前記手書き文字の列とに基づいて前記文字認識用の辞書データを修正する文字辞書更新ステップと、
前記文字列置き換えステップで置き換えた文字列と、その文字列に対応する前記音声入力ステップで取得した音声データとに基づいて前記音声認識用の辞書データを修正する音声辞書更新ステップと、
をコンピュータに実行させるためのプログラムを記録した記録媒体。
In a recording medium on which a character input program for converting a character handwritten with a pen to a tablet into a character character is recorded,
A display step of displaying the input handwritten character on a tablet;
A conversion step of sequentially converting the input handwritten character string into a character character string based on dictionary data for character recognition, and replacing the handwritten character displayed on the tablet with a character character;
A selection display step for distinguishing and displaying a predetermined character string selected from among the character strings converted in the conversion step and displayed on the tablet;
A voice input step of acquiring voice data input corresponding to the predetermined character string displayed in the selection display step;
A voice recognition step of converting the voice data acquired in the voice input step into a character string by voice recognition based on dictionary data for voice recognition;
A character string replacing step of replacing the character character string on the tablet displayed in the selection display step with the character string obtained as a result of the speech recognition;
A character dictionary that corrects the dictionary data for character recognition based on the character string replaced in the character string replacement step and the handwritten character string before the conversion means corresponding to the character string replaces the character string An update step;
A voice dictionary update step of correcting the dictionary data for voice recognition based on the character string replaced in the character string replacement step and the voice data acquired in the voice input step corresponding to the character string;
A recording medium on which a program for causing a computer to execute is recorded.
JP2004066038A 2004-03-09 2004-03-09 Character input device, character input method, character input program, and recording medium Withdrawn JP2005258577A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004066038A JP2005258577A (en) 2004-03-09 2004-03-09 Character input device, character input method, character input program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004066038A JP2005258577A (en) 2004-03-09 2004-03-09 Character input device, character input method, character input program, and recording medium

Publications (1)

Publication Number Publication Date
JP2005258577A true JP2005258577A (en) 2005-09-22

Family

ID=35084257

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004066038A Withdrawn JP2005258577A (en) 2004-03-09 2004-03-09 Character input device, character input method, character input program, and recording medium

Country Status (1)

Country Link
JP (1) JP2005258577A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007133701A (en) * 2005-11-10 2007-05-31 Pfu Ltd Automatic character recognition system and computer program for allowing computer to achieve its function
WO2012160601A1 (en) * 2011-05-24 2012-11-29 三菱電機株式会社 Text input device and car navigation device equipped with same
JP2018169697A (en) * 2017-03-29 2018-11-01 西日本電信電話株式会社 Video data processing apparatus, video data processing method, and computer program
JP2019074898A (en) * 2017-10-16 2019-05-16 富士ゼロックス株式会社 Information processing device and information processing program
CN110533078A (en) * 2019-08-02 2019-12-03 西安电子科技大学 Multi-angle of view recognition methods based on dictionary pair
CN114003134A (en) * 2021-10-29 2022-02-01 平安国际智慧城市科技股份有限公司 Method and device for constructing hidden replacement display input box, electronic equipment and medium
US11797551B2 (en) 2019-02-14 2023-10-24 Resonac Corporation Document retrieval apparatus, document retrieval system, document retrieval program, and document retrieval method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007133701A (en) * 2005-11-10 2007-05-31 Pfu Ltd Automatic character recognition system and computer program for allowing computer to achieve its function
US7983483B2 (en) 2005-11-10 2011-07-19 Pfu Limited Automatic character recognition system and computer product
WO2012160601A1 (en) * 2011-05-24 2012-11-29 三菱電機株式会社 Text input device and car navigation device equipped with same
CN103608804A (en) * 2011-05-24 2014-02-26 三菱电机株式会社 Text input device and car navigation device equipped with same
US9465517B2 (en) 2011-05-24 2016-10-11 Mitsubishi Electric Corporation Character input device and car navigation device equipped with character input device
JP2018169697A (en) * 2017-03-29 2018-11-01 西日本電信電話株式会社 Video data processing apparatus, video data processing method, and computer program
JP2019074898A (en) * 2017-10-16 2019-05-16 富士ゼロックス株式会社 Information processing device and information processing program
JP7069631B2 (en) 2017-10-16 2022-05-18 富士フイルムビジネスイノベーション株式会社 Information processing equipment and information processing programs
US11797551B2 (en) 2019-02-14 2023-10-24 Resonac Corporation Document retrieval apparatus, document retrieval system, document retrieval program, and document retrieval method
CN110533078A (en) * 2019-08-02 2019-12-03 西安电子科技大学 Multi-angle of view recognition methods based on dictionary pair
CN110533078B (en) * 2019-08-02 2022-03-22 西安电子科技大学 Multi-view recognition method based on dictionary pairs
CN114003134A (en) * 2021-10-29 2022-02-01 平安国际智慧城市科技股份有限公司 Method and device for constructing hidden replacement display input box, electronic equipment and medium

Similar Documents

Publication Publication Date Title
US7706615B2 (en) Information processing method and information processing device
JP4087400B2 (en) Spoken dialogue translation apparatus, spoken dialogue translation method, and spoken dialogue translation program
JP2836159B2 (en) Speech recognition system for simultaneous interpretation and its speech recognition method
US5855000A (en) Method and apparatus for correcting and repairing machine-transcribed input using independent or cross-modal secondary input
JP3880163B2 (en) Method and system for displaying a variable number of alternative words during speech recognition
JP3848319B2 (en) Information processing method and information processing apparatus
JP5098613B2 (en) Speech recognition apparatus and computer program
US11043213B2 (en) System and method for detection and correction of incorrectly pronounced words
US20060293889A1 (en) Error correction for speech recognition systems
US9177545B2 (en) Recognition dictionary creating device, voice recognition device, and voice synthesizer
JP5478478B2 (en) Text correction apparatus and program
JP2011002656A (en) Device for detection of voice recognition result correction candidate, voice transcribing support device, method, and program
US12026456B2 (en) Systems and methods for using optical character recognition with voice recognition commands
US7702145B2 (en) Adapting a neural network for individual style
JP2002132287A (en) Speech recording method and speech recorder as well as memory medium
KR20170081350A (en) Text Interpretation Apparatus and Method for Performing Text Recognition and Translation Per Frame Length Unit of Image
US6826306B1 (en) System and method for automatic quality assurance of user enrollment in a recognition system
US20200202870A1 (en) Voice recognition device and voice recognition method
CN111951828B (en) Pronunciation assessment method, device, system, medium and computing equipment
US7496513B2 (en) Combined input processing for a computing device
JP3104661B2 (en) Japanese writing system
JP2005258577A (en) Character input device, character input method, character input program, and recording medium
CN114239610A (en) Multi-language speech recognition and translation method and related system
US6212499B1 (en) Audible language recognition by successive vocabulary reduction
KR20120046627A (en) Speaker adaptation method and apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070605