JP2006330577A - Device and method for speech recognition - Google Patents
Device and method for speech recognition Download PDFInfo
- Publication number
- JP2006330577A JP2006330577A JP2005157309A JP2005157309A JP2006330577A JP 2006330577 A JP2006330577 A JP 2006330577A JP 2005157309 A JP2005157309 A JP 2005157309A JP 2005157309 A JP2005157309 A JP 2005157309A JP 2006330577 A JP2006330577 A JP 2006330577A
- Authority
- JP
- Japan
- Prior art keywords
- facility
- voice
- name
- speech recognition
- current position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、ユーザがマイクなどから入力した音声を認識し、施設名などを検索する音声認識装置及び音声認識方法に関するものである。 The present invention relates to a voice recognition apparatus and a voice recognition method for recognizing voice input by a user from a microphone or the like and searching for a facility name or the like.
近年、ナビゲーション装置における目的地となる施設名の入力を、音声認識機能を利用して行うことが可能となっている。ところで、このようなナビゲーション装置においては、ユーザがマイクなどにより入力した音声と音声認識辞書に登録されている認識単語の読み方とが完全に一致しない限り入力された音声に該当する施設を抽出することができない。そのため、ユーザが施設名を省略して発音した場合などでは、所望の施設を呼び出すことができなかった。これを解決するために、ある施設に対して、正式な読み方だけでなく、誤って発音される可能性のある読み方や省略されて発音される可能性のある読み方を音声認識辞書として登録しておく技術が知られている(例えば、特許文献1など)。
しかしながら、前述した特許文献1に記載の音声認識装置によれば、あらかじめ音声認識辞書に登録されている読み方にしか対応することができないので、ある施設に対して、正式な読み方だけでなく、誤って発音される可能性のある読み方や省略されて発音される可能性のある読み方を多数登録しておく必要があり、音声認識辞書のデータ量が増えてしまうという問題があった。また、誤って発音される可能性のある読み方や省略されて発音される可能性のある読み方の候補が多くなると、入力された音声と一致しているか否かを調べるための処理の時間が長くなってしまうという問題があった。
However, according to the speech recognition apparatus described in
ところで、緯度と経度で分割したブロックに含まれる地名と施設名の音素データとその関連データとをブロック毎にブロック単位音声認識辞書として記録し、現在位置が所属するブロック及び周辺の所定範囲のブロックに対応するブロック単位音声認識辞書を対象として検索を行う技術が知られている(例えば、特許文献2など)。
しかしながら、前述した特許文献2に記載の音声認識装置によれば、音声認識の対象となる施設の数を現在位置が所属するブロック内に属する施設数に限定することはできるが、ユーザが施設名を省略して発音した場合などでは、所望の施設を抽出することができないという問題があった。
However, according to the speech recognition apparatus described in
本発明は、このような問題を解決するために成されたものであり、音声認識辞書のデータ量の増加を極力抑えつつ、ユーザが施設名を省略して発音した場合に、所望の施設を抽出することができる可能性を高めることができるようにすることを目的とする。 The present invention has been made to solve such a problem, and suppresses an increase in the amount of data in the speech recognition dictionary as much as possible, and when a user pronounces a facility by omitting the facility name, the desired facility is determined. The purpose is to increase the possibility of extraction.
また、本発明の他の態様では、音声認識の処理時間の増加を極力抑えつつ、ユーザが施設名を省略して発音した場合に、所望の施設を抽出することができる可能性を高めることができるようにすることを目的とする。 Further, in another aspect of the present invention, it is possible to increase the possibility that a desired facility can be extracted when the user omits the facility name and pronounces it while suppressing an increase in the speech recognition processing time as much as possible. The purpose is to be able to.
上記した課題を解決するために、本発明では、施設名の主要な部分を音声認識の対象として施設の位置と共に音声認識辞書に登録し、ユーザの現在位置に対して所定の範囲内に存在する施設を対象として音声認識辞書の検索を行い、ユーザが発音した主要な部分の音声に一致する施設を抽出するようにしている。 In order to solve the above-described problems, in the present invention, the main part of the facility name is registered in the speech recognition dictionary together with the location of the facility as a target of speech recognition, and exists within a predetermined range with respect to the current location of the user. A speech recognition dictionary is searched for the facility, and the facility that matches the voice of the main part pronounced by the user is extracted.
また、本発明の他の態様によれば、ユーザの現在位置に対応する地域に関する音声をユーザが発音した音声の前後に合成して、合成した音声に一致する施設を音声認識辞書から抽出するようにしている。 Further, according to another aspect of the present invention, the voice related to the region corresponding to the current position of the user is synthesized before and after the voice pronounced by the user, and the facility that matches the synthesized voice is extracted from the voice recognition dictionary. I have to.
また、本発明の他の態様によれば、施設名を複数の単語の組み合わせで表した語彙パターンを音声認識の対象として施設の位置と共に音声認識辞書に登録し、ユーザの現在位置に対して所定の範囲内に存在する施設を対象として音声認識辞書の検索を行い、ユーザが発音したパターンの音声に一致する施設を抽出するようにしている。 Further, according to another aspect of the present invention, a vocabulary pattern in which a facility name is represented by a combination of a plurality of words is registered in a speech recognition dictionary together with the location of the facility as a speech recognition target, and predetermined for the current location of the user The speech recognition dictionary is searched for facilities existing within the range of, and the facilities that match the sound of the pattern pronounced by the user are extracted.
上記のように構成した本発明によれば、ユーザが施設名を省略して発話した場合でも、施設名の主要な部分が音声認識の対象として音声認識辞書に登録されているので、所望の施設が抽出される可能性を高めることができる。また、読み方の候補として施設名の主要な部分が音声認識辞書に登録されるので、誤って発音される可能性のある読み方や省略されて発音される可能性のある読み方の候補を音声認識辞書に全て登録する場合に比べて、音声認識辞書に登録される読み方の候補の数を減らすことができ、音声認識辞書のデータ量を減らすことができる。また、ユーザの現在位置により検索対象となる読み方の候補の数が絞られるので、音声認識辞書の全てを検索する場合に比べて、音声認識の処理の時間を短くすることができる。 According to the present invention configured as described above, even when a user omits a facility name and speaks, the main part of the facility name is registered in the speech recognition dictionary as a target for speech recognition. Can increase the likelihood of being extracted. In addition, since the main part of the facility name is registered in the speech recognition dictionary as a candidate for reading, the candidate for reading that may be pronounced incorrectly or may be pronounced by omitting it Compared with the case where all are registered, the number of reading candidates registered in the speech recognition dictionary can be reduced, and the data amount of the speech recognition dictionary can be reduced. In addition, since the number of reading candidates to be searched is narrowed by the current position of the user, the time for the speech recognition process can be shortened compared to the case where all the speech recognition dictionaries are searched.
また、本発明の他の態様によれば、ユーザが施設名を省略して発話した場合でも、ユーザの発話した音声にユーザの現在位置の地域の音声を合成した音声が音声認識のキーとして使われるので、音声認識辞書に施設の正式名称しか登録されていなくても所望の施設が抽出される可能性を高めることができる。また、誤って発音される可能性のある読み方や省略されて発音される可能性のある読み方の候補を音声認識辞書に登録する必要がなくなり、施設の正式名称のみが音声認識辞書に登録される。これにより、音声認識辞書のデータ量を増やさないようにすることができる。 Further, according to another aspect of the present invention, even when the user utters without the facility name, the voice obtained by synthesizing the voice of the user's current location and the voice of the user's current location is used as the voice recognition key. Therefore, even if only the official name of the facility is registered in the voice recognition dictionary, the possibility that a desired facility is extracted can be increased. In addition, there is no need to register readings that may be pronounced accidentally or readings that may be omitted and registered in the speech recognition dictionary, and only the official name of the facility is registered in the speech recognition dictionary. . As a result, the amount of data in the speech recognition dictionary can be prevented from increasing.
また、本発明の他の態様によれば、ユーザが施設名を省略して発話した場合でも、施設名を複数の単語の組み合わせで表した語彙パターンが音声認識の対象として音声認識辞書に登録されているので、所望の施設が抽出される可能性を高めることができる。また、誤って発音される可能性のある読み方や省略されて発音される可能性のある読み方の候補を音声認識辞書に個々に登録する場合に比べて、音声認識辞書に登録される読み方の候補の数を減らすことができ、音声認識辞書のデータ量を減らすことができる。また、ユーザの現在位置により検索対象となる読み方の候補の数が絞られるので、音声認識辞書の全てを検索する場合に比べて、音声認識の処理の時間を短くすることができる。 Further, according to another aspect of the present invention, even when the user utters while omitting the facility name, a vocabulary pattern representing the facility name as a combination of a plurality of words is registered in the speech recognition dictionary as a target of speech recognition. Therefore, the possibility that a desired facility is extracted can be increased. Also, compared to the case where readings that may be pronounced in error or readings that may be pronounced as omitted are individually registered in the speech recognition dictionary, the reading candidates registered in the speech recognition dictionary And the amount of data in the speech recognition dictionary can be reduced. In addition, since the number of reading candidates to be searched is narrowed by the current position of the user, the time for the speech recognition process can be shortened compared to the case where all the speech recognition dictionaries are searched.
(第1の実施形態)
以下、本発明の第1の実施形態を図面に基づいて説明する。図1は、第1の実施形態による音声認識装置の構成例を示すブロック図である。ここで、本実施形態による音声認識装置は、車載用のナビゲーション装置などに搭載される。図1において、1は音声入力部であり、図示しないマイクなどを通じて話者音声を入力する。
(First embodiment)
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, a first embodiment of the invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration example of the speech recognition apparatus according to the first embodiment. Here, the voice recognition device according to the present embodiment is mounted on a vehicle-mounted navigation device or the like. In FIG. 1,
2は音声認識辞書記憶部であり、音声認識辞書を記憶する。ここで、音声認識辞書は、図2に示すように、辞書ID(Identification)と施設IDと施設名と正式名称と要部名称とを関連付けている。辞書IDは、特許請求の範囲の位置情報に対応するものであり、都道府県や市区町村などの地域毎に設定されており、同じ地域の施設は同じ辞書IDを有する。なお、第1の実施形態では、辞書IDは、市区町村毎に設定しているが、行政界の区分に応じて辞書IDを付すようにしても良い。この図2の例に示すように、本発明の位置情報は、特定の位置を座標等で表すものである必要は必ずしもなく、少なくとも地域を区別できる情報であれば良い。
A voice recognition
また、施設IDは、施設毎に設定されており、すべての施設が異なる施設IDを有する。また、施設名は、施設の正式な名称を示すテキストデータである。また、正式名称は、施設の正式な名称を示す音素片データである。また、要部名称は、施設名から都道府県や市区町村などの地域を示す文字列を削除した要部を示す音素片データである。ここで、要部名称としては、美術館、動物園、植物園、役所、役場、図書館、警察署、消防署、裁判所、庁舎、学校、病院などの音素片データがあり、これらの要部名称に地域を示す音素片データを付加することで正式名称とすることができる。 The facility ID is set for each facility, and all the facilities have different facility IDs. The facility name is text data indicating the official name of the facility. The official name is phoneme piece data indicating the official name of the facility. The main part name is phoneme piece data indicating a main part in which a character string indicating a region such as a prefecture or a city is deleted from the facility name. Here, there are phoneme segment data such as museums, zoos, botanical gardens, government offices, government offices, libraries, police stations, fire departments, courts, government buildings, schools, hospitals, etc. A formal name can be obtained by adding phoneme data.
3は現在位置検出部であり、GPS(Global Positioning System)受信機や自立航法センサなどを用いた公知技術によりユーザの現在位置(正確には音声認識装置の現在位置)を検出する。
4は音声認識部であり、音声入力部1に入力された音声と音声認識辞書記憶部2に記憶された音声認識辞書の要部名称の音素片データとを比較することにより、入力音声を認識する。具体的には、音声認識部4は、音声入力部1より音声が入力されたときに、まず、現在位置検出部3から入力した現在位置に対応する辞書IDを判定する。ここで、音声認識部4は、現在位置検出部3から入力した現在位置がどの地域であるかを判定する。そして、音声認識部4は、判定された地域と一致する地域の辞書IDを抽出する。また、音声認識部4は、現在位置に対応する辞書IDが付された音声認識辞書のみを対象として、入力音声と一致する読み方の要部名称を有する施設の施設名を特定して抽出する。
5は表示制御部であり、音声認識部4によって抽出された施設名を図示しない表示部に表示する。
このように構成した音声認識装置において、例えば、ユーザがマイクに向かって「美術館」と発話した場合には、音声入力部1は、「美術館」という音声を入力する。また、現在位置検出部3によりユーザの現在位置が「○○市」であることを検出したとする。音声認識部4は、現在位置検出部3で検出された現在位置が「○○市」であることから、音声認識辞書記憶部2に記憶されている音声認識辞書より、「○○市」に該当する辞書IDを有するものを選択してワークRAMなどの実際に検索を行う領域にロードする(ここでは、辞書ID=D1をロードする)。そして、辞書IDがD1のものを対象として「美術館」という入力音声の音声認識処理を実行することにより、入力音声と一致する「美術館」の要部名称を持つ施設名「○○市美術館」を抽出する。また、表示制御部5は、「○○市美術館」というテキストを表示部に表示する。これにより、ユーザは、「○○市美術館」を目的地として設定することができる。
In the voice recognition device configured as described above, for example, when the user speaks “museum” toward the microphone, the
次に、第1の実施形態による音声認識装置の動作及び音声認識方法について説明する。図3は、第1の実施形態による音声認識装置の動作及び音声認識方法を示すフローチャートである。 Next, the operation of the speech recognition apparatus and the speech recognition method according to the first embodiment will be described. FIG. 3 is a flowchart illustrating the operation of the speech recognition apparatus and the speech recognition method according to the first embodiment.
図3において、まず、音声認識部4は、マイクなどを通じて音声入力部1により音声が入力されたか否かを調べる(ステップS1)。音声が入力されていないと音声認識部4にて判断した場合には(ステップS1にてNO)、ステップS1の処理を繰り返す。一方、音声が入力されたと音声認識部4にて判断した場合には(ステップS1にてYES)、音声認識部4は、現在位置検出部3にて検出された現在位置情報を入力する(ステップS2)。
In FIG. 3, first, the
音声認識部4は、入力した現在位置情報により、現在位置に対応する地域の辞書IDの辞書を選択する(ステップS3)。そして、音声認識部4は、選択した辞書の中から、音声入力部1より入力した音声と一致する要部名称が存在するか否かを調べる(ステップS4)。音声入力部1より入力した音声と一致する要部名称が存在しないと音声認識部4にて判断した場合には(ステップS4にてNO)、処理を終了する。なお、このような場合に、表示制御部5は、「該当する施設がありません」などのメッセージを生成し、図示しない表示部に表示させても良い。
The
一方、音声入力部1より入力した音声と一致する要部名称が存在すると音声認識部4にて判断した場合には(ステップS4にてYES)、音声認識部4は、認識された要部名称を有する施設名のテキストデータを表示制御部5に出力する。表示制御部5は、該当する施設名のテキストを図示しない表示部に表示させる(ステップS5)。なお、図2に示すように、実際には要部名称のみ認識の対象としている訳ではなく、正式名称も認識対象とする。つまり、入力音声が正式名称又は要部名称に一致すれば良い。
On the other hand, when the
以上、詳しく説明したように、第1の実施形態によれば、施設の要部名称を音声認識の対象として施設の位置と共に音声認識辞書に登録し、目的地などの所望の施設を音声認識によって検索するときに、ユーザの現在位置に対して選択される辞書の中からユーザが発話した音声に一致する要部名称を持つ施設の施設名を抽出するようにしている。これにより、ユーザが施設名を省略して発話した場合でも、要部名称が音声認識の対象として音声認識辞書に登録されているので、所望の施設が抽出される可能性を高めることができる。また、読み方の候補として施設の要部名称が音声認識辞書に登録されるので、誤って発音される可能性のある読み方や省略されて発音される可能性のある読み方の候補を音声認識辞書に全て登録する場合に比べて、音声認識辞書に登録される読み方の候補の数を減らすことができ、音声認識辞書のデータ量を減らすことができる。また、ユーザの現在位置により辞書が選択されて検索対象となる施設の数が絞られるので、音声認識辞書の全てを検索する場合に比べて、音声認識の処理の時間を短くすることができる。 As described above in detail, according to the first embodiment, the name of the main part of the facility is registered in the speech recognition dictionary together with the location of the facility as the target of speech recognition, and a desired facility such as a destination is recognized by speech recognition. When searching, the facility name of the facility having the main part name that matches the voice spoken by the user is extracted from the dictionary selected for the current position of the user. Thus, even when the user omits the facility name and speaks, the name of the main part is registered in the speech recognition dictionary as the target of speech recognition, so the possibility that a desired facility is extracted can be increased. In addition, since the name of the main part of the facility is registered in the speech recognition dictionary as a candidate for reading, the candidate for reading that may be pronounced incorrectly or omitted and may be pronounced in the speech recognition dictionary. Compared to the case where all are registered, the number of reading candidates registered in the speech recognition dictionary can be reduced, and the data amount of the speech recognition dictionary can be reduced. In addition, since the number of facilities to be searched is narrowed down by selecting a dictionary according to the current position of the user, the time for voice recognition processing can be shortened compared to the case of searching all of the voice recognition dictionary.
(第2の実施形態)
次に、本発明の第2の実施形態を図面に基づいて説明する。図4は、第2の実施形態による音声認識装置の構成例を示すブロック図である。なお、第1の実施形態と同一の構成要素については同一の符号を付し、説明を一部省略する。図4において、6は音声合成部であり、現在位置検出部3から入力した現在位置によって決まる地域に関する音素片データを音声入力部1に入力された音声の前後に合成する。ここで、音声入力部1に入力した音声を要部名称とし、現在位置検出部3から入力した現在位置に対応する地域の音素片データ(例えば、都道府県や市区町村など)を要部名称の前後に合成すると、音声合成部6では仮想施設名称が生成される。
(Second Embodiment)
Next, a second embodiment of the present invention will be described with reference to the drawings. FIG. 4 is a block diagram illustrating a configuration example of the speech recognition apparatus according to the second embodiment. Note that the same components as those in the first embodiment are denoted by the same reference numerals, and a part of the description is omitted. In FIG. 4, reference numeral 6 denotes a speech synthesizer, which synthesizes phoneme piece data related to the region determined by the current position input from the
例えば、図5に示すように、10個のパターンの仮想施設名称が生成される。音声入力部1によって入力された要部名称が「美術館」であり、現在位置が○○県□□市である場合には、以下の10個のパターンの仮想施設名称が存在する。10個のパターンは、美術館の前に○○県を合成するパターンP1と、美術館の前に○○県立を合成するパターンP2と、美術館の前に□□市を合成するパターンP3と、美術館の前に□□市立を合成するパターンP4と、美術館の前に○○県□□市を合成するパターンP5と、美術館の前に○○県□□市立を合成するパターンP6と、美術館に何も合成しないパターンP7と、美術館の後に○○県を合成するパターンP8と、美術館の後に□□市を合成するパターンP9と、美術館の後に○○県□□市を合成するパターンP10とがある。
For example, as shown in FIG. 5, ten patterns of virtual facility names are generated. When the main part name input by the
また、音声認識部4は、音声合成部6にて生成された仮想施設名称の音声と音声認識辞書記憶部7に記憶された施設の正式名称の音素片データとを比較することにより、音声認識を行う。ここで、音声認識辞書記憶部7に記憶される音声認識辞書は、図6に示すように、施設IDと施設名(テキストデータ)と正式名称(音素片データ)とを関連付けている。
The
このように構成した音声認識装置において、例えば、ユーザがマイクに向かって「美術館」と発話した場合には、音声入力部1は、「美術館」という音声を入力する。また、現在位置検出部3は、ユーザの現在位置が「○○県□□市」であることを検出する。音声合成部6は、現在位置検出部3から入力した現在位置が「○○県□□市」であることから、音声入力部1により入力された「美術館」という要部名称の前後に、地域の名称である「○○県」や「□□市」などの音素片データを合成して仮想施設名称を生成する。ここで、要部名称として「○○県□□市美術館」という正式名称が音声入力部1により入力された場合でも音声認識されるように、音声合成部6では、要部名称の前後に何も合成しないパターンP7の仮想施設名称も生成する。
In the voice recognition device configured as described above, for example, when the user speaks “museum” toward the microphone, the
音声認識部4は、前述したパターンP1〜パターンP10の仮想施設名称の音素片データをキーとして、音声認識辞書記憶部7に記憶されている音声認識辞書を検索することにより、仮想施設名称と読み方が一致する「○○県□□市美術館」を抽出する。また、表示制御部5は、「○○県□□市美術館」というテキストを表示部に表示する。これにより、ユーザは、「○○県□□市美術館」を目的地として設定することができる。
The
次に、第2の実施形態による音声認識装置の動作及び音声認識方法について説明する。図7は、第2の実施形態による音声認識装置の動作及び音声認識方法を示すフローチャートである。 Next, the operation of the speech recognition apparatus and the speech recognition method according to the second embodiment will be described. FIG. 7 is a flowchart showing the operation of the speech recognition apparatus and speech recognition method according to the second embodiment.
図7において、まず、音声合成部6は、マイクなどを通じて音声入力部1により音声が入力されたか否かを調べる(ステップS11)。音声が入力されていないと音声合成部6にて判断した場合には(ステップS11にてNO)、ステップS11の処理を繰り返す。一方、音声が入力されたと音声合成部6にて判断した場合には(ステップS11にてYES)、音声合成部6は、現在位置検出部3にて検出された現在位置情報を入力する(ステップS12)。
In FIG. 7, first, the speech synthesizer 6 checks whether or not speech is input by the
音声合成部6は、入力した現在位置情報により、現在位置に対応する地域の名称を示す音素変データを入力された音声の前後に合成して仮想施設名称を生成する(ステップS13)。そして、音声認識部4は、生成された仮想施設名称と音声認識辞書記憶部7に記憶された施設の正式名称とを比較して、一致するものが存在するか否かを調べる(ステップS14)。仮想施設名称に該当する正式名称が存在しないと音声認識部4にて判断した場合には(ステップS14にてNO)、処理を終了する。なお、このような場合に、表示制御部5は、「該当する施設がありません」などのメッセージを生成し、図示しない表示部に表示させても良い。
The voice synthesis unit 6 generates a virtual facility name by synthesizing phoneme variation data indicating the name of the area corresponding to the current position before and after the inputted voice based on the input current position information (step S13). Then, the
一方、仮想施設名称に該当する正式名称が存在すると音声認識部4にて判断した場合には(ステップS14にてYES)、音声認識部4は、認識された正式名称を有する施設の施設名のテキストデータを表示制御部5に出力する。表示制御部5は、該当する施設名のテキストを図示しない表示部に表示させる(ステップS15)。
On the other hand, when the
以上、詳しく説明したように、第2の実施形態によれば、ユーザが発話した音声にユーザの現在位置の地域の音声を合成した音声を合成し、音声認識のキーとして使用している。これにより、ユーザが施設名を省略して発話した場合でも、ユーザの現在位置に応じて施設名を補うことができるので、所望の施設が抽出される可能性を高めることができる。また、誤って発音される可能性のある読み方や省略されて発音される可能性のある読み方の候補を音声認識辞書に登録する必要がなくなり、施設の正式名称のみが音声認識辞書に登録される。これにより、音声認識辞書のデータ量を増やさないようにすることができる。 As described above in detail, according to the second embodiment, a voice obtained by synthesizing a voice in a region where the user is currently located is synthesized with a voice uttered by the user and used as a voice recognition key. Thereby, even when a user omits a facility name and speaks, the facility name can be supplemented according to the current position of the user, so that the possibility that a desired facility is extracted can be increased. In addition, there is no need to register readings that may be pronounced accidentally or readings that may be omitted and registered in the speech recognition dictionary, and only the official name of the facility is registered in the speech recognition dictionary. . As a result, the amount of data in the speech recognition dictionary can be prevented from increasing.
(第3の実施形態)
次に、本発明の第3の実施形態を図面に基づいて説明する。図8は、第3の実施形態による音声認識装置の構成例を示すブロック図である。なお、第1の実施形態と同一の構成要素については同一の符号を付し、説明を一部省略する。図8において、8は音声認識辞書記憶部であり、音声認識辞書を記憶する。ここで、音声認識辞書は、図9に示すように、辞書IDと施設IDと施設名と施設名を複数の単語に分割して1つ以上を組み合わせた語彙パターンとを関連付けている。ここで、施設名を複数の単語に分割して1つ以上組み合わせたパターンとしては、以下のようなものがある。例えば、施設名が「○○県立美術館」である場合には、施設名を「○○」、「○○県」、「県立」、「美術館」の4つに分割する。そして、図9に示すように、「○○」と「県立」と「美術館」とを組み合わせた第1のパターンと、「○○」と「NULL」と「美術館」とを組み合わせた第2のパターンと、「NULL」と「県立」と「美術館」とを組み合わせた第3のパターンと、「NULL」と「NULL」と「美術館」とを組み合わせた第4のパターンと、「○○県」と「NULL」と「美術館」とを組み合わせた第5のパターンとを表す語彙パターンが音声認識辞書に登録される。ここで、「NULL」は単語が無い状態を示す。
(Third embodiment)
Next, a third embodiment of the present invention will be described with reference to the drawings. FIG. 8 is a block diagram illustrating a configuration example of the speech recognition apparatus according to the third embodiment. Note that the same components as those in the first embodiment are denoted by the same reference numerals, and a part of the description is omitted. In FIG. 8, 8 is a voice recognition dictionary storage unit for storing a voice recognition dictionary. Here, as shown in FIG. 9, the speech recognition dictionary associates a dictionary ID, a facility ID, a facility name, and a facility name with a vocabulary pattern in which one or more are combined and divided into a plurality of words. Here, as a pattern in which the facility name is divided into a plurality of words and combined one or more, there are the following. For example, when the facility name is “XX prefectural art museum”, the facility name is divided into “XX”, “XX prefecture”, “prefectural”, and “museum”. Then, as shown in FIG. 9, a first pattern that combines “XX”, “Prefectural”, and “Museum”, and a second pattern that combines “XX”, “NULL”, and “Museum”. A pattern, a third pattern combining “NULL”, “prefectural” and “museum”, a fourth pattern combining “NULL”, “NULL” and “museum”, and “XX prefecture” And a vocabulary pattern representing a fifth pattern combining “NULL” and “museum” is registered in the speech recognition dictionary. Here, “NULL” indicates a state where there is no word.
9は音声認識部であり、現在位置検出部3から入力した現在位置に対応する辞書IDを判定し、それ以外の辞書IDをマスクして音声認識の対象から除外する。ここで、辞書IDをマスクするとは、音声認識部9にて実際に音声認識を行うワーク領域に対象となる辞書IDの辞書をロードしないことを示す。そして、音声認識部9は、音声入力部1に入力された音声と音声認識辞書記憶部8に記憶された音声認識辞書の語彙パターンの音素片データとを比較することにより、入力音声を認識する。具体的には、音声認識部9は、音声入力部1より音声が入力されたときに、まず、現在位置検出部3から入力した現在位置に対応する辞書IDを判定する。ここで、音声認識部9は、現在位置検出部3から入力した現在位置がどの地域であるかを判定する。そして、判定された地域と一致する地域の辞書IDを抽出する。音声認識部9は、現在位置に対応する辞書IDが付された音声認識辞書のみを対象として、入力音声と一致する読み方の語彙パターンを有する施設の施設名を特定して抽出する。例えば、ユーザが「○○県立美術館」や「○○美術館」、「○○県美術館」、「県立美術館」、「美術館」と発話した何れの場合でも、施設名である「○○県立美術館」を抽出することができる。
A voice recognition unit 9 determines a dictionary ID corresponding to the current position input from the current
次に、第3の実施形態による音声認識装置の動作及び音声認識方法について説明する。図10は、第3の実施形態による音声認識装置の動作及び音声認識方法を示すフローチャートである。 Next, the operation of the speech recognition apparatus and speech recognition method according to the third embodiment will be described. FIG. 10 is a flowchart showing the operation of the speech recognition apparatus and speech recognition method according to the third embodiment.
図10において、まず、音声認識部9は、マイクなどを通じて音声入力部1により音声が入力されたか否かを調べる(ステップS21)。音声が入力されていないと音声認識部9にて判断した場合には(ステップS21にてNO)、ステップS21の処理を繰り返す。一方、音声が入力されたと音声認識部9にて判断した場合には(ステップS21にてYES)、音声認識部9は、現在位置検出部3にて検出された現在位置情報を入力する(ステップS22)。
In FIG. 10, the voice recognition unit 9 first checks whether or not voice is input by the
音声認識部9は、入力した現在位置情報により、現在位置に対応する地域の辞書IDの辞書を選択する(ステップS23)。そして、音声認識部9は、選択した辞書の中から、音声入力部1より入力した音声と一致する語彙パターンが存在するか否かを調べる(ステップS24)。音声入力部1より入力した音声と一致する語彙パターンが存在しないと音声認識部9にて判断した場合には(ステップS24にてNO)、処理を終了する。なお、このような場合に、表示制御部5は、「該当する施設がありません」などのメッセージを生成し、図示しない表示部に表示させても良い。
The voice recognition unit 9 selects a dictionary having a dictionary ID of the region corresponding to the current position based on the input current position information (step S23). Then, the voice recognition unit 9 checks whether there is a vocabulary pattern that matches the voice input from the
一方、音声入力部1より入力した音声と一致する語彙パターンが存在すると音声認識部9にて判断した場合には(ステップS24にてYES)、音声認識部9は、認識された語彙パターンを有する施設の施設名のテキストデータを表示制御部5に出力する。表示制御部5は、該当する施設名のテキストを図示しない表示部に表示させる(ステップS25)。
On the other hand, when the speech recognition unit 9 determines that there is a vocabulary pattern that matches the speech input from the speech input unit 1 (YES in step S24), the speech recognition unit 9 has the recognized vocabulary pattern. The text data of the facility name of the facility is output to the
以上、詳しく説明したように、第3の実施形態によれば、施設名を複数の単語に分割して1つ以上組み合わせた語彙パターンを音声認識の対象として施設の位置と共に音声認識辞書に登録し、目的地などの所望の施設を音声認識によって検索するときに、ユーザの現在位置に対して選択される辞書の中からユーザが発話した音声に一致する語彙パターンを持つ施設の施設名を抽出するようにしている。これにより、ユーザが施設名を省略して発話した場合でも、施設名を示す語彙パターンが音声認識の対象として音声認識辞書に登録されているので、所望の施設が抽出される可能性を高めることができる。また、読み方の候補として施設名を複数の単語に分割して1つ以上組み合わせた語彙パターンのみが音声認識辞書に登録されるので、誤って発音される可能性のある読み方や省略されて発音される可能性のある読み方の候補を音声認識辞書に個々に登録する場合に比べて、音声認識辞書に登録される読み方の候補の数を減らすことができ、音声認識辞書のデータ量を減らすことができる。また、ユーザの現在位置により辞書が選択されて検索対象となる施設の数が絞られるので、音声認識辞書の全てを検索する場合に比べて、音声認識の処理の時間を短くすることができる。 As described above in detail, according to the third embodiment, a vocabulary pattern obtained by dividing a facility name into a plurality of words and combining one or more words is registered in the speech recognition dictionary together with the location of the facility as a speech recognition target. When searching for a desired facility such as a destination by speech recognition, the facility name of the facility having a vocabulary pattern that matches the speech spoken by the user is extracted from a dictionary selected for the current position of the user I am doing so. As a result, even when the user omits the facility name and speaks, the vocabulary pattern indicating the facility name is registered in the speech recognition dictionary as the target of speech recognition, so the possibility that a desired facility is extracted is increased. Can do. Moreover, since only the vocabulary pattern in which the facility name is divided into a plurality of words and combined with one or more words is registered in the speech recognition dictionary as a candidate for reading, it may be pronounced in a way that may be mistakenly pronounced or omitted. Compared to the case of registering possible reading candidates individually in the speech recognition dictionary, the number of reading candidates registered in the speech recognition dictionary can be reduced and the amount of data in the speech recognition dictionary can be reduced. it can. In addition, since the number of facilities to be searched is narrowed down by selecting a dictionary according to the current position of the user, the time for voice recognition processing can be shortened compared to the case of searching all of the voice recognition dictionary.
なお、第1の実施形態及び第3の実施形態では、辞書IDを市区町村毎に設定しているが、これに限定されない。例えば、辞書IDを都道府県毎に設定しても良いし、複数の都道府県毎に設定しても良いし、複数の市区町村毎に設定しても良い。 In the first embodiment and the third embodiment, the dictionary ID is set for each city, but the present invention is not limited to this. For example, the dictionary ID may be set for each prefecture, may be set for a plurality of prefectures, or may be set for a plurality of municipalities.
また、第1の実施形態及び第3の実施形態では、1つの辞書IDの辞書を対象として音声認識を行っているが、これに限定されない。例えば、ユーザの現在位置に対応する辞書IDとその辞書IDの地域に隣接する複数の地域の辞書IDを音声認識の対象とするようにしても良い。 In the first embodiment and the third embodiment, voice recognition is performed for a dictionary having one dictionary ID, but the present invention is not limited to this. For example, the dictionary ID corresponding to the current position of the user and the dictionary IDs of a plurality of regions adjacent to the region of the dictionary ID may be set as speech recognition targets.
また、第1の実施形態乃至第3の実施形態では、音声認識の結果として抽出された施設が1つであるが、これに限定されない。例えば、二つ以上の施設を抽出してその施設名を表示部に表示するようにしても良い。また、このような場合において、複数の施設が抽出されたときに、ユーザの現在位置から近い順番に施設名を表示するようにしても良い。ここで、施設の位置は、例えば、施設の位置を示す緯度・経度などを施設名などに関連付けて音声認識辞書記憶部2,7に記憶させておく。また、ナビゲーション装置が備えている施設の位置情報を利用しても良い。
Moreover, in 1st Embodiment thru | or 3rd Embodiment, although the one facility extracted as a result of speech recognition is one, it is not limited to this. For example, two or more facilities may be extracted and the facility names may be displayed on the display unit. In such a case, when a plurality of facilities are extracted, the facility names may be displayed in order from the user's current position. Here, the location of the facility is stored in the speech recognition
また、第1の実施形態では、音声認識辞書は、施設IDを有しているが、これに限定されない。例えば、図11に示すように、ある辞書IDについて、複数の要部名称に施設名をそれぞれ関連付けて記憶するようにしても良い。 In the first embodiment, the voice recognition dictionary has a facility ID, but is not limited to this. For example, as shown in FIG. 11, for a certain dictionary ID, a facility name may be associated with a plurality of main part names and stored.
また、第2の実施形態では、音声認識辞書は、辞書IDを付していないが、これに限定されない。例えば、図12に示すように、各施設について、地域毎に異なる辞書IDを付すようにしても良い。そして、音声認識部4は、現在位置検出部3により検出した現在位置を入力する。そして、入力した現在位置がどの地域であるかを判定し、判定された地域と一致する地域の辞書IDを音声認識辞書記憶部7から抽出する。そして、音声認識部4は、現在位置に対応する辞書IDが付された音声認識辞書のみを対象として、入力音声と一致する読み方の施設名を特定して抽出する。これにより、ユーザの現在位置により辞書が選択されて検索対象となる施設の数が絞られるので、音声認識辞書の全てを検索する場合に比べて、音声認識の処理の時間を短くすることができる。
In the second embodiment, the speech recognition dictionary does not have a dictionary ID, but is not limited thereto. For example, as shown in FIG. 12, a different dictionary ID may be assigned to each facility for each region. Then, the
その他、上記実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその精神、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。 In addition, each of the above-described embodiments is merely an example of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner. In other words, the present invention can be implemented in various forms without departing from the spirit or main features thereof.
本発明は、ユーザが発音した音声を認識して施設名などを抽出する音声認識装置に有用である。 INDUSTRIAL APPLICABILITY The present invention is useful for a speech recognition apparatus that recognizes speech produced by a user and extracts facility names and the like.
1 音声入力部
2,7,8 音声認識辞書記憶部
3 現在位置検出部
4,9 音声認識部
5 表示制御部
6 音声合成部
DESCRIPTION OF
Claims (8)
ユーザの現在位置を検出する現在位置検出部と、
前記ユーザの発音した音声を入力する音声入力部と、
前記現在位置検出部によって検出された現在位置に対応する所定の範囲内に存在する施設の要部名称を対象として前記音声認識辞書を検索し、前記音声入力部によって入力された音声と読み方が一致する要部名称を有する施設の名称を抽出する音声認識部と、
を備えたことを特徴とする音声認識装置。 A voice recognition dictionary storage unit that stores a name of a facility and a main part name existing in a part of the name of the facility as a voice recognition dictionary in association with positional information of the facility;
A current position detector for detecting the current position of the user;
A voice input unit for inputting a voice pronounced by the user;
The speech recognition dictionary is searched for the name of a main part of a facility that exists within a predetermined range corresponding to the current position detected by the current position detection unit, and the speech input by the voice input unit matches the reading. A voice recognition unit that extracts the name of the facility having the main part name to be
A speech recognition apparatus comprising:
前記ユーザの発音した音声を入力する音声入力部と、
施設の名称を音声認識辞書として記憶する音声認識辞書記憶部と、
前記現在位置検出部により検出された現在位置に対応する所定の範囲内の地域に関する音声を前記音声入力部によって入力された音声の前又は後に合成して仮想施設名称を生成する音声合成部と、
前記音声合成部により生成された前記仮想施設名称をキーとして前記音声認識辞書を検索し、前記仮想施設名称と一致する施設の名称を抽出する音声認識部と、
を備えたことを特徴とする音声認識装置。 A current position detector for detecting the current position of the user;
A voice input unit for inputting a voice pronounced by the user;
A voice recognition dictionary storage unit that stores the name of the facility as a voice recognition dictionary;
A voice synthesizer for generating a virtual facility name by synthesizing voice related to an area within a predetermined range corresponding to the current position detected by the current position detector before or after the voice input by the voice input unit;
A voice recognition unit that searches the voice recognition dictionary using the virtual facility name generated by the voice synthesis unit as a key, and extracts a name of a facility that matches the virtual facility name;
A speech recognition apparatus comprising:
ユーザの現在位置を検出する現在位置検出部と、
前記ユーザの発音した音声を入力する音声入力部と、
前記現在位置検出部によって検出された現在位置に対応する所定の範囲内に存在する施設の語彙パターンを対象として前記音声認識辞書を検索し、前記音声入力部によって入力された音声と読み方が一致する語彙パターンを有する施設の名称を抽出する音声認識部と、
を備えたことを特徴とする音声認識装置。 A voice recognition dictionary storage unit that stores a name of a facility and a vocabulary pattern that represents the name of the facility by a combination of a plurality of words as a voice recognition dictionary in association with the location information of the facility;
A current position detector for detecting the current position of the user;
A voice input unit for inputting a voice pronounced by the user;
The speech recognition dictionary is searched for a vocabulary pattern of a facility existing within a predetermined range corresponding to the current position detected by the current position detection unit, and the speech input by the voice input unit matches the reading. A voice recognition unit that extracts names of facilities having vocabulary patterns;
A speech recognition apparatus comprising:
前記第1のステップにより音声を入力した際に、前記ユーザの現在位置を現在位置検出部により検出する第2のステップと、
施設の名称と前記施設の名称の一部に存在する要部名称とを前記施設の位置情報に関連付けた音声認識辞書を、前記第2のステップにて検出したユーザの現在位置に対応する所定の範囲内に存在する施設の要部名称を対象として検索し、前記第1のステップにて入力した音声と読み方が一致する要部名称を有する施設の名称を抽出する第3のステップと、
を備えたことを特徴とする音声認識方法。 A first step of inputting a voice produced by the user at a voice input unit;
A second step of detecting a current position of the user by a current position detection unit when voice is input in the first step;
A speech recognition dictionary in which the name of the facility and the main part name existing in a part of the name of the facility are associated with the location information of the facility is a predetermined number corresponding to the current position of the user detected in the second step. A third step of searching for a main part name of a facility existing in a range, and extracting a name of a facility having a main part name whose reading matches the voice input in the first step;
A speech recognition method comprising:
前記第1のステップにより音声を入力した際に、ユーザの現在位置を現在位置検出部により検出する第2のステップと、
前記第2のステップにて検出したユーザの現在位置に対応する所定の範囲内の地域に関する音声を前記第1のステップにて入力した音声の前又は後に音声合成部により合成して仮想施設名称を生成する第3のステップと、
前記第3のステップにて生成された前記仮想施設名称をキーとして音声認識辞書を検索し、前記仮想施設名称と一致する施設の名称を抽出する第4のステップと、
を備えたことを特徴とする音声認識方法。 A first step of inputting a voice produced by the user at a voice input unit;
A second step of detecting the current position of the user by the current position detection unit when voice is input in the first step;
A voice synthesizer synthesizes a voice related to an area within a predetermined range corresponding to the current position of the user detected in the second step, before or after the voice input in the first step, to obtain a virtual facility name. A third step of generating,
A fourth step of searching a speech recognition dictionary using the virtual facility name generated in the third step as a key, and extracting a name of the facility that matches the virtual facility name;
A speech recognition method comprising:
前記第1のステップにより音声を入力した際に、前記ユーザの現在位置を現在位置検出部により検出する第2のステップと、
施設の名称と前記施設の名称を複数の単語の組み合わせで表した語彙パターンとを前記施設の位置情報に関連付けた音声認識辞書を、前記第2のステップにて検出した現在位置に対応する所定の範囲内に存在する施設の語彙パターンを対象として検索し、前記第1のステップにて入力した音声と読み方が一致する語彙パターンを有する施設の名称を抽出する第3のステップと、
を備えたことを特徴とする音声認識方法。 A first step of inputting a voice produced by the user at a voice input unit;
A second step of detecting a current position of the user by a current position detection unit when voice is input in the first step;
A speech recognition dictionary in which a facility name and a vocabulary pattern representing a name of the facility by a combination of a plurality of words are associated with position information of the facility, a predetermined correspondence corresponding to the current position detected in the second step A third step of searching for a vocabulary pattern of a facility existing within a range, and extracting a name of the facility having a vocabulary pattern whose reading matches the voice input in the first step;
A speech recognition method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005157309A JP2006330577A (en) | 2005-05-30 | 2005-05-30 | Device and method for speech recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005157309A JP2006330577A (en) | 2005-05-30 | 2005-05-30 | Device and method for speech recognition |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006330577A true JP2006330577A (en) | 2006-12-07 |
Family
ID=37552297
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005157309A Pending JP2006330577A (en) | 2005-05-30 | 2005-05-30 | Device and method for speech recognition |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006330577A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008197338A (en) * | 2007-02-13 | 2008-08-28 | Denso Corp | Speech recognition device |
JP2008309865A (en) * | 2007-06-12 | 2008-12-25 | Fujitsu Ten Ltd | Voice recognition device and voice recognition method |
JP2011170634A (en) * | 2010-02-18 | 2011-09-01 | Nikon Corp | Information processing device |
US9013399B2 (en) | 2010-02-18 | 2015-04-21 | Nikon Corporation | Information processing device, portable device and information processing system |
JP2016122467A (en) * | 2016-03-08 | 2016-07-07 | 株式会社ニコン | Information processing device |
CN110162605A (en) * | 2018-02-15 | 2019-08-23 | 阿尔派株式会社 | Search result provides device and search result providing method |
CN112349284A (en) * | 2019-08-08 | 2021-02-09 | 本田技研工业株式会社 | Notification control system, notification control device, notification control method, and storage medium |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0942988A (en) * | 1995-07-28 | 1997-02-14 | Mazda Motor Corp | On-vehicle map display |
JPH09114491A (en) * | 1995-10-16 | 1997-05-02 | Sony Corp | Device and method for speech recognition, device and method for navigation, and automobile |
JPH1138994A (en) * | 1997-07-17 | 1999-02-12 | Denso Corp | Voice recognition system and navigation system |
JP2002215186A (en) * | 2001-01-12 | 2002-07-31 | Auto Network Gijutsu Kenkyusho:Kk | Speech recognition system |
JP2002372986A (en) * | 2002-05-09 | 2002-12-26 | Denso Corp | Voice recognizing device and navigation system |
JP2003004470A (en) * | 2001-06-18 | 2003-01-08 | Alpine Electronics Inc | Voice recognition unit for navigation |
WO2004044887A1 (en) * | 2002-11-11 | 2004-05-27 | Matsushita Electric Industrial Co., Ltd. | Speech recognition dictionary creation device and speech recognition device |
JP2004294542A (en) * | 2003-03-25 | 2004-10-21 | Mitsubishi Electric Corp | Speech recognition device and program therefor |
-
2005
- 2005-05-30 JP JP2005157309A patent/JP2006330577A/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0942988A (en) * | 1995-07-28 | 1997-02-14 | Mazda Motor Corp | On-vehicle map display |
JPH09114491A (en) * | 1995-10-16 | 1997-05-02 | Sony Corp | Device and method for speech recognition, device and method for navigation, and automobile |
JPH1138994A (en) * | 1997-07-17 | 1999-02-12 | Denso Corp | Voice recognition system and navigation system |
JP2002215186A (en) * | 2001-01-12 | 2002-07-31 | Auto Network Gijutsu Kenkyusho:Kk | Speech recognition system |
JP2003004470A (en) * | 2001-06-18 | 2003-01-08 | Alpine Electronics Inc | Voice recognition unit for navigation |
JP2002372986A (en) * | 2002-05-09 | 2002-12-26 | Denso Corp | Voice recognizing device and navigation system |
WO2004044887A1 (en) * | 2002-11-11 | 2004-05-27 | Matsushita Electric Industrial Co., Ltd. | Speech recognition dictionary creation device and speech recognition device |
JP2004294542A (en) * | 2003-03-25 | 2004-10-21 | Mitsubishi Electric Corp | Speech recognition device and program therefor |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008197338A (en) * | 2007-02-13 | 2008-08-28 | Denso Corp | Speech recognition device |
JP2008309865A (en) * | 2007-06-12 | 2008-12-25 | Fujitsu Ten Ltd | Voice recognition device and voice recognition method |
JP2011170634A (en) * | 2010-02-18 | 2011-09-01 | Nikon Corp | Information processing device |
US9013399B2 (en) | 2010-02-18 | 2015-04-21 | Nikon Corporation | Information processing device, portable device and information processing system |
US9626151B2 (en) | 2010-02-18 | 2017-04-18 | Nikon Corporation | Information processing device, portable device and information processing system |
JP2016122467A (en) * | 2016-03-08 | 2016-07-07 | 株式会社ニコン | Information processing device |
CN110162605A (en) * | 2018-02-15 | 2019-08-23 | 阿尔派株式会社 | Search result provides device and search result providing method |
CN112349284A (en) * | 2019-08-08 | 2021-02-09 | 本田技研工业株式会社 | Notification control system, notification control device, notification control method, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5334178B2 (en) | Speech recognition apparatus and data update method | |
US8949133B2 (en) | Information retrieving apparatus | |
US9177545B2 (en) | Recognition dictionary creating device, voice recognition device, and voice synthesizer | |
JP5753769B2 (en) | Voice data retrieval system and program therefor | |
JP5335165B2 (en) | Pronunciation information generating apparatus, in-vehicle information apparatus, and database generating method | |
JP5364412B2 (en) | Search device | |
JP2006330577A (en) | Device and method for speech recognition | |
JP4914632B2 (en) | Navigation device | |
JP5326549B2 (en) | Speech recognition apparatus and method | |
JP6100101B2 (en) | Candidate selection apparatus and candidate selection method using speech recognition | |
JP5455355B2 (en) | Speech recognition apparatus and program | |
JP2005275228A (en) | Navigation system | |
JP2011232668A (en) | Navigation device with voice recognition function and detection result presentation method thereof | |
JP2009244639A (en) | Utterance device, utterance control program and utterance control method | |
JP2004053620A (en) | Speech recognition device | |
JP2008021235A (en) | Reading and registration system, and reading and registration program | |
JP2007187687A (en) | Speech conversion processing apparatus | |
KR101397825B1 (en) | Speech recognition system and method based on location information | |
JP2011180416A (en) | Voice synthesis device, voice synthesis method and car navigation system | |
JP2003005783A (en) | Navigation system and its destination input method | |
JP4639990B2 (en) | Spoken dialogue apparatus and speech understanding result generation method | |
JP2009282835A (en) | Method and device for voice search | |
JP2004309928A (en) | Speech recognition device, electronic dictionary device, speech recognizing method, retrieving method, and program | |
JP3881155B2 (en) | Speech recognition method and apparatus | |
JPH11325946A (en) | On-vehicle navigation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100406 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100601 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100817 |