JP2001249686A - Method and device for recognizing speech and navigation device - Google Patents
Method and device for recognizing speech and navigation deviceInfo
- Publication number
- JP2001249686A JP2001249686A JP2000062857A JP2000062857A JP2001249686A JP 2001249686 A JP2001249686 A JP 2001249686A JP 2000062857 A JP2000062857 A JP 2000062857A JP 2000062857 A JP2000062857 A JP 2000062857A JP 2001249686 A JP2001249686 A JP 2001249686A
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- recognition
- vocabulary
- dictionary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Traffic Control Systems (AREA)
- Instructional Devices (AREA)
- Navigation (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、音声認識に係わる技術
であり、特にナビゲーション装置において、音声認識の
対象となる語彙の辞書(認識対象語彙辞書)を、目的地
の設定情報や認識対象の重要度に応じて動的に更新する
音声認識方法、音声認識装置およびナビゲーション装置
に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique relating to speech recognition, and more particularly, to a navigation device, a dictionary of vocabulary to be subjected to speech recognition (recognition vocabulary dictionary) is used for setting information of a destination and recognition target. The present invention relates to a voice recognition method, a voice recognition device, and a navigation device that are dynamically updated according to importance.
【0002】[0002]
【従来の技術】音声認識は、前もって用意した認識候補
となりうる語彙の集まりである認識対象語彙辞書の中か
ら、入力された音声がどの語彙であるかを、音響的な特
性と言語的な特性を利用して探すことと言える。音声認
識の問題の一つとして、この認識対象語彙辞書の語彙数
が大きくなるにつれて、認識率が低下することが知られ
ている。2. Description of the Related Art Speech recognition is based on acoustic characteristics and linguistic characteristics from a vocabulary dictionary to be recognized, which is a collection of vocabularies that can be candidates for recognition prepared in advance. It can be said that it is searched by using. As one of the problems of speech recognition, it is known that the recognition rate decreases as the number of vocabularies of the vocabulary dictionary to be recognized increases.
【0003】ところが、発声された地名の地図を表示す
るナビゲーションシステムを実現するだけでも、おおよ
そ数十万語もの語彙を集めた認識対象語彙辞書が必要に
なる。このため、多くの認識対象語彙を集めた音声認識
対象語彙辞書データベースから、いかに必要な語彙を選
択し、認識対象語彙辞書を構築するかが重要な課題にな
る。[0005] However, just implementing a navigation system that displays a map of spoken place names requires a vocabulary dictionary to be recognized that collects vocabularies of approximately hundreds of thousands of words. For this reason, it is an important issue how to select a necessary vocabulary from the speech recognition vocabulary dictionary database in which many recognition vocabularies are collected and construct the recognition vocabulary dictionary.
【0004】特開平10−282987号公報「音声認
識システムおよび方法」や特開平8−202386号公
報「音声認識方法、音声認識装置、およびナビゲーショ
ン装置」にもこの課題が指摘され、語彙選択の解決方法
が提案されている。This problem has been pointed out in Japanese Patent Application Laid-Open No. 10-282987, "Speech Recognition System and Method" and Japanese Patent Application Laid-Open No. 8-202386, "Speech Recognition Method, Speech Recognition Apparatus, and Navigation Apparatus". A method has been proposed.
【0005】図6は、特開平10−282987号公報
に開示された技術を示す。このシステムでは、あらかじ
め最大3000語までに限定された認識対象語彙辞書6
04を複数もち、必要に応じて1つの辞書を選択して認
識に利用する。具体的には、マイク601で入力された
音声が、音声分析部606で前処理が行われ特徴抽出さ
れる。その後、認識対象語彙辞書605、および音響モ
デル608とを参照して認識結果を出力する。ここで、
認識対象語彙辞書605は辞書604の複数の辞書から
1つだけが選ばれ使われる。FIG. 6 shows a technique disclosed in Japanese Patent Application Laid-Open No. 10-282987. In this system, the vocabulary dictionary 6 to be recognized is limited to 3000 words in advance.
04, and one dictionary is selected and used for recognition as needed. Specifically, the voice input by the microphone 601 is subjected to pre-processing by the voice analysis unit 606 to extract features. Thereafter, the recognition result is output with reference to the recognition target vocabulary dictionary 605 and the acoustic model 608. here,
The recognition target vocabulary dictionary 605 is obtained from a plurality of dictionaries of the dictionary 604.
Only one is chosen and used.
【0006】このシステムをカーナビゲーションに利用
する場合には、あらかじめナビゲーション用の地図を格
子状に区切り、その区切り毎に認識対象語彙辞書を用意
し、車の現在位置を利用して認識対象語彙辞書を切り換
えればよい。When this system is used for car navigation, a map for navigation is divided into grids in advance, a vocabulary dictionary to be recognized is prepared for each partition, and a vocabulary dictionary to be recognized is used by using the current position of the car. Can be switched.
【0007】図7は、特開平8−202386号公報に
開示されたナビゲーションシステムに適用した例であ
る。このシステムでは、経路設定後に良く発声される語
彙は、その経路上の近辺にある地名や交差点名、そして
ランドマークに限られるという発想にもとづいている。
システムの動作は、まず経路設定部705で設定された
経路情報が経路設定メモリ706に送られる。認識対象
語彙選択部704は、この設定経路メモリ706と大規
模地名辞書703を利用して認識対象語彙を決定し、そ
の結果を認識対象語彙メモリ702に送る。その結果、
音声認識部701は、語彙メモリ702に設定された認
識用語彙を利用することで、経路上に沿った語彙を対象
に認識を行え、認識率の向上を実現できる。FIG. 7 shows an example in which the present invention is applied to a navigation system disclosed in Japanese Patent Application Laid-Open No. 8-202386. In this system, the vocabulary often spoken after setting a route is based on the idea that the names of places, intersections, and landmarks near the route are limited.
The operation of the system is as follows. First, the path information set by the path setting unit 705 is sent to the path setting memory 706. The recognition target vocabulary selection unit 704 determines the recognition target vocabulary using the set path memory 706 and the large-scale place name dictionary 703, and sends the result to the recognition target vocabulary memory 702. as a result,
By using the recognized vocabulary set in the vocabulary memory 702, the speech recognition unit 701 can perform recognition on vocabulary along the route, and can improve the recognition rate.
【0008】[0008]
【発明が解決しようとする課題】DVDに代表される近
年の記憶媒体の発達に対応するため、音声認識ではこれ
まで以上に多くの認識対象となる語彙を扱える必要があ
る。また、扱う必要のあるすべての語彙は前もって分か
るのではなく、時々刻々と追加されるため更新していく
必要がある。そのため、これまで以上に音声認識対象語
彙辞書データベースから認識対象語彙を絞り込み、認識
対象語彙辞書を構築することが重要となる。In order to cope with the recent development of storage media represented by DVDs, it is necessary for speech recognition to handle more words to be recognized than ever. Also, not all vocabularies that need to be dealt with are known in advance and need to be updated as they are added every moment. Therefore, it is important to narrow down the recognition target vocabulary from the speech recognition target vocabulary dictionary database more than ever and construct a recognition target vocabulary dictionary.
【0009】ところが特開平10−282987号公報
の手法では、前もって位置情報に対応して音声認識デー
タベースを切り分けておく必要性があり、新たな語彙に
対応することは難しい。さらに、状況に応じた利用者の
要求などにも対応できない。また、語彙を経路上の情報
に絞り込む特開平8−202386号公報の方法におい
ても、すでに車が通過してしまった経路上の語彙も認識
対象語彙辞書に持つことになり、効率の良い認識対象語
彙辞書をもつことができない。However, according to the method disclosed in Japanese Patent Application Laid-Open No. 10-282987, it is necessary to separate the speech recognition database in advance in accordance with the position information, and it is difficult to correspond to a new vocabulary. Furthermore, it cannot respond to a user's request according to the situation. Also, in the method disclosed in Japanese Patent Application Laid-Open No. 8-202386, in which vocabulary is narrowed down to information on the route, the vocabulary on the route on which the car has already passed is also stored in the vocabulary dictionary for recognition. You cannot have a vocabulary dictionary.
【0010】そこで、本発明の目的は、ナビゲーション
システムにおいて扱うべき語彙数が増加したとしても、
認識に必要な認識対象語彙辞書を効率良く構築する方法
を示し、認識率の高い音声認識システムを構築すること
である。[0010] Therefore, an object of the present invention is to provide a navigation system in which the number of words to be handled is increased.
An object of the present invention is to provide a method of efficiently constructing a vocabulary dictionary for recognition required for recognition and to construct a speech recognition system having a high recognition rate.
【0011】[0011]
【課題を解決するための手段】この課題を解決するため
に本発明では、入力された音声に対して、音響モデルと
認識対象語彙辞書をもとに音声認識を行う装置におい
て、利用者の移動情報と利用者による設定情報を得る情
報取得手段と、前記情報取得手段から得られた利用者の
移動情報と利用者による設定情報を用いて認識対象語彙
辞書を逐次更新する辞書更新手段と、前記認識対象語彙
辞書を用いて前記入力音声を認識する認識手段とを備え
たものである。According to the present invention, there is provided an apparatus for performing speech recognition on an input speech based on an acoustic model and a vocabulary dictionary to be recognized. Information acquisition means for obtaining information and setting information by a user; dictionary updating means for sequentially updating a recognition target vocabulary dictionary using user movement information and user setting information obtained from the information acquisition means; Recognizing means for recognizing the input voice using a recognition target vocabulary dictionary.
【0012】これらの機能を備えることで、状況に応じ
て情報取得手段に書かれた現在位置などの情報に基づい
て音声認識対象語彙辞書データベースから認識対象の語
彙を選択して認識対象語彙辞書に格納することにより、
効率の良い認識対象語彙辞書が構築でき、認識率の向上
が可能となる。With these functions, a vocabulary to be recognized is selected from the vocabulary dictionary database for speech recognition based on information such as the current position written in the information acquisition means according to the situation, and the vocabulary dictionary to be recognized is selected. By storing
An efficient recognition target vocabulary dictionary can be constructed, and the recognition rate can be improved.
【0013】[0013]
【発明の実施の形態】本発明の請求項1に記載の発明
は、入力された音声に対して、音響モデルと認識対象語
彙辞書をもとに音声認識を行うことにおいて、前記認識
対象語彙辞書を利用者の移動情報と利用者による設定情
報に応じて、音声認識対象語彙辞書を逐次更新して、音
声認識を行う方法あり、状況に応じて認識対象語彙辞書
を用いて音声認識をおこなうことで、認識率の向上を実
現する作用を有する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The invention according to claim 1 of the present invention is to perform speech recognition on an input speech based on an acoustic model and a vocabulary dictionary to be recognized. There is a method of performing speech recognition by sequentially updating the vocabulary dictionary for speech recognition according to the user's movement information and setting information by the user, and performing speech recognition using the vocabulary dictionary for recognition according to the situation Has the effect of improving the recognition rate.
【0014】本発明の請求項2に記載の発明は、前記利
用者の移動情報が、GPSから得られる情報から抽出し
た利用者の移動情報の特徴であり、前記特徴を利用し、
音声認識に利用する語彙の選択を行う方法であり、利用
者の状況を反映して音声認識対象語彙辞書の更新情報と
して利用できるという作用を有する。According to a second aspect of the present invention, the user's movement information is a feature of the user's movement information extracted from information obtained from GPS.
This is a method of selecting a vocabulary to be used for speech recognition, and has an effect that the vocabulary can be used as update information of a vocabulary dictionary for speech recognition while reflecting the situation of the user.
【0015】本発明の請求項3に記載の発明は、前記抽
出される特徴が、利用者の位置情報、移動速度、移動方
向の少なくとも一つを利用することを特徴とする方法で
あり、認識対象語彙辞書の更新において利用者の移動状
態に応じて認識対象語彙辞書を構築できるという作用を
有する。According to a third aspect of the present invention, there is provided a method according to the first aspect, wherein the extracted feature uses at least one of a user's position information, a moving speed, and a moving direction. In updating the target vocabulary dictionary, there is an effect that the recognition target vocabulary dictionary can be constructed according to the moving state of the user.
【0016】本発明の請求項4に記載の発明は、前記利
用者によって設定される設定情報が、利用者によって設
定されたナビゲーションの目的地をもとに、現在地と目
的地までの経路情報、または利用者によって設定された
カテゴリ情報の少なくとも一方であることを特徴とする
とした方法であり、音声認識対象語彙辞書の更新におい
て利用者が今後発生する語彙の選択情報としての作用を
有する。According to a fourth aspect of the present invention, the setting information set by the user is based on the navigation destination set by the user, the current location and the route information to the destination, Alternatively, the method is characterized by being at least one of the category information set by the user, and has an effect as selection information of a vocabulary that will be generated by the user in the update of the vocabulary dictionary for speech recognition.
【0017】本発明の請求項5に記載の発明は、請求項
1記載の逐次音声認識用認識対象語彙辞書を更新するタ
イミングが、GPSの情報を分析し,前記分析して得た情
報をもとにタイミングを指定する方法であり、音声認識
用辞書の更新のタイミングを指定するという作用を有す
る。According to a fifth aspect of the present invention, the timing for updating the recognition target vocabulary dictionary for sequential speech recognition according to the first aspect is such that the GPS information is analyzed and the information obtained by the analysis is also used. This method has a function of designating the update timing of the speech recognition dictionary.
【0018】本発明の請求項6に記載の発明は、前記分
析して得る情報が、前回辞書の更新を行ってからの時
間、または予定経路からの逸脱や速度といった移動距離
の少なくとも一つであるとした方法であり、音声認識用
辞書の更新タイミングを指定するという作用を有する。According to the invention described in claim 6 of the present invention, the information obtained by the analysis is at least one of a time since the last time the dictionary was updated, or a moving distance such as a deviation from a planned route or a speed. This method has the effect of designating the update timing of the speech recognition dictionary.
【0019】本発明の請求項7に記載の発明は、入力さ
れた音声に対して、音響モデルと認識対象語彙辞書をも
とに音声認識を行うことにおいて、前記辞書を利用者の
移動情報と利用者による設定情報に応じて、逐次音声認
識用認識対象語彙辞書を更新して、前記認識対象語彙辞
書を用いて認識をすることとしたものであり、効率良く
動的に認識対象語彙辞書を更新して音声認識をおこなう
ことで認識率の向上という作用を有する。According to a seventh aspect of the present invention, speech recognition is performed on an input speech based on an acoustic model and a vocabulary dictionary to be recognized. According to the setting information by the user, the recognition target vocabulary dictionary for speech recognition is sequentially updated, and the recognition is performed using the recognition target vocabulary dictionary. Updating and performing speech recognition has the effect of improving the recognition rate.
【0020】本発明の請求項8に記載の発明は、音声認
識辞書データベースから利用者による設定情報や移動状
態に応じて認識対象語彙を選択する際に、カテゴリ情報
は位置情報といった手がかりを与え、効率の良い認識対
象語彙の更新を実現するという作用を有する。In the invention according to claim 8 of the present invention, when selecting a recognition target vocabulary according to user setting information or a moving state from a speech recognition dictionary database, category information gives clues such as position information, This has the effect of efficiently updating the recognition target vocabulary.
【0021】本発明の請求項9に記載の発明は、前記利
用者の移動情報が、GPSから得られる情報から抽出した
利用者の移動情報の特徴であり、前記特徴を利用し、音
声認識に利用する語彙の更新を行うこととしたものでで
あり、利用者の状況を反映して音声認識対象語彙辞書の
更新情報として利用できるという作用を有する。According to a ninth aspect of the present invention, the movement information of the user is a feature of the movement information of the user extracted from information obtained from GPS, and the feature is used for speech recognition. This is to update the vocabulary to be used, and has an effect that the vocabulary can be used as update information of the vocabulary dictionary for speech recognition while reflecting the situation of the user.
【0022】本発明の請求項10に記載の発明は、前記
抽出される特徴が、利用者の位置情報、移動速度、移動
方向の少なくとも一つを利用することを特徴としたもの
であり、認識対象語彙辞書の更新において利用者の移動
状態を把握できるという作用を有する。The invention according to claim 10 of the present invention is characterized in that the extracted features use at least one of a user's position information, a moving speed, and a moving direction. This has the effect that the user's movement state can be grasped in updating the target vocabulary dictionary.
【0023】本発明の請求項11に記載の発明は、前記
利用者によって設定される設定情報が、利用者によって
設定されたナビゲーションの目的地をもとに、現在地と
目的地までの経路情報、または利用者によって設定され
たカテゴリ情報の少なくとも一方であることを特徴とす
るとしたものであり、音声認識対象語彙辞書の更新にお
いて利用者が今後発生する語彙の選択情報としての作用
を有する。[0023] According to an eleventh aspect of the present invention, the setting information set by the user is based on the navigation destination set by the user, the current location and the route information to the destination, Alternatively, it is characterized in that it is at least one of the category information set by the user, and has an effect as vocabulary selection information that will be generated by the user in the future in updating the vocabulary dictionary for speech recognition.
【0024】本発明の請求項12に記載の発明は、前記
請求項8記載の逐次音声認識用認識対象語彙辞書を更新
するタイミングが、GPSの情報を分析し,前記分析して
得た情報をもとにタイミングを指定することとしたもの
であり、音声認識用辞書の更新のタイミングを指定する
という作用を有する。According to a twelfth aspect of the present invention, the timing for updating the recognition target vocabulary dictionary for sequential speech recognition according to the eighth aspect is such that the GPS information is analyzed and the information obtained by the analysis is updated. The timing is originally specified, and has the effect of specifying the update timing of the speech recognition dictionary.
【0025】本発明の請求項13に記載の発明は、前記
認識対象語彙辞書の更新方法において、請求項7から1
2に記載の少なくとも1つを利用する音声認識装置を利
用したナビゲーション装置であり、機器の複雑な機能を
覚えることなく、音声で利用できるという使いやすさの
機能を要し、さらに認識対象語彙辞書の更新において利
用者のおかれる状況にそくした認識対象語彙辞書を構築
するため、音声認識の誤りを軽減できるという作用を有
する。According to a thirteenth aspect of the present invention, in the method for updating a vocabulary dictionary to be recognized, there is provided a method for updating a vocabulary dictionary.
2. A navigation device using a speech recognition device that uses at least one of the items described in 2. The vocabulary dictionary to be recognized further requires an easy-to-use function that can be used by voice without learning complicated functions of the device. Since the recognition target vocabulary dictionary adapted to the situation where the user is placed in the updating of the vocabulary is constructed, there is an effect that errors in speech recognition can be reduced.
【0026】本発明の請求項14に記載の発明は、請求
項13に記載のナビゲーション装置における音声認識に
利用する認識辞書の選択方法であり、利用者の移動速
度、あるいは利用者の位置、利用者による設定情報、時
刻、さらには各語彙がもつカテゴリ情報の少なくとも一
つの方法を利用して重点的に認識対象語彙辞書を更新す
ることで、効率良く認識対象辞書を利用することができ
るという作用を有する。According to a fourteenth aspect of the present invention, there is provided a method for selecting a recognition dictionary to be used for voice recognition in the navigation device according to the thirteenth aspect. By updating the vocabulary dictionary to be recognized by using at least one method of setting information by the user, time, and category information of each vocabulary, the dictionary to be recognized can be used efficiently. Having.
【0027】本発明の請求項15に記載の発明は、利用
者による設定情報の状態記述装置への設定に、音声認識
による方法を利用できることを特徴としたものであり、
利用者が機器の複雑な動作を覚えることなくナビゲーシ
ョン装置を利用できるという作用を有する。The invention according to claim 15 of the present invention is characterized in that a method using voice recognition can be used for setting of setting information by a user in a state description device.
This has the effect that the user can use the navigation device without remembering the complicated operation of the device.
【0028】本発明の請求項16に記載の発明は、認識
対象となる語彙の選択範囲を認識結果表示部109に表
示する装置であり、システムの状態を視覚的に利用者に
提供するという作用を有する。The invention according to claim 16 of the present invention is an apparatus for displaying a selection range of a vocabulary to be recognized on a recognition result display unit 109, and provides an operation of visually providing a user with a system state. Having.
【0029】以下に、本発明の実施の形態について図を
用いて説明する。An embodiment of the present invention will be described below with reference to the drawings.
【0030】(実施の形態1)本発明の実施の形態1に
おける音声認識をカーナビゲーションシステムに適用し
た場合について、図1を基に説明する。(Embodiment 1) A case where speech recognition in Embodiment 1 of the present invention is applied to a car navigation system will be described with reference to FIG.
【0031】図1において、101は音声信号102を
入力する音声入力部、103は入力された音声信号10
2を音声特徴信号104に変換する音声分析部、105
は音響モデル107と認識対象語彙を参照して入力音声
を認識する音声認識部、106は認識対象語彙辞書を逐
次格納する認識対象語彙格納部、109は音声認識部1
05で認識された結果を出力する認識結果表示部、11
0はナビゲーションの認識対象となる語彙や位置情報を
格納した認識対象語彙辞書データベース、111は衛星
測位システムGPS(Global Positioning System)や
利用者の設定情報を入力する状態記述装置、113は状
態記述装置111からの利用者の移動情報や設定情報を
基に音声認識対象語彙辞書データベース110から認識
対象語彙を選択し、認識対象語彙格納部に格納する語彙
選択部、114はクロック発生装置である。In FIG. 1, reference numeral 101 denotes an audio input unit for inputting an audio signal 102;
2, a voice analysis unit 105 for converting 2 into a voice feature signal 104
Is a speech recognition unit that recognizes input speech by referring to the acoustic model 107 and the recognition target vocabulary, 106 is a recognition target vocabulary storage unit that sequentially stores a recognition target vocabulary dictionary, and 109 is a speech recognition unit 1
A recognition result display unit for outputting a result recognized in 05, 11
Reference numeral 0 denotes a recognition target vocabulary dictionary database storing vocabulary and position information to be recognized in navigation, 111 denotes a satellite positioning system GPS (Global Positioning System) and a state description device for inputting user setting information, and 113 denotes a state description device. A vocabulary selection unit 114 selects a vocabulary to be recognized from the vocabulary dictionary database 110 for voice recognition based on the movement information of the user from 111 and the setting information, and stores the vocabulary in the vocabulary storage unit for recognition.
【0032】上記のように構成されたナビゲーションシ
ステムの動作について以下に説明する。The operation of the navigation system configured as described above will be described below.
【0033】音声入力部101によって取り込まれた音
声信号102に、音声分析部103でノイズ処理や音声
分析などの前処理が施されて音声特徴信号104に変換
され、認識対象語彙格納部106に格納された認識対象
語彙と音響モデル107を参照して音声認識部105で
入力された音声信号102の認識が行われ、その結果が
認識結果表示部109に表示される。また、認識結果表
示部109において認識対象となる語彙が、視覚的に利
用者に分かるように選択範囲が色分けなどの方法で図示
される。The speech signal 102 captured by the speech input unit 101 is subjected to preprocessing such as noise processing and speech analysis by a speech analysis unit 103, converted into a speech feature signal 104, and stored in a recognition target vocabulary storage unit 106. The speech signal 102 input by the speech recognition unit 105 is recognized with reference to the recognized vocabulary to be recognized and the acoustic model 107, and the result is displayed on the recognition result display unit 109. The selection range is illustrated by a method such as color coding so that the user can visually recognize the vocabulary to be recognized in the recognition result display unit 109.
【0034】認識対象語彙格納部106に格納される語
彙は、音声認識対象語彙辞書データベース110から状
態記述装置111の出力である状態記述信号112をも
とに、語彙選択部113で選択される。The vocabulary stored in the recognition target vocabulary storage section 106 is selected by the vocabulary selection section 113 based on the state description signal 112 output from the state description device 111 from the speech recognition target vocabulary dictionary database 110.
【0035】音声認識対象語彙辞書データベース110
には、ナビゲーションの対象となるすべての語彙(地
名、通り名、交差点名、娯楽施設、レストラン、デパー
ト、さらには個人宅の名前など)が、その特徴を表すカ
テゴリ名や位置情報などと共に格納されている。The vocabulary dictionary database for speech recognition 110
Contains all the vocabularies to be navigated (place names, street names, intersection names, entertainment facilities, restaurants, department stores, and even the names of private homes) along with category names and location information that represent their characteristics. ing.
【0036】状態記述装置111には、ナビゲーション
の目的地や経路、さらには位置情報やカテゴリ名などが
記述されている。また、認識対象語彙格納部106の更
新は、クロック発生装置114から発生される辞書更新
信号115を受けて行われ、辞書更新信号115は一定
時間後と、あるいは現在位置が経路から外れた場合、さ
らには速度の変化があった場合に出力される。The state description device 111 describes destinations and routes for navigation, as well as position information and category names. The update of the recognition target vocabulary storage unit 106 is performed in response to the dictionary update signal 115 generated from the clock generator 114, and the dictionary update signal 115 is output after a certain time or when the current position deviates from the route. It is also output when there is a change in speed.
【0037】認識対象語彙格納部106に設定される語
彙は、利用者によって設定された目的地、目的地までの
経路、認識させたいカテゴリ情報、さらにはGPSから
得られる利用者の位置情報、移動速度、移動方向をもと
に設定される。以下では、どのタイミングで認識対象語
彙辞書の更新が行われるかを図2に示すフローチャート
を用いて、説明する。The vocabulary set in the recognition target vocabulary storage unit 106 includes the destination set by the user, the route to the destination, the category information to be recognized, the position information of the user obtained from the GPS, and the movement. Set based on speed and moving direction. Hereinafter, the timing at which the recognition target vocabulary dictionary is updated will be described with reference to the flowchart shown in FIG.
【0038】まず、ステップ201で利用者は状態記述
装置111により、目的地を設定し、その後、ステップ
202で目的地までの経路を設定する。なお、目的地及
びその経路は、状態記述装置111により設定された
が、音声認識を用いて設定しても良い。First, in step 201, the user sets a destination using the state description device 111, and then sets a route to the destination in step 202. The destination and its route are set by the state description device 111, but may be set by using voice recognition.
【0039】次に、ステップ203で語彙選択部113
により、状態記述装置111に設定された目的地及びそ
の経路を用いて、音声認識対象語彙辞書データベースか
ら選択された認識対象語彙辞書が設定され認識対象語彙
格納部106に格納される。この後、目的地に着くま
で、認識対象語彙辞書を逐次更新するループに入る。Next, in step 203, the vocabulary selection unit 113
Thus, the recognition target vocabulary dictionary selected from the speech recognition target vocabulary dictionary database is set using the destination set in the state description device 111 and its route, and stored in the recognition target vocabulary storage unit 106. Thereafter, the process enters a loop for sequentially updating the vocabulary dictionary to be recognized until reaching the destination.
【0040】まず始めに、ステップ204で目的地に着
いたかどうかがチェックされる。利用者が目的地に着い
ていれば終了するが、そうでなければ次のステップ20
5に進む。First, it is checked in step 204 whether or not the user has arrived at the destination. If the user has arrived at the destination, the process is terminated.
Go to 5.
【0041】ステップ205で状態記述装置111にお
いてGPSの情報から利用者の位置と時間情報が抽出さ
れる。そして、ステップ206で経路の逸脱がチェック
される。ステップ207で経路の逸脱が認められれば、
新たな経路が設定され、認識対象語彙辞書が更新され
る。In step 205, the position description and time information of the user are extracted from the GPS information in the state description device 111. Then, at step 206, the deviation of the route is checked. If a deviation from the route is recognized in step 207,
A new route is set, and the recognition target vocabulary dictionary is updated.
【0042】次に、前回の認識対象語彙辞書の更新から
ある一定の時間(例えば5分)が経過しているかがチェ
ックされる。もし、時間の経過が検出されれば、新たに
認識対象語彙辞書の設定がステップ203で行われる。Next, it is checked whether a certain period of time (for example, 5 minutes) has elapsed since the last update of the recognition target vocabulary dictionary. If the passage of time is detected, a new vocabulary dictionary to be recognized is set in step 203.
【0043】次に、ステップ209で利用者の移動速度
の変化がチェックされる。その結果、変化が検出されれ
ば、ステップ203において認識対象語彙辞書が更新さ
れる。Next, at step 209, a change in the moving speed of the user is checked. As a result, if a change is detected, the recognition target vocabulary dictionary is updated in step 203.
【0044】次に、ステップ211で利用者による設定
が検出されたかのチェックを行う。ステップ212で利
用者による設定が検出されたならば、設定情報が状態記
述装置111に設定され、認識対象語彙辞書の設定が行
われる。以上の処理が目的地に着くまで繰り返される。Next, at step 211, it is checked whether the setting by the user has been detected. If the setting by the user is detected in step 212, the setting information is set in the state description device 111, and the vocabulary dictionary to be recognized is set. The above process is repeated until the destination is reached.
【0045】以下に各実施例を基に認識対象語彙格納部
106に格納する認識対象語彙の更新方法について説明
する。A method of updating the recognition target vocabulary stored in the recognition target vocabulary storage unit 106 will be described below based on each embodiment.
【0046】(実施例1)本発明を用いることで、例え
ば道路が渋滞している場合とそうでない場合に対応し
て、カーナビゲーション用の効率の良い認識対象語彙辞
書を構成することが可能になる。(Embodiment 1) By using the present invention, it is possible to construct an efficient recognition target vocabulary dictionary for car navigation, for example, when traffic is congested and when it is not. Become.
【0047】渋滞の場合、すぐに目的地に着けるわけで
はないため、近くの休憩できる施設等を探したいという
状況が発生する。そのため、現在地301から離れた対
象を認識対象語彙辞書に詳しく持つ必要はなく、図3
(a)のように自車から近い位置にある対象で認識対象語
彙辞書を構成することが有効である。In the case of congestion, since it is not possible to reach the destination immediately, a situation arises where it is desired to search for a nearby resting facility or the like. For this reason, it is not necessary to have the details of the target distant from the current location 301 in the recognition target vocabulary dictionary.
It is effective to construct a recognition target vocabulary dictionary using objects located close to the own vehicle as shown in FIG.
【0048】一方、渋滞もなく移動速度が速い場合に
は、図3(b)のように移動方向や目的地方向の情報で
重点的に辞書を構成することが有効である。On the other hand, when the moving speed is high without traffic congestion, it is effective to mainly construct a dictionary with information on the moving direction and the destination direction as shown in FIG.
【0049】渋滞かどうかは車の平均移動速度を見るこ
とで判断することができる。そこでシステムを実現する
ためには、平均移動速度が低い場合、自車位置を中心に
半径10キロの円内に入る対象を認識対象語彙辞書に入
れ、速度が高い場合、図3(b)のように自車位置から
扇形状に認識対象を絞り込むことで実現できる。このと
き、円から扇形への切り換えは、平均速度が20km/hから
30km/hの間で行えばよい。また、切り換えは、速度に応
じて連続的に行うことも可能である。Whether or not traffic is congested can be determined by checking the average moving speed of the vehicle. Therefore, in order to realize the system, if the average moving speed is low, objects that fall within a circle having a radius of 10 km around the own vehicle position are put in the recognition target vocabulary dictionary, and if the speed is high, FIG. In this way, it can be realized by narrowing down the recognition target from the own vehicle position to a fan shape. At this time, switching from a circle to a sector takes place from an average speed of 20 km / h.
It should be done between 30km / h. Further, the switching can be performed continuously according to the speed.
【0050】このように、自車の現在位置、そして目的
地や移動方向、さらには速度までを考えることで、柔軟
に認識対象語彙辞書を構築することが可能となる。As described above, it is possible to flexibly construct the vocabulary dictionary to be recognized by considering the current position of the vehicle, the destination, the moving direction, and even the speed.
【0051】(実施例2)旅行におけるナビゲーション
システムの利用において、目的地に着くまでの間に娯楽
施設に寄り道をすることが考えられるが、その緊急度は
低いと考えられる。ところが、トイレのあるコンビニエ
ンスストアやサービスエリアなどの休憩所の情報は娯楽
施設に比べて緊急度は高く、進行方向に限らず利用者の
近辺の情報に対する語彙を対象とする必要がある。ま
た、レストランのように緊急を要するまではないが、比
較的近辺の対象を認識対象としたい場合がある。(Embodiment 2) In using a navigation system in a trip, it is conceivable that a detour will be made to an entertainment facility before reaching a destination, but the urgency is considered to be low. However, information on resting places such as convenience stores and service areas with toilets is more urgent than recreational facilities, and it is necessary to target vocabulary for information not only in the direction of travel but also in the vicinity of the user. Further, there is a case where it is not necessary to urgently need a restaurant but a relatively nearby target is to be recognized.
【0052】そのため、認識対象のレストランやコンビ
ニエンスストアなどのカテゴリ情報に応じて、認識対象
語彙辞書にいれる語彙を選択し、認識対象語彙辞書を更
新することで、効率良く辞書を構築することが可能とな
る。Therefore, it is possible to efficiently construct a dictionary by selecting a vocabulary included in the vocabulary dictionary to be recognized and updating the vocabulary dictionary to be recognized according to the category information of the restaurant or the convenience store to be recognized. Becomes
【0053】このために、音声認識対象語彙辞書データ
ベースに記述された各語彙の属性情報と自車位置からの
距離をもとに、認識対象とする語彙を選択し、認識対象
語彙辞書の更新を行う。具体的には、現在地から目的地
方向に向けて楕円状に認識対象語彙を選択することを考
えるが、この楕円形の長軸と短軸の長さを代えることで
各語彙のカテゴリ情報に応じた認識対象語彙の選択範囲
が可能である。例えば、娯楽施設を表す語彙に関して
は、図4(c)のように長軸方向を目的地が入るまで伸
ばすことで、目的地404の方向に認識対象とする語彙
の選択範囲を広く取ることができる。また、休憩所に関
しては、長軸と短軸の長さをそろえ、その長さを例えば
5キロメートルにすることで、図4(a)のように現在
地401周辺に重点をおいて認識対象語彙辞書を構築で
きる。また、レストランに関しては、図4(b)のよう
に長軸方向を伸ばすことで効率良く辞書の構築が可能と
なる。For this purpose, the vocabulary to be recognized is selected based on the attribute information of each vocabulary described in the vocabulary dictionary database for speech recognition and the distance from the vehicle position, and the vocabulary dictionary to be recognized is updated. Do. Specifically, consider selecting the recognition target vocabulary in an elliptical shape from the current location toward the destination, but changing the lengths of the major axis and the minor axis of the ellipse according to the category information of each vocabulary. The selection range of the recognition target vocabulary is possible. For example, as for the vocabulary representing an entertainment facility, the selection range of the vocabulary to be recognized can be widened in the direction of the destination 404 by extending the major axis direction until the destination enters as shown in FIG. it can. In addition, for rest areas, the major axis and minor axis are aligned in length, and the length is
By setting the distance to 5 km, a vocabulary dictionary to be recognized can be constructed with emphasis on the vicinity of the current position 401 as shown in FIG. For a restaurant, it is possible to efficiently construct a dictionary by extending the longitudinal direction as shown in FIG. 4B.
【0054】このように、対象とする語彙が属するカテ
ゴリー情報を利用することで、効率的に認識対象語彙辞
書を構築可能である。また、選択範囲は目的地方向に楕
円形を伸ばすことを考えたが、予定経路に沿って定義す
ることも可能である。As described above, by using the category information to which the target vocabulary belongs, a vocabulary dictionary to be recognized can be efficiently constructed. Although the selection range is considered to extend the ellipse in the direction of the destination, it can be defined along the planned route.
【0055】(実施例3)カーナビゲーションシステム
に観光地案内データベース等のデータベースを融合する
ことで、観光地案内のような機能を実現できることは容
易に想像できる。このとき、音声認識を利用して目的地
周辺の観光地案内を実現するためには、目的地周辺の情
報を重点的に認識対象語彙辞書にいれる必要がある。そ
こで、利用者によって設定された目的地の情報をもと
に、図5の現在地501と経路上503の語彙と共に、
目的地周辺502の対象を認識辞書に入れることができ
効率的に認識対象語彙辞書の更新が可能となる。(Third Embodiment) It can be easily imagined that a function such as a tourist spot guide can be realized by integrating a database such as a tourist spot guide database with a car navigation system. At this time, in order to realize the sightseeing spot around the destination by using the voice recognition, it is necessary to focus the information around the destination in the vocabulary dictionary to be recognized. Therefore, based on the information on the destination set by the user, the vocabulary of the current location 501 and the route 503 in FIG.
The objects around the destination 502 can be put into the recognition dictionary, and the vocabulary dictionary to be recognized can be updated efficiently.
【0056】(実施例4)高速道路を使っているとき
は、高速道路沿いの情報を細かくもっている必要はな
く、むしろサービスエリアや、道路周辺の有名な施設情
報をもつだけで良いと思われる。ところが、一般道を使
っているときは、近くのコンビニエンスストアに寄りた
いなど、自車位置の近辺のより細かい対象を認識対象と
して扱えるとよい。そこで、一般道や高速などの経路情
報を使うことで、経路情報に付随して認識語彙を制限す
ることが可能となり認識率の向上を図ることが可能とな
る。(Embodiment 4) When an expressway is used, it is not necessary to keep information along the expressway in detail, but rather it is sufficient to have information on service areas and famous facilities around the road. . However, when using a general road, it is desirable to be able to handle a finer object near the own vehicle position as a recognition target, such as wanting to stop at a nearby convenience store. Therefore, by using route information such as a general road and a high speed, it is possible to limit the recognition vocabulary accompanying the route information, and it is possible to improve the recognition rate.
【0057】この機能を実現するために、GPSから得
られる自車位置の情報、そして目的地を決めた際に得ら
れる経路情報を利用することで、車が一般道を走ってい
るのか、それとも高速道路を走っているのかという情報
を得ることができ、その情報を利用して一般道や高速道
であるといった経路状の情報を利用することができ、認
識対象語彙を効率的に更新することが可能となる。In order to realize this function, by using the information on the position of the vehicle obtained from the GPS and the route information obtained when the destination is determined, whether the vehicle is running on a general road or It is possible to obtain information on whether the vehicle is running on a highway, and to use that information to use path-like information such as general roads and highways, and to efficiently update the vocabulary to be recognized. Becomes possible.
【0058】(実施例5)時間情報を利用することで、
効率よく認識対象語彙辞書を構築することが可能とな
る。例えば、食事をする時間帯であるならば、よりレス
トランの名前を重点的に認識対象語彙辞書に設定するこ
とで、レストラン情報を認識しやすくすることが可能と
なる。また、別の例として、夜中の場合は目的地につく
までの間に経路を大きく外れた寄り道をするとは考えに
くい。そこで、より経路周辺の認識語彙を絞り込み、目
的地と自車位置周辺のみの語彙に絞ることが可能であ
る。(Embodiment 5) By using time information,
It is possible to efficiently construct a recognition target vocabulary dictionary. For example, if it is a meal time zone, it is possible to more easily recognize the restaurant information by setting the name of the restaurant in the recognition target vocabulary dictionary with more emphasis. As another example, in the case of midnight, it is hard to imagine taking a departure from the route greatly before reaching the destination. Therefore, it is possible to further narrow down the recognition vocabulary around the route, and to narrow down the vocabulary only around the destination and the own vehicle position.
【0059】この機能を実現するために、GPSから得ら
れる時間情報と各音声認識対象語彙辞書データベースに
記述されたカテゴリー情報をもとに、選択することで実
現可能である。This function can be realized by selecting based on the time information obtained from the GPS and the category information described in each vocabulary dictionary database for speech recognition.
【0060】本発明では、認識対象語彙辞書の限定を行
う際に必要な情報として、利用者の位置、速度、目的
地、経路情報などを使ってきたが、例えばガソリンの残
量を検知するセンサーをつけ、そのセンサーの情報をも
とにガソリンスタンドを認識対象語彙辞書に設定するこ
とが可能である。In the present invention, the position, speed, destination, route information, etc. of the user have been used as information necessary for limiting the vocabulary dictionary to be recognized. It is possible to set the gas station in the vocabulary dictionary for recognition based on the information of the sensor.
【0061】また、実施例1〜5で示したすべてにおい
て、認識対象となる語彙の選択範囲を認識結果表示部1
09において色分けなどの方法によって利用者に提示す
ることが可能である。これにより、利用者に対してシス
テムの状態を提示することができ利用者のストレスを軽
減することが可能である。In all of the first to fifth embodiments, the selection range of the vocabulary to be recognized is changed by the recognition result display unit 1.
At 09, it is possible to present to the user by a method such as color coding. As a result, the state of the system can be presented to the user, and the stress on the user can be reduced.
【0062】さらには、実施例1〜5のすべてにおいて
認識対象となる語彙の更新を一定時間毎に行うことも可
能である。これにより、すでに通りすぎた地点の認識対
象語彙を認識対象語彙辞書から除くことができ、効率的
に辞書の構築が可能となる。Further, in all of the first to fifth embodiments, the vocabulary to be recognized can be updated at regular intervals. As a result, the vocabulary to be recognized at the point that has already passed can be removed from the vocabulary dictionary to be recognized, and the dictionary can be constructed efficiently.
【0063】さらには、実施例1〜5で示した認識対象
語彙辞書の構築方法は、それぞれ組み合わせることで、
より効率的に認識語彙を選択することも可能である。Furthermore, the construction methods of the vocabulary dictionaries to be recognized shown in the first to fifth embodiments can be combined with each other.
It is also possible to select a recognition vocabulary more efficiently.
【0064】[0064]
【発明の効果】本発明による音声認識方法または装置を
利用することで、GPSや利用者の設定情報をもとに、
各単語の属するカテゴリと現在位置からの距離を考慮し
て効率的に認識語彙を構築することにより、効率よく高
精度な音声認識を行うことができる。By using the speech recognition method or device according to the present invention, the GPS or user setting information can be used.
By efficiently constructing the recognition vocabulary in consideration of the category to which each word belongs and the distance from the current position, efficient and high-accuracy speech recognition can be performed.
【0065】また、本発明をナビゲーション装置に用い
ることにより、利用者にとって効率の良い検索ができる
と共に、特に限られた記憶容量の機械でナビゲーション
を行う際に有効である。Further, by using the present invention for a navigation device, it is possible to perform efficient search for the user, and it is particularly effective when performing navigation with a machine having a limited storage capacity.
【図1】本発明の実施の形態1におけるナビゲーション
システムのブロック構成図FIG. 1 is a block diagram of a navigation system according to a first embodiment of the present invention.
【図2】認識語彙設定のフローチャートFIG. 2 is a flowchart for setting a recognition vocabulary.
【図3】認識語彙選択の選択例を表す模式図FIG. 3 is a schematic diagram illustrating a selection example of recognition vocabulary selection.
【図4】認識語彙選択の選択例を表す模式図FIG. 4 is a schematic diagram showing a selection example of recognition vocabulary selection.
【図5】認識語彙選択の選択例を表す模式図FIG. 5 is a schematic diagram illustrating a selection example of recognition vocabulary selection.
【図6】従来の音声認識装置のブロック構成図FIG. 6 is a block diagram of a conventional speech recognition apparatus.
【図7】従来の音声認識用認識対象語彙辞書の選択を説
明する模式図FIG. 7 is a schematic diagram for explaining selection of a recognition target vocabulary dictionary for speech recognition in the related art.
101 音声入力部 102 音声信号 103 音声分析部 104 音声特徴信号 105 音声認識部 106 認識対象語彙格納部 107 音響モデル 109 認識結果表示部 110 音声認識対象語彙辞書データベース 111 状態記述装置 112 状態記述信号 113 語彙選択部 114 クロック発生部 115 辞書更新信号 Reference Signs List 101 voice input unit 102 voice signal 103 voice analysis unit 104 voice feature signal 105 voice recognition unit 106 recognition target vocabulary storage unit 107 acoustic model 109 recognition result display unit 110 voice recognition target vocabulary dictionary database 111 state description device 112 state description signal 113 vocabulary Selector 114 Clock generator 115 Dictionary update signal
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/00 G10L 3/00 521H 15/28 551Q 561C (72)発明者 志田 武彦 神奈川県川崎市多摩区東三田3丁目10番1 号 松下技研株式会社内 (72)発明者 森井 景子 神奈川県川崎市多摩区東三田3丁目10番1 号 松下技研株式会社内 (72)発明者 金道 敏樹 神奈川県川崎市多摩区東三田3丁目10番1 号 松下技研株式会社内 (72)発明者 井上 剛 神奈川県川崎市多摩区東三田3丁目10番1 号 松下技研株式会社内 Fターム(参考) 2C032 HB12 HB22 HC08 HC16 2F029 AA02 AB07 AC06 AC13 AC14 5D015 GG01 KK02 LL00 LL05 5H180 AA01 BB15 FF05 9A001 HH17 HH34 JJ77 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G10L 15/00 G10L 3/00 521H 15/28 551Q 561C (72) Inventor Takehiko Shida Tama-ku, Kawasaki-shi, Kanagawa Matsushita Giken Co., Ltd. 3-10-1 Higashi-Mita Matsushita Giken Co., Ltd. (72) Inventor Keiko Morii 3-10-1, Higashi Mita, Tama-ku, Kawasaki City, Kanagawa Prefecture Matsushita Giken Co., Ltd. Matsushita Giken Co., Ltd., 3-10-1, Higashimita, Tama-ku, Tokyo (72) Inventor Tsuyoshi Inoue 3-10-1, Higashi-Mita, Tama-ku, Kawasaki, Kanagawa Prefecture F-term in Matsushita Giken Co., Ltd. 2C032 HB12 HB22 HC08 HC16 2F029 AA02 AB07 AC06 AC13 AC14 5D015 GG01 KK02 LL00 LL05 5H180 AA01 BB15 FF05 9A001 HH17 HH34 JJ77
Claims (16)
音声認識の対象になる語彙情報をもつ認識対象語彙辞書
をもとに音声認識を行う方法において、利用者の移動情
報と利用者による設定情報に応じて、予め登録された音
声認識対象語彙辞書データベースから認識対象語彙辞書
を逐次的に更新し、前記認識対象語彙辞書を用いて認識
をすることを特徴とする音声認識方法。1. A method for performing speech recognition on an input speech based on an acoustic model and a vocabulary dictionary to be recognized having vocabulary information to be subjected to speech recognition, the method comprising the steps of: A speech recognition method characterized by sequentially updating a recognition target vocabulary dictionary from a speech recognition target vocabulary dictionary database registered in advance in accordance with setting information, and performing recognition using the recognition target vocabulary dictionary.
テムGPS(Global Positioning System)から得られる情
報を利用し、音声認識に利用する認識対象語彙辞書の更
新を行うことを特徴とする請求項1記載の音声認識方
法。2. The method according to claim 1, wherein the movement information of the user uses information obtained from a global positioning system (GPS) to update a vocabulary dictionary to be used for speech recognition. 1. The speech recognition method according to 1.
ing System)から得られる情報として、利用者の位置情
報、移動速度、移動方向の少なくとも一つを利用するこ
とを特徴とする請求項2記載の音声認識方法。3. A global positioning system (GPS)
3. The voice recognition method according to claim 2, wherein at least one of a user's position information, a moving speed, and a moving direction is used as information obtained from the ing system.
は、利用者によって設定されたナビゲーションの目的地
をもとに、現在地と目的地までの経路情報、または利用
者によって設定された認識対象となる語彙のカテゴリ情
報の少なくとも一方であることを特徴とする請求項1記
載の音声認識方法。4. The setting information set by the user includes a current location and route information to the destination based on a navigation destination set by the user, or a recognition target set by the user. The speech recognition method according to claim 1, wherein the information is at least one of category information of a vocabulary.
ングは、GPSの情報を分析し、前記分析して得た情報
をもとに指定することを特徴とする請求項1記載の音声
認識方法。5. The speech recognition method according to claim 1, wherein the timing for sequentially updating the recognition target vocabulary dictionary is specified by analyzing GPS information and based on the information obtained by the analysis.
更新を行ってからの時間、または予定経路からの逸脱や
速度といった移動情報の少なくとも一つであることを特
徴とする請求項5に記載の音声認識方法。6. The information obtained by the analysis is at least one of a time since a dictionary was last updated, and movement information such as a deviation from a planned route and a speed. Voice recognition method described in.
認識対象語彙辞書をもとに音声認識を行う装置におい
て、利用者の移動情報と利用者による設定情報を得る情
報取得手段と、前記情報取得手段から得られた利用者の
移動情報と利用者による設定情報を用いて逐次認識対象
語彙辞書を更新する辞書更新手段と、前記認識対象語彙
辞書を用いて前記入力音声を認識をする認識手段とを備
えたことを特徴とする音声認識装置。7. An apparatus for performing speech recognition on an input speech based on an acoustic model and a vocabulary dictionary to be recognized, wherein said information acquisition means obtains user movement information and user setting information; Dictionary updating means for sequentially updating the vocabulary dictionary to be recognized using the movement information of the user obtained from the information obtaining means and the setting information by the user; and recognition for recognizing the input speech using the vocabulary dictionary for recognition. And a voice recognition device.
録されている複数の語彙は、その特徴を表すカテゴリ名
やその位置情報と共に格納されていることを特徴とする
請求項7記載の音声認識装置。8. The speech recognition apparatus according to claim 7, wherein a plurality of vocabularies registered in the vocabulary dictionary database for speech recognition are stored together with category names representing their characteristics and their positional information.
S(Global Positioning System)から得られる情報か
ら利用者の移動情報を抽出することを特徴とする請求項
7記載の音声認識装置。9. The information acquisition means includes a satellite positioning system GP.
8. The speech recognition apparatus according to claim 7, wherein user movement information is extracted from information obtained from S (Global Positioning System).
itioning System)から得られる情報は、利用者の位置
情報、移動速度、移動方向の少なくとも一つを利用する
ことを特徴とする請求項7記載の音声認識装置。10. A global positioning system (GPS)
8. The speech recognition apparatus according to claim 7, wherein the information obtained from the user system uses at least one of a user's position information, a moving speed, and a moving direction.
れる設定情報は、利用者によって設定されたナビゲーシ
ョンの目的地をもとに現在地と目的地までの経路情報、
または利用者によって設定されたカテゴリ情報の少なく
とも一方であることを特徴とする請求項7記載の音声認
識装置。11. The setting information set by the user of the information acquisition means includes a current position and route information to the destination based on a navigation destination set by the user.
8. The speech recognition device according to claim 7, wherein the information is at least one of category information set by a user.
取得手段の利用者の設定の変更、GPSの情報を分析し
て得られた予定経路からの逸脱情報や速度といった移動
情報、または前回に辞書の更新を行ってからの時間の少
なくとも一方であることを特徴とする請求項7に記載の
音声認識装置。12. The vocabulary dictionary to be recognized is updated by changing a user setting of the information acquisition means, moving information such as departure information from a scheduled route and speed obtained by analyzing GPS information, or the last time. The speech recognition device according to claim 7, wherein the time is at least one of a time after the update of the dictionary.
記載の音声認識装置を用いたことを特徴とするナビゲー
ション装置。13. A navigation device using the voice recognition device according to any one of claims 7 to 12.
速度が遅い場合について利用者の現在位置の近辺の認識
対象となる語彙を、移動速度が速い場合には移動方向や
目的地近辺の認識対象となる語彙を、また利用者により
状態記述装置に情報が設定されている場合にはその設定
情報に応じた語彙を各語彙のカテゴリ情報をもとに、さ
らに利用する時間に応じて認識対象となる語彙を、これ
らのうち少なくとも1つの方法を利用して認識対象語彙
辞書を構成することを特徴とする請求項13のナビゲー
ション装置。14. The vocabulary dictionary to be recognized is updated by recognizing a vocabulary to be recognized near the current position of the user when the moving speed is slow, and recognizing a moving direction or near the destination when the moving speed is fast. The target vocabulary and, if the user has set information in the state description device, the vocabulary corresponding to the setting information is recognized based on the category information of each vocabulary and further according to the time of use. 14. The navigation apparatus according to claim 13, wherein a vocabulary dictionary to be recognized is constructed by using at least one of these vocabularies.
より取得することを特徴とする請求項13記載のナビゲ
ーション装置。15. The navigation device according to claim 13, wherein the setting information by the user is obtained by voice recognition.
備えた表示装置を持つことを特徴とする請求項13記載
のナビゲーション装置。16. The navigation device according to claim 13, further comprising a display device having a function of displaying a target range for voice recognition.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000062857A JP2001249686A (en) | 2000-03-08 | 2000-03-08 | Method and device for recognizing speech and navigation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000062857A JP2001249686A (en) | 2000-03-08 | 2000-03-08 | Method and device for recognizing speech and navigation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001249686A true JP2001249686A (en) | 2001-09-14 |
JP2001249686A5 JP2001249686A5 (en) | 2004-08-19 |
Family
ID=18582813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000062857A Pending JP2001249686A (en) | 2000-03-08 | 2000-03-08 | Method and device for recognizing speech and navigation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2001249686A (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030034739A (en) * | 2001-10-26 | 2003-05-09 | 삼성전자주식회사 | Method of updating a phonetic unit model data and apparatus thereof |
JP2004252121A (en) * | 2003-02-20 | 2004-09-09 | Sony Corp | Language processing apparatus and language processing method, and program and recording medium |
JP2005030982A (en) * | 2003-07-09 | 2005-02-03 | Matsushita Electric Ind Co Ltd | Voice input method and on-vehicle device |
JP2005173109A (en) * | 2003-12-10 | 2005-06-30 | Nissan Motor Co Ltd | Speech recognition device |
WO2005064592A1 (en) * | 2003-12-26 | 2005-07-14 | Kabushikikaisha Kenwood | Device control device, speech recognition device, agent device, on-vehicle device control device, navigation device, audio device, device control method, speech recognition method, agent processing method, on-vehicle device control method, navigation method, and audio device control method, and program |
JPWO2003088209A1 (en) * | 2002-04-12 | 2005-08-25 | 三菱電機株式会社 | Car navigation system and its voice recognition device |
JP2007010884A (en) * | 2005-06-29 | 2007-01-18 | Mitsubishi Electric Corp | Information device for mobile |
JP2007139611A (en) * | 2005-11-18 | 2007-06-07 | Toshiba Corp | Vehicle-mounted navigation device, marker cognitive technique, navigation system, and server |
WO2007083637A1 (en) * | 2006-01-17 | 2007-07-26 | Pioneer Corporation | Voice recognizer, voice recognition method, voice recognition program, and recording medium |
JP2007322309A (en) * | 2006-06-02 | 2007-12-13 | Xanavi Informatics Corp | Vehicle-mounted information apparatus |
JP2010128144A (en) * | 2008-11-27 | 2010-06-10 | Toyota Central R&D Labs Inc | Speech recognition device and program |
JP2012058311A (en) * | 2010-09-06 | 2012-03-22 | Alpine Electronics Inc | Method and apparatus for generating dynamic voice recognition dictionary |
JP2013178384A (en) * | 2012-02-28 | 2013-09-09 | Nec Corp | Dictionary registration system for voice recognition, voice recognition system, and voice recognition service system, method and program |
JP2015509618A (en) * | 2012-03-06 | 2015-03-30 | アップル インコーポレイテッド | Automatic input signal recognition using position-based language modeling |
US9269356B2 (en) | 2009-07-31 | 2016-02-23 | Samsung Electronics Co., Ltd. | Method and apparatus for recognizing speech according to dynamic display |
JP2016102899A (en) * | 2014-11-28 | 2016-06-02 | 日本電信電話株式会社 | Voice recognition device, voice recognition method, and voice recognition program |
JP2018132626A (en) * | 2017-02-15 | 2018-08-23 | クラリオン株式会社 | Voice recognition system, voice recognition server, terminal device and word phrase management method |
-
2000
- 2000-03-08 JP JP2000062857A patent/JP2001249686A/en active Pending
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030034739A (en) * | 2001-10-26 | 2003-05-09 | 삼성전자주식회사 | Method of updating a phonetic unit model data and apparatus thereof |
JPWO2003088209A1 (en) * | 2002-04-12 | 2005-08-25 | 三菱電機株式会社 | Car navigation system and its voice recognition device |
JP2004252121A (en) * | 2003-02-20 | 2004-09-09 | Sony Corp | Language processing apparatus and language processing method, and program and recording medium |
JP2005030982A (en) * | 2003-07-09 | 2005-02-03 | Matsushita Electric Ind Co Ltd | Voice input method and on-vehicle device |
JP2005173109A (en) * | 2003-12-10 | 2005-06-30 | Nissan Motor Co Ltd | Speech recognition device |
JPWO2005064592A1 (en) * | 2003-12-26 | 2007-12-20 | 株式会社ケンウッド | Device control device, voice recognition device, agent device, in-vehicle device control device, navigation device, audio device, device control method, voice recognition method, agent processing method, in-vehicle device control method, navigation method, audio device control method, and program |
WO2005064592A1 (en) * | 2003-12-26 | 2005-07-14 | Kabushikikaisha Kenwood | Device control device, speech recognition device, agent device, on-vehicle device control device, navigation device, audio device, device control method, speech recognition method, agent processing method, on-vehicle device control method, navigation method, and audio device control method, and program |
US8103510B2 (en) | 2003-12-26 | 2012-01-24 | Kabushikikaisha Kenwood | Device control device, speech recognition device, agent device, on-vehicle device control device, navigation device, audio device, device control method, speech recognition method, agent processing method, on-vehicle device control method, navigation method, and audio device control method, and program |
JP4660299B2 (en) * | 2005-06-29 | 2011-03-30 | 三菱電機株式会社 | Mobile information device |
JP2007010884A (en) * | 2005-06-29 | 2007-01-18 | Mitsubishi Electric Corp | Information device for mobile |
JP2007139611A (en) * | 2005-11-18 | 2007-06-07 | Toshiba Corp | Vehicle-mounted navigation device, marker cognitive technique, navigation system, and server |
WO2007083637A1 (en) * | 2006-01-17 | 2007-07-26 | Pioneer Corporation | Voice recognizer, voice recognition method, voice recognition program, and recording medium |
JP2007322309A (en) * | 2006-06-02 | 2007-12-13 | Xanavi Informatics Corp | Vehicle-mounted information apparatus |
JP2010128144A (en) * | 2008-11-27 | 2010-06-10 | Toyota Central R&D Labs Inc | Speech recognition device and program |
US9269356B2 (en) | 2009-07-31 | 2016-02-23 | Samsung Electronics Co., Ltd. | Method and apparatus for recognizing speech according to dynamic display |
JP2012058311A (en) * | 2010-09-06 | 2012-03-22 | Alpine Electronics Inc | Method and apparatus for generating dynamic voice recognition dictionary |
JP2013178384A (en) * | 2012-02-28 | 2013-09-09 | Nec Corp | Dictionary registration system for voice recognition, voice recognition system, and voice recognition service system, method and program |
JP2015509618A (en) * | 2012-03-06 | 2015-03-30 | アップル インコーポレイテッド | Automatic input signal recognition using position-based language modeling |
JP2016102899A (en) * | 2014-11-28 | 2016-06-02 | 日本電信電話株式会社 | Voice recognition device, voice recognition method, and voice recognition program |
JP2018132626A (en) * | 2017-02-15 | 2018-08-23 | クラリオン株式会社 | Voice recognition system, voice recognition server, terminal device and word phrase management method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100819234B1 (en) | Method and apparatus for setting destination in navigation terminal | |
EP1233407B1 (en) | Speech recognition with spatially built word list | |
US6411893B2 (en) | Method for selecting a locality name in a navigation system by voice input | |
EP1003016B1 (en) | System and method for providing route guidance with a navigation application program | |
JP2001249686A (en) | Method and device for recognizing speech and navigation device | |
EP1519153A1 (en) | Navigation apparatus | |
US7533020B2 (en) | Method and apparatus for performing relational speech recognition | |
JP2009042219A (en) | Navigation device and navigation program | |
JP2005030982A (en) | Voice input method and on-vehicle device | |
JP5162978B2 (en) | Route search method, route search system, and program | |
JP3349839B2 (en) | Car navigation system | |
US9803991B2 (en) | Route guide device and route guide method | |
US8521532B2 (en) | Speech-conversion processing apparatus and method | |
JP4091444B2 (en) | Navigation device | |
EP1491860A2 (en) | Navigation system, location search method and computer program therefor | |
JP2001141481A (en) | Automobile navigation system | |
JP2003004470A (en) | Voice recognition unit for navigation | |
JPH11211500A (en) | Map display device | |
JP2004340827A (en) | Route chart display method and display control device | |
JP3283359B2 (en) | Voice interactive navigation system | |
JP2002107167A (en) | Navigator | |
JPH0588611A (en) | Traffic information display device | |
JPH06186049A (en) | Method for guiding along course | |
JP2006139203A (en) | Facility retrieving device | |
JP2006029810A (en) | Navigation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20031212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040312 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040824 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041022 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20041116 |