JP2015052945A - System and program - Google Patents
System and program Download PDFInfo
- Publication number
- JP2015052945A JP2015052945A JP2013185728A JP2013185728A JP2015052945A JP 2015052945 A JP2015052945 A JP 2015052945A JP 2013185728 A JP2013185728 A JP 2013185728A JP 2013185728 A JP2013185728 A JP 2013185728A JP 2015052945 A JP2015052945 A JP 2015052945A
- Authority
- JP
- Japan
- Prior art keywords
- user
- voice
- recognition
- character
- phrase
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Navigation (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、車両の搭乗者の音声を認識して、所定の処理を実行するシステム及びプログラムに関する。 The present invention relates to a system and a program for recognizing a voice of a passenger of a vehicle and executing a predetermined process.
現在、ナビゲーション装置やレーダー探知機などの機能を備えた車載用電子機器が、広く普及している。このような車載用電子機器は、車両が走行中に、車両の搭乗者であるユーザが必要とする各種の情報を出力する機能を有している。 Currently, in-vehicle electronic devices having functions such as navigation devices and radar detectors are widely used. Such an in-vehicle electronic device has a function of outputting various kinds of information required by a user who is a passenger of the vehicle while the vehicle is traveling.
例えば、車載用電子機器がナビゲーション装置としての機能を備えている場合、ユーザの操作に応じて、探索された目的地までの案内経路、検索された各種の施設を表示装置に表示させることができる。また、例えば、車載用電子機器がレーダー探知機としての機能を備えている場合、オービス、取締・検問エリア、交通監視装置などのターゲットを、適宜、表示装置に表示させることができる。 For example, when the in-vehicle electronic device has a function as a navigation device, a guide route to the searched destination and various searched facilities can be displayed on the display device in accordance with a user operation. . Further, for example, when the in-vehicle electronic device has a function as a radar detector, targets such as an orbit, a control / inspection area, and a traffic monitoring device can be appropriately displayed on the display device.
このような車載用電子機器の操作は、基本的には、機器に設けられたスイッチ、表示装置の画面に構成されたタッチパネル、赤外線による遠隔操作が可能なリモコンを、ユーザが手操作することによって行う。さらに、ユーザが発話した音声を認識して、これに応じた処理を行う音声認識機能を備えた車載用電子機器も、一般的に普及している。 The operation of such an in-vehicle electronic device is basically performed by a user manually operating a switch provided on the device, a touch panel configured on a screen of a display device, and a remote control capable of remote operation by infrared rays. Do. Further, an in-vehicle electronic device having a voice recognition function that recognizes a voice spoken by a user and performs a process corresponding to the voice is also widely spread.
この音声認識機能を利用すれば、運転中であるために手操作が困難なユーザであっても、あらかじめ登録されたコマンド等に対応する認識語句を発話することにより、経路探索や施設検索などの各種の機能を実行させることができる。 By using this voice recognition function, even for users who are difficult to operate manually because they are driving, it is possible to search for routes, find facilities, etc. by uttering recognition phrases corresponding to pre-registered commands etc. Various functions can be executed.
しかしながら、従来の車載用電子機器における音声認識機能は、ユーザが一方的に発した指示に応じて、機器が所定の処理を行うという点では、手操作と何ら変わりはない。このため、ユーザは、手操作によるか、音声入力によるかにかかわらず、無味乾燥な機器を操作しているだけという感覚しか得られない。 However, the voice recognition function in the conventional in-vehicle electronic device is not different from manual operation in that the device performs a predetermined process in response to an instruction unilaterally issued by the user. For this reason, the user can only get a sense that he / she is operating a tasteless dry device regardless of whether it is a manual operation or voice input.
また、一般的な車載用電子機器は、経路案内、ターゲットの報知等を、あらかじめ設定された音声によって行う機能も有している。しかし、この機能も、機器側が一方的に情報を提供するという点では、画面表示による情報提供と何ら変わりはない。このため、ユーザは、無味乾燥な機器から情報を得ているという感覚しか得られない。 Moreover, a general vehicle-mounted electronic device also has a function of performing route guidance, target notification, and the like with a preset voice. However, this function is no different from information provision by screen display in that the device side unilaterally provides information. For this reason, the user can only obtain a sense that information is obtained from a tasteless dry device.
以上のように従来の技術では、機器を操作しているという感覚しか得られないため、そこに何らの面白みもなく、車内にいる人間、特に、長時間、一人で運転している運転者にとって非常に退屈である。このため、ユーザは、購入から時間が経過すると、車載用電子機器を積極的に利用する意欲が湧かなくなり、多様な機能が有効に活用されないままとなることが多い。 As described above, the conventional technology can only provide a sense of operating the equipment, so there is no interest in it, and for people in the car, especially for drivers who are driving alone for a long time. Very boring. For this reason, when time elapses from the purchase, the user is not motivated to actively use the in-vehicle electronic device, and various functions are often not effectively utilized.
本発明は、上記のような従来技術の問題を解決するために提案されたものであり、その目的は、ユーザにとって、操作や運転に面白さが得られるとともに、飽きがくることがなく、積極的に機能を利用する意欲が湧いてくるシステム及びプログラムを提供することにある。 The present invention has been proposed in order to solve the above-described problems of the prior art, and the purpose of the present invention is to provide users with enjoyment in operation and driving, and without being bored and active. It is to provide a system and program that will motivate users to use their functions.
(1)本発明のシステムは、車両の搭乗者であるユーザの音声を認識した結果に基づく認識情報と、ユーザの音声を認識したことを示す所定のキャラクターの音声の出力とによる対話に応じて、車両の搭乗者が必要とする機能を実行することを特徴とする。
このようにすれば、例えば、車両の搭乗者であるユーザの一方的な指示に対してシステムが機能を実行するのではなく、ユーザがキャラクターと対話することにより、車両の搭乗者が必要とする機能を実行することができるので、操作や運転の利便性と面白味が増大するとともに、キャラクターとコミュニケーションをとっている感覚が得られて飽きがこない。また、例えば、ユーザは、キャラクターと対話するために、システムを操作する意欲が湧くので、システムの機能が有効に活用される。
ユーザの音声を認識した結果に基づく認識情報としては、例えば、ユーザが発する音声を、キャラクターとの対話を成立させる語句として認識した情報とするとよい。このようにすれば、例えば、認識した語句に応じて、キャラクターの音声を出力させることにより、ユーザの音声を認識したことを示すとともに、ユーザとの対話を成立させることができるのでよい。語句の認識としては、例えば、車両の搭乗者が必要とする機能を実行させるために、特定の認識語句と、これとの関係で対話が成立するキャラクターの音声をあらかじめ登録しておき、ユーザの音声を認識した結果と一致するか否かに応じて、キャラクターの音声を出力させるようにするとよい。このようにすれば、例えば、対話のための認識語句とキャラクターの音声との種々の組み合わせを用意することにより、これに応じて実行される多様な処理に対応させることができるのでよい。
所定のキャラクターとしては、例えば、システムから出力される音声により、特定の個性を持った話者を認識させる存在とするとよい。このようにすれば、例えば、ユーザは、実際の人間と対話しているような感覚が得られて、親しみが持てるのでよい。
対話としては、例えば、発話の開始、これに対する応答、応答に対する返答という少なくとも一往復のやり取りがなされるとよい。このようにすれば、例えば、単純にユーザの命令通りにシステムが処理を行うのではなく、キャラクターが、自分とシステムの間に介在して、サービスを提供してくれている感覚が得られるのでよい。また、対話としては、例えば、ユーザの発話とキャラクターの音声とが、その意味内容が発話とこれに対する返答として成立しているとよい。このようにすれば、互いに意思の疎通ができている感覚が得られるのでよい。また、対話としては、例えば、発話とこれに対する意味内容が的外れな返答であってもよい。このようにすれば、ユーザにとって面白味や意外性が感じられるのでよい。さらに、対話としては、例えば、発話とこれに対する返答が意味内容として成立している場合と、発話に対する意味内容が的外れな返答の場合とを混在させるとよい。このようにすれば、現実の会話に近い不完全さを演出することができ、ユーザに人間味を感じさせることができるのでよい。
車両の搭乗者が必要とする機能としては、例えば、設定の変更、情報の出力などにおいて、車両の搭乗者の利便性を高める機能とするとよく、特に、例えば、ユーザが知りたい情報を出力するための所定の処理とするとよい。ユーザが知りたい情報としては、例えば、音声認識を用いることにより、手操作よりも簡単又は迅速にシステムに出力させることができる情報とするとよい。このようにすれば、例えば、ユーザは、積極的に音声認識を利用するようになるので、システムは、ユーザにキャラクターとの対話をさせる機会をより多く与えることができるのでよい。
対話に応じて、車両の搭乗者が必要とする機能を実行することとしては、例えば、対話を結果、車両の搭乗者が必要とする機能を実行するとよい。このようにすれば、車両の搭乗者が必要とする機能を実行させるために、キャラクターと対話をする意欲がわくのでよい。また、対話に応じて、車両の搭乗者が必要とする機能を実行することとしては、例えば、対話中に車両の搭乗者が必要とする機能を実行することとするとよい。このようにすれば、車両の搭乗者が必要とする機能を実行させるために、発話して対話を進める意欲が増すのでよい。さらに、対話に応じて、車両の搭乗者が必要とする機能を実行することとしては、例えば、対話を構成するキャラクターの音声を出力する処理の実行であってもよい。このようにすれば、ユーザは、キャラクターの音声を聞きたくて対話するので、対話すること自体を楽しむことができるのでよい。
(1) The system of the present invention responds to a dialogue by recognition information based on a result of recognizing a voice of a user who is a vehicle occupant and output of a voice of a predetermined character indicating that the user's voice is recognized. It is characterized by executing a function required by a passenger of the vehicle.
In this way, for example, the system does not execute the function in response to the unidirectional instruction of the user who is the vehicle occupant, but the user needs to interact with the character so that the vehicle occupant needs Since the functions can be executed, the convenience and fun of operation and driving increase, and the feeling of communicating with the character is obtained, so you don't get bored. In addition, for example, since the user is motivated to operate the system in order to interact with the character, the functions of the system are effectively utilized.
As the recognition information based on the result of recognizing the user's voice, for example, the voice uttered by the user may be information recognized as a phrase that establishes a dialogue with the character. In this way, for example, by outputting the voice of the character according to the recognized phrase, it is possible to indicate that the user's voice has been recognized and to establish a dialogue with the user. For example, in order to execute a function required by a vehicle occupant, a specific recognition word and a voice of a character whose dialogue is established in relation to the specific recognition word are registered in advance. It is preferable to output the voice of the character depending on whether or not it matches the result of the voice recognition. In this way, for example, by preparing various combinations of recognition words / phrases for dialogue and voices of characters, it may be possible to cope with various processes executed in response thereto.
As the predetermined character, for example, a speaker having a specific personality may be recognized by sound output from the system. In this way, for example, the user may feel as if he / she is interacting with an actual human being and be familiar.
As the dialogue, for example, at least one round-trip exchange such as start of utterance, response to this, and response to response may be performed. In this way, for example, the system does not simply perform the process according to the user's command, but the character can intervene between himself and the system and provide a sense of providing services. Good. In addition, as the dialogue, for example, the user's utterance and the character's voice may be established as the utterance and the response to the utterance. In this way, a feeling of mutual communication can be obtained. Further, the dialogue may be, for example, a reply in which the utterance and the meaning content are inappropriate. In this way, the user may feel interesting and unexpected. Further, as the dialogue, for example, a case where an utterance and a response to the utterance are established as semantic content and a case where the semantic content for the utterance is inappropriate are mixed. In this way, imperfections close to real conversation can be produced, and the user can feel impersonal.
The function required by the vehicle occupant may be a function that enhances the convenience of the vehicle occupant, for example, in changing settings or outputting information. In particular, for example, information desired by the user is output. It is preferable to perform a predetermined process. The information that the user wants to know may be information that can be output to the system more easily or more quickly than manual operation by using voice recognition, for example. In this way, for example, since the user actively uses voice recognition, the system may be able to give the user more opportunities to interact with the character.
In order to execute the function required by the vehicle occupant in response to the dialogue, for example, the function required by the vehicle occupant may be executed as a result of the dialogue. In this way, it is only necessary to have a willingness to interact with the character in order to execute the functions required by the passengers of the vehicle. In addition, for example, the function required by the vehicle occupant during the conversation may be performed as the function required by the vehicle occupant in response to the dialog. In this way, in order to execute the function required by the vehicle occupant, the willingness to speak and advance the dialogue may be increased. Furthermore, the execution of the function required by the vehicle occupant in response to the dialogue may be, for example, the execution of a process for outputting the voice of the character constituting the dialogue. In this way, since the user wants to hear the voice of the character and interacts, the user can enjoy the conversation itself.
対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、車両の運転中に運転者が必要とする情報を出力するための処理とするとよい。
このようにすれば、例えば、手操作が難しい、手操作が制限されている等により、運転者が運転中に所望の情報を得ることが困難な場合でも、音声認識を利用することにより、キャラクターとの対話を楽しみながら、所望の情報を得ることができるのでよい。
The predetermined process for outputting information that the user wants to know in response to the dialogue may be a process for outputting information required by the driver during driving of the vehicle.
In this way, even if it is difficult for the driver to obtain desired information during driving due to, for example, difficult manual operation or limited manual operation, the character can be obtained by using voice recognition. You can get the information you want while enjoying the conversation.
対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、複数の選択を経て情報を出力するための処理とすることを特徴とするとよい。
このようにすれば、例えば、情報を出力するために複数の選択を経る必要がある場合に、選択するごとに手操作が必要となる場合に比べて、音声入力による方が、ユーザにとって操作が簡単となるのでよい。
複数の選択を経て出力される情報としては、例えば、階層化された構造の情報、複数回の操作をしなければ出力できない情報とするとよい。このような情報は、手操作を複数回行うよりも、ユーザの負担が少なくなるのでよい。
特に、複数の選択を経て出力される情報としては、例えば、施設検索、現在地周辺検索などのように、複数の候補の中から順次絞り込んでいくことにより得られる情報とするとよい。このような情報を出力する処理は、例えば、ブレーキやアクセルのように車両自体を動かすための操作や、ウィンカーのように走行中に安全のために外部に何かを知らせるための操作とは異なり、手操作によりダイレクトに実行させることが難しいので、音声認識による操作に適していてよい。
The predetermined process for outputting the information that the user wants to know according to the dialogue may be a process for outputting the information through a plurality of selections.
In this way, for example, when it is necessary to go through a plurality of selections to output information, it is easier for the user to operate by voice input than when manual operation is required for each selection. It ’s easy because it ’s easy.
The information output through a plurality of selections may be, for example, information on a layered structure or information that cannot be output unless a plurality of operations are performed. Such information may be less burdensome for the user than performing manual operations multiple times.
In particular, information output through a plurality of selections may be information obtained by sequentially narrowing down a plurality of candidates, such as facility search and current location periphery search. The process of outputting such information is different from, for example, an operation for moving the vehicle itself, such as a brake or an accelerator, or an operation for informing something outside for safety during traveling, such as a blinker. Since it is difficult to directly execute by manual operation, it may be suitable for operation by voice recognition.
前記対話の一部として、次の選択がある場合に、これを誘導するキャラクターの音声とするとよい。
このようにすれば、例えば、ユーザは、キャラクターの音声に促されて選択することにより、所定の処理を順次進めることができるのでよい。
次の選択へ誘導するキャラクターの音声としては、例えば、周辺検索で「周辺」というユーザの音声を認識した場合に、「どこ行く?」というように、行先を尋ねる音声とするとよい。このようにすれば、例えば、ユーザが、次に何を発話すればよいかが明確にわかるのでよい。
If there is a next selection as part of the dialogue, it may be the voice of the character that guides it.
In this way, for example, the user may be able to proceed with a predetermined process sequentially by being prompted by the voice of the character and making a selection.
The voice of the character that guides the user to the next selection may be, for example, a voice that asks the destination such as “Where are you going?” When the voice of the user “periphery” is recognized in the peripheral search. In this way, for example, the user can clearly know what to speak next.
前記対話の一部として、次の選択がない場合に、これを示すキャラクターの音声とするとよい。
このようにすれば、例えば、ユーザは、さらに処理を進める必要がなくなったことがわかるので、指示を終了する、別の処理を行わせる等の判断ができるのでよい。
次の選択がないことを示すキャラクターの音声としては、例えば、周辺検索で「ファミレス」というユーザの音声を認識した場合に、「ひとりぼっちでファミレス行くの?」のように、次の選択がないことを明示する音声とするとよい。このようにすれば、ユーザは、次に進む必要がないことがわかるとともに、ユーザに、新たに別の判断を求めることができるのでよい。
As part of the dialogue, if there is no next selection, the voice of the character indicating this may be used.
In this way, for example, the user knows that it is no longer necessary to proceed with the process, so it may be possible to determine whether to end the instruction or to perform another process.
As the voice of the character indicating that there is no next selection, for example, when the user's voice “Familys” is recognized in the peripheral search, the next selection is as follows. It should be a voice clearly indicating that there is not. In this way, the user can know that there is no need to proceed to the next, and can request the user to make another determination.
対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、所望の地点の周辺の施設に関する情報を、表示手段に表示させるための処理とするとよい。
このようにすれば、例えば、周辺の施設の情報を得るための面倒な手操作を不要としつつ、ユーザが、キャラクターとの対話を楽しみながら、周辺の施設に関する情報を取得することができるのでよい。
As a predetermined process for outputting information that the user wants to know in response to the dialogue, a process for causing the display means to display information related to facilities around a desired point may be used.
In this way, for example, the user can acquire information on the surrounding facilities while enjoying the dialogue with the character while eliminating the troublesome manual operation for obtaining the information on the surrounding facilities. .
対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、表示手段に表示された地図上の前記周辺の施設の位置に、前記周辺の施設を示すアイコンを、地図と比べて相対的に強調表示させることを特徴とするとよい。
このようにすれば、例えば、地図上で、ユーザに必要な施設の情報が目立つことになるので、ユーザが施設の位置を把握しやすくなり、音声により所望の施設を選択する際の目安となるのでよい。
地図と比べた相対的な強調表示としては、例えば、施設の位置が明確となる表示とするとよい。例えば、アイコンと地図の明度、彩度、色相の少なくとも一つを変えれば、両者の対比が際立つのでよい。特に、例えば、アイコンをカラー表示し、地図をグレースケールで表示すれば、アイコンが非常にはっきりと見えるのでよい。
As a predetermined process for outputting information that the user wants to know in response to the dialogue, an icon indicating the surrounding facility is compared with the map at the position of the surrounding facility on the map displayed on the display means. It may be characterized by relatively highlighting.
In this way, for example, since the facility information necessary for the user is conspicuous on the map, it becomes easier for the user to grasp the location of the facility, which is a guideline for selecting a desired facility by voice. So good.
The relative highlighting compared with the map may be, for example, a display in which the location of the facility is clear. For example, if at least one of the brightness, saturation, and hue of the icon and the map is changed, the contrast between the two may stand out. In particular, for example, if the icon is displayed in color and the map is displayed in grayscale, the icon may be seen very clearly.
対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、表示手段に表示された地図上の前記周辺の施設の位置に、前記周辺の施設を示すアイコンを表示させ、前記アイコンに、所定の基準に従った順位が区別できる表示をするとよい。
このようにすれば、例えば、アイコンにおける順位を区別できる表示により、ユーザが施設を選択する目安とすることができるのでよい。
所定の基準としては、例えば、特定の地点に近い順とするとよい。このようにすれば、施設名を表示させる場合に比べて、どこの施設が一番近いかが直感的に分かるのでよい。さらに、所定の基準としては、例えば、ユーザにとっての重要度が高い順とするとよい。このようにすれば、ユーザが最も知りたい施設が優先的に表示させるのでよい。ユーザにとっての重要度とは、例えば、過去に行ったことがある、過去に行った頻度が高い、ユーザの好みに合う等とするとよい。このようにすれば、ユーザが行きたい施設を素早く知ることができるのでよい。また、例えば、過去に行ったけれども、二度と行きたくないなど、ユーザにとっての重要度が低いものが除外されるようにしてもよい。このようにすれば、例えば、ユーザが行く可能性があるもののみを表示させることができてよい。
順位が区別できる表示としては、例えば、番号、アルファベットのように本来的に順位を示す情報とするとよい。このようにすれば、例えば、順位の意味を容易に把握できるのでよい。さらに、順位が区別できる表示としては、例えば、◎、○、△、×等の形状や、明度、彩度、色相により段階的に変化をつける等、視覚的に順位を示す情報とするとよい。このようにすれば、例えば、順位を視覚により直感的に把握できるのでよい。
In response to the dialogue, as a predetermined process for outputting information that the user wants to know, an icon indicating the surrounding facility is displayed at the position of the surrounding facility on the map displayed on the display means, and the icon In addition, it is preferable to display the order according to a predetermined standard.
In this way, for example, a display that can distinguish the order of icons may be used as a guide for the user to select a facility.
As a predetermined reference | standard, it is good to set it as the order close | similar to a specific point, for example. In this way, it is only necessary to intuitively know which facility is closest to the case where the facility name is displayed. Furthermore, as a predetermined reference | standard, it is good to set it as the order with the high importance for a user. In this way, the facility that the user wants to know most may be displayed preferentially. The degree of importance for the user may be, for example, a thing that has been done in the past, a frequency that has been done in the past, or a preference of the user. In this way, the user can quickly know the facility he wants to go to. Also, for example, those that have been performed in the past but do not want to go again, such as those that are less important to the user, may be excluded. In this way, for example, it may be possible to display only what the user may go to.
The display that can distinguish the rank may be information that inherently indicates the rank, such as a number or alphabet. In this way, for example, the meaning of the ranking may be easily grasped. Furthermore, as the display that can distinguish the order, for example, it may be information that visually indicates the order, such as a shape such as ○, ◯, Δ, x, etc., or a stepwise change depending on lightness, saturation, and hue. In this way, for example, the order may be intuitively grasped visually.
検索された施設の選択を促すキャラクターの音声を、表示されたアイコンに合わせた内容で出力するとよい。
このようにすれば、例えば、表示されたアイコンに合わせた内容の音声で、施設の選択を促すことができるので、ユーザは、視覚で確認した内容を、音声によっても把握できるのでよい。
表示されたアイコンに合わせた内容としては、例えば、番号であれば何番がよいかを問い合わせる音声、アルファベットであればアルファベットの何がよいかを問い合わせる音声、形状であれば形状が何かを問い合わせる音声、色であれば色が何かを問い合わせる音声とするとよい。このようにすれば、ユーザは、例えば、何を発話して施設を選択すればよいかが、簡単にわかるのでよい。また、例えば、表示されているアイコンに合わせた内容として、選択される候補の範囲を示す音声とするとよい。これにより、例えば、何番から何番というように音声を出力すれば、ユーザは、発話すべき内容とともに、選択すべき範囲も把握することができるのでよい。
The voice of the character that prompts the user to select the found facility may be output with the content that matches the displayed icon.
In this way, for example, it is possible to prompt the selection of the facility with the sound of the content that matches the displayed icon, so the user may be able to grasp the visually confirmed content also with the sound.
For example, if the number is a number, the content that matches the displayed icon is a voice that asks what number is better, if it is an alphabet, it asks what the alphabet is better, and if it is a shape, it asks what the shape is If it is a voice or a color, it may be a voice that asks what the color is. In this way, for example, the user can easily know what to speak and select a facility. In addition, for example, it is preferable to use a voice indicating the range of candidates to be selected as the content that matches the displayed icon. Thus, for example, if the sound is output from what number to what number, the user may be able to grasp the content to be uttered and the range to be selected.
表示されたアイコンに合わせた内容で、いずれかの施設を選択するユーザの音声を認識すると、特定の地点から選択された施設まで探索された経路を表示手段に表示させるとよい。
このようにすれば、例えば、ユーザは、施設名で選択するよりも、表示されたアイコンに合わせた内容で簡単に選択することができるのでよい。
表示されたアイコンに合わせた内容としては、例えば、番号であれば所望の施設のアイコンの番号、アルファベットであれば所望の施設のアイコンのアルファベット、形状であれば所望の施設のアイコンの形状、色であれば所望の施設のアイコンの色とするとよい。このようにすれば、例えば、施設名よりも覚えやすい言葉で、施設を選択することができるのでよい。
When the voice of the user who selects any facility is recognized with the contents matched to the displayed icon, the route searched from the specific point to the selected facility may be displayed on the display means.
In this way, for example, the user may be able to easily select the content according to the displayed icon rather than selecting the facility name.
For example, if the number is a number, the number of the desired facility icon, the alphabet is the desired facility icon alphabet, and the shape is the desired facility icon shape and color. If so, the icon color of the desired facility may be used. In this way, for example, the facility can be selected with a language that is easier to remember than the facility name.
表示手段に探索された経路が表示された後、前記対話に応じて、経路案内を開始するか、経路を探索し直すかを決定するとよい。
このようにすれば、例えば、ユーザは、探索された経路を希望しない場合に、キャラクターとの対話をしながら、探索し直しを指示することができるので、やり直し時の手間や退屈な気持ちを緩和させることができるのでよい。
After the searched route is displayed on the display means, it is preferable to determine whether to start route guidance or to search for the route again according to the dialogue.
In this way, for example, if the user does not wish for the searched route, the user can instruct the user to search again while interacting with the character. It is good because it can be made.
対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、あらかじめ音声を認識するために登録される認識語句に対応する項目のうち、いずれの項目を認識語句として機能させるかを選択させる項目の表を、表示手段に表示させるとよい。
このようにすれば、例えば、表示された項目の表から、ユーザがよく使う項目のみを選択すれば、認識語句が限定されるので、誤認識を減らすことができるのでよい。
選択された認識語句は、例えば、所定のメモリ領域に、デフォルトの状態から書き換える、空の領域に入れていく、既に入っているものを並べ替える等により、登録されるものとするとよい。このようにすれば、限られたメモリ領域を有効に活用できるのでよい。
As a predetermined process for outputting information that the user wants to know according to the dialogue, which item among the items corresponding to the recognized word / phrase registered for recognizing speech in advance is to be functioned as a recognized word / phrase. A table of items to be selected may be displayed on the display means.
In this way, for example, if only the items frequently used by the user are selected from the displayed table of items, the recognition word / phrase is limited, so that erroneous recognition can be reduced.
The selected recognition phrase may be registered, for example, by rewriting it in a predetermined memory area from the default state, putting it in an empty area, or rearranging the already existing ones. In this way, a limited memory area can be used effectively.
ユーザの音声を認識するためにあらかじめ登録される認識語句に対応する項目のうち、いずれの項目を対話のための認識語句として機能させるかを選択させる項目の表を、表示手段に表示させ、前記表から選択された項目は、表示手段に表示させるページ毎に設定されるとよい。
このようにすれば、例えば、表示手段の表示画面の1ページで表示できる項目が限られていても、ユーザがよく使う項目を、トップのページに持ってくることができるので、使いたい項目を表示させるためにページを切り替える手間が省けるのでよい。
A table of items for selecting which item to function as a recognition word / phrase for dialogue among items corresponding to the recognition word / phrase registered in advance for recognizing the user's voice is displayed on the display means, The item selected from the table may be set for each page to be displayed on the display means.
In this way, for example, even if the items that can be displayed on one page of the display screen of the display means are limited, the items frequently used by the user can be brought to the top page. This saves you the trouble of switching pages for display.
混同して認識される可能性のある認識語句の項目が、別のページに表示されるように設定されるとよい。
このようにすれば、例えば、似た音を含む語句、実際に認識させてみて混同する可能性が高い語句等が、同じページに並んで同時に認識の候補となることがないので、誤認識を減らすことができるのでよい。似た音を含む語句としては、例えば、「ファミレス」と「ファーストフード」、「病院」と「美容院」、「洋食」と「和食」のように、50音の同じ音、同じ漢字等を含む語句とするとよい。このようにすれば、文字からも紛らわしい音の認識語句が、同じページに表示されないため、ユーザも、いずれか一方を入力することになり、誤認識を減らすことができる。実際に認識させてみて混同する可能性が高い語句としては、例えば、過去の認識結果の記録に基づいて、同じ発話に対して認識されている異なる語句とするとよい。このようにすれば、例えば、実際に誤認識が生じている組み合わせが同一ページとなることを排除できるのでよい。
It is preferable that items of recognized words / phrases that may be recognized in a mixed manner are displayed on a separate page.
In this way, for example, a phrase including a similar sound or a phrase that is highly likely to be confused when actually recognized is not placed on the same page as a candidate for recognition at the same time. It can be reduced. Examples of phrases that include similar sounds include the same sound of 50 sounds and the same kanji, such as “family restaurant” and “fast food”, “hospital” and “beauty salon”, “Western food” and “Japanese food”. It is good to include words. In this way, a recognition phrase having a sound that is confusing even from characters is not displayed on the same page, and the user inputs either one, thereby reducing misrecognition. As a word / phrase that is highly likely to be confused when actually recognized, for example, different words / phrases recognized for the same utterance based on a record of past recognition results may be used. In this way, for example, it can be excluded that a combination in which erroneous recognition has actually occurred becomes the same page.
前記認識語句に対応する項目は、複数の概念を含む認識語句に対応する大項目と、当該複数の概念に相当する認識語句に対応する中項目を有し、大項目とともに中項目を、同一ページに表示させるとよい。
このようにすれば、例えば、ユーザが中項目を検索したい場合にも、階層やページを変える必要がないので、所望の項目をダイレクトに選択することができるのでよい。
大項目としては、例えば、「病院」のように、多数の候補を含む上位概念的な項目とするとよい。このようにすれば、できるだけ多くの候補の中から検索したいと思うユーザにとって便利となるのでよい。中項目としては、例えば、「病院」の概念に含まれる「内科」、「小児科」のように、大項目よりも含まれる候補が少ない下位概念的な項目とするとよい。このようにすれば、少ない候補の中から、即座に所望の施設の情報を得たいユーザにとって便利となるのでよい。
The item corresponding to the recognition word / phrase includes a large item corresponding to the recognition word / phrase including a plurality of concepts and a middle item corresponding to the recognition word / phrase corresponding to the plurality of concepts. Should be displayed on
In this way, for example, even when the user wants to search for a middle item, it is not necessary to change the hierarchy or page, so that a desired item can be selected directly.
The large item may be a high-level conceptual item including a large number of candidates, such as “hospital”. This may be convenient for a user who wants to search from as many candidates as possible. The middle item may be, for example, a subordinate conceptual item that has fewer candidates than the large item, such as “internal medicine” and “pediatric” included in the concept of “hospital”. In this way, it may be convenient for a user who wants to obtain desired facility information immediately from a small number of candidates.
認識語句として、項目として表示されている語句に関連するが、項目として表示されていない語句が登録されているとよい。
このようにすれば、例えば、項目に表示されている認識語句そのものを発話しなくても、その認識語句に関連する語句を言えばよいので、ユーザの項目名の記憶があいまいであったり、操作に不慣れであったりしても、検索ができるのでよい。
項目として表示されている語句に関連するが、項目として表示されていない語句としては、例えば、特定のページで表示中の大項目に対応するが、そのページでは表示されていない中項目とするとよい。
このようにすれば、例えば、中項目が表示されていなかったとしても、ユーザが中項目を言えば、その中項目が検索されるので、必要な施設の情報を素早く得ることができるのでよい。
As the recognition word / phrase, a word / phrase related to the word / phrase displayed as the item but not displayed as the item may be registered.
In this way, for example, it is sufficient to say a phrase related to the recognized phrase without speaking the recognized phrase displayed in the item, so the user's item name is ambiguous or Even if you are unfamiliar with, you can search.
A word related to a word displayed as an item but not displayed as an item is, for example, a medium item corresponding to a large item displayed on a specific page but not displayed on the page. .
In this way, for example, even if the middle item is not displayed, if the user says the middle item, the middle item is searched, so that necessary facility information can be obtained quickly.
対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、前記キャラクターを、表示手段に表示させるとよい。
このようにすれば、例えば、ユーザが、対話する相手の姿を表示画面で見ることにより、親しみを覚えて、その姿を見るためにシステムを積極的に利用したいと思うようになるのでよい。
The character may be displayed on the display means as a predetermined process for outputting information that the user wants to know in response to the dialogue.
In this way, for example, the user may become familiar with the conversation by viewing the appearance of the other party on the display screen, and may want to actively use the system to see the appearance.
対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、前記キャラクターを、地図上の探索された経路表示を遮らない位置に、表示させるとよい。
このようにすれば、例えば、キャラクターの表示を楽しませつつ、探索された経路の見やすさを維持できるのでよい。
経路表示を遮らない位置としては、例えば、キャラクターと探索された経路の表示とが、互いに表示画面における反対側に寄るとよい。このようにすれば、キャラクターが経路探索のサービスを邪魔しない気遣いをしているように、ユーザに感じさせることができるので、より好感を持たせることができてよい。
As a predetermined process for outputting information that the user wants to know according to the dialogue, the character may be displayed at a position on the map that does not block the searched route display.
In this way, for example, the ease of viewing the searched route can be maintained while the character display is enjoyed.
As a position that does not obstruct the route display, for example, the display of the character and the searched route may be close to each other on the display screen. In this way, the user can feel as if the character is caring about not disturbing the route search service, so that the user may be given a better feeling.
前記キャラクターを、地図上の探索された経路表示を遮らない位置に、表示させながら移動させるとよい。
このようにすれば、例えば、移動中のキャラクターを表示し続けることで、うっとうしさを感じさせて存在をアピールできるとともに、キャラクターを継続して見ていたいユーザにとっては、移動中のキャラクターの動作を楽しむことができてよい。
The character may be moved while being displayed to a position that does not block the searched route display on the map.
In this way, for example, by continuing to display moving characters, you can feel annoyed and appeal their presence, and for users who want to continue to see characters, enjoy the movement of moving characters It may be possible.
ユーザの音声の認識語句に対応する項目の表示領域は、背後の画像が見える部分を有し、表示手段に表示されるキャラクターは、各項目よりも大きくて背後の画像が見える部分を有さず、前記項目の表示領域は、表示画面におけるキャラクターと反対側の位置に寄っているとよい。
このようにすれば、例えば、キャラクターが、探索された経路と反対側に寄った場合に、項目の表示領域は、探索された経路と重なる可能性があるが、各項目は、キャラクターよりも小さく、項目の表示領域は背後の画像が見える部分を有しているので、探索された経路がキャラクターと重なるよりも、背後の画像が見やすいのでよい。
背後の画像が見える部分としては、例えば、透過する部分、隙間が空いた部分とするとよい。このようにすれば、例えば、項目表示の視認性を確保したまま、背景の画像も見ることができるのでよい。
The display area of the item corresponding to the user's voice recognition word / phrase has a portion where the background image can be seen, and the character displayed on the display means does not have a portion which is larger than each item and the background image can be seen. The display area of the item may be close to a position on the display screen opposite to the character.
In this way, for example, if the character is on the opposite side of the searched route, the item display area may overlap the searched route, but each item is smaller than the character. Since the display area of the item has a part where the background image can be seen, the background image may be easier to see than the searched route overlaps with the character.
For example, the portion where the image in the back can be seen may be a transparent portion or a gap portion. In this way, for example, the background image can be viewed while ensuring the visibility of the item display.
あらかじめ登録されたユーザの呼び名の音声を、対話において、キャラクターにより出力される音声の中に挿入するとよい。
このようにすれば、例えば、ユーザは、会話内で自らの呼び名で呼ばれることにより、キャラクターに対して、より一層の親しみを感じることができるのでよい。
対話の開始時にキャラクターにより出力される音声に、あらかじめ登録されたユーザの呼び名の音声を挿入するとよい。
このようにすれば、例えば、対話の開始時に、ユーザが自らの名前で呼ばれることになるので、ユーザの注意を惹くことができてよい。
The voice of the user name registered in advance may be inserted into the voice output by the character in the dialogue.
In this way, for example, the user may feel more familiar with the character by being called with his / her name in the conversation.
It is preferable to insert a voice of a user name registered in advance into the voice output by the character at the start of the dialogue.
In this way, for example, since the user is called by his / her name at the start of the dialogue, the user's attention may be attracted.
キャラクターの呼び名を含む音声が認識された場合に、キャラクターにより出力される音声に、あらかじめ登録されたユーザの呼び名の音声を挿入するとよい。
このようにすれば、例えば、互いに呼び名を呼び合うことになるので、ユーザは、より親密な感覚を得ることができる。
When the voice including the character name is recognized, the voice of the user name registered in advance may be inserted into the voice output by the character.
In this way, for example, since the names are called each other, the user can obtain a more intimate feeling.
対話が進行するに従って、キャラクターにより出力される音声に、ユーザの呼び名を挿入する頻度を低減させるとよい。
このようにすれば、例えば、当初は呼び名が呼ばれていたのに、その後は呼ばれる頻度が減少するので、互いに慣れていく二人の会話を演出することができるのでよい。
As the dialogue progresses, the frequency of inserting the user's nickname into the voice output by the character may be reduced.
In this way, for example, the name is called at first, but the frequency of the call is reduced thereafter, so it is possible to produce a conversation between two people getting used to each other.
あらかじめ50音表に対応する音声データが登録され、この50音表からユーザが選択した呼び名の音声を、会話中に挿入するとよい。
このようにすれば、例えば、あらかじめ複数の呼び名を登録しておく場合に比べて、メモリの容量を節約できるのでよい。
The voice data corresponding to the 50-sound table is registered in advance, and the speech of the name selected by the user from the 50-sound table may be inserted during the conversation.
In this way, for example, the memory capacity may be saved as compared with a case where a plurality of names are registered in advance.
前記キャラクターの音声として、前記キャラクターの状況を示す内容の音声を挿入するとよい。
このようにすれば、ユーザは、キャラクターの状況を聞くことができるので、例えば、キャラクターがネガティブな状況にあれば、ユーザにキャラクターを気遣う気持ちを起こさせることができ、キャラクターがポジティブな状況にあれば、ユーザにキャラクターに共感する気持ちを起こさせることができるのでよい。
キャラクターの状況を示す発言としては、例えば、「わたし忙しいんだけど」というように、自らがポジティブな状態にあるかネガティブな状態にあるかがわかる発言とするとよい。このようにすれば、例えば、ユーザの指示にシステムが無条件に従うのではなく、ユーザに気遣いの気持ちや、共感の気持ちを生じさせることができるので、実際の人間を相手にした会話のような感覚が得られるのでよい。
As the voice of the character, it is preferable to insert a voice having a content indicating the situation of the character.
In this way, the user can listen to the situation of the character. For example, if the character is in a negative situation, it can cause the user to feel concerned about the character, and if the character is in a positive situation. In this case, it is possible to make the user feel sympathetic with the character.
As a comment indicating the character's situation, for example, “I'm busy”, it is good to know whether you are in a positive state or a negative state. In this way, for example, the system does not follow the user's instructions unconditionally, but it can generate a feeling of concern and empathy for the user, such as a conversation with a real person. You can get a sense.
対話における前記キャラクターの音声を、あらかじめ設定された複数の異なるフレーズの中から、既に出力したフレーズを除いてランダムに選択して出力するとよい。
このようにすれば、例えば、同じフレーズばかりが出力されないようにすることができるので、ユーザに飽きがこないのでよい。
The voice of the character in the dialogue may be selected at random from a plurality of preset different phrases, excluding the already output phrases, and output.
In this way, for example, only the same phrase can be prevented from being output, so that the user does not get bored.
共通の認識語句に対して異なる複数の応答フレーズが登録されたリストが設定されているとよい。
このようにすれば、例えば、ユーザが共通の内容の発話をしても、キャラクターは異なる表現で返答するので、何度も同じ処理を実現させる場合でも、キャラクターからどんな返答が来るかを楽しむことができる。
A list in which a plurality of different response phrases are registered for a common recognition phrase may be set.
In this way, for example, even if the user utters a common content, the character responds with different expressions, so even if you realize the same processing over and over, you can enjoy what kind of response will come from the character Can do.
前記リストは複数設定され、同一のリスト内であっても他のフレーズとは異質なフレーズが登録されているリストがあるとよい。
このようにすれば、例えば、ユーザの同様の内容の発言に対する返答として、異質なフレーズが出力されることにより、ユーザに予想外の印象を与えることができ、キャラクターに対する印象を変化させて、飽きが来ることを防止できるのでよい。
A plurality of the lists are set, and it is preferable that there is a list in which phrases different from other phrases are registered even in the same list.
In this way, for example, a different phrase is output as a response to the user's similar utterance, which can give the user an unexpected impression, change the impression of the character, and get bored. It is good because it can be prevented from coming.
前記キャラクターは同一人でも複数の表示態様があり、出力される音声として、前記複数の表示態様毎に異なるフレーズが登録されているとよい。
このようにすれば、例えば、同じキャラクターでも、複数の表示態様に応じて、発話内容が異なるので、同一人との対話でありながら、変化を楽しむことができるのでよい。
複数の表示態様としては、例えば、標準的なもの、衣服や髪型等を変えて変身したもの、頭身を変えたものとするとよい。このようにすれば、例えば、大人っぽい、子供っぽい、かわいい、きれい等の多様な印象をユーザに与え、飽きさせないのでよい。
The character may have a plurality of display modes even for the same person, and different phrases may be registered for each of the plurality of display modes as output sound.
In this way, for example, even for the same character, the utterance contents differ depending on a plurality of display modes, so it is possible to enjoy the change while interacting with the same person.
As a plurality of display modes, for example, a standard display, a display transformed by changing clothes, a hairstyle, or the like may be used, or a head may be changed. In this way, for example, it is possible to give the user various impressions such as adult-like, child-like, cute, and beautiful, and not to get bored.
声認識を間違えた場合に、出力されるフレーズが登録されているとよい。
このようにすれば、例えば、認識を間違えた場合であっても、何等かのフレーズを返すことより、キャラクターとの対話が継続していることを、ユーザに認識させることができるのでよい。
If the voice recognition is wrong, the phrase to be output should be registered.
In this way, for example, even if the recognition is wrong, by returning some phrase, the user can recognize that the dialogue with the character is continuing.
音声認識に誤りがあった場合に備えた逃げ口上となるフレーズが登録されているとよい。
このようにすれば、例えば、音声認識に誤りが生じる可能性はあるが、たとえ誤りが生じたとしても、キャラクターの逃げ口上によって、ユーザの苛立ちや怒りを和らげることができる。
逃げ口上としては、例えば、「音声認識頑張ります。100%認識できないかもしれないけれど」のように、正確に認識しようとする意欲を示す表現とともに、完全な達成は困難であることを示す表現とするとよい。このようにすれば、例えば、単に、認識ができないことを示すよりも、誤認識に対して、ユーザに許容する心理を生じさせることができるのでよい。
It is preferable that a phrase to be an escape point in case there is an error in speech recognition is registered.
In this way, for example, there is a possibility that an error may occur in voice recognition, but even if an error occurs, the frustration and anger of the user can be reduced by the escape of the character.
As an escape, for example, “I will do my best in speech recognition. I may not be able to recognize 100%,” but with an expression that indicates the willingness to recognize correctly and an expression that indicates that it is difficult to achieve perfection. Good. In this way, for example, rather than simply indicating that recognition is not possible, it is possible to generate a psychology that is allowed to the user with respect to misrecognition.
ユーザが返答を望む内容とキャラクターの音声の出力の内容とが相違していることを指摘するユーザの音声の入力があった場合に、それに対するキャラクターからの返答のフレーズが登録されているとよい。
このようにすれば、例えば、ユーザが、キャラクターの間違えを指摘すると、キャラクターからこれに対する返答があるので、誤解があった場合の人と人との自然なやり取りを楽しむことができるのでよい。
If the user's voice input points out that the content that the user wants to reply is different from the content of the character's voice output, the response phrase from the character should be registered .
In this way, for example, if the user points out a mistake in the character, there is a response from the character, so that it is possible to enjoy natural exchange between people when there is a misunderstanding.
宣伝広告となるフレーズが登録されているとよい。
このようにすれば、例えば、提携している施設にユーザを誘導することができるのでよい。
Phrases that will be used as advertisements should be registered.
In this way, for example, the user may be guided to a facility that is affiliated.
対話における前記キャラクターの音声として、ユーザが行き先とする施設で行うことの原因についてのフレーズが登録されているとよい。
このようにすれば、例えば、ある施設に行くことになった原因について発話することにより、当該施設に向かうユーザが耳を傾けやすくなるのでよい。
例えば、その行き先に行く原因がユーザにとって好ましくない場合にも、ユーザにとって好ましい場合にも、ユーザの注意を引くことができるのでよい。
行き先へ行く原因がユーザにとって好ましいものでない施設としては、例えば、「病院」、「歯医者」、「薬局」のように、ユーザの病気に関係している施設とするとよい。
行き先へ行く原因がユーザにとって好ましい施設としては、例えば、「デパート」「寿司」「うなぎ」のように、日常良く行く施設よりも、ややハードルが高い施設とするとよい。
キャラクターがユーザに対して種々の感情を起こさせるフレーズとしては、例えば、「どこか具合が悪いの? 大丈夫?」、「あまり無理しないでね」のようにユーザの状態を思いやることによりキャラクターに愛着を感じさせるフレーズとするとよい。また、例えば、「ちゃんと歯磨きしてる?」のようにユーザに後悔の念を起こさせるフレーズとするとよい。
As the voice of the character in the dialogue, a phrase about the cause of what is to be done at the facility that the user is going to may be registered.
If it does in this way, it will become easy for the user who goes to the said facility to listen easily by speaking about the cause which went to a certain facility, for example.
For example, the user's attention can be drawn both when the cause of going to the destination is not preferable for the user and when it is preferable for the user.
As a facility where the cause of going to the destination is not preferable for the user, for example, a facility related to the user's illness such as “hospital”, “dentist”, and “pharmacy” may be used.
As a facility that is preferable for the user to go to the destination, for example, “department store”, “sushi”, “unagi”, and the like, it may be a facility with a slightly higher hurdle than a facility that is frequently used daily.
As a phrase that causes the character to make various emotions to the user, for example, “Is something wrong? Is it okay?” Or “Do not overdo it?” A phrase that makes you feel good. Also, for example, a phrase that causes the user to feel regret like "Do you brush your teeth properly?"
対話における前記キャラクターの音声として、ユーザが行き先とする施設で行うことについての肯定的又は否定的なアドバイスとなるフレーズが登録されているとよい。
このようにすれば、例えば、キャラクターのアドバイスにより、ユーザが行き先ですべきことや、すべきでないことを判断できるのでよい。肯定的なアドバイスとしては、例えば、「たまには歯垢をとってもらった方がいいよ」のように何かを勧めるフレーズとするとよい。また、否定的なアドバイスとしては、例えば、「苦しそうな顔しちゃダメ。涼しい顔して我慢するのが男なの。」のように何かを禁止するフレーズとするとよい。
As the voice of the character in the dialogue, a phrase that serves as a positive or negative advice about what to do at the facility the user is going to go to may be registered.
In this way, for example, what the user should or should not do at the destination may be determined by the advice of the character. As a positive advice, for example, a phrase that recommends something like "It's better to occasionally get plaque" is recommended. Also, as negative advice, for example, a phrase that prohibits something, such as “Don't look painful. Don't put up with a cool face.”
対話における前記キャラクターの音声として、ユーザが行き先とする施設で行うことについてのキャラクターの一方的な感想となるフレーズが登録されているとよい。
このようにすれば、例えば、キャラクターの感想が得られるので、ユーザは、行き先での行動についての参考とすることができてよい。
キャラクターの一方的な感想としては、例えば、「お口の中でとろけるような黒ブタチャーシュー。ステキ〜。」のように、肯定的な感想とするとよい。このようにすれば、ユーザが、同様の行動を施設でとりたくなるのでよい。また、例えば、「一人でレストランに行くの?寂しくない?・・ほっとけって?」のように否定的な感想としてもよい。このようにすれば、ユーザに行き先を変える気を起こさせるのでよい。さらに、例えば、「ショッピングモールって見て回るだけで楽しそう。でも疲れそう。」のように、肯定的な感想と否定的な感想が混じっていてもよい。このようにすれば、行き先での状況について、ユーザにあらかじめ覚悟させることができるのでよい。
As the voice of the character in the dialogue, a phrase that is a one-sided impression of the character about what to do at the facility that the user goes to may be registered.
In this way, for example, the impression of the character can be obtained, so that the user may be able to refer to the action at the destination.
As a one-way impression of the character, for example, it is good to make a positive impression such as “black pig char shoe that melts in your mouth. In this way, the user may want to take the same action at the facility. Also, for example, it may be a negative impression such as “go to a restaurant alone? Are you not lonely? In this way, the user may be encouraged to change the destination. Furthermore, a positive impression and a negative impression may be mixed, for example, “It looks fun just by looking around at a shopping mall. In this way, the user can be prepared in advance about the situation at the destination.
対話における前記キャラクターの音声として、前記キャラクターが、現実に存在することを思わせるフレーズが登録されているとよい。
このようにすれば、例えば、ユーザは、キャラクターが実際に存在するような感覚が得られるのでよい。
現実に存在することを思わせるフレーズとしては、例えば、「出張にも私を連れて行ってくれるなんて、うれしいです〜。」、「私達、どこに泊まる?」のように、同行していることを思わせるフレーズとするとよい。このようにすれば、例えば、ユーザは、キャラクターといつも一緒にいる感覚が得られるのでよい。
As the voice of the character in the dialogue, it is preferable that a phrase reminiscent of the fact that the character exists actually is registered.
In this way, for example, the user may obtain a feeling that the character actually exists.
Phrases reminiscent of reality exist, for example, “I'm glad you take me on business trips” and “Where do we stay?” A phrase reminiscent of In this way, for example, the user may be able to obtain a feeling of being always with the character.
(2)ユーザの音声を認識するためにあらかじめ登録される認識語句が、項目として表示されているとよい。
このようにすれば、例えば、ユーザは、所定の処理を実行させるために、表示された項目を見れば、何を言えばいいかがわかるのでよい。
(2) A recognition word / phrase registered in advance for recognizing the user's voice may be displayed as an item.
In this way, for example, the user may know what to say by looking at the displayed items in order to execute predetermined processing.
(3)ユーザの音声を認識するためにあらかじめ登録される認識語句は、表示画面にかかわらず共通して認識できる認識語句と、表示画面に表示されたものに認識が制限される認識語句とがあるとよい。
このようにすれば、例えば、共通して認識できる認識語句によって、表示画面にかかわらず必要となる機能の利便性を維持しつつ、認識が制限される認識語句によって、誤認識の可能性を低減できる。
(3) The recognition words / phrases registered in advance for recognizing the user's voice include recognition words / phrases that can be recognized in common regardless of the display screen, and recognition words / phrases whose recognition is limited to those displayed on the display screen. There should be.
In this way, for example, the recognition of phrases that can be recognized in common reduces the possibility of misrecognition by the recognition of phrases that are restricted in recognition while maintaining the convenience of functions that are required regardless of the display screen. it can.
共通して認識できる認識語句としては、例えば、複数種の表示画面で共通して使用される認識語句とするとよい。
このようにすれば、表示画面に応じて機能が制限される可能性が低くなり、利便性を維持できる。例えば、「もどる」「取り消し」のように、他の表示画面へ遷移させる語句とするとよい。このような語句は、例えば、どの画面でも使用する必要がある語句であるのでよい。
認識が制限される認識語句としては、例えば、表示画面に表示された語句、検索対象となる語句とするとよい。このような語句は、例えば、それ以外の語句を認識させる必要性が乏しく、認識語句の数を少なくして誤認識を防ぐ必要性が高いのでよい。
As a recognition phrase that can be recognized in common, for example, a recognition phrase that is commonly used in a plurality of types of display screens may be used.
In this way, the possibility that the function is restricted according to the display screen is reduced, and the convenience can be maintained. For example, words such as “return” and “cancel” may be used for transition to another display screen. Such a phrase may be, for example, a phrase that needs to be used on any screen.
As the recognized words / phrases whose recognition is restricted, for example, the words / phrases displayed on the display screen and the words / phrases to be searched may be used. Such a phrase may be, for example, less necessary for recognizing other words, and less likely to prevent misrecognition by reducing the number of recognized phrases.
(4)ユーザの音声を認識するためにあらかじめ登録される認識語句が、表示画面に表示されているものと、表示画面に表示されていないものとがあるとよい。
このようにすれば、例えば、ユーザが、表示画面に表示されていない語句を発話した場合であっても、あらかじめ設定された認識語句であれば、キャラクターからの何らかの反応を得ることができるので、ユーザにとってサプライズとなり、ユーザの発見の喜びを与えることができるのでよい。
(4) It is preferable that the recognition phrases registered in advance for recognizing the user's voice are displayed on the display screen and not recognized on the display screen.
In this way, for example, even if the user utters a phrase that is not displayed on the display screen, if the recognition phrase is set in advance, some reaction from the character can be obtained. It is good for the user to be surprised and give the user the pleasure of discovery.
あらかじめ認識語句として設定された語句以外の音声が入力された場合に、キャラクターが出力する音声データが登録されているとよい。
このようにすれば、例えば、認識語句以外であっても、必ずキャラクターの反応があるため、対話が途切れたり、エラーとして報知する等によりシステムとのやり取りであることをユーザに想起させてしまうことがなく、キャラクターと対話を継続している感覚を維持できるのでよい。
It is preferable that voice data output by the character is registered when voice other than words set in advance as recognition words is input.
In this way, for example, even if it is not a recognized phrase, there is always a character's reaction, so the dialogue is interrupted or the user is reminded that the exchange is with the system by notifying as an error etc. It is good because you can maintain the feeling of continuing dialogue with the character.
(5)量的に変化する機能の状態を、音声認識によりダイレクトに所望の量的レベルとするとよい。
このようにすれば、例えば、量的レベルを、小さな値と大きな値との間で段階的に変化させる場合に比べて、即座に所望の値とすることができるので、ユーザの手間がかからず、操作に拘束される時間が短縮される。
量的に変化する機能としては、例えば、音量、輝度、スケールなどとするとよい。このようにすれば、音量、輝度、スケールなどのボタンを選択して+−や目盛を表示させ、+−の選択や、目盛上のスライドにより段階を追ってアップダウンさせる手間が省けるのでよい。
(5) The state of the function that changes quantitatively may be set to a desired quantitative level directly by voice recognition.
In this way, for example, the quantitative level can be immediately set to a desired value as compared with the case where the quantitative level is gradually changed between a small value and a large value. Therefore, the time to be restrained by the operation is shortened.
For example, the volume, brightness, and scale may be used as the function that changes quantitatively. In this way, it is possible to save the trouble of selecting buttons such as volume, brightness, and scale to display +-and scales, and stepping up and down by selecting +-and sliding on the scales.
(6)ユーザの音声を認識するためにあらかじめ登録される認識語句として、量的に変化する機能に対応する指示語と、量的レベルを示す数字が設定されているとよい。
このようにすれば、例えば、ユーザが所望の機能に対応する指示語と数字を言うと、当該機能の量的レベルを、その数字のレベルにまでダイレクトにアップ、ダウンさせることができるのでよい。
量的に変化する機能に対応する指示語としては、例えば、「おんりょう」、「きど」、「すけーる」などとし、数字は「いち」、「に」、「にきろ」などとするとよい。このようにすれば、例えば、ユーザにとって直感的に理解しやすい機能の名称と数字を用いて、入力ができるのでよい。特に、例えば、「おんりょうさん」、「きどに」、「すけーるにきろ」のように、名称と量的レベルとを1つの認識語句にまとめてもよい。このようにすれば、発話が一回で済むのでよい。
(6) As recognition words / phrases registered in advance for recognizing a user's voice, an instruction word corresponding to a quantitatively changing function and a number indicating a quantitative level may be set.
In this way, for example, when the user says an instruction word and a number corresponding to a desired function, the quantitative level of the function may be directly increased or decreased to the level of the number.
For example, “onri”, “kid”, “scale”, etc., and the numbers are “1”, “ni”, “nikiro”, etc. Good. In this way, for example, the input can be performed using the names and numbers of functions that are easy to understand intuitively for the user. In particular, for example, the name and the quantitative level may be combined into a single recognition word / phrase, such as “Onryo-san”, “Kidoni”, and “Sky Nikiro”. In this way, only one utterance is required.
表示手段の表示画面に、機能を選択するためのボタンであって、当該機能に対応する指示語が表示されたボタンを表示させるとよい。
このようにすれば、例えば、ユーザは、ボタンに表示された指示語を言えばよいので、ユーザにとってわかりやすくなってよい。
On the display screen of the display means, a button for selecting a function, in which an instruction word corresponding to the function is displayed, may be displayed.
In this way, for example, the user only has to say the instruction word displayed on the button, which may be easy for the user to understand.
表示手段の表示画面に、機能を選択するためのボタンであって、機能の現在の量的レベルの値が表示されたボタンを表示させるとよい。
このようにすれば、例えば、ユーザは、ボタンに表示された値を見ることにより、現在の量的レベルを確認して、所望の値へアップさせるべきか、ダウンさせるべきかを判断できるのでよい。
現在の量的レベルの値は、例えば、地図のスケールとするとよい。このようにすれば、例えば、小さなスケールの値がボタンに表示されている場合に、ユーザがそれよりも大きな値を言うと、ボタンに表示されるスケールの値もその値にダイレクトに変わり、即座に広範囲の地図を見渡すことができてよい。また、例えば、大きなスケールの値がボタンに表示されている場合に、ユーザがそれよりも小さな値を言うと、ボタンに表示されるスケールの値もその値にダイレクトに変わり、即座に詳細な地図を見ることができてよい。
It is preferable to display a button for selecting a function on the display screen of the display unit, in which the value of the current quantitative level of the function is displayed.
In this way, for example, the user can check the current quantitative level by looking at the value displayed on the button, and can determine whether the value should be increased or decreased to a desired value. .
The current quantitative level value may be, for example, a map scale. In this way, for example, if a small scale value is displayed on the button and the user says a larger value, the scale value displayed on the button will also change directly to that value and immediately You may be able to see a wide range of maps. Also, for example, when a large scale value is displayed on the button, if the user says a smaller value, the scale value displayed on the button also changes directly to that value, and instantly displays a detailed map. You can see.
前記機能に対応する指示語が表示されるボタンは、別の表示画面に遷移せずに機能を実行させるボタンがあることを特徴とするとよい。
このようにすれば、例えば、機能を実行させるために別の表示画面に遷移しなくても、対話により機能を実行させることができるので、現在の画面表示が邪魔されることがなくてよい。
The button for displaying the instruction word corresponding to the function may be a button for executing the function without changing to another display screen.
In this way, for example, the function can be executed by interaction without transitioning to another display screen to execute the function, so that the current screen display does not have to be disturbed.
(7)音声認識を受け付けているか否かを、表示手段に表示させるとよい。
このようにすれば、例えば、ユーザが、音声による操作ができるか否かを視覚により認識することができてよい。
(7) Whether or not voice recognition is accepted may be displayed on the display means.
In this way, for example, it may be possible for the user to visually recognize whether or not a voice operation can be performed.
音声認識を受け付けているか否かとしては、例えば、表示画面の色を変えて表示するとよい。このようにすれば、例えば、ユーザの視覚を介して、音声認識の状態を即座に感得させることができるのでよい。特に、例えば、音声認識を受け付けている場合には、通常の色とし、受け付けていない時には、グレースケールとするとよい。このようにすれば、例えば、音声認識を受け付けているか否かをユーザに直感的にわからせることができるのでよい。 Whether or not the voice recognition is accepted may be displayed by changing the color of the display screen, for example. In this way, for example, the state of voice recognition may be immediately felt through the user's vision. In particular, for example, when voice recognition is accepted, a normal color may be used, and when voice recognition is not accepted, a gray scale may be used. In this way, for example, it may be possible for the user to intuitively know whether or not voice recognition is accepted.
(8)音声認識を受け付けているか否かをキャラクターとともに、表示手段に表示するとよい。
このようにすれば、例えば、キャラクターを見れば、音声による操作が可能か否かがわかるので、ユーザが気づきやすくなるのでよい。
キャラクターに表示する態様としては、例えば、キャラクターの様子が明らかに変化する態様とするとよい。このようにすれば、例えば、音声認識の状態を即座に感得させることができるのでよい。キャラクターの様子が明らかに変化する態様としては、例えば、キャラクターに物を付加する、キャラクターの色や形態を変える、特定のポーズ、ジェスチャーをさせる、吹き出しでセリフを表示するなどとするとよい。このようにすれば、例えば、通常のキャラクターの状態を知っているユーザであれば、通常の状態との対比によってその変化に即座に気づくのでよい。キャラクターに物を付加する態様としては、例えば、ヘッドセット、ヘッドホン、イヤホン、マイク等の音に関連する備品をキャラクターに装着させるとよい。このようにすれば、例えば、ユーザに、音に関連する機能である音声認識を連想させるのでよい。キャラクターの色や形態を変える態様としては、例えば、髪型や髪の色を変える、別のコスチュームに着替えるなどとするとよい。このようにすれば、例えば、通常の状態との相違がわかりやすくてよい。特に、例えば、キャラクターの耳を大きくすれば、音声をよく聞き取ろうとしていることを示す姿となってよい。さらに、ポーズ、ジェスチャーとして、例えば、耳の後ろに手を当てるしぐさをさせても、音声をよく聞き取ろうとしていることを示す姿となってよい。
(8) Whether the voice recognition is accepted or not may be displayed on the display unit together with the character.
In this way, for example, if a character is seen, it can be determined whether or not a voice operation is possible, so that the user can easily notice.
As an aspect displayed on the character, for example, an aspect in which the state of the character clearly changes may be used. In this way, for example, the state of voice recognition can be immediately felt. For example, the appearance of the character clearly changes, for example, by adding an object to the character, changing the color or form of the character, causing a specific pose or gesture, or displaying a speech bubble. In this way, for example, a user who knows the state of the normal character may immediately notice the change by contrast with the normal state. As an aspect of adding an object to a character, for example, it is preferable to equip the character with equipment related to sound such as a headset, headphones, earphones, and a microphone. In this way, for example, the user may be reminded of voice recognition, which is a function related to sound. For example, the character color or form may be changed by changing the hairstyle or hair color or changing to a different costume. In this way, for example, the difference from the normal state may be easily understood. In particular, for example, if the character's ear is enlarged, the figure may indicate that he is trying to listen to the voice well. Furthermore, as a pose or gesture, for example, even if a gesture of placing a hand behind the ear is given, the figure may indicate that the user is trying to listen to the voice well.
(9)キャラクターの音声が出力されている間は、音声を出力し終えるまで、音声認識を停止するとよい。
このようにすれば、例えば、キャラクターの音声の途中で、ユーザからの音声の入力があった場合に、音声認識により他の処理が実行されてしまうことを防止できてよい。他の処理としては、例えば、音量、輝度、スケール、周辺検索のように、緊急性の低い処理とするとよい。このようにすれば、必ずしも直ちに実行しなくてもよいものまで、音声認識により実行されてしまうことがなくてよい。
(9) While the character's voice is being output, the voice recognition may be stopped until the voice has been output.
In this way, for example, when a voice is input from the user in the middle of the character's voice, it may be possible to prevent other processing from being executed due to voice recognition. As another process, for example, a process with low urgency may be used, such as volume, brightness, scale, and peripheral search. In this way, it is not necessary to execute the voice recognition even if it is not necessarily executed immediately.
キャラクターの音声が出力されている間も、音声認識を受け付けるとよい。
このようにすれば、例えば、キャラクターの音声の途中で、ユーザからの音声の入力があった場合に、音声認識より他の処理が中断されないのでよい。他の処理としては、例えば、取締場所に関する位置情報を情報収集サーバに送信する処理のように、緊急性の高い処理とするとよい。このようにすれば、ユーザが直ちに実行して欲しい処理が、中断されることがなくてよい。
Voice recognition may be accepted while the character's voice is being output.
In this way, for example, when a voice is input from the user in the middle of the character's voice, other processes than the voice recognition may not be interrupted. As another process, for example, a process with high urgency may be used, such as a process of transmitting position information related to the control location to the information collection server. In this way, the process that the user wants to execute immediately does not have to be interrupted.
キャラクターの音声が出力されている間に、ユーザからの音声の入力があった場合に、キャラクターの音声の出力を停止するとよい。
このようにすれば、例えば、ユーザの音声によって、キャラクターの発言を遮ったような印象を与えることができる。停止したキャラクターの音声の出力は、例えば、あらためて出力しなければ、同じ発話が始めから繰り返されて不自然な印象を与えることがなくてよい。また、停止したキャラクターの音声の出力を、例えば、止めたところから開始すれば、ユーザの発言の間、キャラクターが待ってくれていた印象を与えることができてよい。
When the voice input from the user is input while the voice of the character is being output, the output of the voice of the character may be stopped.
In this way, for example, the user's voice can give an impression that the character's speech is blocked. For example, if the voice of the stopped character is not output again, the same utterance may be repeated from the beginning without giving an unnatural impression. Further, if the output of the voice of the stopped character is started, for example, from the point where it is stopped, it may be possible to give the impression that the character has been waiting for the user to speak.
キャラクターの音声が出力されている間に、所定の入力操作がなされた場合に、キャラクターの音声を停止するとよい。
このようにすれば、例えば、キャラクターとの対話を第三者に聞かれたくないときに、所定の入力操作によって、キャラクターの音声を停止させることができてよい。所定の入力操作としては、例えば、物理キーの操作とするとよい。このようにすれば、常時、固定的に存在する箇所を操作すればよいので、とっさの操作がしやすい。
If a predetermined input operation is performed while the character's voice is being output, the character's voice may be stopped.
In this way, for example, when it is not desired that a dialogue with the character be heard by a third party, the voice of the character may be stopped by a predetermined input operation. The predetermined input operation may be a physical key operation, for example. In this way, since it is only necessary to operate a fixed location at all times, a quick operation is easy.
(10)ユーザの音声を認識するためにあらかじめ登録される認識語句に対応するユーザの音声の入力に応じて、取締場所に関する位置情報を情報収集サーバに送信する投稿を行うとよい。
このようにすれば、例えば、取締場所を知らせる投稿を、手操作でなく、音声により簡単にすばやく行うことができてよい。
取締場所としては、例えば、取締・検問エリアのように、実施位置、時間が変化するチェック場所とするとよい。このようにすれば、あらかじめ位置を登録しておくことが困難な取締場所についての情報を、投稿により収集させることができるのでよい。
位置情報としては、例えば、現在位置又は中心位置座標とするとよい。このようにすれば、例えば、確実且つ簡単に得られる情報により取締場所を特定できるとともに、音声認識を利用するので、実際の取締位置とのずれが少なくてよい。
(10) Posting may be performed in which location information regarding the control location is transmitted to the information collection server in response to an input of the user's voice corresponding to a recognition phrase registered in advance in order to recognize the user's voice.
In this way, for example, it is possible to easily and quickly make a posting that informs the control location by voice rather than by manual operation.
As a control place, for example, a check place where the execution position and time change may be used like a control / inspection area. In this way, it is only necessary to collect information on the control place where it is difficult to register the position in advance by posting.
The position information may be, for example, the current position or the center position coordinates. In this way, for example, the control location can be specified by information obtained reliably and easily, and since voice recognition is used, there is little deviation from the actual control position.
(11)所定の認識語句として、音声認識を起動させる語句と投稿の受け付けを開始させる語句とが登録されているとよい。
このようにすれば、例えば、ユーザが、音声認識を起動させる語句と投稿の受け付けを開始させる語句とを発話することにより、音声認識と、投稿の受け付けという多段階の操作を簡単に実行させることができるのでよい。
(11) As predetermined recognition words / phrases, a word / phrase for starting speech recognition and a word / phrase for starting acceptance of posting may be registered.
In this way, for example, the user can easily execute a multi-stage operation of voice recognition and acceptance of a post by speaking a phrase that activates speech recognition and a phrase that starts accepting a post. I can do it.
音声認識を起動させる語句と投稿の受け付けを開始させる語句としては、例えば、別々に分かれた語句として登録されていてもよい。
このようにすれば、例えば、音声認識の開始とともに投稿の受け付けが開始してしまい、誤認識が生じることを防止できてよい。また、音声認識を起動させる語句と投稿の受け付けを開始させる語句としては、例えば、一連の語句として設定されていてもよい。このようにすれば、例えば、音声認識の開始とともに投稿の受け付けを一発で開始させることができるので、即座に投稿可能な状態とすることができてよい。
For example, a phrase that activates speech recognition and a phrase that starts accepting postings may be registered as separate phrases.
In this way, for example, it may be possible to prevent a recognition error from occurring due to the start of acceptance of a post with the start of voice recognition. Moreover, as a phrase for starting speech recognition and a phrase for starting acceptance of postings, for example, a series of words may be set. If it does in this way, since acceptance of contribution can be started by one shot with the start of voice recognition, for example, it may be in the state where it can post immediately.
(12)所定の認識語句としては、音声認識を起動させる語句と投稿をさせる語句とが登録されているとよい。
このようにすれば、例えば、ユーザが、音声認識を起動させる語句と投稿をさせる語句とを発話することにより、音声認識と、投稿という多段階の操作を簡単に行うことができてよい。
(12) As the predetermined recognition phrase, a phrase that activates speech recognition and a phrase that causes posting may be registered.
In this way, for example, the user may be able to easily perform multi-step operations of speech recognition and posting by speaking a phrase that activates speech recognition and a phrase that causes posting.
音声認識を起動させる語句と投稿させる語句としては、例えば、別々に分かれた語句として登録されていてもよい。
このようにすれば、例えば、音声認識の開始とともに投稿されてしまい、誤って投稿されることを防止できてよい。また、音声認識を開始させる語句と投稿させる語句としては、例えば、一連の語句として設定されていてもよい。このようにすれば、例えば、音声認識の開始とともに投稿を一発で行わせることができるので、即座に投稿できて、取締場所と投稿場所とのずれを極力少なくすることができてよい。
As a phrase for starting speech recognition and a phrase for posting, for example, it may be registered as separate phrases.
If it does in this way, it may be posted, for example with the start of voice recognition, and it may be prevented from being posted accidentally. Moreover, as a phrase for starting speech recognition and a phrase for posting, for example, a series of phrases may be set. In this way, for example, since the posting can be performed at once with the start of the voice recognition, the posting can be made immediately, and the deviation between the control place and the posting place can be reduced as much as possible.
投稿のための所定の認識語句は、他の認識語句よりも短いとよい。
このようにすれば、例えば、緊急性の高い投稿について、短時間で指示することができてよい。
A predetermined recognition phrase for posting may be shorter than other recognition phrases.
In this way, for example, it may be possible to instruct in a short time about highly urgent posts.
投稿のための所定の認識語句は、他の認識語句よりも冗長であるとよい。
このようにすれば、例えば、通常の音声認識を利用している場合に、他の認識語句を言う可能性が少なくなり、誤って投稿がされてしまうことを防止できてよい。
冗長であるとは、例えば、文字数が多い、複数に分かれているとするとよい。このようにすれば、例えば、投稿を意図していないユーザが、誤って発話してしまう可能性を低減できるのでよい。
A predetermined recognition phrase for posting may be more redundant than other recognition phrases.
In this way, for example, when normal speech recognition is used, it is possible to reduce the possibility of saying other recognized words and phrases, and to prevent erroneous posting.
The term “redundant” means, for example, that there are a large number of characters and a plurality of characters. In this way, for example, it is possible to reduce the possibility that a user who does not intend to post will utter accidentally.
投稿のための所定の認識語句は、ユーザが普段言う可能性の低い語句であるとよい。
このようにすれば、例えば、ユーザが車内で普段、頻繁に使用する語句によって頻繁に誤認識が生じることを防ぎ、ユーザが意図しない投稿を防止できる。
The predetermined recognition phrase for posting may be a phrase that the user is unlikely to say normally.
In this way, for example, it is possible to prevent frequent misrecognition from being frequently caused by words that are frequently used by the user in the vehicle, and to prevent posting that the user does not intend.
投稿のための対話におけるキャラクターの音声は、他の対話における音声よりも短いとよい。
このようにすれば、例えば、対話の時間を短くして、素早く投稿させることができるのでよい。
The voice of the character in the dialogue for posting may be shorter than the voice in the other dialogue.
In this way, for example, the dialogue time can be shortened and posted quickly.
(13)前記対話は、所定の認識語句に対応するユーザからの音声の入力により開始するとよい。
このようにすれば、例えば、所定の処理をユーザからの音声の入力があって開始するため、システムが勝手に開始して処理が実行されてしまうことがなくてよい。
(13) The dialogue may be started by inputting a voice from a user corresponding to a predetermined recognition phrase.
In this way, for example, since the predetermined process is started upon input of a voice from the user, the system does not have to start and execute the process.
(14)前記対話は、所定のキャラクターの音声の出力に対し、所定の認識語句に対応するユーザからの音声の入力があって開始するとよい。
このようにすれば、例えば、キャラクターの音声の出力が、ユーザが所定の処理を開始するか否かを判断する契機となるので、システムを利用する機会を増やすことができるのでよい。
キャラクターの音声の出力は、例えば、特定の処理の開始の有無を問い合わせるものとするとよい。このようにすれば、例えば、ユーザが、処理の利用を促されるのでよい。
キャラクターの音声の出力のタイミングは、例えば、定期的とすれば、処理を利用させる頻度を高めるのでよい。また、タイミングを所定の条件を満たした場合とすれば、処理の利用に適したタイミングで、ユーザに利用を促すことができるのでよい。
(14) The dialogue may be started when there is an input of a voice from a user corresponding to a predetermined recognition word / phrase with respect to an output of a predetermined character's voice.
In this way, for example, the output of the character's voice is an opportunity for the user to determine whether or not to start a predetermined process, so that the opportunity to use the system can be increased.
For example, the character voice may be output as an inquiry about whether or not a specific process is started. In this way, for example, the user may be prompted to use the process.
For example, if the character voice is output periodically, the frequency at which the process is used may be increased. If the timing satisfies a predetermined condition, the user may be prompted to use at a timing suitable for the use of the process.
(15)車両の搭乗者が必要とする機能の実行を開始した時点から、ユーザからの音声の入力がなく所定時間経過した場合に、処理を終了するとよい。
このようにすれば、例えば、音声認識を長期間継続することによって生じる誤操作を防止できるのでよい。
(15) The processing may be terminated when a predetermined time has elapsed without input of voice from the user from the start of execution of the function required by the passenger of the vehicle.
In this way, for example, it is possible to prevent an erroneous operation caused by continuing voice recognition for a long time.
(16)車両の搭乗者が必要とする機能の実行を開始した時点から、所定時間経過するまでの間に、キャラクターが、ユーザに音声入力を促す音声を出力するとよい。
このようにすれば、例えば、ユーザが処理の開始を忘れている場合に、音声入力を促すことができるのでよい。
(16) The character may output a voice prompting the user to input a voice during a predetermined time after the execution of the function required by the passenger of the vehicle.
In this way, for example, when the user forgets to start the process, voice input may be prompted.
(17)(1)〜(16)のシステムとしての機能を、コンピュータに実現させるためのプログラムとして構成するとよい。 (17) The functions of the systems (1) to (16) may be configured as a program for causing a computer to realize the functions.
本発明によれば、ユーザにとって、操作や運転に面白さが得られるとともに、飽きがくることがなく、積極的に機能を利用する意欲が湧いてくるシステム及びプログラムを提供することができる。 According to the present invention, it is possible to provide a system and a program in which a user can be entertained to use functions actively without being tired of the operation and driving.
[基本構成]
図1は、本発明のシステムを構成する電子機器として好適なナビテーション装置の一実施形態の外観図を示しており、図2は、その機能ブロック図を示しており、図3及び図4は表示形態の一例を示している。図1に示すように、ナビゲーション装置は、持ち運び可能な携帯型の装置本体2と、それを保持する取付部材たるクレードル3とを備える。装置本体2をクレードル3に装着することで、車載用のナビゲーション装置として機能し、クレードル3から取り外すことで携帯型のナビゲーション装置(PND)として機能する。本実施形態は、装置本体2をクレードル3に着脱可能とし、クレードル3と共に車両のダッシュボード上に設置して利用したり、クレードル3から装置本体2を取り外して携帯型(PND)として利用したりすることができるタイプであるが、クレードル3に対して簡単に着脱できず、車載固定タイプでも良いし、携帯型専用のものでもよい。さらには、例えば携帯電話などの携帯端末に所定のアプリケーションプログラムをインストール(プリインストールを含む)して実現されるものでもよい。アプリケーションプログラムは、ナビゲーションを行うためのシステム自身でも良いし、ナビゲーションを行うためのシステムが実装されているサーバにアクセスし、当該システムを利用するためのプログラムでも良い。本発明は、係る各種のタイプのナビゲーションシステムに適用できる。
[Basic configuration]
FIG. 1 shows an external view of an embodiment of a navigation apparatus suitable as an electronic device constituting the system of the present invention, FIG. 2 shows a functional block diagram thereof, and FIGS. An example of a display form is shown. As shown in FIG. 1, the navigation device includes a portable device body 2 that can be carried and a cradle 3 that is an attachment member that holds the device body 2. By attaching the apparatus main body 2 to the cradle 3, it functions as a vehicle-mounted navigation device, and by removing it from the cradle 3, it functions as a portable navigation device (PND). In the present embodiment, the apparatus main body 2 can be attached to and detached from the cradle 3 and used together with the cradle 3 on a dashboard of a vehicle, or the apparatus main body 2 can be removed from the cradle 3 and used as a portable (PND). Although it is a type that can be performed, it cannot be easily attached to and detached from the cradle 3, and may be a vehicle-mounted fixed type or a portable type. Further, it may be realized by installing a predetermined application program (including preinstallation) in a mobile terminal such as a mobile phone. The application program may be a system for performing navigation, or a program for accessing a server on which a system for performing navigation is mounted and using the system. The present invention can be applied to various types of navigation systems.
装置本体2は、クレードル3に対して着脱自在に取り付けられる。装置本体2は、扁平な矩形状のケース本体4を備えている。そのケース本体4の前面には、表示部5が配置され、その表示部5上には表示部5のどの部分がタッチされたかを検出するタッチパネル8を備え、前面の両サイドには警報ランプ9を備えている。クレードル3は、装置本体2を保持するクレードル本体6と、車室内の所定の位置(ダッシュボード等)において、クレードル本体6を任意の姿勢で指示する台座部7と、を備えている。台座部7は、底面に設けた吸盤にて、ダッシュボードなどの上に吸着して固定される。台座部7とクレードル本体6とは、ボールジョイント等の連結機構を介して所定の角度範囲内で回転可能に連結される。ボールジョイントであるため、台座部7とクレードル本体6は、相対的に三次元方向の任意の角度範囲内で回転移動し、ジョイント部分における摩擦抵抗により任意の角度位置でその位置をとどめる。よって、クレードル本体6に取り付けられた装置本体2も、ダッシュボード上において任意の姿勢で配置することができる。 The apparatus main body 2 is detachably attached to the cradle 3. The apparatus main body 2 includes a flat rectangular case main body 4. A display unit 5 is disposed on the front surface of the case body 4, and a touch panel 8 that detects which part of the display unit 5 is touched is provided on the display unit 5, and alarm lamps 9 are provided on both sides of the front surface. It has. The cradle 3 includes a cradle body 6 that holds the apparatus body 2 and a pedestal portion 7 that points the cradle body 6 in an arbitrary posture at a predetermined position (dashboard or the like) in the vehicle interior. The pedestal portion 7 is sucked and fixed on a dashboard or the like by a suction cup provided on the bottom surface. The pedestal portion 7 and the cradle body 6 are coupled so as to be rotatable within a predetermined angle range via a coupling mechanism such as a ball joint. Since it is a ball joint, the pedestal portion 7 and the cradle body 6 rotate and move relatively within an arbitrary angle range in the three-dimensional direction, and remain at an arbitrary angular position due to frictional resistance in the joint portion. Therefore, the apparatus main body 2 attached to the cradle main body 6 can also be arrange | positioned with arbitrary attitude | positions on a dashboard.
さらにケース本体4の一方の側面には、SDメモリカード用スロット部21を備え、そのSDメモリカード用スロット部21に地図データなどが記録されたSDメモリカード22を挿入可能としている。このSDメモリカード用スロット部21は、挿入されたSDメモリカード22に対して情報の読み書きを行うメモリカードリーダライタを含む。また、ケース本体4のSDメモリカード用スロット部21を設けた側面には、DCジャック10を設けている。DCジャック10は、図示省略のシガープラグコードを接続するためのもので、そのシガープラグコードを介して車両のシガーソケットに接続して電源供給を受け得るようにする。 Further, an SD memory card slot portion 21 is provided on one side surface of the case body 4, and an SD memory card 22 on which map data and the like are recorded can be inserted into the SD memory card slot portion 21. The SD memory card slot section 21 includes a memory card reader / writer that reads and writes information from and into the inserted SD memory card 22. Further, a DC jack 10 is provided on the side surface of the case body 4 where the SD memory card slot portion 21 is provided. The DC jack 10 is for connecting a cigar plug cord (not shown), and is connected to a cigar socket of the vehicle via the cigar plug cord so that power can be supplied.
一方、SDメモリカード用スロット部21とは反対側の側面には、電源スイッチや、USB端子23を設けている。このUSB端子23を介してパソコンと接続し、ソフトウェアアプリケーションのバージョンアップなどを行なうことができる。 On the other hand, a power switch and a USB terminal 23 are provided on the side surface opposite to the SD memory card slot 21. A software application can be upgraded by connecting to a personal computer via the USB terminal 23.
ケース本体4の内部には、以下の各機器・部品を配置している。すなわち、ケース本体4の背面側内部には、マイクロ波受信機11を配置する。マイクロ波受信機11は、所定周波数帯のマイクロ波を受信するもので、その設定された周波数帯のマイクロ波を受信した場合に、その受信したマイクロ波の信号レベルを検出する。具体的には、その信号レベルであり電界強度に対応するRSSI電圧を利用する。上記の所定周波数帯は、たとえば車両速度測定装置から出射されるマイクロ波の周波数が含まれる周波数帯としている。 The following devices and parts are arranged inside the case body 4. That is, the microwave receiver 11 is disposed inside the case body 4 on the back side. The microwave receiver 11 receives microwaves in a predetermined frequency band, and detects the signal level of the received microwaves when receiving microwaves in the set frequency band. Specifically, the RSSI voltage corresponding to the signal level and the electric field strength is used. The predetermined frequency band is, for example, a frequency band including a microwave frequency emitted from the vehicle speed measuring device.
また、ケース本体4の上面側内部には、GPS信号を受信し現在位置を求めるGPS受信機12を配置している。ケース本体4の前面側内部には、赤外線通信機14を配置する。赤外線通信機14は携帯電話機15等の赤外線通信機を内蔵した通信装置との間でデータの送受を行なう。さらに、ケース本体4内には、スピーカ20も内蔵されている。 A GPS receiver 12 that receives a GPS signal and obtains the current position is disposed inside the upper surface of the case body 4. An infrared communication device 14 is disposed inside the case body 4 on the front side. The infrared communication device 14 transmits / receives data to / from a communication device incorporating an infrared communication device such as a mobile phone 15. Further, a speaker 20 is also built in the case body 4.
更に、本実施形態の装置は、無線受信機13とリモコン受信機16を備えている。無線受信機13は、飛来する所定周波数の無線を受信する。リモコン受信機16は、リモコン(携帯機:子機)17とデータ通信をし、装置に対する各種の設定を行なう。無線受信機13は、飛来する所定周波数帯の無線を受信する。この所定周波数は、例えば、緊急車両が基地局に対して自車位置を通知する際に使用する無線の周波数帯とすることができる。 Furthermore, the apparatus of the present embodiment includes a wireless receiver 13 and a remote control receiver 16. The wireless receiver 13 receives incoming radio waves having a predetermined frequency. The remote control receiver 16 performs data communication with a remote control (portable device: handset) 17 and performs various settings for the device. The wireless receiver 13 receives incoming radio waves in a predetermined frequency band. For example, the predetermined frequency may be a radio frequency band used when the emergency vehicle notifies the base station of the vehicle position.
本実施形態のナビゲーション装置は、ナビゲーション機能に加え、周囲に存在する車両速度測定装置その他の交通監視ポイント等の目標物を報知する目標物報知装置としての目標物報知機能も備えている。これらのナビゲーション機能並びに目標物報知機能は、制御部18に有するコンピュータが実行するプログラムとして制御部18のEEPROM上に格納され、これを制御部18に有するコンピュータが実行することで実現される。 In addition to the navigation function, the navigation device of the present embodiment also has a target notification function as a target notification device that notifies a target such as a vehicle speed measurement device or other traffic monitoring points existing in the vicinity. The navigation function and the target object notification function are stored on the EEPROM of the control unit 18 as a program executed by the computer included in the control unit 18, and are realized by being executed by the computer included in the control unit 18.
すなわち、制御部18は、上記の各種の入力機器(GPS受信機12、マイクロ波受信機11、無線受信機13、タッチパネル8、赤外線通信機14、リモコン受信機16、SDメモリカードスロット部21、USB端子23等)から入力される情報に基づき所定の処理を実行し、出力機器(表示部5、警報ランプ9、スピーカ20、赤外線通信機14、SDメモリカードスロット部21、USB端子23等)を利用して所定の情報・警報・メッセージを出力する。この所定の処理が、上記の各機能を実行するためのものであり、必要に応じてデータベース19や、SDメモリカード22にアクセスする。 That is, the control unit 18 includes the above various input devices (GPS receiver 12, microwave receiver 11, wireless receiver 13, touch panel 8, infrared communication device 14, remote control receiver 16, SD memory card slot unit 21, Predetermined processing is executed based on information input from the USB terminal 23, etc., and output devices (display unit 5, alarm lamp 9, speaker 20, infrared communication device 14, SD memory card slot unit 21, USB terminal 23, etc.) Uses to output predetermined information, warnings, and messages. This predetermined process is for executing each of the above functions, and accesses the database 19 and the SD memory card 22 as necessary.
ここでデータベース19は、制御部18のマイコン内あるいはマイコンに外付けした不揮発性メモリ(たとえばEEPROM)により実現できる。なお、データベース19には、出荷時に一定の目標物や地図その他の各機能を実施するために必要な情報が登録されており、その後に追加された目標物についてのデータ等は、所定の処理を経て更新することができる。この更新のための処理は、例えば、追加データが格納されたSDメモリカード22をSDメモリカード用スロット部21に装着すると共に、そのSDメモリカード22からデータベース19に転送することで行うことがある。また、このデータ更新は、赤外線通信機7を用いたり、USB端子23を介して接続されるパソコンその他の外部機器を用いたりすることで行うことができる。 Here, the database 19 can be realized by a nonvolatile memory (for example, EEPROM) in the microcomputer of the control unit 18 or externally attached to the microcomputer. The database 19 is registered with information necessary for carrying out certain targets, maps, and other functions at the time of shipment, and data and the like regarding the targets added thereafter are subjected to predetermined processing. It can be updated afterwards. This update process may be performed, for example, by inserting the SD memory card 22 storing additional data into the SD memory card slot unit 21 and transferring it from the SD memory card 22 to the database 19. . The data update can be performed by using the infrared communication device 7 or a personal computer or other external device connected via the USB terminal 23.
目標物報知機能を実現するための制御部18は、以下のような動作をする。すなわち、制御部18は、マイクロ波受信機11が所望のマイクロ波を受信した場合、予め定めた警報を出力する。この警報としては、スピーカ20を用いたブザーやマイクロ波の受信(車両速度測定装置の検出等)を知らせるための音声の出力や、表示部5を用いた文字或いはイメージによるメッセージの出力などがある。 The control unit 18 for realizing the target notification function operates as follows. That is, the control unit 18 outputs a predetermined alarm when the microwave receiver 11 receives a desired microwave. Examples of the alarm include a buzzer using the speaker 20 and a sound output for notifying reception of microwaves (detection of the vehicle speed measurement device, etc.), a message output using characters or images using the display unit 5, and the like. .
また、制御部18は、無線受信機13が所望の無線を受信した場合、予め定めた警報を出力する。この警報としては、スピーカ20を用いたブザーやマイクロ波の受信(緊急車両の接近等)を知らせるための音声の出力や、表示部5を用いた文字或いはイメージによるメッセージの出力などがある。この無線の受信に伴う警報と、上記のマイクロ波の受信に伴う警報の形態は、異なるようにすると良い。 Moreover, the control part 18 outputs a predetermined alarm, when the radio | wireless receiver 13 receives desired radio | wireless. Examples of the alarm include a buzzer using the speaker 20 and a sound output for notifying the reception of a microwave (approach of an emergency vehicle, etc.), a message output using characters or an image using the display unit 5, and the like. The alarm associated with the reception of the radio and the alarm associated with the reception of the microwave may be different from each other.
さらに、制御部18は、GPS受信機12によって検出した現在位置と、データベース19に記憶している交通監視ポイント等の目標物の位置が、所定の位置関係にあるとき、所定の警報を出力する。そのため、データベース19には、検出対象の目標物に関する情報(経度・緯度を含む目標物の位置情報や目標物の種別情報等)や、事故多発地帯や交通取締り情報などのより注意を持って安全に運転するための交通安全情報や、ランドマークや運転に有益な各種の情報がある。各情報は、具体的な情報の種類(目標物の種類、交通取り締まりの種類、事故多発地帯、ランドマークの名称等)と位置情報とを関連づけて登録されている。 Furthermore, the control unit 18 outputs a predetermined alarm when the current position detected by the GPS receiver 12 and the position of a target such as a traffic monitoring point stored in the database 19 are in a predetermined positional relationship. . Therefore, the database 19 is safer with more attention such as information on the target to be detected (position information of the target including longitude and latitude, target type information, etc.), accident-prone areas, traffic control information, etc. There are traffic safety information for driving, landmarks and various useful information for driving. Each information is registered by associating specific information types (types of targets, types of traffic control, accident-prone areas, landmark names, etc.) with location information.
警報を発する際の目標物までの距離は、目標物の種類ごとに変えることができる。警報の態様としては、上記と同様に、スピーカ20を用いた音声等による警報と、表示部5を用いた警報等がある。図3は、表示部5による警報の一例を示している。本実施形態では、装置がナビゲーション装置であるので、後述するように地図データを有していることから、基本画面として、制御部18は、現在位置周辺の道路ネットワーク情報を読み出し、現在位置周辺の地図を表示部5に表示する機能を有する。そして、表示部5に、現在表示中の画面(ここでは現在位置周辺の地図)に重ねて警告画面70を表示する。図3は、地図50を表示している際に、現在位置と交通監視ポイントの一つである速度測定装置の一種であるLHシステムとの距離が500mになった場合の警告画面70の表示例を示している。さらに、「500m先LHシステムです」といった警報種類と距離を示す警告音声をスピーカ20から出力する処理を行う。 The distance to the target when the alarm is issued can be changed for each type of target. As modes of alarms, there are alarms using voice or the like using the speaker 20 and alarms using the display unit 5 as described above. FIG. 3 shows an example of an alarm by the display unit 5. In this embodiment, since the device is a navigation device and has map data as will be described later, as a basic screen, the control unit 18 reads road network information around the current location, and It has a function of displaying a map on the display unit 5. Then, the warning screen 70 is displayed on the display unit 5 so as to overlap the currently displayed screen (here, the map around the current position). FIG. 3 shows a display example of a warning screen 70 when the distance between the current position and the LH system, which is a kind of speed measurement device, which is one of the traffic monitoring points, is 500 m when the map 50 is displayed. Is shown. Further, a process of outputting a warning sound indicating the alarm type and distance such as “500m ahead LH system” from the speaker 20 is performed.
一方、ナビゲーション機能を実現するための制御部18は、以下のような動作をする。まず、データベース19は、ナビゲーション用の道路ネットワーク情報を記憶している。このデータベース19に格納するナビゲーションのための情報は、出荷時において全国についてのすべての情報を格納しておいても良いし、地図データ等は、地方毎にSDメモリカード22に格納したものを提供するようにし、ユーザは必要な地図データ等が格納されたSDメモリカード22を用意し、それをSDメモリカード用スロット部21に装着して使用するようにしても良い。なお、SDメモリカード22に格納された地図データ等は、データベース19に転送して格納しても良いし、制御部18がSDメモリカード22にアクセスし、そこから読み出して使用するようにしても良い。 On the other hand, the control unit 18 for realizing the navigation function operates as follows. First, the database 19 stores road network information for navigation. The navigation information stored in the database 19 may store all the information about the whole country at the time of shipment, and the map data etc. are stored in the SD memory card 22 for each region. In this case, the user may prepare the SD memory card 22 storing necessary map data, etc., and attach it to the SD memory card slot 21 for use. Note that the map data and the like stored in the SD memory card 22 may be transferred to the database 19 and stored, or the control unit 18 may access the SD memory card 22 to read out and use it. good.
制御部18は、データベース19から現在位置周辺の道路ネットワーク情報を読み出し、現在位置周辺の地図を表示部5に表示する機能を有する。この制御部18は、この道路ネットワーク情報を利用してある位置から別の位置に至るルート(経路)を検索することができる。また、データベース19は、電話番号とその電話番号の住宅・会社・施設等の位置情報及び名称とを対応づけて記憶した電話番号データベースと、住所とその住所の位置情報とを対応づけて記憶した住所データベースを備える。またデータベース19には、速度測定装置等の交通監視ポイントの位置情報がその種類とともに記憶されている。 The control unit 18 has a function of reading road network information around the current position from the database 19 and displaying a map around the current position on the display unit 5. The control unit 18 can search for a route (route) from one position to another using this road network information. Further, the database 19 stores a telephone number database in which a telephone number is stored in association with the location information and name of the house, company, facility, etc. of the telephone number, and an address and positional information of the address in association with each other. Provide an address database. The database 19 stores location information of traffic monitoring points such as speed measuring devices together with their types.
また、制御部18は、一般的なナビゲーション装置の処理を行う機能を有する。すなわち、表示部5に現在位置周辺の地図を随時表示し、目的地設定ボタンを表示する。制御部18は、タッチパネル8によって、目的地設定ボタンの表示位置に対応する位置のタッチを検出した場合に、目的地設定処理を行う。目的地設定処理では、目的地設定メニューを表示部5に表示し、目的地の設定方法の選択をユーザに促す。目的地設定メニューは、目的地の設定方法の選択をユーザに促す電話番号検索ボタンと住所検索ボタンとを有する。電話番号検索ボタンがタッチされたことを検出した場合には、電話番号の入力画面を表示し、入力された電話番号に対応する位置情報をデータベース19から取得する。住所検索ボタンがタッチされたことを検出した場合には、住所の選択入力画面を表示し、入力された住所に対応する位置情報をデータベース19から取得する。そして、取得した位置情報を目的地の位置情報として設定し、現在位置から目的地までの推奨経路を、データベース19に記憶している道路ネットワーク情報に基づいて求める。この推奨経路の算出方法としては例えばダイクストラ法など公知の手法を用いることができる。 The control unit 18 has a function of performing processing of a general navigation device. That is, a map around the current position is displayed on the display unit 5 at any time, and a destination setting button is displayed. When the touch panel 8 detects a touch at a position corresponding to the display position of the destination setting button, the control unit 18 performs a destination setting process. In the destination setting process, a destination setting menu is displayed on the display unit 5 to prompt the user to select a destination setting method. The destination setting menu includes a telephone number search button and an address search button that prompt the user to select a destination setting method. When it is detected that the telephone number search button has been touched, a telephone number input screen is displayed, and position information corresponding to the input telephone number is acquired from the database 19. When it is detected that the address search button has been touched, an address selection input screen is displayed, and position information corresponding to the input address is acquired from the database 19. Then, the acquired position information is set as the position information of the destination, and a recommended route from the current position to the destination is obtained based on the road network information stored in the database 19. As a method for calculating the recommended route, a known method such as a Dijkstra method can be used.
そして、制御部18は、算出した推奨経路を、周辺の地図とともに表示する。例えば、図4に示すように、現在位置51から目的地52にいたるルート53を推奨経路として、所定の色(例えば赤色)で表示する。これは、一般的なナビゲーションシステムと同様である。そして本実施形態では、制御部18は、ルート53上の位置情報とデータベース19に記憶された交通監視ポイント等の目標物の位置情報とを比較し、ルート53上に位置する交通監視ポイント等の位置を表示する。なお、ルート53を安全運転で走行するための情報提供としては、データベース19に格納された各種の目標物の内、交通監視ポイントに限るようにしても良い。 Then, the control unit 18 displays the calculated recommended route together with the surrounding map. For example, as shown in FIG. 4, a route 53 from the current position 51 to the destination 52 is displayed as a recommended route in a predetermined color (for example, red). This is the same as a general navigation system. In the present embodiment, the control unit 18 compares the position information on the route 53 with the position information of the target such as the traffic monitoring point stored in the database 19 and determines the traffic monitoring point or the like located on the route 53. Display position. Information provision for traveling on the route 53 by safe driving may be limited to traffic monitoring points among various targets stored in the database 19.
これにより、例えば、図4に示すように、道路上の位置から吹き出しを表示し、データベース19に記憶されたその位置の交通監視ポイントの種類を吹き出しの中に表示する。例えば、図4(a)は、警告ポイント検索画面の表示例であり、交通監視ポイント55aから55fを表示した例を示している。交通監視ポイント55aは、Nシステムを示す「N」の文字を吹き出しの中に表示している。交通監視ポイント55b、55c、55eは、LHシステムを示す「LH」の文字を吹き出しの中に表示している。交通監視ポイント55dは、ループコイルを示す「ループ」の文字を吹き出しの中に表示している。交通監視ポイント55fは、Hシステムを示す「H」の文字を吹き出しの中に表示している。このように、吹き出しの中に文字を表示する簡略表示状態の吹き出し位置へのタッチをタッチパネル8が検知した場合には、図4(b)に示すように、簡易表示を詳細表示へと切り替える。詳細表示は、図3に示した警告画面を吹き出しの中に表示するものである。 Thereby, for example, as shown in FIG. 4, a balloon is displayed from a position on the road, and the type of traffic monitoring point at that position stored in the database 19 is displayed in the balloon. For example, FIG. 4A is a display example of a warning point search screen, and shows an example in which traffic monitoring points 55a to 55f are displayed. The traffic monitoring point 55a displays the letter “N” indicating the N system in a balloon. The traffic monitoring points 55b, 55c, and 55e display characters “LH” indicating the LH system in a balloon. The traffic monitoring point 55d displays “loop” characters indicating a loop coil in a balloon. The traffic monitoring point 55f displays the letter “H” indicating the H system in a balloon. As described above, when the touch panel 8 detects a touch on the balloon position in the simplified display state in which characters are displayed in the balloon, the simplified display is switched to the detailed display as shown in FIG. In the detailed display, the warning screen shown in FIG. 3 is displayed in a balloon.
また、図4(a)に示すように表示部5内の右下側には、交通監視ポイント種別指定部56を表示する。交通監視ポイント種別指定部56は、ルート53上に存在する交通監視ポイントの種別を列挙したボタン表示を行う部分である。図4(a)の例では、交通監視ポイント55aのNシステムを示す「N」の種別ボタン57aと、交通監視ポイント55b、55c、55eのLHシステムを示す「LH」の種別ボタン57bと、交通監視ポイント55dのループコイルを示す「ループ」の種別ボタン57cと、交通監視ポイント55fのHシステムを示す「H」の種別ボタン57dを表示している。制御部18は、この種別ボタンの表示部へのタッチをタッチパネル8から検出した場合、タッチされた種別ボタンを反転表示するとともに、タッチされた種別ボタンに対応する交通監視ポイントの表示態様を、簡易表示中であれば詳細表示に切り替え、詳細表示中であれば簡易表示中に切り替える。 Further, as shown in FIG. 4A, a traffic monitoring point type designation unit 56 is displayed on the lower right side in the display unit 5. The traffic monitoring point type designation unit 56 is a part that displays a button listing the types of traffic monitoring points existing on the route 53. In the example of FIG. 4A, the “N” type button 57a indicating the N system of the traffic monitoring point 55a, the “LH” type button 57b indicating the LH system of the traffic monitoring points 55b, 55c, and 55e, A “loop” type button 57c indicating the loop coil of the monitoring point 55d and an “H” type button 57d indicating the H system of the traffic monitoring point 55f are displayed. When the touch on the display unit of the type button is detected from the touch panel 8, the control unit 18 reversely displays the touched type button and simplifies the display mode of the traffic monitoring point corresponding to the touched type button. If it is being displayed, it is switched to detailed display, and if it is being displayed in detail, it is switched to simple display.
本実施形態のカーナビゲーション装置は、目的地(以下、経由地も含む)の設定方法として、周辺検索機能を備えている。この周辺検索機能が選択されて起動された場合、制御部18は、指定された条件に合致する施設であって、現在位置から近いものを抽出し、その抽出結果を表示部5に描画する。そして、ユーザは、表示部5に描画された候補の中からいずれかを選択し、確定することで目的地(経由地を含む)に指定することができる。 The car navigation apparatus according to the present embodiment includes a surrounding search function as a method for setting a destination (hereinafter also including a transit point). When this peripheral search function is selected and activated, the control unit 18 extracts a facility that matches the specified condition and is close to the current position, and draws the extraction result on the display unit 5. Then, the user can designate one of the candidates drawn on the display unit 5 as a destination (including a waypoint) by confirming and selecting one of the candidates.
すなわち、係る機能を実現するため、本実施形態のデータベース19は、各施設についての情報を、その位置情報とともに施設の分類に関する情報と関連付けて記憶している。施設の分類に関する情報は、各施設が合致するジャンルの呼び名でまとめられた複数種類の項目である。 That is, in order to realize such a function, the database 19 of the present embodiment stores information about each facility in association with information related to the facility classification together with the position information. Information on the classification of facilities is a plurality of types of items grouped by genre names that match each facility.
本実施形態では、いずれかの項目が指定されると、制御部18は、指定された項目に合致する施設であって、現在位置から近いものを抽出し、その抽出結果を目的地の候補として表示部5に描画する。ユーザは、表示部5に描画された候補の中からいずれかを選択することによって、目的地として指定することができる。 In this embodiment, when any item is specified, the control unit 18 extracts facilities that match the specified item and are close to the current position, and uses the extraction result as a destination candidate. Drawing on the display unit 5. The user can specify a destination by selecting one of the candidates drawn on the display unit 5.
項目のいずれか選択された場合、制御部18は、データベース19にアクセスし、現在位置を中心として、基準距離(たとえば、10km)以内に存在する施設であって、指定された項目の分類に一致するものを抽出する。そして、近いものから所定数(たとえば10個)の施設を表示部5に描画されている地図上の対応する箇所に、当該施設を示すアイコン(マーク)を重ねて描画する。データベース19に格納した施設の情報として、各施設に対して、それぞれのアイコンを関連づけて登録しておき、描画に際しては、その関連づけられたアイコンを読み出して表示部5の所定位置に描画する。 When one of the items is selected, the control unit 18 accesses the database 19 and is a facility existing within a reference distance (for example, 10 km) centered on the current position, and matches the classification of the designated item. Extract what to do. Then, a predetermined number (for example, 10) of facilities closest to each other are drawn by overlapping icons (marks) indicating the facilities at corresponding locations on the map drawn on the display unit 5. As facility information stored in the database 19, each facility is registered in association with each facility. When drawing, the associated icon is read out and drawn at a predetermined position on the display unit 5.
なお、表示部5に描画された地図上に、現在位置が存在している場合には、その現在位置に該当する位置に自車を示す自車アイコンを重ねて描画する。さらに、このような施設のアイコンを描画するに際し、自車から近い順に番号を付記して表示する。自車の移動に伴い、随時番号は更新する。 In addition, when the current position exists on the map drawn on the display unit 5, the vehicle icon indicating the vehicle is overlaid and drawn at a position corresponding to the current position. Furthermore, when drawing such facility icons, numbers are added and displayed in the order from the nearest vehicle. As the vehicle moves, the number is updated as needed.
そして、ユーザが、所望の施設を選択すると、それを認識した制御部18が、係る施設を目的地とした推奨経路を求め、その結果を表示部5の地図に重ねて描画する。 When the user selects a desired facility, the control unit 18 that recognizes the desired facility obtains a recommended route with the facility as the destination, and draws the result on the map of the display unit 5.
さらに、制御部18は、設定された目的地までのルート案内を行う機能を有する。つまり、制御部18は、ユーザによる案内開始の選択に応じて、GPSや自律航法で自車位置を逐次検出しながら、道路などを表す地図情報を表示部5に描画しつつ、目的地までの道案内を画像や音声を用いて行う。 Further, the control unit 18 has a function of performing route guidance to the set destination. That is, the control unit 18 draws map information representing a road or the like on the display unit 5 while sequentially detecting the position of the vehicle by GPS or autonomous navigation according to the selection of the guidance start by the user. Directions are given using images and sounds.
上記のユーザによる指定、選択等の指示入力は、表示部5に項目や機能の名称が表示されたボタン、施設のアイコンをタッチしたり、リモコン操作により選択したり、所定の音声が入力がなされたことを、制御部18が検出することを契機として行うことができる。 For the instruction input such as designation and selection by the user described above, a button on which the name of an item or function is displayed on the display unit 5 or a facility icon is touched or selected by remote control operation, or a predetermined sound is input. This can be triggered by the detection of the control unit 18.
[キャラクターとの対話機能]
《対話機能の基本》
以下、本実施形態の特徴であるキャラクターとの対話機能について説明する。この対話機能は、制御部18が、プログラムを実行することにより実現される機能であり、車両の搭乗者であるユーザの音声を認識した結果に基づく認識情報と、ユーザの音声を認識したことを示す所定のキャラクターの音声の出力とによって実現する機能である。
[Dialogue function with character]
《Interactivity basics》
Hereinafter, the dialogue function with the character which is the feature of this embodiment will be described. This interactive function is a function that is realized by the control unit 18 executing the program, and that the recognition information based on the result of recognizing the voice of the user who is a vehicle occupant and the voice of the user are recognized. This is a function realized by outputting a voice of a predetermined character shown.
この対話機能を実行するため、データベース19は、認識ワード(認識語句)と、これに対応するキャラクターの音声データである応答フレーズを記憶している。制御部18は、マイク20を介して入力されたユーザの音声を、認識ワードに基づいて認識する。つまり、制御部18は、ユーザの音声信号に基づいて、ユーザが発話した音声を語句として認識し、認識された語句と認識ワードとが一致するか否かを判定する。そして、制御部18は、認識された語句に一致すると判定された認識ワードに対応する応答フレーズを、スピーカ20に出力させる。対話のための認識ワードとキャラクターの音声である応答フレーズとの種々の組み合わせを用意することにより、後述するように、対話に応じて実行される多様な処理に対応させることができる。 In order to execute this interactive function, the database 19 stores a recognition word (recognized word / phrase) and a response phrase that is voice data of a character corresponding to the recognition word. The control unit 18 recognizes the user's voice input via the microphone 20 based on the recognition word. That is, the control unit 18 recognizes the voice spoken by the user as a phrase based on the user's voice signal, and determines whether or not the recognized phrase matches the recognized word. Then, the control unit 18 causes the speaker 20 to output a response phrase corresponding to the recognized word determined to match the recognized word / phrase. By preparing various combinations of a recognition word for dialogue and a response phrase that is a voice of a character, it is possible to cope with various processes executed in response to the dialogue, as will be described later.
これにより、ユーザは、システムである電子機器を利用して、キャラクターと簡単な対話ができる。本実施形態のキャラクターは、例えば、「レイ」という名前の少女として設定されている。上記の周辺検索等の諸機能も、キャラクターとの対話で行うことができる。データベース19は、キャラクターの呼び名として、「れーたん」を、認識ワードとして記憶している。 Thus, the user can easily interact with the character by using the electronic device as the system. The character of this embodiment is set as a girl named “Rei”, for example. Various functions such as the above peripheral search can also be performed by dialogue with the character. The database 19 stores “letan” as a recognition word as a character name.
また、データベース19は、キャラクターの画像(静止画、動画を含む)データを記憶している。制御部18は、この画像データに基づいて、キャラクターの静止画、動画を、表示部5に表示させることができる。なお、制御部18は、一部の応答フレーズについては、出力する応答フレーズと合致するように、表示部5に表示させるキャラクターの口や身体を動かすリップリンクにより、キャラクターがしゃべっている状況をリアルに感じさせることができる。 The database 19 stores character image (including still images and moving images) data. Based on the image data, the control unit 18 can display a still image and a moving image of the character on the display unit 5. In addition, the control part 18 is realistic about the situation where the character is talking by the lip link which moves the mouth and body of the character displayed on the display part 5 so that it may correspond with the response phrase to output about some response phrases. Can make you feel.
さらに、データベース19が記憶するキャラクターの音声、画像としては、同一人物について、複数の態様(モード)が設定されている。例えば、データベース19は、「レイ」という一人の人物でありながら、「標準レイ」、「変身後のレイ」、「ちびレイ」という3つのモードに分けて、それぞれの応答フレーズ、画像データを記憶している。「標準レイ」はキャラクターの基本となるモードである。「変身後のレイ」は、「標準レイ」とは衣服及び髪型を変えたモードである。「ちびレイ」は、頭身を変えて、子どもっぽくしたモードである。制御部18は、ユーザによるいずれかのモードの選択に従って、キャラクターの音声、画像を出力する。 Further, as the voice and image of the character stored in the database 19, a plurality of modes (modes) are set for the same person. For example, the database 19 stores a response phrase and image data in three modes of “standard ray”, “ray after transformation”, and “chibi ray” while being a single person “Ray”. doing. “Standard Ray” is the basic mode of the character. “Ray after transformation” is a mode in which clothes and hairstyle are changed in “standard ray”. “Chibirei” is a child-like mode with a different head and body. The control unit 18 outputs the voice and image of the character according to the selection of any mode by the user.
《認識ワード》
図5及び図6は、データベース19が記憶している認識ワードのリストの一例である。この認識ワードのリストの各列には、リスト番号が付されている。各列には、後述するように、表示部5に表示される各表示画面M1、V1、V1a、S1、S1a、S2、S2a、S2_list、S2a_list、R1、R1a、R1b、A1、A2、A3において、それぞれ認識可能な認識ワードが含まれている。
《Recognition word》
5 and 6 are examples of lists of recognized words stored in the database 19. A list number is assigned to each column of the list of recognition words. In each column, as will be described later, in each display screen M1, V1, V1a, S1, S1a, S2, S2a, S2_list, S2a_list, R1, R1a, R1b, A1, A2, A3 displayed on the display unit 5 , Each contains a recognizable recognition word.
リスト番号1には、音声認識を起動させる起動ワード、「れーたん、ぼいすこんとろーる」が登録されている。制御部18は、起動ワードを認識すると、周辺検索等の各種の機能を実行させるための音声認識の機能を起動する。このため、初期状態においては、制御部19は、起動ワードのみを音声認識できる状態で待機している。このリスト番号1は、後述する表示画面M1に対応している。 In list number 1, an activation word for starting speech recognition, “Reatan, Bois Kontorol” is registered. When recognizing the activation word, the control unit 18 activates a voice recognition function for executing various functions such as peripheral search. For this reason, in the initial state, the control unit 19 stands by in a state where only the activation word can be recognized by speech. This list number 1 corresponds to a display screen M1 described later.
リスト番号2には、音声認識を起動させた後に、周辺検索、スケール変更、音量変更、輝度変更のいずれかを開始させるための認識ワードが登録されている。例えば、周辺検索を開始させる認識ワードとしては、「しゅうへん」が登録されている。スケール変更を開始させる認識ワードとしては、「すけーる」が登録されている。音量変更を開始させる認識ワードとしては、「おんりょう」が登録されている。輝度変更を開始させる認識ワードとしては、「きど」が登録されている。このリスト番号2は、後述する表示画面V1に対応している。さらに、リスト番号2には、自宅に戻る場合に、一度の発話で自宅へのルートを探索させる認識ワード「じたく」が登録されている。このように、ユーザが使用する頻度が高い機能に対応する認識ワードが、音声認識が起動した時の認識ワードとして登録されているので、音声認識を開始して、即座に実行させることができる。 In list number 2, a recognition word for starting one of peripheral search, scale change, volume change, and brightness change after voice recognition is activated is registered. For example, “Shugen” is registered as a recognition word for starting the peripheral search. “Squel” is registered as a recognition word for starting the scale change. “Onyo” is registered as the recognition word for starting the volume change. “Kido” is registered as a recognition word for starting the luminance change. This list number 2 corresponds to a display screen V1 described later. Furthermore, in the list number 2, a recognition word “jitaku” for searching for a route to the home with a single utterance when returning to the home is registered. As described above, since the recognition word corresponding to the function frequently used by the user is registered as the recognition word when the voice recognition is activated, the voice recognition can be started and immediately executed.
リスト番号3には、ルート案内を開始した後に、実行させる機能に対応する認識ワードが登録されている。例えば、リスト番号2の認識ワードに加えて、「あんないちゅうし」、「あんないていし」、「あんないやめる」というルート案内を中止させる認識ワードが登録されている。このように、ルート案内を中止させるという同一の機能を実行させる認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。このリスト番号3は、後述する表示画面V1aに対応している。特に、「しゅうへん」、「おんりょう」、「きど」は、後述するように、表示画面V1、V1aのボタンに表示される指示語となる。このため、ユーザは、表示された指示語を発話すれば、指示入力が可能となる。 In list number 3, a recognition word corresponding to a function to be executed after starting route guidance is registered. For example, in addition to the recognition word of list number 2, recognition words for canceling route guidance such as “Anna Chusyu”, “Anna Tesushi”, and “Anna Quit” are registered. In this way, by preparing multiple types of recognition words that execute the same function of canceling route guidance, the possibility of being unable to recognize even if the user's utterance content is slightly different is reduced. it can. This list number 3 corresponds to a display screen V1a described later. In particular, “Shuhen”, “Onryo”, and “Kido” are instruction words displayed on the buttons of the display screens V1 and V1a, as will be described later. Therefore, the user can input an instruction by speaking the displayed instruction word.
リスト番号4、5には、周辺検索において、ジャンルを指定するための認識ワードが登録されている。このジャンルの認識ワードは、ジャンルを指定するための項目のボタンに、ひらがなの文字で表示される。リスト番号4に属する認識ワードのボタンが表示される画面表示では、認識可能なジャンルは、リスト番号4に属する認識ワードに限られる。このリスト番号4は、後述する表示画面S1に対応する。なお、ファミリーレストランについて「ふぁみれす」、「ふぁみりーれすとらん」、電器店について「かでん」、「でんきや」のように、同一のジャンルを指定する認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる In the list numbers 4 and 5, recognition words for designating genres in the peripheral search are registered. This genre recognition word is displayed in hiragana characters on a button of an item for designating a genre. In a screen display in which buttons for recognized words belonging to list number 4 are displayed, recognizable genres are limited to recognized words belonging to list number 4. This list number 4 corresponds to a display screen S1 described later. There are several types of recognition words that specify the same genre, such as “Famire”, “Family Restoran” for family restaurants, and “Karen”, “Denkiya” for electrical stores. This reduces the possibility of being unable to recognize even if the user's utterance content is slightly different
リスト番号5に属する認識ワードのボタンが表示される画面表示においては、認識可能なジャンルは、リスト番号5に属する認識ワードに限られる。このリスト番号5は、後述する表示画面S1aに対応する。このように、各表示画面において認識可能なジャンルは、それぞれの表示画面に表示された項目のボタンに対応する認識ワードに限定されるので、誤認識の可能性が低くなる。 In a screen display in which buttons for recognized words belonging to list number 5 are displayed, recognizable genres are limited to recognized words belonging to list number 5. This list number 5 corresponds to a display screen S1a described later. As described above, the genres that can be recognized on each display screen are limited to the recognition words corresponding to the buttons of the items displayed on the respective display screens, so that the possibility of erroneous recognition is reduced.
さらに、リスト番号4には、リスト番号5の表示画面S1aに遷移させるための認識ワード「にぺーじ」、「つぎ」が登録されている。また、リスト番号5には、リスト番号4の表示画面S1に遷移させるための認識ワード「いちぺーじ」、「まえ」が登録されている。このように、ジャンルの表示画面を遷移させるという同一の機能を実行させる認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。 Furthermore, in the list number 4, recognition words “Nipage” and “Next” for making a transition to the display screen S 1 a of the list number 5 are registered. In the list number 5, recognition words “1 page” and “mae” for making a transition to the display screen S 1 of the list number 4 are registered. In this way, by preparing multiple types of recognition words that execute the same function of changing the display screen of genres, there is a possibility that even if the user's utterance content is slightly different, it cannot be recognized Can be reduced.
リスト番号6、7、8、9には、周辺検索で検索された施設を選択するための認識ワードが登録されている。リスト番号6、7に対応する表示画面では、周辺検索で検索された施設が、地図上の所在地に、現在位置に近い順に番号が付されたアイコンで表示される。認識ワードとしては、施設を選択するための番号の呼び名が登録されている。例えば、「いち」、「いちばん」、「に」、「にばん」のように、番号を指示する認識ワードが登録されている。このように、目的地として同一の対象を選択する認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。なお、リスト番号6、7に対応する表示画面では、検索された施設(本例では、10箇所)を、画面表示されているか否かにかかわらず、全て音声で選択できる。 In the list numbers 6, 7, 8, and 9, recognition words for selecting facilities searched in the peripheral search are registered. On the display screens corresponding to the list numbers 6 and 7, the facilities searched by the peripheral search are displayed at locations on the map with icons numbered in order from the current position. As the recognition word, a name of a number for selecting a facility is registered. For example, recognition words indicating numbers are registered, such as “1”, “1st”, “ni”, “niban”. As described above, by preparing a plurality of types of recognition words for selecting the same target as the destination, even if the user's utterance content is slightly different, the possibility of being unable to be recognized can be reduced. In the display screens corresponding to the list numbers 6 and 7, all the searched facilities (10 places in this example) can be selected by voice regardless of whether they are displayed on the screen.
また、リスト番号6、7には、表示された地図のスケールを変更するための認識ワードが登録されている。つまり、リスト番号6には、スケール変更の開始を受け付ける認識ワード「すけーる」が登録されている。このリスト番号6は、後述する表示画面S2に対応する。リスト番号7には、スケール変更の開始を受け付ける認識ワード「スケール」の他、スケールを変更する認識ワードが登録されている。このリスト番号7は、後述する表示画面S2aに対応する。 In list numbers 6 and 7, recognition words for changing the scale of the displayed map are registered. That is, in the list number 6, the recognition word “scale” that receives the start of the scale change is registered. This list number 6 corresponds to a display screen S2 described later. In list number 7, in addition to the recognition word “scale” for accepting the start of scale change, a recognition word for changing the scale is registered. This list number 7 corresponds to a display screen S2a described later.
スケールを変更する認識ワードには、地図のスケールを拡大させて詳細表示するための認識ワードと、地図のスケールを縮小させて広域表示するための認識ワードと、スケールの数字及び単位を示す認識ワードが含まれる。地図のスケールを拡大させる認識ワードは、「かくだい」、「しょうさい」、地図のスケールを縮小させる認識ワードは、「しゅくしょう」、「こういき」といったように、地図のスケールを段階的に変化させる認識ワードが含まれる。段階的とは、あらかじめ複数のレベルのスケールが設定されていて、そのレベルを1つずつ上げ下げすることである。このように、スケールを段階的に変化させるという同一の機能を実行させる認識ワードとして、それぞれ複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。特に、スケールを上げ下げする際に、日常使用する言葉を認識ワードとしているので、ユーザは音量の変更を指示する言葉に迷わずに済む。 The recognition word for changing the scale includes a recognition word for enlarging the scale of the map for detailed display, a recognition word for reducing the scale of the map for wide area display, and a recognition word indicating the number and unit of the scale Is included. The recognition words that increase the scale of the map are “crack” and “shosai”, and the recognition words that reduce the scale of the map are “shukusho” and “kouiki”. The recognition word to be changed is included. The stepwise means that a plurality of levels of scales are set in advance and the levels are raised or lowered one by one. In this way, by preparing multiple types of recognition words for executing the same function of changing the scale in stages, it may not be possible to recognize even if the user's utterance content is slightly different. Can be reduced. In particular, when the scale is raised or lowered, the words used daily are used as the recognition words, so that the user does not have to be confused with the words for instructing the volume change.
また、スケールを変更する認識ワードには、「じゅうめーとる」、「にじゅうごめーとる」、「ごじゅうめーとる」のように、スケールの数字及び単位を指定できる認識ワードが含まれる。これにより、ユーザが、所望のスケールの認識ワードを発話して指定すると、これを認識した制御部18は、指定された地図のスケールにダイレクトに変更させる。さらに、リスト番号6、7には、後述するリスト番号8のリスト表示の表示画面に遷移させる認識ワード「りすと」、「りすとひょうじ」が登録されている。このように、リスト表示の画面への遷移という同一の機能を実行させる認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。 Also, the recognition words that change the scale include recognition words that can specify the scale number and unit, such as “get meme”, “get meme”, and “get meme”. It is. As a result, when the user utters and designates a recognition word of a desired scale, the control unit 18 that has recognized the word directly changes the scale to the designated map. Furthermore, in the list numbers 6 and 7, recognition words “Risuto” and “Risuto Hyoji” to be transferred to a list display screen of a list number 8 to be described later are registered. In this way, by preparing multiple types of recognition words that execute the same function of transitioning to a list display screen, it may not be possible to recognize even if the user's utterance content is slightly different Can be reduced.
リスト番号8、9に対応する表示画面では、周辺検索で検索された施設が、番号が表示されたボタンによってリスト表示される。このようにリスト表示された施設を選択するための番号の呼び名が、認識ワードとして登録されている。リスト番号8は、後述する表示画面S2_listに対応し、リスト番号9は、後述する表示画面S2a_listに対応する。登録されている番号の呼び名は、上記のリスト番号8、9と同様である。但し、リスト番号8、9では、選択できる施設は、表示画面に表示されたものに限られる。本例では、リスト番号8に対応する表示画面S2_listでは、1番目から5番目の施設、リスト番号S2_listでは、6番目から10番目の施設が選択できる。 On the display screens corresponding to the list numbers 8 and 9, the facilities searched by the peripheral search are displayed as a list by the buttons displaying the numbers. The name of the number for selecting the facility displayed as a list in this way is registered as a recognition word. The list number 8 corresponds to a display screen S2_list described later, and the list number 9 corresponds to a display screen S2a_list described later. The names of the registered numbers are the same as the list numbers 8 and 9 described above. However, in the list numbers 8 and 9, the facilities that can be selected are limited to those displayed on the display screen. In this example, the first to fifth facilities can be selected on the display screen S2_list corresponding to the list number 8, and the sixth to tenth facilities can be selected on the list number S2_list.
さらに、リスト番号8、9には、リスト表示を解除するための認識ワード「りすと」、「りすと解除」が登録されている。このように、リスト表示の解除という同一の機能を実行させる認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。さらに、リスト番号4、5と同様に、リスト番号8には、リスト番号9の表示画面S1aに遷移させるための認識ワード「にぺーじ」、「つぎ」が登録されている。また、リスト番号9には、リスト番号8の表示画面S1に遷移させるための認識ワード「いちぺーじ」、「まえ」が登録されている。 Furthermore, in the list numbers 8 and 9, recognition words “Listo” and “Listo release” for canceling the list display are registered. In this way, by preparing a plurality of types of recognition words for executing the same function of canceling the list display, it is possible to reduce the possibility of being unable to recognize even if the user's utterance content is slightly different. . Further, similarly to the list numbers 4 and 5, in the list number 8, recognition words “Nipage” and “Next” for changing to the display screen S 1 a of the list number 9 are registered. In the list number 9, recognition words “1 page” and “mae” for transition to the display screen S 1 of the list number 8 are registered.
リスト番号10、11、12には、探索されたルート案内の開始を指示する認識ワード「あんないかいし」、「あんないよろしく」、「あんないして」が登録されている。このように、ルート案内という同一の機能を指示する認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。特に、「あんないかいし」という命令口調に加えて、「あんないよろしく」、「あんないして」という親しみを込めた依頼の口調も用意することにより、キャラクターとの親密度合いに応じて、口調を変えることを楽しめる。 In the list numbers 10, 11, and 12, the recognition words “Anna Kashii”, “Annoy Regards”, and “Anna Ishii” that indicate the start of the searched route guidance are registered. In this way, by preparing a plurality of types of recognition words that indicate the same function of route guidance, the possibility of being unable to be recognized can be reduced even if the user's utterance content is slightly different. In particular, in addition to the command tone of “Anna Kashii”, we also prepare the tone of the request with the friendliness of “Are you happy” and “Anise”, so that the tone depends on the familiarity with the character. Enjoy changing.
リスト番号10は、ルート探索後、探索されたルートを表示する表示画面に対応している。この表示画面は、後述する表示画面R1に対応する。リスト番号11は、探索されたルートを表示しつつ、地図のスケールを変更する表示画面に対応する。この表示画面は、後述する表示画面R1aに対応する。リスト番号12は、探索されたルートを表示しつつ、ルート条件を変更する表示画面に対応する。この表示画面は、後述する表示画面R1bに対応する。 The list number 10 corresponds to a display screen that displays the searched route after the route search. This display screen corresponds to a display screen R1 described later. The list number 11 corresponds to a display screen for changing the scale of the map while displaying the searched route. This display screen corresponds to a display screen R1a described later. The list number 12 corresponds to a display screen for changing the route condition while displaying the searched route. This display screen corresponds to a display screen R1b described later.
また、リスト番号10、11、12には、スケール変更を開始させる認識ワード「すけーる」、周辺施設を再検索させる認識ワード「しゅうへん」、ルート条件の変更を開始させる認識ワード「じょうけん」、「るーとじょうけん」が登録されている。このように、ルート条件の変更という同一の機能を指示する認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。 The list numbers 10, 11, and 12 include a recognition word “scale” for starting the scale change, a recognition word “syuhen” for re-searching the surrounding facilities, and a recognition word “joken” for starting the change of the route condition. ”,“ Lutojoken ”are registered. In this way, by preparing a plurality of types of recognition words that indicate the same function of changing the route condition, it is possible to reduce the possibility of being unable to recognize even if the user's utterance content is slightly different. .
さらに、リスト番号11には、リスト番号7と同様に、スケールを変更する認識ワードが登録されている。また、リスト番号12には、ルート条件を変更する認識ワードが登録されている。ルート条件は、何を優先してルートを探索するかの探索条件である。本実施形態のルート条件としては、高速道優先、一般道優先、推奨ルートが設定されている。推奨ルートは、デフォルトで設定された条件、たとえば、目的地までの所要時間優先、目的地までの距離優先等とする。これに対応して、リスト番号12には、「すいしょう」、「いっぱんどう」、「こうそくどう」が登録されている。 Furthermore, in the list number 11, similarly to the list number 7, a recognition word for changing the scale is registered. In the list number 12, a recognition word for changing the route condition is registered. The route condition is a search condition for what is prioritized to search for a route. As route conditions of this embodiment, expressway priority, general road priority, and recommended route are set. The recommended route is a condition set by default, for example, priority on the required time to the destination, priority on the distance to the destination, or the like. Corresponding to this, in the list number 12, "Suisho", "Ippando", and "Kousokudo" are registered.
リスト番号13、14、15には、本実施形態の各種機能を変更させるための認識ワードが登録されている。リスト番号13には、上記と同様に地図スケールを変更させるための認識ワードが登録されている。リスト番号13は、後述する表示画面A1に対応する。 In the list numbers 13, 14, and 15, recognition words for changing various functions of the present embodiment are registered. In the list number 13, a recognition word for changing the map scale is registered as described above. The list number 13 corresponds to a display screen A1 described later.
リスト番号14には、音量を変更させるための認識ワードが登録されている。リスト番号14は、後述する表示画面A2に対応する。音量を変更させるための認識ワードには、音量を大きくする認識ワードと、音量を小さくする認識ワードと、音量のレベルを示す認識ワードが含まれる。 In the list number 14, a recognition word for changing the volume is registered. The list number 14 corresponds to a display screen A2 described later. The recognition word for changing the volume includes a recognition word for increasing the volume, a recognition word for decreasing the volume, and a recognition word indicating the volume level.
音量を大きくする認識ワードは、「あっぷ」、「おおきく」、音量を小さくする認識ワードは、「だうん」、「ちいさく」といったように、音量を段階的に変化させる認識ワードが含まれる。段階的とは、あらかじめ複数のレベルの音量が設定されていて、そのレベルを1つずつ上げ下げすることである。このように、音量を段階的に変化させるという同一の機能を実行させる認識ワードとして、それぞれ複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。特に、音量を上げ下げする際に、日常使用する言葉を認識ワードとしているので、ユーザは音量の変更を指示する言葉に迷わずに済む。 The recognition words that increase the volume include recognition words that change the volume in stages, such as “App” and “Large”, and the recognition words that decrease the volume, such as “Daun” and “Chiisaku”. Stepwise means that a plurality of levels of volume are set in advance, and that level is raised or lowered one by one. In this way, by preparing multiple types of recognition words for executing the same function of changing the volume in stages, it is not possible to recognize even if the user's utterance content is slightly different Can be reduced. In particular, when the volume is raised or lowered, the words used every day are used as the recognition words, so that the user does not have to be confused with the words for instructing to change the volume.
また、音量を変更する認識ワードには、「ぜろ」、「いち」、「に」のように、音量のレベルを示す数字を指定できる認識ワードが含まれる。これにより、ユーザが、所望の音量のレベルを発話して指定すると、これを認識した制御部18は、音量を指定されたレベルにダイレクトに変更させる。なお、「ぜろ」は、音量をゼロにする機能、つまりスピーカ20から出力される音声をミュートする機能を実現する認識ワードである。これにより、ユーザが、キャラクターの音声を他人に聞かれたくないときに、音量をゼロにする認識ワードを発話するだけで、即座にキャラクターの音声が聞こえないようにすることができる。 The recognition word for changing the sound volume includes a recognition word that can specify a number indicating the sound volume level, such as “Zero”, “Ichi”, and “Ni”. Thus, when the user utters and specifies a desired volume level, the control unit 18 that recognizes the level directly changes the volume to the specified level. “Zero” is a recognition word that realizes the function of reducing the volume to zero, that is, the function of muting the sound output from the speaker 20. Thereby, when the user does not want to hear the voice of the character by another person, the voice of the character can be prevented from being heard immediately by simply speaking the recognition word that makes the volume zero.
リスト番号15には、輝度を変更させるための認識ワードが登録されている。リスト番号15は、後述する表示画面A3に対応する。輝度を変更させるための認識ワードには、輝度を大きくする認識ワードと、輝度を小さくする認識ワードと、輝度のレベルを示す認識ワードが含まれる。 In the list number 15, a recognition word for changing the luminance is registered. The list number 15 corresponds to a display screen A3 described later. The recognition word for changing the luminance includes a recognition word for increasing the luminance, a recognition word for decreasing the luminance, and a recognition word indicating the luminance level.
輝度を大きくする認識ワードは、「あっぷ」、「あかるく」、輝度を小さくする認識ワードは、「だうん」、「くらく」といったように、輝度を段階的に変化させる認識ワードが含まれる。段階的とは、あらかじめ複数のレベルの輝度が設定されていて、そのレベルを1つずつ上げ下げすることである。このように、輝度を段階的に変化させるという同一の機能を実行させる認識ワードとして、それぞれ複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。特に、輝度を上げ下げする際に、日常使用する言葉を認識ワードとしているので、ユーザは輝度の変更を指示する言葉に迷わずに済む。 The recognition words that increase the brightness include “appu” and “Akaruku”, and the recognition words that decrease the brightness include recognition words that change the brightness in stages, such as “daun” and “kuraku”. Stepwise means that a plurality of levels of brightness are set in advance, and the levels are raised or lowered one by one. In this way, by preparing multiple types of recognition words for executing the same function of changing the brightness stepwise, it is not possible to recognize even if the user's utterance content is slightly different. Can be reduced. In particular, when the brightness is raised or lowered, the words used every day are used as the recognition words, so that the user does not have to be confused about the words for instructing the brightness change.
また、輝度を変更する認識ワードには、「ぜろ」、「いち」、「に」のように、輝度のレベルを示す数字を指定できる認識ワードが含まれる。これにより、ユーザが、所望の輝度のレベルを発話すると、これを認識した制御部18は、輝度を指定されたレベルにダイレクトに変更させる。なお、「ぜろ」は、輝度をゼロにする機能、表示部5の画面を暗くして表示内容を見えなくする機能を実現する認識ワードである。これにより、ユーザが、キャラクターの画像を他人に見られたくないときに、輝度をゼロにする認識ワードを発話するだけで、即座にキャラクターの画像が見えないようにすることができる。 The recognition word for changing the luminance includes a recognition word that can specify a number indicating the luminance level, such as “Zero”, “Ichi”, and “Ni”. As a result, when the user speaks a desired luminance level, the control unit 18 that recognizes the level directly changes the luminance to the designated level. “Zero” is a recognition word that realizes a function of reducing the luminance to zero and a function of darkening the screen of the display unit 5 to make the display contents invisible. Thereby, when the user does not want to see the character image by another person, the user can immediately hide the character image simply by speaking the recognition word with zero brightness.
以上のようなリスト番号13、14、15には、共通して、各種の機能を実行させるための認識ワードが登録されている。つまり、スケール変更に関する「すけーる」、周辺検索に関する「しゅうへん」、音量変更に関する「おんりょう」、輝度変更に関する「きど」が登録されている。 In the above list numbers 13, 14, and 15, common recognition words for executing various functions are registered. In other words, “scale” related to scale change, “syuhen” related to surrounding search, “on-ryo” related to volume change, and “kid” related to brightness change are registered.
リスト番号13の表示画面において、ユーザが「すけーる」と発話すると、これを認識した制御部18は、変更したスケールの設定を完了させる。一方、リスト番号14、15の表示画面において、ユーザが「すけーる」と発話すると、これを認識した制御部18は、スケール変更の表示画面、つまりリスト番号13に対応する表示画面に遷移させる。 When the user utters “squeal” on the display screen of the list number 13, the control unit 18 that recognizes this completes the setting of the changed scale. On the other hand, when the user utters “squeal” on the display screens of the list numbers 14 and 15, the control unit 18 that has recognized this transitions to a display screen for changing the scale, that is, a display screen corresponding to the list number 13. .
リスト番号14の表示画面において、ユーザが「おんりょう」と発話すると、これを認識した制御部18は、変更した音量の設定を完了させる。一方、リスト番号13、15の表示画面において、ユーザが「おんりょう」と発話すると、これを認識した制御部18は、音量変更の表示画面、つまりリスト番号14に対応する表示画面に遷移させる。 When the user speaks “ONRYO” on the display screen of the list number 14, the control unit 18 that recognizes this completes the setting of the changed volume. On the other hand, when the user speaks “ONRYO” on the display screens of the list numbers 13 and 15, the control unit 18, which recognizes this, shifts to a display screen for changing the volume, that is, a display screen corresponding to the list number 14.
リスト番号15の表示画面において、ユーザが「きど」と発話すると、これを認識した制御部18は、変更した輝度の設定を完了させる。一方、リスト番号13、14の表示画面において、ユーザが「きど」と発話すると、これを認識した制御部18は、輝度変更の表示画面、つまりリスト番号15に対応する表示画面に遷移させる。 When the user utters “Kid” on the display screen of the list number 15, the control unit 18 that recognizes this completes the setting of the changed luminance. On the other hand, when the user utters “kid” on the display screens of the list numbers 13 and 14, the control unit 18 that recognizes this transitions to the display screen for changing the brightness, that is, the display screen corresponding to the list number 15.
このように、同じ認識ワードであっても、表示画面に応じて機能を変えることによって、ユーザは、関連しているが異なる機能を実行させるために、異なる認識ワードを覚える必要がない。 As described above, even if the same recognition word is used, the user does not need to memorize different recognition words in order to execute related but different functions by changing the function according to the display screen.
さらに、リスト番号13、14、15には、自宅に戻る場合に、一度の発話で自宅へのルートを探索させる認識ワード「じたく」が登録されている。このように、ユーザが使用する頻度が高い機能に対応する認識ワードが、音声認識が起動した時の認識ワードとして登録されているので、音声認識を開始して、即座に実行させることができる。 Furthermore, in the list numbers 13, 14 and 15, a recognition word “jitaku” for searching for a route to the home with one utterance when returning to the home is registered. As described above, since the recognition word corresponding to the function frequently used by the user is registered as the recognition word when the voice recognition is activated, the voice recognition can be started and immediately executed.
なお、各リスト番号1〜15には、複数の表示画面において、共通に認識することができ、各種の機能を実行させる認識ワードが登録されている。まず、前の処理に戻るフレーズとして、「もどる」、「とりけし」、「やりなおし」という認識ワードが登録されている。また、機能や処理を解除する解除フレーズとして、「おんせいかいじょ」、「しゅうりょう」、「げんざいち」という認識ワードが登録されている。「おんせいかいじょ」は、音声認識を解除する認識ワードである。「しゅうりょう」は、現在の処理を終了させる認識ワードである。「げんざいち」は、現在位置表示に遷移させる認識ワードである。これらは、音声認識を起動させた後の全ての表示画面において共通に認識できる認識ワードである。この共通の認識ワードを発することにより、ユーザは、いつでも処理のやりなおしや、初期状態への復帰等ができる。 In each of the list numbers 1 to 15, recognition words that can be commonly recognized on a plurality of display screens and that execute various functions are registered. First, recognition words such as “return”, “taken”, and “redo” are registered as phrases to return to the previous process. In addition, recognition words such as “onse kaijo”, “shukyu”, and “genzaichi” are registered as release phrases for releasing functions and processes. “Onseika” is a recognition word for canceling speech recognition. “Shuyu” is a recognition word for ending the current process. “Genzaichi” is a recognition word for transition to the current position display. These are recognition words that can be recognized in common on all display screens after voice recognition is activated. By issuing this common recognition word, the user can re-execute processing, return to the initial state, etc. at any time.
さらに、リスト番号16には、ユーザのYes(肯定)、No(否定)の発話を認識するための認識ワードが登録されている。この認識ワードは、キャラクターからの問いかけに対して、ユーザの単なるYes、Noの発話を認識するために用いられる。このような認識ワードも、全画面に共通で認識可能である。Yesの認識ワードとしては、「おっけー」、「よろしく」、「はい」、「いえす」、「うん」が登録されている。Noの認識ワードとしては、「いらない」、「すとっぷ」、「いいえ」、「のー」、「だめ」、「きにいらない」、「うるさい」が登録されている。このように、ユーザのYes、Noを認識するための認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。特に、Yes、Noの表現は、話し相手によって変わるが、ユーザは、キャラクターの口調に合わせたYes、Noの返答ができる。 Furthermore, a recognition word for recognizing the user's Yes (positive) and No (negative) utterances is registered in the list number 16. This recognition word is used for recognizing the user's simple utterance “Yes” or “No” in response to an inquiry from the character. Such a recognition word can be recognized in common on all screens. As the recognition words for Yes, “Oke-ke”, “Say me”, “Yes”, “No”, “Yes” are registered. “No”, “Stop”, “No”, “No”, “No”, “Don't need”, and “Noisy” are registered as No recognition words. Thus, by preparing a plurality of types of recognition words for recognizing the user's Yes and No, it is possible to reduce the possibility of being unable to recognize even if the user's utterance content is slightly different. In particular, the expressions “Yes” and “No” vary depending on the conversation partner, but the user can reply “Yes” and “No” in accordance with the tone of the character.
上記のような認識ワードは、後述するように、表示画面に文字で表示されるものと、表示画面に表示されないものがある。文字で表示されるものは、ユーザが制御部18にその機能を実行させるために、何を発話したらよいかを、視覚で確認できるのでよい。 As will be described later, the recognition words as described above include those that are displayed as characters on the display screen and those that are not displayed on the display screen. What is displayed in characters may be able to visually confirm what the user should speak in order to cause the control unit 18 to execute the function.
《応答フレーズ》
図7〜図21は、制御部18が、上記の認識ワードの認識結果に応じて、キャラクターの音声として出力させる応答フレーズのリストの一部を抜粋したものである。データベース19は、このような応答フレーズのリスト及び音声データを記憶している。リストにおいてグレーで塗りつぶされた欄のうちの上欄は、応答フレーズの番号である。下欄は、ユーザが発話した認識ワードに応じて、制御部18が実行する処理の内容である。欄外の「れーたん、ぼいすこんとろーる」は、上記の認識ワードのリスト番号1に登録された起動ワードである。
《Response phrase》
7 to 21 are excerpts of a part of a list of response phrases that the control unit 18 outputs as the voice of the character according to the recognition result of the recognition word. The database 19 stores such a list of response phrases and voice data. In the list, the upper column of grayed-out columns is the response phrase number. The lower column is the content of processing executed by the control unit 18 according to the recognition word spoken by the user. “Reatan, Bois Kontorol” in the margin is an activation word registered in the list number 1 of the recognition word.
応答フレーズは、制御部18が実行する処理ごとに、1つ以上のフレーズが登録されている。図7は、「標準レイ」の応答フレーズのリストの抜粋である。図7の左から第1列目は、ユーザが起動ワード「れーたん、ぼいすこんとろーる」を発話して、制御部18が音声認識を開始した場合の複数の応答フレーズである。第2列目は、制御部18が音量をダウンさせた場合の応答フレーズである。第3列目は、ユーザが8番の施設を選択して、制御部18が目的地を8番に変更した場合の応答フレーズである。第4列目は、制御部18が案内を中止した場合の応答フレーズである。第5列目は、制御部18が音量若しくは輝度のレベルを3に変更した場合の応答フレーズである。 As the response phrase, one or more phrases are registered for each process executed by the control unit 18. FIG. 7 is an excerpt of a list of response phrases for “Standard Ray”. The first column from the left in FIG. 7 shows a plurality of response phrases when the user utters the activation word “Retan, Boys Kontrol” and the control unit 18 starts speech recognition. The second column is a response phrase when the control unit 18 reduces the volume. The third column is a response phrase when the user selects the eighth facility and the control unit 18 changes the destination to the eighth. The fourth column is a response phrase when the control unit 18 stops the guidance. The fifth column is a response phrase when the control unit 18 changes the volume or luminance level to 3.
このような応答フレーズのリストは、キャラクターの3つの態様、つまり「標準レイ」、「変身後のレイ」、「ちびレイ」毎に、区別して設定されている。この3つの態様に応じて、リスト内における応答フレーズは相違している。図8(a)は、「変身後のレイ」の音声認識開始時の応答フレーズをリストから抜粋したものである。「変身後のレイ」の応答フレーズは、「何か用事ですか?」、「音声認識を開始します。ゆっくり、はっきり話して下さい。」というように、「標準レイ」の応答フレーズと比較して、より丁寧な口調が設定されている。また、図8(b)は、「ちびレイ」の音声認識開始時の応答フレーズをリストから抜粋したものである。「ちびレイ」の応答フレーズは、「レーたん、音声コントロール開始。」、「待ってましたぁ。」というように、「標準レイ」の応答フレーズと比較して、より気安い口調が設定されている。また、図9(a)〜(i)は、ユーザの発話に対する応答フレーズを、抜粋したものである。これらの具体的な応答フレーズについては、後述の処理例で説明する。なお、ユーザの対話としては、例えば、ユーザの発話とキャラクターの音声とが、その意味内容が発話とこれに対する返答として成立していると、互いに意思の疎通ができている感覚が得られる。発話とこれに対する意味内容が的外れな返答であっても、ユーザにとって面白味や意外性が感じられる。発話とこれに対する返答が意味内容として成立している場合と、発話に対する意味内容が的外れな返答の場合とを混在させても、現実の会話に近い不完全さを演出することができ、ユーザに人間味を感じさせることができる。 Such a list of response phrases is set differently for each of the three modes of the character, that is, “Standard Ray”, “Ray after Transformation”, and “Chibi Ray”. Depending on these three aspects, the response phrases in the list are different. FIG. 8A is an excerpt from the list of response phrases at the start of speech recognition of “Ray after transformation”. Compare the response phrase of “Rei after transformation” with the response phrase of “Standard Ray”, such as “Is there anything else to do?” Or “Start speech recognition. Speak slowly and clearly.” A more polite tone is set. FIG. 8B is an excerpt from the list of response phrases at the start of voice recognition of “Chibirei”. The response phrase of “Chibi Rei” has a lower tone than the response phrase of “Standard Rei”, such as “Raitan, voice control started.”, “I've been waiting.” Yes. 9A to 9I are excerpts of response phrases for user utterances. These specific response phrases will be described in a processing example described later. In addition, as a user's dialogue, for example, when the user's utterance and the character's voice are established as the utterance and a response to the utterance, a sense of mutual communication can be obtained. Even if the utterance and the meaning of the utterance are inappropriate, the user feels interesting and unexpected. Even if the utterance and the response to this are established as semantic content and the case where the semantic content to the utterance is inappropriate, it is possible to produce imperfections close to real conversation, It can make you feel human.
このようなリストにおいては、同じ処理の欄には、1つ又は複数の応答フレーズが登録されている。制御部18は、同じ処理に対応する応答フレーズとして、各欄に登録された中から、ランダムに出力する。但し、同じフレーズばかりが繰り返し出力されることがないように、制御部18は、以前に出力した応答フレーズを除いたものの中からランダムに選択していく。特に、音声認識開始のように、頻繁に使用される処理の場合の応答フレーズは、図7に示すように、多数用意されていて、制御部18は、この中からランダムに出力する。 In such a list, one or a plurality of response phrases are registered in the same processing column. The control unit 18 randomly outputs the response phrase corresponding to the same process from among those registered in each column. However, the control unit 18 selects at random from the ones excluding the previously output response phrase so that only the same phrase is not repeatedly output. In particular, as shown in FIG. 7, a large number of response phrases in the case of frequently used processes such as the start of voice recognition are prepared, and the control unit 18 outputs them at random.
この制御部18の動作例は、以下の通りである。
1.フレーズがA、B、C、D、Eの5通りあった場合、まず5個の中からランダムに選択する。
2.最初にBを選択した場合、次回はA、C、D、Eの4個の中から選択する。
3.次にEを選択した場合、次回はA、C、Dの3個の中から選択する。
4.全て選択し終えたら、次回は最初に戻りA、B、C、D、Eの5個の中からランダムに選択する。
なお、本実施形態では、対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、以下に列挙するような種々の機能を実行する処理を行う。対話に応じた処理が、対話をした結果、情報を出力する処理であれば、機能を実行させるために、キャラクターと対話をする意欲がわく。対話に応じた処理が、対話中に情報を出力する処理であれば、機能を実行させるために、順次発話して対話を進める意欲が増す。対話に応じた処理が対話を構成する応答フレーズを出力する処理であれば、ユーザは、キャラクターの音声を聞きたくて対話するので、対話すること自体を楽しむことができる。
An example of the operation of the control unit 18 is as follows.
1. When there are five phrases A, B, C, D, and E, first, the phrase is randomly selected from five.
2. If B is selected first, next time, A, C, D, and E are selected.
3. Next, when E is selected, next time, A, C, and D are selected.
4). When all the selections have been completed, the next time, the process returns to the beginning, and a random selection is made from five of A, B, C, D, and E.
In the present embodiment, in accordance with the dialogue, as predetermined processing for outputting information that the user wants to know, processing for executing various functions listed below is performed. If the process corresponding to the dialog is a process that outputs information as a result of the dialog, the willingness to interact with the character is motivated to execute the function. If the process corresponding to the dialog is a process for outputting information during the dialog, the willingness to proceed with the dialog by sequentially speaking is increased in order to execute the function. If the process corresponding to the dialog is a process of outputting a response phrase constituting the dialog, the user can enjoy the dialog itself because he / she wants to hear the voice of the character.
《周辺検索処理》
制御部18は、上記のような認識ワードに基づいてユーザの発話した音声を認識する音声認識と、応答フレーズに基づいてキャラクターの音声を出力する対話に応じて、各種の処理を実行する。まず、このような対話に応じた周辺検索の処理を説明する。
《Nearby search processing》
The control unit 18 executes various processes in accordance with voice recognition for recognizing the voice spoken by the user based on the recognition word as described above and a dialog for outputting the voice of the character based on the response phrase. First, the peripheral search process according to such a dialogue will be described.
周辺検索は、複数の選択を経て、複数の候補の中から順次絞り込んでいくことにより、目的とする情報を得られる処理であり、ジャンル選択、施設選択、ルート選択のフェーズがある。このような情報は、車両の搭乗者が知りたい情報、特に、車両の運転者が知りたい情報である。 The peripheral search is a process for obtaining target information by sequentially narrowing down a plurality of candidates through a plurality of selections, and includes a genre selection, facility selection, and route selection phases. Such information is information that the passenger of the vehicle wants to know, particularly information that the driver of the vehicle wants to know.
以下、周辺検索処理の一例を、図10〜図21に従って説明する。図10〜図21は、各フェーズにおける表示画面例を左に、これに対応する認識ワード及び応答フレーズの例を右に示した説明図である。各表示画面M1(M1aも含む)、V1、V1a、S1、S1a、S2、S2a、S2_list、S2a_list、R1、R1a、R1b、A1(A1aも含む)、A2(A2aも含む)、A3(A3aも含む)は、上記のように、認識ワードのリスト番号1〜15(図5及び図6)に対応している。 Hereinafter, an example of the peripheral search process will be described with reference to FIGS. 10 to 21 are explanatory diagrams showing examples of display screens in each phase on the left and examples of recognition words and response phrases corresponding to the examples on the right. Each display screen M1 (including M1a), V1, V1a, S1, S1a, S2, S2a, S2_list, S2a_list, R1, R1a, R1b, A1 (including A1a), A2 (including A2a), A3 (including A3a) Includes) corresponds to the recognition word list numbers 1 to 15 (FIGS. 5 and 6) as described above.
これらの図10〜図21の表示画面例の左に示した記述は、「ユーザの音声として認識される認識ワード → これに応じて出力されるキャラクターの応答フレーズ → これにより遷移する表示画面」を示している。 The description shown on the left side of the display screen examples of FIGS. 10 to 21 is “recognition word recognized as user's voice → character response phrase output according to this → display screen transitioned thereby” Show.
制御部18は、これらの表示画面を、データべース19に記憶されたボタン、アイコン、テキスト、地図等の画面構成用データを、メモリに描画することにより、表示部5に表示させる。また、制御部18は、周辺検索、経路探索、ルート案内を行うことができることは、上述の通りである。 The control unit 18 displays these display screens on the display unit 5 by drawing screen configuration data such as buttons, icons, text, and maps stored in the database 19 in the memory. In addition, as described above, the control unit 18 can perform surrounding search, route search, and route guidance.
(音声認識起動待ち)
まず、制御部18は、周辺検索等の所定の処理のための音声認識起動待ちのときには、起動ワードのみを認識可能な状態にある。図10の表示画面M1は、音声認識起動待ちの画面例である。この表示画面M1には、現在位置51の周辺の地図とともに、現在位置51を示すアイコンが表示されている。表示画面M1の左上には、現在の時刻(10:00)が表示されるとともに、その下方に地図スケールの現在の量的レベルである数字と単位(100m)を示すスケールボタンB1、音声認識を起動させる指示語(音声認識)が表示された音声認識ボタンB2が表示されている。表示画面M1の右下には、キャラクター100の上半身が表示されている。キャラクター100は、標準レイであり、その表示位置は、各種のボタン、現在位置、現在の時刻等の表示を遮らない位置となっている。
(Waiting for voice recognition activation)
First, when waiting for voice recognition activation for predetermined processing such as peripheral search, the control unit 18 is in a state where only the activation word can be recognized. The display screen M1 in FIG. 10 is an example of a screen waiting for voice recognition activation. On the display screen M1, an icon indicating the current position 51 is displayed together with a map around the current position 51. The current time (10:00) is displayed at the upper left of the display screen M1, and the scale button B1 indicating the current quantitative level of the map scale and the unit (100m) and voice recognition are displayed below it. A voice recognition button B2 on which an instruction word (voice recognition) to be activated is displayed is displayed. In the lower right of the display screen M1, the upper body of the character 100 is displayed. The character 100 is a standard ray, and its display position is a position that does not block display of various buttons, the current position, the current time, and the like.
この音声認識起動待ちの状態では、周辺検索等の所定の処理を、音声認識により行うことはできない。このため、地図スケールを変更したいユーザは、スケールボタンB1をタッチすることにより選択する。このようにスケールボタンB1が選択されると、図10の表示画面M1aに示すように、制御部18は、スケールボタンB1の右に+ボタンB1a、−ボタンB1bを表示させる。ユーザは、スケールをアップする場合には+ボタンB1a、スケールをダウンする場合には−ボタンB1bをタッチすることにより選択する。これに応じて、制御部18は、表示している地図のスケールを段階的に変化させる。 In this voice recognition activation waiting state, predetermined processing such as peripheral search cannot be performed by voice recognition. For this reason, the user who wants to change the map scale makes a selection by touching the scale button B1. When the scale button B1 is selected in this way, as shown in the display screen M1a of FIG. 10, the control unit 18 displays the + button B1a and the − button B1b on the right side of the scale button B1. The user makes a selection by touching the + button B1a when the scale is increased, and the-button B1b when the scale is decreased. In response to this, the control unit 18 changes the scale of the displayed map in stages.
このような音声認識起動待ちの状態において、ユーザが、「れーたん、ぼいすこんとろーる」と発話すると、制御部18は、これに対応する応答フレーズを出力するとともに、音声認識を起動する。これにより、例えば、「なにか用事?」という音声をスピーカ20が出力する。そして、制御部18は、表示画面M1を、図11に示す表示画面V1に遷移させる。 In such a state of waiting for voice recognition activation, when the user utters “Raitan, Bois Kontororo”, the control unit 18 outputs a response phrase corresponding to this and activates voice recognition. To do. As a result, for example, the speaker 20 outputs a sound of “something necessary?”. Then, the control unit 18 changes the display screen M1 to the display screen V1 shown in FIG.
なお、音声認識ボタンB2を、ユーザがタッチして選択した場合にも、制御部18は上記のような応答フレーズを出力して、音声認識を起動する。制御部18は、このように手操作でも音声入力でも選択できる機能に対応するボタンを、他のボタンと色分けして表示部5に表示させる。例えば、本実施形態の表示画面では、音声入力により選択可能なボタンを青色で、他のボタンを黒色で表示している。これにより、音声入力可能な機能を、ユーザは視覚によって認識することができる。なお、同じ機能であっても、音声入力により選択可能か否かは、表示画面によって相違する。例えば、図10の表示画面M1、M1aでは、音声認識機能が開始していないため、スケールボタンB1は、音声入力により選択できない状態にあり、黒色で表示されている。そして、後述するように音声認識機能が開始した後は、スケールボタンB1は、音声入力により選択できる状態となるので、青色で表示される。 Even when the user selects the voice recognition button B2 by touching, the control unit 18 outputs the response phrase as described above to activate voice recognition. The control unit 18 causes the display unit 5 to display buttons corresponding to functions that can be selected by either manual operation or voice input in different colors from other buttons. For example, on the display screen of the present embodiment, buttons that can be selected by voice input are displayed in blue, and other buttons are displayed in black. As a result, the user can visually recognize a function that allows voice input. Whether or not the same function can be selected by voice input differs depending on the display screen. For example, in the display screens M1 and M1a in FIG. 10, since the voice recognition function has not started, the scale button B1 cannot be selected by voice input and is displayed in black. After the voice recognition function is started as will be described later, the scale button B1 is displayed in blue because it can be selected by voice input.
(音声認識開始)
図11の表示画面V1は、ナビ(ナビゲーション)待機中の音声認識開始の画面例である。なお、図12の表示画面V1aは、後述するナビ案内開始後の音声認識開始の画面例である。制御部18は、音声認識を起動させると、表示画面V1に、地図スケールのボタンを、音声入力可能であることを示す青色で表示させる。また、制御部18は、表示画面V1に、その他の音声入力可能な機能のボタンを、音声入力可能であることを示す青色で表示させる。これらのボタンのうち、音声解除ボタンB2xは、音声認識を終了させる指示語「音声解除」が表示されたボタンである。周辺ボタンB3は、周辺検索を開始させる指示語「周辺」が表示されたボタンである。周辺検索は、ナビゲーション案内中は機能できないので、制御部18は、周辺ボタンB3は、図12の表示画面V1aでは表示させない。制御部18は、表示画面V1aにおけるV1の周辺ボタンB3と同位置に、案内を中止させる指示語「案内中止」が表示された、案内中止ボタンB4xを表示させる。
(Start voice recognition)
The display screen V1 of FIG. 11 is an example of a screen for starting speech recognition while waiting for navigation (navigation). Note that the display screen V1a in FIG. 12 is a screen example of voice recognition start after the start of navigation guidance described later. When the voice recognition is activated, the control unit 18 displays a map scale button in blue indicating that voice input is possible on the display screen V1. In addition, the control unit 18 causes the display screen V1 to display buttons of other functions that allow voice input in blue indicating that voice input is possible. Among these buttons, the voice release button B2x is a button on which an instruction word “voice release” for ending voice recognition is displayed. The peripheral button B3 is a button on which an instruction word “periphery” for starting a peripheral search is displayed. Since the peripheral search cannot function during navigation guidance, the control unit 18 does not display the peripheral button B3 on the display screen V1a of FIG. The control unit 18 displays a guidance stop button B4x on which an instruction word “stop guidance” is displayed at the same position as the peripheral button B3 of V1 on the display screen V1a.
また、表示画面V1、V1aには、スケールボタンB1、音声解除ボタンB2x、案内中止ボタンB4xと同列に、音量ボタンB5、輝度ボタンB6が表示される。音量ボタンB5は、音量変更を開始させる指示語「音量」と、現在の音の量的レベルを示す数字「5」が表示されたボタンである。輝度ボタンB6は、輝度変更を開始させる指示語「輝度」と、現在の輝度の量的レベルを示す数字「5」が表示されたボタンである。さらに、表示画面V1における右上には、自宅ボタンB7が表示される。自宅ボタンB7は、自宅を目的地とする経路案内を行わせる指示語「自宅」が表示されたボタンである。これらの指示語、量的レベルを示す数字は、上記の図5、図6に示したように、認識ワードとして登録されている語句である。 On the display screens V1 and V1a, a volume button B5 and a luminance button B6 are displayed in the same row as the scale button B1, the voice release button B2x, and the guidance stop button B4x. The volume button B5 is a button on which an instruction word “volume” for starting the volume change and a number “5” indicating the quantitative level of the current sound are displayed. The luminance button B6 is a button on which an instruction word “luminance” for starting luminance change and a number “5” indicating a quantitative level of the current luminance are displayed. Further, a home button B7 is displayed on the upper right of the display screen V1. The home button B7 is a button on which an instruction word “home” for performing route guidance with the home as a destination is displayed. These instruction words and numbers indicating the quantitative levels are words and phrases registered as recognition words as shown in FIGS.
このように、複数のボタンによって構成される項目の表示領域は、背後の画像である地図が見える部分を有している。つまり、各ボタンの間には、隙間が開いていて、背後の地図が見えている。一方、キャラクター100の表示領域は、1つのボタンよりも大きく、地図と重なる部分において、背後が見える部分を有しない。なお、髪と身体、手足と胴体などの間に生じる隙間においては、背後の地図が見える部分が生じる場合があるが、キャラクター100の表示領域としては、このような部分を除く。 As described above, the display area of the item constituted by a plurality of buttons has a portion where a map as a background image can be seen. In other words, there is a gap between the buttons, and you can see the map behind. On the other hand, the display area of the character 100 is larger than one button and does not have a portion where the back can be seen in the portion overlapping the map. Note that in the gaps that occur between the hair and body, the limbs and the torso, etc., there may be a portion where the map behind can be seen, but such a portion is excluded from the display area of the character 100.
制御部18が表示部5に表示させるキャラクター100の位置は、現在位置や案内ルートの視認を邪魔しない位置である。図11の表示画面V1、図12の表示画面V1aでは、キャラクター100は、画面における右下に寄った位置に表示されており、上記の各ボタンは、これと左右若しくは上下の関係で反対側に寄った位置、左上若しくは右上に表示されている。 The position of the character 100 displayed on the display unit 5 by the control unit 18 is a position that does not interfere with the visual recognition of the current position or the guidance route. In the display screen V1 of FIG. 11 and the display screen V1a of FIG. 12, the character 100 is displayed at a position close to the lower right in the screen. It is displayed at the close position, upper left or upper right.
(ジャンル選択)
上記のナビ待機中の表示画面V1において、ユーザが、「しゅうへん」と発話すると、制御部18は、表示画面V1を、図13に示す周辺1の表示画面S1に遷移させるとともに、応答フレーズ「ねえ、どこ行く?」の音声を出力させる。このように、複数回の選択を行うことにより処理を進める周辺検索において、キャラクター100が、ジャンル選択という次の選択を促す発話を行うことにより、ユーザは次に何をすべきかが即座にわかるのでよい。一方、ナビ案内中のV1aの表示画面においては、周辺検索の機能は働かない。このため、ユーザが、「しゅうへん」と発話しても、これを認識した制御部18は、「何て言ったの? わかんない。」というキャラクターの音声を出力させて、周辺1の画面に遷移させない。このように、次に進めない処理を選択した場合には、キャラクター100が、これに対応した応答フレーズを発話することにより、ユーザが、当該表示画面ではその処理を行うことができないことがわかるのでよい。
(Genre selection)
When the user speaks “Shuhen” on the display screen V1 waiting for navigation described above, the control unit 18 changes the display screen V1 to the display screen S1 of the peripheral 1 shown in FIG. "Hey, where are you going?" In this way, in the peripheral search that advances the processing by making multiple selections, the character 100 makes an utterance that prompts the next selection of genre selection, so that the user can immediately know what to do next. Good. On the other hand, the peripheral search function does not work on the display screen of V1a during navigation guidance. For this reason, even if the user utters “Shuhen”, the control unit 18 that has recognized this outputs the voice of the character “What did you say? Do not transition. As described above, when a process that cannot be proceeded is selected, the character 100 speaks a response phrase corresponding to the character 100, so that the user cannot perform the process on the display screen. Good.
制御部18は、上記のように、ユーザからの音声認識を起動させる音声の入力→これに対して用事を尋ねるキャラクターの応答フレーズの出力→これに対してユーザからの機能を開始させる音声の入力、というように、少なくとも一往復のやり取りがなされる対話を基本に処理を進行させる。この対話の中における応答フレーズの出力は、その応答フレーズが示す意味内容とともに、キャラクターがユーザの音声を認識したことを示す機能を果たしている。 As described above, the control unit 18 inputs the voice that activates the voice recognition from the user → outputs the response phrase of the character that asks for the task in response to it → the voice input that starts the function from the user As described above, the process proceeds based on a dialogue in which at least one round-trip exchange is performed. The output of the response phrase in the dialogue plays a function of indicating that the character recognizes the user's voice together with the meaning content indicated by the response phrase.
上記のように、ユーザの発話により遷移した図13の表示画面S1には、制御部18は、認識ワードとしてのジャンル名が表示されたジャンルボタンB8を表示させる。これらのジャンルボタンB8に表示されたジャンル名は、図5のリスト番号4の認識ワードに対応している。このジャンルボタンB8は、ユーザがタッチして選択することもできる。ジャンル名は、漢字を含めず、ひらがな若しくはカタカナとしているので、運転者等が何を発話すればよいかが、視覚で容易にわかるのでよい。 As described above, the control unit 18 displays the genre button B8 on which the genre name as the recognition word is displayed on the display screen S1 of FIG. The genre names displayed on these genre buttons B8 correspond to the recognition word of list number 4 in FIG. This genre button B8 can also be selected by touching by the user. The genre name does not include kanji and is hiragana or katakana, so it is easy to see visually what the driver should speak.
この表示画面S1において、ユーザが、ボタンに表示された認識ワード、「ふぁみれす」を発話すると、制御部18は、キャラクターが応答フレーズ「一人ぼっちでファミレス行くの?」という音声を出力させる。すると、制御部18は、ファミリーレストランの候補を検索する処理に移行する。このため、ジャンル選択のフェーズとしては、さらにユーザが何らかの選択する必要はない。つまり、「一人ぼっちでファミレス行くの?」は、さらに次のジャンル選択は必要ないことをユーザにわからせる音声となっているのでよい。また、この応答フレーズは、話し相手であるキャラクター100以外は、自分が一人であることをユーザに意識させて、よりキャラクター100との親密さを高めることができるのでよい。 When the user utters the recognition word “Famires” displayed on the button on the display screen S1, the control unit 18 causes the character to output a voice of the response phrase “go alone and go to the family restaurant?”. Then, the control part 18 transfers to the process which searches the candidate of a family restaurant. For this reason, the user does not need to make any further selections as the genre selection phase. In other words, “Do you go to the family restaurant alone?” May be a voice that tells the user that it is not necessary to select the next genre. In addition, this response phrase can make the user aware that he is alone other than the character 100 who is the conversation partner, and can further increase the intimacy with the character 100.
また、ユーザが表示画面S1に表示されたジャンル以外のジャンルから選択したい場合のために、制御部18は、表示画面S1に、次のページへ遷移させる認識ワード「2ページ」を表示したページボタンB9を表示させている。この表示画面S1において、ユーザは、「にぺーじ」又は「つぎ」と発話すると、制御部18は、表示部5に表示させる画面を、図14の周辺2の表示画面S1aに遷移させる。 In addition, when the user wants to select from a genre other than the genre displayed on the display screen S1, the control unit 18 displays a page button that displays the recognition word “2 pages” for transition to the next page on the display screen S1. B9 is displayed. In this display screen S1, when the user speaks “Nippon” or “Next”, the control unit 18 causes the screen to be displayed on the display unit 5 to transition to the display screen S1a in the periphery 2 in FIG.
この表示画面S1aには、図5のリスト番号5の認識ワードに対応するジャンル名が表示されたジャンルボタンB8が表示される。ユーザが、ジャンルボタンB8に表示されたジャンル名の認識ワードを発話すると、制御部18は、これに対する応答フレーズを出力させる。また、制御部18は、表示画面S1aに、前のページへ遷移させる認識ワード「1ページ」を表示したページボタンB9を表示させている。この表示画面S1aにおいて、ユーザは、「いちぺーじ」又は「まえ」と発話すると、制御部18は、表示部5に表示させる画面を、図13の周辺1の表示画面S1に遷移させる。 On this display screen S1a, a genre button B8 displaying a genre name corresponding to the recognition word of list number 5 in FIG. 5 is displayed. When the user utters the recognition word of the genre name displayed on the genre button B8, the control unit 18 outputs a response phrase to the utterance. In addition, the control unit 18 displays a page button B9 displaying the recognition word “1 page” to be changed to the previous page on the display screen S1a. When the user utters “1 page” or “mae” on the display screen S1a, the control unit 18 changes the screen to be displayed on the display unit 5 to the display screen S1 of the peripheral 1 in FIG.
(施設選択)
このように、ジャンルが選択されると、制御部18は、当該ジャンルに属する現在地周辺の施設検索を行い、表示部5に表示させる画面を、図15に示すように、施設選択1の表示画面S2に遷移させる。この表示画面S2は、施設検索の結果が表示される。つまり、表示画面S2には、検索でヒットした施設が、地図上の所在地に、現在地に近い順に番号が付されたアイコンC1で表示されている。図15では、円形内に数字1〜5を表示したアイコンC1が、地図上の位置に表示されている。このように周辺検索の結果は、ユーザにとって必要な目標(ジャンル)の施設しか表示しない。このとき、地図表示をグレースケールにして、アイコンC1をカラー表示することにより、施設の位置や番号がよりわかりやすくなる。また、別の画面からS2の画面に遷移した場合、制御部18は、「どこにしよっか?」といった目的地の選択を促す応答フレーズを出力させる。
(Facility selection)
In this way, when a genre is selected, the control unit 18 searches for facilities around the current location belonging to the genre and displays a screen to be displayed on the display unit 5 as shown in FIG. Transition to S2. On this display screen S2, the result of the facility search is displayed. That is, on the display screen S2, the facility hit by the search is displayed with the icon C1 numbered in the order from the current location to the location on the map. In FIG. 15, an icon C1 displaying numbers 1 to 5 in a circle is displayed at a position on the map. As described above, the result of the peripheral search displays only the facilities of the target (genre) necessary for the user. At this time, by making the map display grayscale and displaying the icon C1 in color, the location and number of the facility can be more easily understood. When the screen transitions from another screen to the screen S2, the control unit 18 outputs a response phrase that prompts the user to select a destination such as “Where do you want?”.
ユーザは、表示画面S2において、アイコンC1の表示に合わせた内容で、施設を選択する。つまり、所望の施設のアイコンC1に表示された番号を発話すると、制御部18はこれに対応する応答フレーズを出力させて、当該施設までのルート探索を行う。例えば、「いち」又は「いちばん」を発話すると、キャラクター100が「1番ね」と発話して、1番で表示された施設までのルート探索が実行される。このように、ユーザが発話した番号をキャラクター100が発話することにより、ユーザが自らの指示内容を確認することができる。 The user selects a facility on the display screen S2 with the content that matches the display of the icon C1. That is, when the number displayed on the icon C1 of the desired facility is uttered, the control unit 18 outputs a response phrase corresponding to this and searches for a route to the facility. For example, when “1” or “1st” is spoken, the character 100 speaks “No. 1”, and a route search to the facility indicated by No. 1 is executed. In this way, when the character 100 speaks the number spoken by the user, the user can confirm his / her instruction content.
なお、表示画面S2には、スケールボタンB1と、リストボタンB10が表示されている。スケールボタンB1は、上記のように、地図スケールを変更するボタンである。この表示画面S2において、地図のスケールを変更したいユーザが、「すけーる」と発話すると、制御部18は、どのスケールに変更するかを促す応答フレーズを出力し、図16に示す施設選択2の表示画面S2aに遷移する。例えば、ユーザが「すけーる」と発話すると、制御部18は、「何か指示して」という応答フレーズを出力し、図16に示すように、スケールを変更するための+ボタンB1a、−ボタンB1bを表示させる。音声入力によるスケール変更処理については、後述する。 Note that a scale button B1 and a list button B10 are displayed on the display screen S2. The scale button B1 is a button for changing the map scale as described above. In this display screen S2, when the user who wants to change the scale of the map utters “squeal”, the control unit 18 outputs a response phrase prompting which scale to change, and the facility selection 2 shown in FIG. Transition to the display screen S2a. For example, when the user utters “squeal”, the control unit 18 outputs a response phrase “instruct something” and, as shown in FIG. 16, + buttons B1a, − for changing the scale. Button B1b is displayed. The scale changing process by voice input will be described later.
リストボタンB10は、施設を選択する画面を、アイコン表示からリスト表示に遷移させるボタンである。表示画面S2において、ユーザが、「りすと」又は「りすとひょうじ」と発話すると、制御部18は、表示部5に表示させる画面を、図17に示す施設選択1の表示画面S2_listに遷移させる。このS2_listの表示画面には、検索された施設が、アイコンではなく、施設選択ボタンB11が現在地に近い順に並べられたリストで表示される。各施設選択ボタンB11は、現在地に近い順に付された番号、施設名、現在位置から施設までの距離、所在地等が表示される。ユーザは、施設選択ボタンB11をタッチするか、ボタンに表示された番号を発話することにより、上記と同様に、施設を選択できる。施設選択ボタンB11には、番号の他、施設名、現在位置からの距離、所在地等が表示されるので、ユーザは、検索された施設についてのより詳細な情報を得ることができるのでよい。 The list button B10 is a button for transitioning the screen for selecting a facility from icon display to list display. When the user speaks “Risuto” or “Risuto Hyojo” on the display screen S2, the control unit 18 changes the screen to be displayed on the display unit 5 to the display screen S2_list for the facility selection 1 shown in FIG. Let On the display screen of S2_list, the searched facilities are not displayed as icons but as a list in which facility selection buttons B11 are arranged in order from the current location. Each facility selection button B11 displays a number, a facility name, a distance from the current position to the facility, a location, and the like given in order from the current location. The user can select a facility in the same manner as described above by touching the facility selection button B11 or speaking the number displayed on the button. In addition to the number, the facility selection button B11 displays the facility name, the distance from the current position, the location, and the like, so that the user may be able to obtain more detailed information about the searched facility.
制御部18は、検索された候補の数が、1ページの表示可能数(例えば、5個)よりも多い場合には、次ページが存在することを示す「2ページ」を表示したページボタンB9を表示させる。制御部18は、候補が1ページの表示可能数未満の場合には、ページボタンB9は非表示とする。ユーザは、「にぺーじ」又は「つぎ」と発話すると、制御部18は、図18に示す施設選択2の表示画面S2a_listに遷移させる。この表示画面S2a_listに表示されたリストにおける施設の選択処理は、上記と同様である。また、制御部18は、表示画面S2_listに、前のページへ遷移させる認識ワード「1ページ」を表示したページボタンB9を表示させる。この表示画面S1aにおいて、ユーザは、「いちぺーじ」又は「まえ」と発話すると、制御部18は、表示部5に表示させる画面を、図16の施設選択1の表示画面S1に遷移させる。 When the number of retrieved candidates is greater than the displayable number of one page (for example, five), the control unit 18 displays a page button B9 displaying “2 pages” indicating that the next page exists. Is displayed. When the number of candidates is less than the displayable number of one page, the control unit 18 does not display the page button B9. When the user utters “ni page” or “next”, the control unit 18 makes a transition to the display screen S2a_list of the facility selection 2 shown in FIG. The facility selection process in the list displayed on the display screen S2a_list is the same as described above. In addition, the control unit 18 displays a page button B9 displaying the recognition word “1 page” to be changed to the previous page on the display screen S2_list. In this display screen S1a, when the user utters “1 page” or “mae”, the control unit 18 changes the screen to be displayed on the display unit 5 to the display screen S1 for facility selection 1 in FIG.
(ルート選択)
以上のように、施設が選択されると、制御部18は、現在位置51から目的地52とする施設までのルート53を探索し、その結果を図19に示すルート選択1の表示画面R1に表示させる。探索されたルート53は、あらかじめ設定されたルート条件に基づいて、最も優先させるべきルート53が色分け表示される。このとき、キャラクター100は、ルート案内方向により、地図上で邪魔にならない位置に移動する。つまり、キャラクター100を、地図上の現在位置を含む探索されたルート表示を遮らない位置に表示させる。ただし、上記のように、キャラクター100は、既に画面の右下に表示されており、表示画面R1の例では、探索されたルートを邪魔しないので、この例では移動はない。
(Route selection)
As described above, when the facility is selected, the control unit 18 searches for the route 53 from the current position 51 to the facility as the destination 52, and displays the result on the display screen R1 of the route selection 1 shown in FIG. Display. The searched route 53 is color-coded and displayed for the route 53 that should be given the highest priority based on preset route conditions. At this time, the character 100 moves to an unobstructed position on the map according to the route guidance direction. That is, the character 100 is displayed at a position that does not block the searched route display including the current position on the map. However, as described above, the character 100 is already displayed at the lower right of the screen, and in the example of the display screen R1, it does not interfere with the searched route, so there is no movement in this example.
一方、制御部18は、表示画面R1において、複数のボタンを、キャラクターと反対側、つまり左側に表示させる。複数のボタンは、数が少なければ、探索されたルート53に重なる部分は生じない。もし、ボタン数が多くなったとしても、各ボタンの間には、隙間が開いていて、地図やルート53が見える。これらのボタンには、スケールボタンB1が含まれる。ユーザが、スケール変更したい場合の操作は、図20に示したルート選択2の表示画面R1aにおいて行うが、これは後述する。 On the other hand, the control unit 18 displays a plurality of buttons on the display screen R1 on the side opposite to the character, that is, on the left side. If the number of the plurality of buttons is small, a portion overlapping the searched route 53 does not occur. Even if the number of buttons increases, there is a gap between the buttons so that the map and the route 53 can be seen. These buttons include a scale button B1. The operation when the user wants to change the scale is performed on the display screen R1a of the route selection 2 shown in FIG. 20, which will be described later.
さらに、表示画面R1には、ルート条件を変更する指示語である「ルート条件」が表示されたルート条件ボタンB12が表示されている。ユーザが、「じょうけん」又は「るーとじょうけん」と発話すると、制御部18は、図21に示したルート選択3の表示画面R1bに遷移させる。この表示画面R1bにおいては、「ルート条件」のボタンの横に、「高速道」、「一般道」、「推奨」という優先すべき探索条件を選択する条件選択ボタンB12a、B12b、B12cが表示される。この表示画面R1bにおいて、ユーザが、「いっぱんどう」、「こうそくどう」又は「すいしょう」と発話すると、制御部18は、それぞれに応じた応答フレーズを出力して、探索条件を発話された条件に変更し、変更された探索条件で最も優先されるルート53を表示させる。例えば、制御部18は、一般道であれば、「うんうん、一般道でゆっくり行こう。」、高速道であれば、「高速道で時間短縮ね。」というように、それぞれの探索条件の利点を示す応答フレーズを出力する。また、推奨道であれば、「私に任せてくれるのね。」というキャラクターとの信頼関係を示す応答フレーズを出力する。 Further, the display screen R1 displays a route condition button B12 on which “route condition” as an instruction word for changing the route condition is displayed. When the user utters “Jyoken” or “Lutojyoken”, the control unit 18 makes a transition to the display screen R1b of the route selection 3 shown in FIG. On this display screen R1b, condition selection buttons B12a, B12b, and B12c for selecting search conditions to be prioritized such as “highway”, “general road”, and “recommended” are displayed next to the “route condition” button. The In this display screen R1b, when the user utters “Idodado”, “Kousokudo” or “Suisho”, the control unit 18 outputs a response phrase corresponding to each, and the search condition is uttered. Change to the condition and display the route 53 having the highest priority under the changed search condition. For example, the control unit 18 determines that each search condition is “Yes, let's go slowly on a general road” if it is a general road, and “Shorten time on a highway” if it is a highway. Output a response phrase that shows the benefits. If it is a recommended route, a response phrase indicating a trusting relationship with the character “I will leave it to you” is output.
そして、表示画面R1には、表示されたルート53による案内を希望する場合に、指示語である「案内開始」が表示された案内開始ボタンB13が表示されている。ユーザが、所望のルート53が表示された画面において、「あんないかいし」、「あんないよろしく」又は「あんないして」と発話すると、制御部18は、「案内開始。言う通りに運転してくれ」という応答フレーズを出力して、ルート案内を開始する。 The display screen R1 displays a guidance start button B13 on which “start guidance”, which is an instruction word, is displayed when guidance by the displayed route 53 is desired. When the user utters “Anonymous”, “Annoying” or “Annoying” on the screen on which the desired route 53 is displayed, the control unit 18 reads “Start guidance. Output a response phrase "Get me" and start route guidance.
さらに、ユーザが、周辺検索をさせる「しゅうへん」又は戻るフレーズである「もどる」、「とりけし」若しくは「やりなおし」を発話すると、制御部18は、「再検索」という応答フレーズを出力して、図13に示したS1の表示画面に遷移させる。その後の周辺検索処理は、上記の通りである。戻るフレーズの発話に対しては、図15〜図21に示した表示画面S2、S2a、S2_list、S2a_list、R1、R1a、R1bにおいては、同様の処理となる。 Further, when the user utters “Shuhen” for searching around or “Return”, “Takeshi” or “Redo” which is a return phrase, the control unit 18 outputs a response phrase “Re-search”, A transition is made to the display screen of S1 shown in FIG. Subsequent search processing is as described above. For the utterance of the return phrase, the same processing is performed on the display screens S2, S2a, S2_list, S2a_list, R1, R1a, and R1b shown in FIGS.
なお、図11、12に示した音声認識開始の表示画面V1、V1aにおける戻るフレーズの発話に対しては、制御部18は、「また呼んでね。」という応答フレーズを出力して、図10に示した表示画面M1に遷移させて音声認識起動待ちに戻る。図13、14に示した周辺検索の表示画面S1、S1aにおける戻るフレーズの発話に対しては、制御部18は、「最初からね。」という応答フレーズを出力して、図11に示した音声認識開始の表示画面V1に遷移させる。このように、同じ認識ワードであっても、現在の表示画面及びこれに対応するフェーズに応じて、遷移させる表示画面が相違している。つまり、戻るフレーズに対して、遷移させる表示画面を変えることにより、戻り過ぎをなくして、ユーザが再度やり直す手間を抑えることができる。 In response to the utterance of the return phrase on the voice recognition start display screens V1 and V1a shown in FIGS. 11 and 12, the control unit 18 outputs a response phrase “Please call me again.” The display screen M1 shown in FIG. 4 is transitioned to and the process returns to the voice recognition activation waiting. In response to the utterance of the return phrase on the peripheral search display screens S1 and S1a shown in FIGS. 13 and 14, the control unit 18 outputs a response phrase “From the beginning” and the voice shown in FIG. Transition to the display screen V1 for starting recognition. As described above, even for the same recognition word, the display screen to be changed differs depending on the current display screen and the phase corresponding thereto. That is, by changing the display screen for transition to the return phrase, it is possible to eliminate the excessive return and save the user from having to try again.
そして、本実施形態では、戻るフレーズとは別に、解除フレーズを用意している。ユーザが、「おんせいかいじょ」、「しゅうりょう」又は「げんざいち」と発話すると、常に、音声認識起動待ちの表示画面M1に戻る。このとき、制御部18は、「また呼んでね。」と、次回の利用を促す応答フレーズを出力させる。このように、表示画面やフェーズに応じて、戻る位置が異なる認識ワードと、一定の位置に戻る認識ワードとを登録しておくことで、ユーザが状況に応じて所望の画面への推移をすばやく行うことができる。 In this embodiment, a release phrase is prepared separately from the return phrase. When the user utters “Onseika”, “Shuyo”, or “Genzaichi”, the display screen M1 always waits for voice recognition activation. At this time, the control unit 18 outputs a response phrase prompting the next use, “Please call me again.” In this way, by registering recognition words that return in different positions and recognition words that return to a certain position according to the display screen and phase, the user can quickly transition to the desired screen according to the situation. It can be carried out.
さらに、画面やフェーズに応じて、処理できない認識ワードが発話された場合には、制御部18は、その認識ワードでは処理できないことを明示する応答フレーズを出力することにより、ユーザに、別のワードを発話すべきことを促すことができる。例えば、図12の表示画面V1a、図15〜図18の表示画面S2、S2a、S2_list、S2a_listでは、「何って言ったの? わかんない。」という応答フレーズを出力している。 Furthermore, when a recognized word that cannot be processed is spoken according to the screen or phase, the control unit 18 outputs a response phrase that clearly indicates that the recognized word cannot be processed, so that another word can be displayed to the user. Can be encouraged to speak. For example, on the display screen V1a in FIG. 12 and the display screens S2, S2a, S2_list, and S2a_list in FIGS. 15 to 18, a response phrase “What are you saying? I don't know.” Is output.
《地図スケール変更》
制御部18は、対話に応じて、機能を変更する処理として、地図スケール、音量、輝度を変更する処理を行う。まず、地図スケールの変更の手順を、図22を参照して説明する。なお、図15の表示画面S2から、図16の表示画面S2aに遷移した場合、図19の表示画面R1から、図20の表示画面R1aに遷移した場合の地図スケールの変更も同様である。
《Map scale change》
The control unit 18 performs a process of changing the map scale, volume, and luminance as a process of changing the function in response to the dialogue. First, the procedure for changing the map scale will be described with reference to FIG. The change in the map scale when the display screen S2 in FIG. 15 is changed to the display screen S2a in FIG. 16 or the display screen R1 in FIG. 19 is changed to the display screen R1a in FIG.
音声認識を開始した図11、12の表示画面V1、V1aにおいて、地図スケールを変更したいユーザが「すけーる」と発話すると、制御部18は、図22の表示画面A1、A1aに遷移させる。表示画面A1は、表示画面V1から遷移した画面であり、表示画面A1aは表示画面V1aから遷移した画面である。表示画面A1では、別の画面(シーン)から遷移した場合のみ、制御部18は、「何か指示して。」という応答フレーズを出力させる。このように、画面が切り替わっても、キャラクター100が指示を促す発話をすることにより、いつも傍にいることをユーザに意識させることができるのでよい。また、表示画面A1aは、ナビ案内中における地図スケールの変更画面である。 When the user who wants to change the map scale speaks on the display screens V1 and V1a of FIGS. 11 and 12 in which voice recognition is started, the control unit 18 transitions to the display screens A1 and A1a of FIG. The display screen A1 is a screen transitioned from the display screen V1, and the display screen A1a is a screen transitioned from the display screen V1a. On the display screen A1, the control unit 18 outputs a response phrase “specify something” only when a transition is made from another screen (scene). In this way, even if the screen is switched, it is only necessary to make the user aware that he / she is always nearby by uttering the character 100 to prompt an instruction. The display screen A1a is a map scale change screen during navigation guidance.
この表示画面A1、A1aにおいては、スケールボタンB1の右横に、+ボタンB1a、−ボタンB1bが表示されている。上記のように、ユーザが+ボタンB1aをタッチすると、制御部18は、地図スケールを段階的にアップさせる。また、ユーザが−ボタンB1bをタッチすると、制御部18は、地図スケールを段階的にダウンさせる。また、本実施形態では、ユーザが「かくだい」又は「しょうさい」と発話すると、これを認識した制御部18は、地図スケールを段階的にアップさせる。ユーザが「しゅくしょう」、「こういき」と発話すると、これを認識した制御部18は、地図スケールを段階的にダウンさせる。 On the display screens A1 and A1a, a + button B1a and a-button B1b are displayed on the right side of the scale button B1. As described above, when the user touches the + button B1a, the control unit 18 increases the map scale stepwise. In addition, when the user touches the-button B1b, the control unit 18 decreases the map scale step by step. Further, in the present embodiment, when the user utters “crack” or “shosai”, the control unit 18 that recognizes this increases the map scale step by step. When the user utters “Shukusho” and “Kouiki”, the control unit 18 that recognizes this lowers the map scale step by step.
そして、制御部18は、スケールアップのときには、「拡大したよ。」、スケールダウンのときは「少し広域にしてみました。」のように、どのような変更をしたかを確認できる応答フレーズを出力させる。これにより、ユーザは、どのような処理がなされたかを音声で確認できる。また、制御部18は、スケールを変えるとスケールの上限又は下限を超えてしまう場合には、「ぶぶ〜、限界なんだけど。」のように、変更できない旨を知らせる応答フレーズを出力させる。これにより、ユーザは、上限になったか下限になったかを確認できずに無駄な変更指示を繰り返すことを防止できる。 Then, the control unit 18 can confirm how the change has been made, such as “I enlarged” when scaling up and “I tried to make it a little wider” when scaling down. Is output. Thereby, the user can confirm by voice what processing has been performed. When the scale is changed and the upper limit or lower limit of the scale is exceeded, the control unit 18 outputs a response phrase notifying that the change cannot be made, such as “Buh ~ limit”. Thereby, the user can prevent repeating a useless change instruction without confirming whether the upper limit or the lower limit is reached.
また、ユーザが「じゅうめーとる」、「いちきろ」のように、所望のスケールの値を発話すると、これを認識した制御部18は、地図スケールを、発話された値にダイレクトに変更させる。このとき、制御部18は、ユーザの発話に対応する応答フレーズとして、「10メートル」、「1キロ」のように、入力した値に対応する応答フレーズを出力させる。これにより、ユーザは、自分が指示したスケールのレベルを確認できる。 In addition, when the user speaks a desired scale value, such as “Jumomeru” or “Ichigiro”, the control unit 18 that recognizes the value directly changes the map scale to the spoken value. . At this time, the control unit 18 outputs a response phrase corresponding to the input value, such as “10 meters” or “1 kilometer”, as the response phrase corresponding to the user's utterance. Thereby, the user can confirm the level of the scale instructed by the user.
そして、ユーザが、「すけーる」と発話するか、戻るフレーズを発話すると、制御部18は、「設定完了です。」というように、スケール変更処理が完了した旨を知らせる応答フレーズを出力させる。解除フレーズでの処理は、上記と同様である。 When the user utters “squeal” or utters a return phrase, the control unit 18 outputs a response phrase informing that the scale change processing is complete, such as “setting is complete”. . The processing with the release phrase is the same as described above.
また、表示画面A1の場合には、自宅ボタンが表示されていて、ユーザが、このボタンをタッチするか、「じたく」と発話すると、制御部18は、次のように処理する。まず、あらかじめ自宅登録がなされていない場合には、制御部18は、「自宅って言うけど、私に教えてないでしょ。」というように、自宅登録を促す応答フレーズを出力させる。これにより、特定の機能を実行する前提として必要となる処理を、音声により促すので、当該機能を利用するために、何が必要かをユーザに理解させることができるのでよい。自宅登録がなされている場合には、制御部18は、「そうだね、帰ろっか。」という応答フレーズを出力させ、自宅へのルートを探索する。これにより、ユーザは、キャラクターが一緒に帰ってくれるような印象を得ることができるのでよい。 Further, in the case of the display screen A1, the home button is displayed, and when the user touches this button or utters “jitaku”, the control unit 18 performs the following process. First, when home registration has not been made in advance, the control unit 18 outputs a response phrase that prompts home registration, such as “I say home but don't tell me.” Thereby, since a process required as a premise for executing a specific function is urged by voice, the user may be able to understand what is necessary in order to use the function. When the home registration has been made, the control unit 18 outputs a response phrase “Yes, return?” And searches for a route to the home. Thereby, the user may obtain an impression that the character returns together.
なお、表示画面A1aの場合には、ナビ案内中のため、特定の機能が制限される。つまり、周辺検索と、自宅へのルート案内については、表示画面A1aにおいては、実行できない。従って、ユーザが「しゅうへん」と発話しても、「何って言ったの? わかんない」という応答フレーズを出力させて、周辺検索を行わない。また、「じたく」と発話しても、制御部18は、「何って言ったの? わかんない」という応答フレーズを出力させて、自宅へのルート探索は行わない。このように、ユーザは、応答フレーズにより、処理ができないことを知ることができるのでよい。 In the case of the display screen A1a, since the navigation guidance is being performed, specific functions are limited. That is, the peripheral search and the route guidance to the home cannot be executed on the display screen A1a. Therefore, even if the user utters “Shuhen”, a response phrase “What did you say? I don't know” is output, and the surrounding search is not performed. Further, even if “jitaku” is spoken, the control unit 18 outputs a response phrase “What did you say? I don't know” and does not search for a route to the home. In this way, the user may be able to know that processing cannot be performed with the response phrase.
《音量変更》
音量変更の処理手順を、図23を参照して説明する。音声認識を開始した図11、12の表示画面V1、V1aにおいて、音量を変更したいユーザが「おんりょう」と発話すると、制御部18は、図23の表示画面A2、A2aに遷移させる。表示画面A2は、表示画面V1から遷移した画面であり、表示画面A2aは、表示画面V1aから遷移した画面である。表示画面A2では、別の画面(シーン)から遷移した場合のみ、制御部18は、「何か指示して。」という応答フレーズを出力させる。このように、画面が切り替わっても、キャラクター100が指示を促す発話をすることにより、いつも傍にいることをユーザに意識させることができるのでよい。また、表示画面A2aは、ナビ案内中における音量変更画面である。
<Change volume>
The procedure for changing the volume will be described with reference to FIG. In the display screens V1 and V1a of FIGS. 11 and 12 in which the voice recognition is started, when the user who wants to change the volume speaks “onryo”, the control unit 18 makes a transition to the display screens A2 and A2a of FIG. The display screen A2 is a screen that has transitioned from the display screen V1, and the display screen A2a is a screen that has transitioned from the display screen V1a. On the display screen A2, the control unit 18 outputs a response phrase “specify something” only when a transition is made from another screen (scene). In this way, even if the screen is switched, it is only necessary to make the user aware that he / she is always nearby by uttering the character 100 to prompt an instruction. The display screen A2a is a volume change screen during navigation guidance.
この表示画面A2、A2aにおいては、音量ボタンB5の右横に、+ボタンB5a、−のボタンB5bが表示されている。ユーザが+ボタンB5aをタッチすると、制御部18は、音量を段階的にアップさせる。また、ユーザが−ボタンB5bをタッチすると、制御部18は、音量を段階的にダウンさせる。また、本実施形態では、ユーザが「あっぷ」又は「おおきく」と発話すると、これを認識した制御部18は、音量を段階的にアップさせる。ユーザが「だうん」又は「ちいさく」と発話すると、これを認識した制御部18は、音量を段階的にダウンさせる。 On the display screens A2 and A2a, a + button B5a and a-button B5b are displayed on the right side of the volume button B5. When the user touches the + button B5a, the control unit 18 increases the volume in stages. Further, when the user touches the-button B5b, the control unit 18 decreases the sound volume step by step. Further, in the present embodiment, when the user speaks “App” or “Great”, the control unit 18 that recognizes this increases the volume in stages. When the user speaks “Daun” or “Chiisaku”, the control unit 18 that recognizes this speaks down the volume in steps.
そして、制御部18は、音量アップのときには、「音量ア〜ップ」、音量ダウンのときは「音量ダウ〜ン」のように、どのような変更をしたかを確認できる応答フレーズを出力させる。これにより、ユーザは、どのような処理がなされたかを音声で確認できる。また、制御部18は、音量を変えると音量の上限又は下限を超えてしまう場合には、「ぶぶー、限界なんだけど。」のように、変更できない旨を知らせる応答フレーズを出力させる。これにより、ユーザは、上限になったか下限になったかを確認できずに無駄な変更指示を繰り返すことを防止できる。 Then, the control unit 18 outputs a response phrase that can confirm what kind of change has been made, such as “volume up” when the volume is increased, and “volume down” when the volume is decreased. . Thereby, the user can confirm by voice what processing has been performed. Further, when the volume exceeds the upper limit or lower limit of the volume when the volume is changed, the control unit 18 outputs a response phrase notifying that the change cannot be made, such as “Buh, it is the limit.” Thereby, the user can prevent repeating a useless change instruction without confirming whether the upper limit or the lower limit is reached.
また、ユーザが「ぜろ」、「いち」、「に」のように、所望の音量の値を発話すると、これを認識した制御部18は、音量を、発話された値にダイレクトに変更させる。このとき、制御部18は、ユーザの発話に対応する応答フレーズとして、「ゼロだよ」、「1だよ」、「2だよ」のように、入力した値に対応する応答フレーズを出力させる。これにより、ユーザは、自分が指示した音量のレベルを確認できる。 Further, when the user utters a desired volume value such as “Zero”, “Ichi”, “Ni”, the control unit 18 that recognizes the utterance directly changes the volume to the uttered value. . At this time, the control unit 18 outputs a response phrase corresponding to the input value, such as “It is zero”, “1”, or “2” as the response phrase corresponding to the user's utterance. . As a result, the user can confirm the level of the sound volume instructed by the user.
そして、ユーザが、「おんりょう」と発話するか、戻るフレーズを発話すると、制御部18は、「設定完了です。」というように、音量変更処理が完了した旨を知らせる応答フレーズを出力させる。解除フレーズでの処理は、上記と同様である。その他の処理は、上記の地図スケールで説明した処理と同様である。 Then, when the user utters “onryo” or utters a return phrase, the control unit 18 outputs a response phrase informing that the volume change processing is complete, such as “setting is complete”. The processing with the release phrase is the same as described above. Other processing is the same as the processing described on the map scale.
《輝度変更》
輝度変更の処理手順を、図24を参照して説明する。音声認識を開始した図11、12の表示画面V1、V1aにおいて、輝度を変更したいユーザが「きど」と発話すると、制御部18は、図24の表示画面A3、A3aに遷移させる。表示画面A3は、表示画面V1から遷移した画面であり、表示画面A3aは、表示画面V1aから遷移した画面である。表示画面A3では、別画面(シーン)から遷移した場合のみ、制御部18は、「何か指示して。」という応答フレーズを出力させる。このように、画面が切り替わっても、キャラクター100が指示を促す発話をすることにより、いつも傍にいることをユーザに意識させることができるのでよい。また、表示画面A3aは、ナビ案内中における輝度変更画面である。
<Change brightness>
The brightness change processing procedure will be described with reference to FIG. In the display screens V1 and V1a of FIGS. 11 and 12 in which voice recognition is started, when the user who wants to change the brightness speaks “Kid”, the control unit 18 makes a transition to the display screens A3 and A3a of FIG. The display screen A3 is a screen transitioned from the display screen V1, and the display screen A3a is a screen transitioned from the display screen V1a. On the display screen A3, only when a transition is made from another screen (scene), the control unit 18 outputs a response phrase “specify something”. In this way, even if the screen is switched, it is only necessary to make the user aware that he / she is always nearby by uttering the character 100 to prompt an instruction. The display screen A3a is a luminance change screen during navigation guidance.
この表示画面A3、A3aにおいては、輝度ボタンB6の横に、+ボタンB6a、−ボタンB6bが表示されている。ユーザが+ボタンB6aをタッチすると、制御部18は、輝度を段階的にアップさせる。ユーザが−ボタンB6bをタッチすると、制御部18は、輝度を段階的にダウンさせる。また、本実施形態では、ユーザが「あっぷ」又は「あかるく」と発話すると、これを認識した制御部18は、輝度を段階的にアップさせる。ユーザが「だうん」又は「くらく」と発話すると、これを認識した制御部18は、輝度を段階的にダウンさせる。 On the display screens A3 and A3a, a + button B6a and a − button B6b are displayed beside the luminance button B6. When the user touches the + button B6a, the control unit 18 increases the luminance step by step. When the user touches the-button B6b, the control unit 18 decreases the luminance step by step. In the present embodiment, when the user speaks “Appu” or “Akaruku”, the control unit 18 that recognizes this increases the luminance step by step. When the user speaks “Daun” or “Kaku”, the controller 18 that recognizes this decreases the brightness stepwise.
そして、制御部18は、輝度アップのときには、「輝度ア〜ップ」、ダウンのときは「輝度ダウ〜ン」のように、どのような変更をしたかを確認できる応答フレーズを出力させる。これにより、ユーザは、どのような処理がなされたかを音声で確認できる。また、制御部18は、輝度を変えると輝度の上限又は下限を超えてしまう場合には、「ぶぶー、限界なんだけど。」のように、変更できない旨を知らせる応答フレーズを出力させる。これにより、ユーザは、上限になったか下限になったかを確認できずに無駄な変更指示を繰り返すことを防止できる。 Then, the control unit 18 outputs a response phrase that can confirm what kind of change has been made, such as “brightness up” when the luminance is increased and “brightness down” when the luminance is down. Thereby, the user can confirm by voice what processing has been performed. In addition, when the luminance exceeds the upper limit or lower limit of the luminance when the luminance is changed, the control unit 18 outputs a response phrase informing that it cannot be changed, such as “Buh, it's the limit.” Thereby, the user can prevent repeating a useless change instruction without confirming whether the upper limit or the lower limit is reached.
また、ユーザが、「ぜろ」、「いち」、「に」のように、所望の輝度の値を発話すると、これを認識した制御部18は、輝度を、発話された値にダイレクトに変更させる。このとき、ユーザの発話に対応する応答フレーズとして、「ゼロだよ」、「1だよ」、「2だよ」のように、入力した値に対応する応答フレーズを出力させる。これにより、ユーザは、自分が指示した輝度のレベルを確認できる。 When the user utters a desired luminance value such as “Zero”, “Ichi”, “Ni”, the control unit 18 that recognizes the utterance directly changes the luminance to the uttered value. Let At this time, as a response phrase corresponding to the user's utterance, a response phrase corresponding to the input value is output, such as “It is zero”, “1”, and “2”. As a result, the user can check the luminance level designated by the user.
そして、ユーザが、「きど」と発話するか、戻るフレーズを発話すると、制御部18は、「設定完了です。」というように、輝度変更処理が完了した旨を知らせる応答フレーズを出力させる。解除フレーズでの処理は、上記と同様である。その他の処理は、上記の地図スケールで説明した処理と同様である。 Then, when the user utters “kid” or utters a return phrase, the control unit 18 outputs a response phrase informing that the brightness changing process is completed, such as “setting is complete”. The processing with the release phrase is the same as described above. Other processing is the same as the processing described on the map scale.
なお、表示画面A1、A1aにおいては、制御部18は、「おんりょう」又は「きど」と発話することにより、表示画面A2、A2a又は表示画面A3、A3aに遷移させる。表示画面A2、A2aにおいては、制御部18は、「きど」又は「すけーる」と発話することにより、表示画面A3、A3a又は表示画面A1、A1aに遷移させる。表示画面A3、A3aにおいては、制御部18は、「すけーる」又は「おんりょう」と発話することにより、表示画面A1、A1a又は表示画面A2、A2aに遷移させる。このように、量的レベルの変更処理の画面を、相互に遷移可能とすることにより、まとめて設定を変更したいユーザにとって、便利となるのでよい。 In the display screens A1 and A1a, the control unit 18 makes a transition to the display screens A2 and A2a or the display screens A3 and A3a by speaking “onri” or “kid”. In the display screens A2 and A2a, the control unit 18 makes a transition to the display screens A3 and A3a or the display screens A1 and A1a by saying “kid” or “scale”. In the display screens A3 and A3a, the control unit 18 makes a transition to the display screens A1 and A1a or the display screens A2 and A2a by saying “scale” or “on-ryo”. As described above, the screens for changing the quantitative level can be changed to each other, so that it is convenient for the user who wants to change the settings collectively.
《タイムアウト処理》
次に、タイムアウト処理について説明する。タイムアウト処理は、制御部18が、所定の処理を開始した時点から、ユーザからの音声の入力がなく所定時間経過した場合に、処理を終了する処理である。そして、所定の処理を開始した時点から、所定時間経過するまでの間に、制御部18は、キャラクターの応答フレーズとして、音声入力を促す音声を出力させる。
《Timeout processing》
Next, the timeout process will be described. The time-out process is a process for ending the process when the control unit 18 starts a predetermined process and a predetermined time elapses without any voice input from the user. And from the time of starting a predetermined process until it passes for a predetermined time, the control part 18 outputs the audio | voice which prompts an audio | voice input as a response phrase of a character.
より具体的な処理を、図25を参照して説明する。タイムアウト処理としては、タイムアウトV1、S1、S2、R1、A1、A1aが設定されている。まず、タイムアウトV1の処理を説明する。制御部18は、上記の表示画面V1又はV1aにおいて、音声認識を起動してから15秒間音声認識が無い場合、タイムアウトステータス1として、ユーザの音声入力を促す応答フレーズを出力する。ここでは、音声認識開始の画面であるため、「ねえ、何か言って」という音声入力をお願いする応答フレーズを出力する。そして、この応答フレーズ出力から15秒間、音声認識が無い場合、制御部18は、タイムアウトステータス2として、音声認識が終了することを通知する応答フレーズを出力して、音声認識を終了させる。ここでは、「ん、もう。」と、音声入力がないことに、やや怒ったような応答フレーズを出力する。 More specific processing will be described with reference to FIG. Timeouts V1, S1, S2, R1, A1, and A1a are set as the timeout processing. First, the processing of timeout V1 will be described. When there is no voice recognition for 15 seconds after the voice recognition is activated on the display screen V1 or V1a, the control unit 18 outputs a response phrase that prompts the user to input voice as the timeout status 1. Here, since it is a voice recognition start screen, a response phrase requesting voice input “Hey, say something” is output. Then, when there is no voice recognition for 15 seconds from the output of the response phrase, the control unit 18 outputs a response phrase notifying that the voice recognition is ended as the timeout status 2 and ends the voice recognition. Here, “No, no.” Is output as a somewhat angry response phrase when there is no voice input.
タイムアウトS1の処理は、次の通りである。制御部18は、表示画面S1、S1aに遷移してから、15秒間音声認識がない場合、タイムアウトステータス1として、音声入力を促す応答フレーズを出力する。ここでは、周辺検索の画面であるため、「ねえ、ねえ、どこ行くの?」というように、行き先を尋ねる応答フレーズを出力する。そして、この応答フレーズ出力から15秒間、音声認識が無い場合、制御部18は、タイムアウトステータス2として、音声認識が終了することを通知する応答フレーズを出力して、音声認識を終了させる。ここでは、「ん、もう。」と、音声入力がないことに、やや怒ったような応答フレーズを出力する。 Processing of the timeout S1 is as follows. When there is no voice recognition for 15 seconds after the transition to the display screens S1 and S1a, the control unit 18 outputs a response phrase prompting voice input as the timeout status 1. Here, since it is a peripheral search screen, a response phrase that asks where to go is output, such as “Hey, hey, where are you going?”. Then, when there is no voice recognition for 15 seconds from the output of the response phrase, the control unit 18 outputs a response phrase notifying that the voice recognition is ended as the timeout status 2 and ends the voice recognition. Here, “No, no.” Is output as a somewhat angry response phrase when there is no voice input.
タイムアウトS2の処理は、次の通りである。制御部18は、表示画面S2、S2a、S2_list、S2a_listに遷移してから、15秒間音声認識がない場合、タイムアウトステータス1として、音声入力を促す応答フレーズを出力する。ここでは、施設選択の画面であるため、「まだ決まらないの?」というように、施設選択を促す応答フレーズを出力する。そして、この応答フレーズ出力から15秒間、音声認識が無い場合、制御部18は、タイムアウトステータス2として、音声認識が終了することを通知する応答フレーズを出力して、音声認識を終了させる。ここでは、「ん、もう。」と、音声入力がないことに、やや怒ったような応答フレーズを出力する。 The processing of timeout S2 is as follows. When there is no voice recognition for 15 seconds after transitioning to the display screens S2, S2a, S2_list, and S2a_list, the control unit 18 outputs a response phrase that prompts voice input as the timeout status 1. Here, since it is a screen for facility selection, a response phrase that prompts facility selection is output, such as “has not been decided yet?”. Then, when there is no voice recognition for 15 seconds from the output of the response phrase, the control unit 18 outputs a response phrase notifying that the voice recognition is ended as the timeout status 2 and ends the voice recognition. Here, “No, no.” Is output as a somewhat angry response phrase when there is no voice input.
タイムアウトR1の処理は、次の通りである。制御部18は、表示画面R1、R1a、R1bに遷移してから、15秒間音声認識がない場合、タイムアウトステータス1として、音声入力を促す応答フレーズを出力する。ここでは、ルート選択の画面であるため、「黙ってると案内しちゃうけど。」というように、音声入力がなくても、次の処理を進めてしまうことを通知する応答フレーズを出力する。そして、この応答フレーズ出力から15秒間、音声認識が無い場合、制御部18は、タイムアウトステータス2として、音声認識が終了することを通知する応答フレーズを出力して、音声認識を終了させる。ここでは、「案内開始。言う通りに運転してくれる?」というように、次の処理を開始することを通知する応答フレーズを出力する。 Processing of timeout R1 is as follows. When there is no voice recognition for 15 seconds after the transition to the display screen R1, R1a, R1b, the control unit 18 outputs a response phrase for prompting voice input as the timeout status 1. Here, since it is a route selection screen, a response phrase that notifies the user that the next processing will proceed even if there is no voice input is output, such as “I will guide you if you are silent.” Then, when there is no voice recognition for 15 seconds from the output of the response phrase, the control unit 18 outputs a response phrase notifying that the voice recognition is ended as the timeout status 2 and ends the voice recognition. Here, a response phrase notifying that the next process is started is output, such as “Start guidance. Will you drive as you say?”.
タイムアウトA1の処理は、次の通りである。制御部18は、表示画面A1、A2、A3、A1a、A2a、A3aに遷移してから、15秒間音声認識がない場合に、タイムアウトステータス1として、音声入力を促す応答フレーズを出力する。ここでは、設定変更の画面であるため、「指示、お願い」というように、設定変更を促す応答フレーズを出力する。そして、この応答フレーズ出力から15秒間、音声認識がない場合、制御部18は、タイムアウトステータス2として、音声認識が終了することを通知する応答フレーズを出力して、設定変更せずに、音声認識を終了させる。ここでは、「ん、もう。」と、音声入力がないことに、やや怒ったような応答フレーズを出力する。 Processing of timeout A1 is as follows. The control unit 18 outputs a response phrase for prompting voice input as the timeout status 1 when there is no voice recognition for 15 seconds after transition to the display screens A1, A2, A3, A1a, A2a, A3a. Here, since it is a setting change screen, a response phrase prompting the setting change is output, such as “instruction, request”. Then, when there is no voice recognition for 15 seconds from the output of the response phrase, the control unit 18 outputs a response phrase notifying that the voice recognition is finished as the timeout status 2, and does not change the setting, and the voice recognition is performed. End. Here, “No, no.” Is output as a somewhat angry response phrase when there is no voice input.
タイムアウトA1aの処理は、次の通りである。制御部18は、表示画面A1、A2、A3、A1a、A2a、A3aに遷移して、ボタンの選択又は音声により、設定の変更を指示する入力がなされてから、15秒間音声認識がない場合、タイムアウトステータス1として、音声入力を促す応答フレーズを出力する。ここでは、「指示、お願い」というように、音声入力による設定変更の決定指示を促す応答フレーズを出力させる。その後、15秒間音声認識がない場合、制御部18は、タイムアウトステータス2として、音声認識が終了することを通知する応答フレーズを出力して、設定変更を完了させ、音声認識を終了させる。ここでは、「設定完了です。」と設定変更の完了を通知する応答フレーズを出力する。 Processing of timeout A1a is as follows. The control unit 18 transitions to the display screens A1, A2, A3, A1a, A2a, A3a, and when there is no voice recognition for 15 seconds after an input instructing a setting change is made by button selection or voice, As timeout status 1, a response phrase prompting voice input is output. Here, a response phrase that prompts an instruction to determine setting change by voice input, such as “instruction, request”, is output. Thereafter, when there is no voice recognition for 15 seconds, the control unit 18 outputs a response phrase notifying that voice recognition is ended as the timeout status 2, completes the setting change, and ends voice recognition. In this case, a response phrase notifying completion of setting change is output as “setting is complete”.
タイムアウト処理は、頻繁に生じる可能性があるが、以上のように、表示画面やフェーズに合わせて、タイムアウトステータス1、タイムアウトステータス2の応答フレーズの内容が変化させることにより、ユーザに飽きがこないのでよい。 Although timeout processing may occur frequently, as described above, the contents of the response phrases of timeout status 1 and timeout status 2 change according to the display screen and phase, so the user does not get bored. Good.
[作用効果]
以上のような実施形態によれば、車両の搭乗者であるユーザの一方的な指示に対してシステムが情報を提供するのではなく、ユーザがキャラクターと対話することにより、知りたい情報を得ることができるので、操作や運転の面白さが増大するとともに、キャラクターとコミュニケーションをとっている感覚が得られて飽きがこない。また、ユーザは、キャラクターと対話するために、システムを操作する意欲が湧くので、システムの機能が有効に活用される。
[Function and effect]
According to the embodiment as described above, the system does not provide information in response to a unidirectional instruction of a user who is a vehicle occupant, but the user interacts with the character to obtain information he wants to know. As a result, the fun of operation and driving increases, and the feeling of communicating with the character is obtained, so you don't get bored. In addition, since the user is motivated to operate the system in order to interact with the character, the functions of the system are effectively utilized.
所定のキャラクターを、システムから出力される音声により、特定の個性を持った話者を認識させるように、応答フレーズが登録されているので、ユーザは、実際の人間と対話しているような感覚が得られて、親しみが持てる。 Since the response phrase is registered so that a speaker with a specific personality can be recognized by the voice output from the system, the user feels as if the user is interacting with an actual person. Can be obtained and have a close friendship.
対話としては、例えば、発話の開始、これに対する応答、応答に対する返答という少なくとも一往復のやり取りがなされるように設定されているので、単純にユーザの命令通りにシステムが処理を行うのではなく、キャラクターが、自分とシステムの間に介在して、サービスを提供してくれている感覚を、ユーザが得ることができる。 As the dialogue, for example, since it is set so that at least one round-trip exchange of the start of the utterance, the response to this, and the response to the response is made, the system does not simply process according to the user's command, The user can get a sense that the character is providing service by being interposed between himself and the system.
ユーザは、音声認識を用いることにより、手操作よりも簡単又は迅速に出力させることができるので、積極的に音声認識を利用するようになり、ユーザにキャラクターとの対話をさせる機会をより多く与えることができる。 Users can use voice recognition to output more easily or more quickly than manual operations, so they will actively use voice recognition and give users more opportunities to interact with characters. be able to.
特に、手操作が難しい、手操作が制限されている等により、運転者が運転中に所望の情報を得ることが困難な場合でも、音声認識を利用することにより、キャラクターとの対話を楽しみながら、所望の情報を得ることができる。 In particular, even when it is difficult for the driver to obtain desired information while driving due to difficulty in manual operation or limited manual operation, using voice recognition while enjoying conversation with the character Desired information can be obtained.
情報を出力するために複数の選択を経る必要がある場合に、選択するごとに手操作が必要となる場合に比べて、音声入力による方が、ユーザにとって操作が簡単となる。複数の選択を経て出力される情報として、例えば、階層化された構造の情報、複数回の操作をしなければ出力できない情報は、手操作を複数回行うよりも、ユーザの負担が少なくなる。 When it is necessary to go through a plurality of selections in order to output information, operation by voice input is easier for the user than when manual operation is required for each selection. As information output through a plurality of selections, for example, information on a layered structure or information that cannot be output without a plurality of operations is less burdensome on the user than performing a manual operation a plurality of times.
特に、施設検索、現在地周辺検索などのように、複数の候補の中から順次絞り込んでいくことにより得られる情報を出力する処理は、例えば、ブレーキやアクセルのように車両自体を動かすための操作や、ウィンカーのように走行中に安全のために外部に何かを知らせるための操作とは異なり、手操作によりダイレクトに実行させることが難しいので、音声認識による操作に適している。 In particular, processing for outputting information obtained by sequentially narrowing down a plurality of candidates, such as facility search and current location search, is performed by, for example, an operation for moving the vehicle itself such as a brake or an accelerator. Unlike an operation for informing something to the outside for safety, such as a blinker, it is difficult to execute it directly by hand operation, so it is suitable for an operation by voice recognition.
ユーザは、キャラクターの音声に促されて選択することにより、所定の処理を順次進めることができる。例えば、次の選択へ誘導する応答フレーズとして、周辺検索で「周辺」というユーザの音声を認識した場合に、「ねえ、どこ行く?」というように、行先を尋ねる音声を出力するので、ユーザが、次に何を発話すればよいかが明確にわかる。 The user can proceed with a predetermined process in sequence by being prompted by the voice of the character. For example, when a user's voice “periphery” is recognized as a response phrase for guiding to the next selection, a voice requesting the destination is output, such as “Hey, where are you going?”. And you can clearly see what to say next.
次の選択がない場合に、これを示すキャラクターの音声を出力するので、ユーザは、さらに処理を進める必要がなくなったことがわかり、指示を終了する、別の処理を行わせる等の判断ができる。例えば、次の選択がないことを示すキャラクターの音声として、周辺検索で「ファミレス」というユーザの音声を認識した場合に、「ひとりぼっちでファミレス行くの?」のようにすれば、ユーザに新たに別の判断を求めることができる。 When there is no next selection, the voice of the character indicating this is output, so that the user knows that there is no need to proceed further, and can decide whether to end the instruction or perform another process. . For example, if the user's voice “Familys” is recognized as a voice of a character indicating that there is no next selection, and the user searches for “Familys alone?” You can ask for another decision.
現在地等、所望の地点の周辺の施設の情報を、面倒な手操作を不要としつつ、ユーザが、キャラクターとの対話を楽しみながら取得することができる。 The user can acquire information on facilities around a desired point such as the current location while enjoying a dialogue with the character while avoiding troublesome manual operation.
検索された周辺の施設を示すアイコンを、地図と比べて相対的に強調表示させるので、地図上で、ユーザに必要な施設の情報が目立つことになり、ユーザが施設の位置を把握しやすく、音声により所望の施設を選択する際の目安となる。特に、アイコンをカラー表示し、地図をグレースケールで表示するので、アイコンが非常にはっきりと見える。 Since the icons indicating the facilities in the vicinity searched are relatively highlighted compared to the map, the information on the facilities necessary for the user is conspicuous on the map, and the user can easily grasp the location of the facility. This is a guideline for selecting a desired facility by voice. In particular, the icons are displayed in color and the map is displayed in grayscale, so the icons are very clearly visible.
施設のアイコンに、現在地との近さの順位が区別できる表示をするので、ユーザが施設を選択する目安とすることができる。特に、番号、アルファベットのように本来的に順位を示す情報としているので、順位の意味を容易に把握できる。 Since the facility icon is displayed so that the order of proximity to the current location can be distinguished, it can be used as a guide for the user to select a facility. In particular, since the information inherently indicates the ranking such as numbers and alphabets, the meaning of the ranking can be easily grasped.
表示されたアイコンに合わせた内容で、いずれかの施設を選択するユーザの音声を認識して、選択された施設までの経路を探索して表示させるので、ユーザは、施設名で選択するよりも、表示されたアイコンに合わせた内容で簡単に選択することができる。特に、表示された番号を発話すればよいので、施設名よりも覚えやすい言葉で、施設を選択することができる。 It recognizes the voice of the user who selects one of the facilities according to the displayed icon, and searches and displays the route to the selected facility. , You can easily select the contents according to the displayed icon. In particular, since the displayed number only needs to be spoken, the facility can be selected with words that are easier to remember than the facility name.
ユーザが、探索された経路を希望しない場合に、キャラクターとの対話をしながら、探索し直しを指示することができるので、やり直し時の手間や退屈な気持ちを緩和させることができる。 When the user does not desire the searched route, the user can instruct re-searching while interacting with the character, so that the trouble and boring feeling at the time of redoing can be eased.
ユーザが、対話する相手となるキャラクターの姿を表示画面で見ることにより、親しみを覚えて、その姿を見るためにシステムを積極的に利用したいと思うようになる。 By seeing the appearance of the character with whom the user interacts on the display screen, the user learns familiarity and wants to actively use the system to see the appearance.
そして、キャラクターは、地図上の探索された経路表示を遮らない位置に、表示されるので、キャラクターの表示を楽しませつつ、探索された経路の見やすさを維持できる。
キャラクターが、探索された経路と反対側に寄った場合に、項目の表示領域は、探索された経路と重なる可能性があるが、各項目は、キャラクターよりも小さく、項目の表示領域は背後の画像が見える部分を有しているので、探索された経路がキャラクターと重なるよりも、背後の画像が見やすい。
Since the character is displayed at a position on the map that does not obstruct the searched route display, it is possible to maintain visibility of the searched route while enjoying the character display.
If the character is on the opposite side of the searched route, the item display area may overlap the searched route, but each item is smaller than the character and the item display area is behind Since it has a portion where the image can be seen, it is easier to see the image behind than the searched route overlaps with the character.
キャラクターの音声を、あらかじめ設定された複数の異なる応答フレーズの中から、既に出力した応答フレーズを除いてランダムに選択して出力するので、同じフレーズばかりが出力されず、ユーザに飽きがこない。 Since the character's voice is randomly selected from a plurality of preset response phrases excluding the response phrases that have already been output, only the same phrases are not output and the user is not bored.
共通の認識ワードに対して異なる複数の応答フレーズが登録されたリストが設定されているので、ユーザが共通の内容の発話をしても、キャラクターは異なる表現で返答することができ、何度も同じ処理を実現させる場合でも、キャラクターからどんな返答が来るかを楽しむことができる。 Since a list in which different response phrases are registered for a common recognition word is set, even if the user utters a common content, the character can reply with different expressions, many times Even if the same processing is realized, you can enjoy what kind of response comes from the character.
キャラクターは、標準レイ、変身後のレイ、ちびレイという同一人でありながら、複数の表示態様があり、出力される音声として、複数の表示態様毎に異なるフレーズが登録されているので、同じキャラクターでも、複数の表示態様に応じて、発話内容が異なり、同一人との対話でありながら、変化を楽しむことができるのでよい。特に、標準的なもの、衣服や髪型等を変えて変身したもの、頭身を変えたものとするので、大人っぽい、子供っぽい、かわいい、きれい等の多様な印象をユーザに与え、飽きさせない。 Although the character is the same person as standard ray, Ray after transformation, and Chibi Ray, there are multiple display modes, and different phrases are registered for multiple display modes as the output sound, so the same character However, the content of the utterance differs depending on a plurality of display modes, and it is only necessary that the user can enjoy the change while interacting with the same person. In particular, it is assumed that it is a standard thing, a thing transformed by changing clothes and hairstyle, etc., and a thing that changes the head and body, giving the user various impressions such as adult, childish, cute, beautiful, etc. I won't let you.
認識ワードは、ボタン等に項目表示されているので、ユーザは、所定の処理を実行させるために、表示された項目を見れば、何を言えばいいかがわかる。 Since the recognition word is displayed as an item on a button or the like, the user can know what to say by looking at the displayed item in order to execute a predetermined process.
認識ワードは、表示画面にかかわらず共通して認識できる認識語句と、表示画面に表示されたものに認識が制限される認識ワードとがあるので、共通して認識できる認識ワードによって、表示画面にかかわらず必要となる機能の利便性を維持しつつ、認識が制限される認識ワードによって、誤認識の可能性を低減できる。複数種の表示画面で共通して使用される認識ワードについては、表示画面に応じて機能が制限される可能性が低くなり、利便性を維持できる。特に、戻るフレーズや解除フレーズのように、他の表示画面へ遷移させる語句なので、どの画面でも使用する必要がある語句である。一方、表示画面に表示された認識ワード、検索対象となる認識ワードは、それ以外の語句を認識させる必要性が乏しく、認識ワードの数を少なくして誤認識を防ぐ必要性が高い。 There are recognition words that can be recognized in common regardless of the display screen, and recognition words that are recognized on the display screen. Regardless of this, while maintaining the convenience of necessary functions, the possibility of misrecognition can be reduced by the recognition word whose recognition is limited. Regarding the recognition word that is used in common on a plurality of types of display screens, the possibility that the function is limited depending on the display screen is reduced, and convenience can be maintained. In particular, it is a phrase that needs to be used on any screen because it is a phrase that makes a transition to another display screen, such as a return phrase or a release phrase. On the other hand, the recognition word displayed on the display screen and the recognition word to be searched are less likely to recognize other words and phrases, and it is highly necessary to reduce the number of recognition words to prevent erroneous recognition.
量的に変化する機能の状態を、音声認識によりダイレクトに所望の量的レベルとすることができるので、小さな値と大きな値との間で段階的に変化させる場合に比べて、即座に所望の値とすることができ、ユーザの手間がかからず、操作に拘束される時間が短縮される。特に、音量、輝度、スケールなどのボタンを選択して+−や目盛を表示させ、+−の選択や、目盛上のスライドにより段階を追ってアップダウンさせる手間が省ける。 The state of the function that changes quantitatively can be directly set to a desired quantitative level by voice recognition, so that the desired state can be instantly compared with a case where the function is changed stepwise between a small value and a large value. It can be set to a value, so that the user's effort is not required, and the time that is restricted by the operation is shortened. In particular, it is possible to save the effort of selecting buttons such as volume, brightness, and scale to display +-and scales, and stepping up and down by selecting +-and sliding on the scales.
認識ワードとして、量的に変化する機能に対応する指示語と、量的レベルを示す数字が設定されているので、ユーザが所望の機能に対応する指示語と数字を発話すると、当該機能の量的レベルを、その数字のレベルにまでダイレクトにアップ、ダウンさせることができる。特に、指示語として「おんりょう」、「きど」、「すけーる」、数字として「いち」、「に」、「にきろ」などとするので、ユーザにとって直感的に理解しやすい機能の名称と数字を用いて、入力ができる。 As the recognition word, an instruction word corresponding to a function that changes quantitatively and a number indicating a quantitative level are set, so when the user speaks an instruction word and a number corresponding to a desired function, the amount of the function The target level can be directly raised or lowered to the level of the number. In particular, the names of functions that are easy to understand intuitively for the user, such as “onryo”, “kido”, “scale”, and “1”, “ni”, “nikiro” etc. And numbers can be used for input.
機能を選択するためのボタンに、当該機能に対応する指示語が表示されているので、ユーザは、ボタンに表示された指示語を言えば、機能を選択できるので、ユーザにとってわかりやすい。 Since the instruction word corresponding to the function is displayed on the button for selecting the function, the user can select the function by speaking the instruction word displayed on the button, which is easy for the user to understand.
機能を選択するためのボタンであって、当該機能の現在の量的レベルの値が表示されているので、ユーザは、ボタンに表示された値を見ることにより、現在の量的レベルを確認して、所望の値へアップさせるべきか、ダウンさせるべきかを判断できる。例えば、地図のスケールで、小さなスケールの値がボタンに表示されている場合に、ユーザがそれよりも大きな値を言うと、ボタンに表示されるスケールの値もその値にダイレクトに変わり、即座に広範囲の地図を見渡すことができる。また、例えば、大きなスケールの値がボタンに表示されている場合に、ユーザがそれよりも小さな値を言うと、ボタンに表示されるスケールの値もその値にダイレクトに変わり、即座に詳細な地図を見ることができる。 A button for selecting a function, and the value of the current quantitative level of the function is displayed. Therefore, the user confirms the current quantitative level by looking at the value displayed on the button. Thus, it can be determined whether the value should be increased or decreased to a desired value. For example, if the scale value of the map shows a small scale value on the button, and the user says a larger value, the scale value displayed on the button will also change directly to that value and immediately You can see a wide range of maps. Also, for example, when a large scale value is displayed on the button, if the user says a smaller value, the scale value displayed on the button also changes directly to that value, and instantly displays a detailed map. Can see.
所定の処理を開始した時点から、ユーザからの音声の入力がなく所定時間経過した場合に、処理を終了するタイムアウト処理を行うので、音声認識を長期間継続することによって生じる誤操作を防止できるのでよい。 Since a time-out process for terminating the process is performed when a predetermined time has elapsed since the start of the predetermined process and no voice is input from the user, it is possible to prevent erroneous operations caused by continuing voice recognition for a long period of time. .
所定の処理を開始した時点から、所定時間経過するまでの間に、キャラクターが、ユーザに音声入力を促す音声を出力するので、ユーザが処理の開始を忘れている場合に、音声入力を促すことができる。 Since the character outputs a voice prompting the user to input a voice from the time when the predetermined process is started until the predetermined time elapses, the user is prompted to input the voice when the user forgets to start the process. Can do.
[他の実施形態]
本発明は、上記の実施形態に限定されるものではなく、以下に例示する形態も含めて、種々の形態を構成可能である。
[Other Embodiments]
The present invention is not limited to the above-described embodiment, and various forms can be configured including the forms exemplified below.
《ジャンル登録》
ユーザが、周辺検索のジャンルの項目について、所望の項目のみを表示部5の表示画面に表示させるジャンル登録の機能を説明する。これにより、ユーザが良く使うであろうジャンルを予め表にしておくことで、ユーザのオリジナルな周辺検索画面を作成できる。より具体的には、制御部18は、ジャンルの認識ワードに対応する項目のうち、いずれの項目を認識ワードとして機能させるかを選択させる項目の表を、表示部5に表示させる。ユーザがこの表の中から所望の項目を選択すると、制御部18は、選択された項目を表示部5にボタン表示させるページに設定する。
《Genre registration》
A description will be given of a genre registration function in which the user displays only desired items on the display screen of the display unit 5 with respect to genres of peripheral search. Thereby, the user's original periphery search screen can be created by previously listing the genres that the user will often use. More specifically, the control unit 18 causes the display unit 5 to display a table of items for selecting which item to function as the recognition word among items corresponding to the recognition word of the genre. When the user selects a desired item from this table, the control unit 18 sets the selected item as a page to be displayed on the display unit 5 as a button.
このような表示画面例を、図26を参照して説明する。まず、表示画面(1)は、上記の実施形態と同様に、制御部18が、表示部5に表示させた地図画面の右下に重ねて、キャラクター100を表示させるとともに、地図画面の左に重ねて、周辺施設をジャンルで選択して検索するための周辺ボタンB3を表示させている。 An example of such a display screen will be described with reference to FIG. First, the display screen (1) is displayed on the left of the map screen while the control unit 18 displays the character 100 on the lower right of the map screen displayed on the display unit 5 in the same manner as in the above embodiment. In addition, a peripheral button B3 for selecting and searching the peripheral facility by genre is displayed.
この表示画面(1)において、ユーザが、周辺ボタンB3をタッチするか、音声認識の起動と周辺検索を指示する認識ワードとして登録された2ワードである「れい」、「しゅうへん」を発話すると、これを認識した制御部18は、表示画面(2)に示す一発ジャンル選択画面に遷移させる。 On this display screen (1), when the user touches the peripheral button B3 or utters “Rei” and “Shuhen” which are two words registered as recognition words for instructing voice recognition activation and peripheral search. The control unit 18 that has recognized this makes a transition to the one-shot genre selection screen shown in the display screen (2).
このように、2ワード音声認識起動により表示された表示画面(2)は、ジャンル名を表示した複数のボタンを配置することにより、複数の項目から成る表を表示したものである。このジャンル名の項目からなる表は、ユーザが、それぞれのボタンを選択するか、ジャンル名を発話すると、制御部18は、表示画面(3)に示すように、そのジャンルの施設を検索して、検索された施設を、現在地51から近い順に番号を付して地図上に表示させる。 Thus, the display screen (2) displayed by the two-word speech recognition activation displays a table composed of a plurality of items by arranging a plurality of buttons displaying genre names. When the user selects each button or utters a genre name, the control unit 18 searches for a facility of the genre as shown in the display screen (3). The searched facilities are displayed on the map with numbers assigned in the order from the current location 51.
ユーザが、表示画面(3)に表示された所望の施設アイコンをタッチするか、所望の施設アイコンに表示された番号を発話すると、制御部18は、現在地から選択された施設までのルート探索を実行して、表示画面(4)に示すように、探索されたルート53を色分け表示する。 When the user touches the desired facility icon displayed on the display screen (3) or speaks the number displayed on the desired facility icon, the control unit 18 searches for a route from the current location to the selected facility. As shown in the display screen (4), the searched route 53 is displayed in different colors.
このとき、キャラクター100は、ルート案内方向により、地図上で邪魔にならない位置に移動する。つまり、キャラクター100を、地図上の現在位置を含む探索されたルート表示を遮らない位置に表示させる。さらに、ユーザが、案内開始を発話すると、表示画面(5)に示すように、制御部18は、ルート案内を開始する。このルート案内中においても、キャラクター100を、地図上の現在位置51を含む探索されたルート53の表示を遮らない位置に表示させる。 At this time, the character 100 moves to an unobstructed position on the map according to the route guidance direction. That is, the character 100 is displayed at a position that does not block the searched route display including the current position on the map. Furthermore, when the user utters guidance start, as shown in the display screen (5), the control unit 18 starts route guidance. Even during the route guidance, the character 100 is displayed at a position on the map that does not block the display of the searched route 53 including the current position 51.
表示画面(2)の表の下部には、「戻る」、「変更」、「現在地」という三つのボタンが表示される。このうち、「戻る」ボタンは、ユーザがタッチするか、「もどる」という発話をすると、これを認識した制御部18が、1つ前の画面に遷移させるボタンである。「現在地」ボタンは、ユーザがタッチするか、「げんざいち」という発話をすると、これを認識した制御部18が、現在地51を表示する表示画面に遷移させるボタンである。ここでは、「戻る」ボタンが選択された場合にも、「現在地」ボタンが選択された場合にも、表示画面(1)に遷移する。 At the bottom of the table of the display screen (2), three buttons “return”, “change”, and “current location” are displayed. Among these buttons, the “return” button is a button that the control unit 18 that recognizes when the user touches or utters “return” makes a transition to the previous screen. The “current location” button is a button that, when the user touches or utters “Genzaichi”, causes the control unit 18 that recognizes this to transition to a display screen that displays the current location 51. Here, the screen changes to the display screen (1) both when the “return” button is selected and when the “current location” button is selected.
「変更」ボタンは、ユーザがタッチするか、「へんこう」という発話をすると、これを認識した制御部18は、表示画面(6)に示す一発ジャンル変更画面に遷移させる。この一発ジャンル変更画面には、現在、一発ジャンル選択画面として登録されているジャンルが、これと同じ並び順で表示される。ここで、いずれかのジャンルのボタンをユーザがタッチするか、ジャンル名を発話すると、これを認識した制御部18は、それぞれのジャンル名が所属する大項目の表示画面(7)〜(10)のいずれかに遷移させる。 When the “change” button is touched by the user or the utterance “health” is made, the control unit 18 which has recognized this makes a transition to the one-shot genre change screen shown in the display screen (6). On this one-shot genre change screen, the genres currently registered as the one-shot genre selection screen are displayed in the same order. Here, when the user touches a button of any genre or speaks a genre name, the control unit 18 that recognizes this displays the large item display screens (7) to (10) to which each genre name belongs. Transition to one of the following.
例えば、ユーザが、「駅」を選択すると、「駅」が所属する大項目「ホテル・公共施設・他」に所属するジャンル名が表示された表示画面(7)に遷移する。表示画面(7)では、表示画面(2)に表示されるジャンル名は、特定の濃い色で表示され、表示画面(2)に表示されないジャンル名は、これより薄い色で表示されている。例えば、表示画面(2)に表示される「駅」は青色の文字で表示され、表示画面(2)に表示されない「駐車場」はグレーの文字で表示されている。 For example, when the user selects “station”, the display changes to the display screen (7) on which the genre name belonging to the large item “hotel / public facility / other” to which “station” belongs is displayed. On the display screen (7), genre names displayed on the display screen (2) are displayed in a specific dark color, and genre names not displayed on the display screen (2) are displayed in a lighter color. For example, “station” displayed on the display screen (2) is displayed in blue characters, and “parking lot” not displayed on the display screen (2) is displayed in gray characters.
ここで、表示画面(7)に表示されているジャンル名をユーザがタッチするか、ジャンル名を発話すると、これを認識した制御部18は、選択されたジャンル名を、表示画面(7)に表示されないジャンル名とする。このとき、当該ジャンル名を薄い色の表示に変える。例えば、ユーザが「駅」を選択すると、「駅」の文字がグレーとなる。 Here, when the user touches the genre name displayed on the display screen (7) or speaks the genre name, the control unit 18 that recognizes the genre name displays the selected genre name on the display screen (7). The genre name is not displayed. At this time, the genre name is changed to a light color display. For example, when the user selects “station”, the letters “station” are gray.
例えば、表示画面(7)に表示されているジャンル名をユーザがタッチするか、ジャンル名を発話すると、これを認識した制御部18は、選択されたジャンル名を、表示画面(2)に表示させるジャンル名とする。このとき、当該ジャンル名を特定の濃い色の表示に変える。例えば、ユーザが「駐車場」を選択すると、「駐車場」の文字が青色となる。 For example, when the user touches the genre name displayed on the display screen (7) or speaks the genre name, the control unit 18 that recognizes the genre name displays the selected genre name on the display screen (2). The genre name to be used. At this time, the genre name is changed to a specific dark color display. For example, when the user selects “parking lot”, the letters “parking lot” are blue.
また、表示画面(6)の「総合病院」等の病院・医院に属するジャンル名が選択されると、表示画面(8)に遷移する。「コンビニ」等のショッピングに属するジャンル名が選択されると、表示画面(9)に遷移する。「ファミリーレストラン」等のレストランに属するジャンル名が選択されると、表示画面(10)に遷移する。それぞれの表示画面において、表示画面(2)に表示させるジャンル名の選択、表示させないジャンル名の選択は、上記の通りである。 When a genre name belonging to a hospital / clinic such as “general hospital” on the display screen (6) is selected, the display screen (8) is displayed. When a genre name belonging to shopping such as “convenience store” is selected, the display screen (9) is displayed. When a genre name belonging to a restaurant such as “Family Restaurant” is selected, the screen transitions to the display screen (10). On each display screen, the selection of the genre name to be displayed on the display screen (2) and the selection of the genre name not to be displayed are as described above.
また、表示画面(7)において、ユーザが、ページを送る「▽」のボタンを選択すると、次の表示画面(8)に遷移する。表示画面(8)において、ページを戻る「△」のボタンを選択すると、表示画面(7)に遷移する。このように、「▽」「△」は、表示画面(7)〜(10)の間でページを切り替えるボタンとして機能する。 On the display screen (7), when the user selects the “▽” button to send a page, the screen transitions to the next display screen (8). When the “△” button for returning to the page is selected on the display screen (8), the screen transitions to the display screen (7). As described above, “「 ”and“ Δ ”function as buttons for switching pages between the display screens (7) to (10).
以上のように各表示画面(7)〜(10)において、ジャンル名を変更した後、ユーザが「戻る」ボタンをタッチするか、「もどる」と発話すると、表示画面(6)に遷移して、表示させるジャンル名として選択されたものが表示されるとともに、表示させないジャンル名として選択されたものが表示されなくなる。そして、ユーザが「戻る」ボタンをタッチするか、「もどる」と発話すると、変更した表示画面(6)の表示を反映した表示画面(2)に遷移する。上記の例では、「駅」の位置に「駐車場」が表示され、「駅」が表示されなくなる。 As described above, after changing the genre name on each of the display screens (7) to (10), when the user touches the “return” button or speaks “return”, the display screen (6) is changed. The selected genre name to be displayed is displayed and the selected genre name not to be displayed is not displayed. When the user touches the “return” button or speaks “return”, the screen transitions to the display screen (2) reflecting the display of the changed display screen (6). In the above example, “parking lot” is displayed at the position of “station”, and “station” is not displayed.
また、デフォルトの表示に戻すには、表示画面(6)において、ユーザが「デフォルトに戻す」のボタンを選択するか、「でふぉるとにもどす」と発話すると、これを認識した制御部18が、デフォルトのジャンル名及びその配置に戻す。そして、ユーザが「戻る」ボタンをタッチするか、「もどる」と発話すると、デフォルトの設定に戻った表示画面(2)に遷移する。 In order to return to the default display, on the display screen (6), when the user selects the “return to default” button or utters “return to touch”, the control unit recognizes this. 18 restores the default genre name and its placement. When the user touches the “return” button or speaks “return”, the display screen (2) returns to the default setting.
上記のように、表示画面(6)及びこれが反映される表示画面(2)においては、ジャンル名は、表示させる位置毎に選択することができる。つまり、表示画面(6)において、左上の「駅」が選択された場合には、制御部18は、選択されたジャンル名とともに、それが表示画面上のどの表示位置かも認識する。そして、制御部18は、その後に表示画面(7)〜(10)において選択されたいずれかのジャンル名を、当該表示位置、つまり左上の位置に表示させることができる。このため、表示画面(2)におけるジャンル名の並びを変更したい場合には、表示画面(6)において、所望の表示位置のジャンル名を選択し、これを当該表示位置に表示させたいジャンル名に変更していくことにより実現することができる。この場合、同じジャンル名を異なる位置に表示させるように選択することも可能となる。例えば、「駅」というジャンル名を、左上に表示させるとともに、その下に並べて「駅」を表示させることもできる。このように、頻繁に使用するジャンル名について、同じジャンル名を表示画面(2)の複数箇所に表示させると、そのジャンル名をタッチして選択しやすくなるのでよい。 As described above, on the display screen (6) and the display screen (2) on which this is reflected, the genre name can be selected for each position to be displayed. That is, when “station” in the upper left is selected on the display screen (6), the control unit 18 recognizes the display position on the display screen together with the selected genre name. Then, the control unit 18 can display any genre name selected on the display screens (7) to (10) at the display position, that is, the upper left position. For this reason, when it is desired to change the arrangement of genre names on the display screen (2), a genre name at a desired display position is selected on the display screen (6), and this is changed to a genre name to be displayed at the display position. It can be realized by changing. In this case, the same genre name can be selected to be displayed at different positions. For example, the genre name “station” can be displayed at the upper left, and the “station” can be displayed below the genre name. As described above, when the same genre name is displayed at a plurality of locations on the display screen (2) for a frequently used genre name, the genre name may be easily touched and selected.
なお、制御部18は、表示画面(6)において、ユーザが、所望のジャンル名をタッチしてドラッグして所望の位置で離すことにより、制御部18が、当該ジャンル名の表示位置を、所望の位置に変更できるようにすると、表示位置の変更が容易となってよい。 In the control unit 18, when the user touches and drags a desired genre name and releases it at a desired position on the display screen (6), the control unit 18 determines the display position of the genre name. If the display position can be changed, the display position may be easily changed.
また、表示画面(2)に表示させることができるジャンル名の数は、所定数に限られている。例えば、ここでは25個である。このため、既に表示させるジャンル名として25個登録されている場合には、それ以上、表示させるジャンル名を増やすことはできない。 Further, the number of genre names that can be displayed on the display screen (2) is limited to a predetermined number. For example, 25 here. For this reason, when 25 genre names are already registered, the genre names to be displayed cannot be increased any more.
以上のように、表示された項目の表から、ユーザがよく使う項目のみを選択すれば、認識ワードが限定されるので、誤認識を減らすことができる。選択された認識ワードは、例えば、所定のメモリ領域に、デフォルトの状態から書き換える、空の領域に入れていく、既に入っているものを並べ替える等により、登録される。このようにすれば、限られたメモリ領域を有効に活用できる。 As described above, if only the items frequently used by the user are selected from the displayed table of items, the recognition word is limited, so that erroneous recognition can be reduced. The selected recognition word is registered, for example, in a predetermined memory area by rewriting it from the default state, putting it in an empty area, or rearranging what has already been entered. In this way, a limited memory area can be used effectively.
このようなユーザによる項目の設定は、上記の実施形態の図13及び図14で示したように、ユーザにより選択された項目を、表示部5に表示させる複数のページ毎に設定してもよい。このため、表示画面の1ページで表示できる項目が限られていても、ユーザがよく使う項目を、トップのページに持ってくることにより、使いたい項目を表示させるためにページを切り替える手間が省ける。 Such item setting by the user may be set for each of a plurality of pages to be displayed on the display unit 5 by selecting the item selected by the user as shown in FIGS. 13 and 14 of the above embodiment. . For this reason, even if the items that can be displayed on one page of the display screen are limited, by bringing items that the user uses frequently to the top page, it is possible to save the trouble of switching pages in order to display the items you want to use. .
複数の概念を含む認識ワードに対応する大項目と、当該複数の概念に相当する認識ワードに対応する中項目を、同一ページに表示させることができるので、ユーザが中項目を検索したい場合にも、階層やページを変える必要がなく、所望の項目をダイレクトに選択することができる。 A large item corresponding to a recognition word containing a plurality of concepts and a middle item corresponding to a recognition word corresponding to the plurality of concepts can be displayed on the same page, so the user can search for a middle item. It is not necessary to change the hierarchy or page, and a desired item can be directly selected.
例えば、「病院」のように、多数の候補を含む上位概念的な大項目は、できるだけ多くの候補の中から検索したいと思うユーザにとって便利な項目となる。「病院」の概念に含まれる「内科」、「小児科」のような中項目は、少ない候補の中から、即座に所望の施設の情報を得たいユーザにとって便利となる。 For example, a high-level conceptual large item including a large number of candidates such as “hospital” is a convenient item for a user who wants to search from as many candidates as possible. The middle items such as “internal medicine” and “pediatric” included in the concept of “hospital” are convenient for a user who wants to immediately obtain information on a desired facility from a small number of candidates.
施設の分類に関する情報は、大項目、中項目のように段階・階層を立てて分類分けすることで効率よい指定を行うことができるようにしている。すなわち、大項目の中には、1または複数の中項目が属する。 Information regarding the classification of facilities can be efficiently specified by classifying the information into categories such as large items and medium items. That is, one or more middle items belong to the large item.
大項目の一例を挙げると、「ホテル・公共施設・他」、「病院・医院」、ショッピング」、「レストラン」等がある。「ホテル・公共施設・他」に属する中項目の一例としては、「駅」、「IC(インターチェンジ)/JCT(ジャンクション)]、「郵便局」、「役所」、「トイレ」、「駐車場」、「ホテル」、「銀行 信金」、「学校」、「ガソリンスタンド」等がある。「病院・医院」に属する中項目の一例としては、「総合病院」、「内科」、小児科」、「外科」、「産婦人科」、「歯科」、「眼科」、「耳鼻咽喉科」、「整形外科」、「皮膚科」、「泌尿器科」、「診療内科」、「神経内科」、「肛門科」、「動物病院」等がある。「ショッピング」に属する中項目の一例としては、「コンビニ」、「ドラッグストア」、「デパート」、「ショピングモール」、「スーパー」、「カー用品」、「ホームセンター」、「家電」等がある。「レストラン」に属する中項目の一例としては、「ファミリーレストラン」、「ファーストフード」、「和食」、「洋食」、「中華」、「ラーメン」、「焼き肉」、「すし」、「とんかつ」、「うどん」、「カレー」、「牛丼」等がある。 Examples of major items include “hotels / public facilities / others”, “hospitals / clinics”, shopping, “restaurants”, and the like. Examples of medium items belonging to “Hotels / Public Facilities / Others” are “Station”, “IC (Interchange) / JCT (Junction)”, “Post Office”, “Office”, “Toilet”, “Parking” , “Hotel”, “Bank Shinkin”, “School”, “Gas Station”, etc. Examples of medium items belonging to “Hospital / Clinic” include “General Hospital”, “Internal Medicine”, Pediatrics, “Surgery”, “Gynecology”, “Dental”, “Ophthalmology”, “Otolaryngology” There are “Orthopedics”, “Dermatology”, “Urology”, “Medical Medicine”, “Neurology”, “Anal”, “Animal Hospital”, etc. Examples of the middle items belonging to “shopping” include “convenience store”, “drug store”, “department store”, “shopping mall”, “supermarket”, “car supplies”, “home center”, “home appliance”, and the like. Examples of medium items belonging to “restaurants” include “family restaurant”, “fast food”, “Japanese food”, “Western food”, “Chinese food”, “ramen”, “yaki”, “sushi”, “tonkatsu” "Udon", "Curry", "Gyudon" etc.
なお、各中項目に、さらに1または複数の小項目が属していてもよい。大項目、中項目、小項目のように段階・階層を立てて分類分けすることで、大量の項目の中から効率のよい指定を行うことができる。なお、1つの項目のみ属する場合には、実際には、その階層の項目はないものと同等となる。つまり、大項目に属する中項目が1つしか存在しない場合には、大項目までで、中項目及び小項目はないとしてもよい。また、中項目に属する小項目が1つしか存在しない場合には、中項目までで、小項目はないとしてもよい。そして、大項目を指定した場合には、それに属する全ての中項目が指定されたことになり、ある中項目が指定された場合には、その中項目に属する全ての小項目が指定されたこととして、制御部18は処理する。 Note that one or more small items may belong to each middle item. Efficient designation can be performed from a large number of items by classifying them in stages / hierarchies such as large items, medium items, and small items. Note that if only one item belongs, it is actually the same as no item in that hierarchy. That is, when there is only one middle item belonging to the large item, it may be up to the large item, and there may be no middle item and small item. Further, if there is only one small item belonging to the middle item, it may be up to the middle item and no small item. When a large item is specified, all the middle items belonging to it are specified. When a certain middle item is specified, all small items belonging to that medium item are specified. As a result, the control unit 18 processes.
なお、認識ワードとして、項目として表示されている語句に関連するが、項目として表示されていない語句が登録されていてもよい。例えば、項目に表示されている認識ワードそのものを発話しなくても、その認識ワードに関連する語句を言えばよいので、ユーザの項目名の記憶があいまいであったり、操作に不慣れであったりしても、検索ができる。 In addition, although it is related to the phrase displayed as an item as a recognition word, the phrase which is not displayed as an item may be registered. For example, even if the recognition word itself displayed on the item is not spoken, it is only necessary to say a phrase related to the recognition word, so the user's memory of the item name may be ambiguous or the user may be unfamiliar with the operation. But you can search.
例えば、項目として表示されている語句が大項目の「病院」であって、中項目である「内科」、「小児科」が表示されていないページであっても、「内科」、「小児科」も音声認識可能な認識ワードとして登録してもよい。このように、中項目が表示されていなかったとしても、大項目「病院」から連想したより具体的な中項目「内科」、「小児科」を言えば、その中項目が検索されるので、ユーザに必要な施設の情報を素早く得ることができる。 For example, even if the phrase displayed as an item is a large item “Hospital” and the middle items “Internal Medicine” and “Pediatrics” are not displayed, “Internal Medicine” and “Pediatrics” You may register as a recognition word in which speech recognition is possible. In this way, even if the middle item is not displayed, if the more specific middle items “internal medicine” and “pediatrics” associated with the large item “hospital” are mentioned, the middle items are searched. You can quickly get information about the facilities you need.
上記のようなユーザの設定により又はデフォルトの設定により、混同して認識される可能性のある認識ワードの項目が、別のページに表示されるように設定されていてもよい。例えば、似た音を含む語句、実際に認識させてみて混同する可能性が高い語句等が、同じページに並んで同時に認識の候補となることがないので、誤認識を減らすことができる。似た音を含む語句としては、例えば、「ファミレス」と「ファーストフード」、「病院」と「美容院」、「洋食」と「和食」のように、50音の同じ音、同じ漢字等を含む語句とする。 An item of a recognition word that may be confusedly recognized may be set to be displayed on another page by the user setting or the default setting as described above. For example, a phrase including a similar sound, a phrase that is highly likely to be confused when actually recognized, and the like are not placed on the same page as candidates for recognition at the same time, so that misrecognition can be reduced. Examples of phrases that include similar sounds include the same sound of 50 sounds and the same kanji, such as “family restaurant” and “fast food”, “hospital” and “beauty salon”, “Western food” and “Japanese food”. Contain words.
このようにすれば、文字からも紛らわしい音の認識語句が、同じページに表示されないため、ユーザも、いずれか一方を入力することになり、誤認識を減らすことができる。実際に認識させてみて混同する可能性が高い語句としては、例えば、過去の認識結果の記録に基づいて、同じ発話に対して認識されている異なる語句とする。このようにすれば、実際に誤認識が生じている組み合わせが同一ページとなることを排除できる。 In this way, a recognition phrase having a sound that is confusing even from characters is not displayed on the same page, and the user inputs either one, thereby reducing misrecognition. The words that are highly likely to be confused when actually recognized are different words that are recognized for the same utterance based on the record of past recognition results, for example. In this way, it can be excluded that the combination in which erroneous recognition has actually occurred becomes the same page.
《キャラクターの表示》
キャラクターの表示についても、種々の態様が可能である。上記の図26の表示画面(4)(5)では、制御部18は、画面に表示されたキャラクター100が、現在位置及び探索されたルート53に重ならないように、キャラクター100を左右に移動させている。例えば、キャラクター100と探索されたルート53の表示とが、互いに表示画面における反対側に寄るとよい。このようにすれば、キャラクター100が経路探索のサービスを邪魔しない気遣いをしているように、ユーザに感じさせることができるので、より好感を持たせることができてよい。
《Character display》
Various modes are also possible for displaying characters. In the display screens (4) and (5) in FIG. 26 described above, the control unit 18 moves the character 100 to the left and right so that the character 100 displayed on the screen does not overlap the current position and the searched route 53. ing. For example, the character 100 and the searched route 53 may be displayed on opposite sides of the display screen. In this way, since the user can feel as if the character 100 is caring for the route search service, it may be possible to have a better feeling.
キャラクター100の移動は、一旦消えてから、移動先で出現するようにしても、表示を継続させながら移動させてもよい。移動が頻繁だと、ユーザがうっとうしく感じる可能性もあるが、キャラクター100がユーザに存在をアピールできるとともに、キャラクター100を継続して見ていたいユーザにとっては、移動中のキャラクター100の動作を楽しむことができる。 The movement of the character 100 may disappear once and appear at the destination, or may be moved while the display is continued. If the movement is frequent, the user may feel annoyed. However, the character 100 can appeal to the user and the user who wants to continue to see the character 100 can enjoy the movement of the moving character 100. it can.
制御部18は、音声認識を起動して受け付けているか否かを、表示部5に表示させてもよい。このようにすれば、ユーザが、音声による操作ができるか否かを視覚により認識することができる。音声認識を受け付けているか否かとしては、表示画面の色を変えて表示する。このようにすれば、例えば、ユーザの視覚を介して、音声認識の状態を即座に感得させることができる。特に、音声認識を受け付けている場合には、通常の色とし、受け付けていない時には、グレースケールとする。このようにすれば、音声認識を受け付けているか否かを、ユーザに直感的にわからせることができる。 The control unit 18 may display on the display unit 5 whether or not the voice recognition is activated and received. In this way, it is possible to visually recognize whether or not the user can perform voice operations. Whether or not speech recognition is accepted is displayed by changing the color of the display screen. In this way, for example, the state of voice recognition can be immediately felt through the user's vision. In particular, when voice recognition is accepted, the normal color is used. When voice recognition is not accepted, the gray scale is selected. In this way, the user can intuitively know whether or not voice recognition is accepted.
制御部18は、音声認識を受け付けているか否かをキャラクターに表示してもよい。このようにすれば、キャラクターを見れば、音声による操作が可能か否かがわかるので、ユーザが気づきやすくなる。 The control unit 18 may display on the character whether or not voice recognition is accepted. In this way, since the user can know whether or not the voice operation is possible by looking at the character, the user can easily notice.
キャラクターに表示する態様としては、例えば、キャラクターの様子が明らかに変化する態様とする。このようにすれば、例えば、音声認識の状態を即座に感得させることができる。キャラクターの様子が明らかに変化する態様としては、例えば、キャラクターに物を付加する、キャラクターの色や形態を変える、特定のポーズ、ジェスチャーをさせる、吹き出しでセリフを表示するなどとする。このようにすれば、例えば、通常のキャラクターの状態を知っているユーザであれば、通常の状態との対比によってその変化に即座に気づく。 As a mode displayed on the character, for example, a mode in which the state of the character changes clearly is set. In this way, for example, the voice recognition state can be immediately felt. The manner in which the appearance of the character clearly changes includes, for example, adding an object to the character, changing the color or form of the character, causing a specific pose or gesture, or displaying a speech bubble. In this way, for example, if the user knows the state of the normal character, the change is immediately noticed by comparison with the normal state.
キャラクターに物を付加する態様としては、例えば、ヘッドセット、ヘッドホン、イヤホン、マイク等の音に関連する備品をキャラクターに装着させる。このようにすれば、ユーザに、音に関連する機能である音声認識を連想させる。キャラクターの色や形態を変える態様としては、例えば、髪型やその色、別のコスチュームに着替えるなどとする。このようにすれば、通常の状態との相違がわかりやすくなる。特に、キャラクターの耳を大きくすれば、音声をよく聞き取ろうとしていることを示す姿となる。さらに、ポーズ、ジェスチャーとして、例えば、耳の後ろに手を当てるしぐさをさせても、音声をよく聞き取ろうとしていることを示す姿となる。 As a mode of adding an object to a character, for example, equipment related to sound such as a headset, headphones, earphones, and a microphone is attached to the character. In this way, the user is reminded of speech recognition, which is a function related to sound. As a mode of changing the color and form of the character, for example, it is assumed that the hairstyle, its color, and a different costume are changed. This makes it easier to understand the difference from the normal state. In particular, if the character's ears are enlarged, the figure shows that they are trying to listen to the sound well. Further, as a pose or gesture, for example, even if a gesture of placing a hand behind the ear is given, it shows that the user is trying to listen to the voice well.
《ニックネームの使用》
制御部18は、あらかじめデータベース19に登録されたユーザの呼び名の音声を、キャラクターにより出力される音声である応答フレーズの中に、挿入するとよい。つまり、制御部18は、「霧島レイ」との対話の中で、ユーザの名前をニックネーム式で言わせる。例えば、「ケーくん」、「ユーくん」といった具合に、キャラクターに呼ばせることができる。
<Use of Nickname>
The control unit 18 may insert the voice of the user name registered in the database 19 in advance into the response phrase that is the voice output by the character. That is, the control unit 18 causes the user's name to be expressed by a nickname expression in the dialogue with “Rei Kirishima”. For example, a character can be called such as “Ke-kun” or “Yu-kun”.
例えば、音声認識及び周辺検索を起動させる起動ワードとして、「レイ、しゅうへん」が登録され、地図表示画面において、ニックネームを「ユーくん」で登録されたユーザが、「霧島レイ」に周辺検索を行わせる場合の対話例を以下に示す。「 」内が、発話したフレースである。 For example, “Rei, Shugen” is registered as an activation word that activates voice recognition and peripheral search, and a user registered with the nickname “Yu-kun” on the map display screen searches for “rei Kirishima”. The following is an example of the dialogue when it is performed. The inside of “” is the flared spoken.
ユーくん:「レイ、周辺」→音声認識起動→周辺検索ジャンル画面に遷移
レイ:「なに〜ユーくん、わたし忙しいんだけど。」
ユーくん:「内科」→地図画面に遷移、周辺の内科アイコンを表示
レイ:「どうしたの? 大丈夫? どこのお医者さん行くの?」
ユーくん:「に」(数字の2)
レイ:「わかった、2番ね。」→地図上に2の内科医院の情報を表示
ユーくん:「探索」→ルート探索して地図上に表示
レイ:「ど〜お?ここ行く?」
ユーくん:「頼む。」
レイ:「了解、任せて。」→案内開始
Yu-kun: “Rei, Periphery” → Voice recognition activation → Transition to the peripheral search genre screen Rei: “What? Yu-kun, I'm busy.”
Yu-kun: “Internal Medicine” → Transition to the map screen and display nearby medical icons Ray: “What's wrong? Are you okay? Where are you going?”
Yu-kun: "Ni" (number 2)
Rei: “Okay, No. 2” → Display the information of 2 medical clinics on the map Yu-kun: “Search” → Route search and display on the map Rei: “Wow, where are you going?”
Yu-kun: “I ask.”
Ray: "Okay, leave it to me."
このようにすれば、ユーザは、会話内で自らのニックネームで呼ばれることにより、キャラクターに対して、より一層の親しみを感じることができる。
また、対話の開始時に出力される音声にニックネームの音声が挿入されているので、ユーザが自らの名前で呼ばれることになり、ユーザの注意を引くことができてよい。
さらに、キャラクターの呼び名を含む音声が認識された場合に、出力される音声にユーザの呼び名の音声が挿入されているので、互いに呼び名を呼び合うことになり、ユーザは、より親密な感覚を得ることができる。
In this way, the user can feel more familiar with the character by being called with his / her nickname in the conversation.
Also, since the nickname voice is inserted in the voice output at the start of the dialogue, the user will be called by his / her name, and the user's attention may be drawn.
Furthermore, when the voice including the name of the character is recognized, since the voice of the user's name is inserted in the output voice, the names are called each other, and the user gets a more intimate feeling. be able to.
なお、対話が進行するに従って、キャラクターにより出力される音声に、ユーザの呼び名を挿入する頻度を低減させてもよい。このようにすれば、例えば、当初は呼び名が呼ばれていたのに、その後は呼ばれる頻度が減少するので、互いに慣れていく二人の会話を演出することができる。
さらに、データベース19に、あらかじめ50音表に対応する音声データが登録され、この50音表からユーザが選択した呼び名の音声を、会話中に挿入してもよい。このようにすれば、例えば、あらかじめ複数の呼び名を登録しておく場合に比べて、メモリの容量を節約できるのでよい。
Note that the frequency of inserting the user's call name into the voice output by the character may be reduced as the dialogue progresses. In this way, for example, although the call name was initially called but the frequency of the call is reduced thereafter, it is possible to produce a conversation between two people getting used to each other.
Further, voice data corresponding to the 50-sound table may be registered in the database 19 in advance, and the voice of the name selected by the user from the 50-sound table may be inserted during the conversation. In this way, for example, the memory capacity may be saved as compared with a case where a plurality of names are registered in advance.
《投稿》
ユーザが、取締・検問場所を発見した場合、制御部18が、あらかじめデータベース19に登録された認識ワードに対応するユーザの音声の入力に応じて、取締場所に関する位置情報を、情報収集サーバに送信することにより、投稿する機能を実行することができる。また、制御部18は、投稿された取締場所に関する位置情報について、情報収集サーバからの配信を受けて、表示部5に地図とともに表示することができる。このため、ナビゲーション装置は、制御部18に接続され、外部との情報の送受信を行う通信部を備える。
《Posting》
When the user finds a control / inspection place, the control unit 18 transmits position information regarding the control place to the information collection server in response to the user's voice input corresponding to the recognition word registered in the database 19 in advance. By doing so, the function of posting can be executed. Further, the control unit 18 can display the posted location information regarding the control location together with the map on the display unit 5 upon receiving distribution from the information collection server. For this reason, the navigation apparatus includes a communication unit that is connected to the control unit 18 and transmits / receives information to / from the outside.
この通信部は、インターネット接続機能を備えた車内の通信機器に、無線又は有線により接続される。例えば、通信部を、テザリング(tethering)機能を有するスマートフォン等の携帯電話又は無線LANルータとWi−Fi(登録商標)接続、Blutooth(登録商標)接続又はUSB接続することにより実現できる。このような通信機器は、ナビゲーション装置に組み込まれていてもよい。 This communication unit is connected wirelessly or by wire to a communication device in the vehicle having an Internet connection function. For example, the communication unit can be realized by connecting a Wi-Fi (registered trademark) connection, a Bluetooth (registered trademark) connection, or a USB connection to a mobile phone such as a smartphone having a tethering function or a wireless LAN router. Such a communication device may be incorporated in the navigation device.
まず、タッチ操作による投稿の処理は、以下の通りである。
1.走行中にユーザが取締・検問場所を発見
2.表示画面の投稿場所の設定を指示するボタンをタッチ
3.ボタンをタッチした時の地図上の現在位置を、投稿場所として設定し、該当位置にアイコンを表示
4.駐車中又は停車中に、待機画面の投稿ボタンをタッチ
5.1〜3により設定した複数の投稿場所の一覧が表示
6.投稿したい場所のいずれかをタッチ
7.最終確認のための投稿ボタンをタッチ
8.選択された投稿場所の情報を、投稿場所を収集するサーバへ送信する
9.投稿場所を収集するサーバが、受信した情報を、取締場所として登録
10.投稿場所を収集するサーバが、登録した情報を配信
11.配信された情報を受信して表示
First, post processing by touch operation is as follows.
1. 1. A user discovers a control / inspection place while driving. 2. Touch the button for setting the posting location on the display screen. 3. Set the current location on the map when the button is touched as the posting location, and display an icon at that location. 5. Touch the posting button on the standby screen while parked or stopped. 5. Display a list of multiple posting locations set according to 1-3. 6. Touch one of the places you want to post. Touch the post button for final confirmation. 8. Send information on the selected posting location to the server that collects the posting location. 9. The server collecting the posting location registers the received information as a control location. 10. A server that collects posting locations distributes registered information. Receive and display distributed information
なお、6と7の間に、ターゲットがオービス、Nシステム、取締、検問等のいずれであるかの選択、走行車線、反対車線、右方向、左方向等の対象方向の選択、実施期間の選択等を行うこともできる。 In addition, between 6 and 7, select whether the target is Orbis, N system, control, inspection, etc., selection of target direction such as driving lane, opposite lane, right direction, left direction, etc., selection of implementation period Etc. can also be performed.
このようなボタン操作による投稿の場合、走行中、投稿場所を発見してから、複数の階層的な手順を経るため、複数のボタン操作が必要となる。 In the case of posting by such a button operation, a plurality of button operations are required because a plurality of hierarchical procedures are performed after finding a posting place during traveling.
しかし、本態様では、ユーザの音声入力に応じて投稿ができる。つまり、ユーザが、あらかじめデータベース19に登録された認識ワードを発話すると、制御部18がこれを認識し、通信部に、当該発話時の現在位置を、通信機器を介して、投稿場所としてサーバに送信させる。サーバは、受信した情報を、取締場所として登録し、登録した情報を配信する。通信部は、通信機器を介して、配信された情報を受信し、制御部18は受信した情報に基づいて、取締場所を地図上に表示させる。このため、ボタン操作のような手間がかからず、簡単にすばやく行うことができる。 However, in this aspect, posting can be performed according to the user's voice input. That is, when the user utters a recognition word registered in the database 19 in advance, the control unit 18 recognizes this and notifies the communication unit of the current position at the time of the utterance to the server as a posting location via the communication device. Send it. The server registers the received information as a control location and distributes the registered information. The communication unit receives the distributed information via the communication device, and the control unit 18 displays the control location on the map based on the received information. For this reason, it does not require the trouble like button operation, and can be performed easily and quickly.
取締場所としては、上記のように、オービス、Nシステムも含むが、特に、取締・検問エリアのように、実施位置、時間が変化するチェック場所とするとよい。このようにすれば、あらかじめ位置を登録しておくことが困難な取締場所についての情報を、投稿により収集させることができる。 As described above, the control location includes the Orbis and N systems, but it is particularly preferable to use a check location where the execution position and time change as in the control / inspection area. In this way, it is possible to collect information on a control place where it is difficult to register a position in advance by posting.
位置情報としては、例えば、現在位置としてもよいし、地図の中心位置座標としてもよい。このようにすれば、確実且つ簡単に得られる情報により取締場所を特定できるとともに、音声認識を利用するので、実際の取締位置とのずれが少なくてよい。 The position information may be, for example, the current position or the center position coordinates of the map. In this way, it is possible to specify the enforcement location based on information obtained reliably and easily, and since voice recognition is used, there is little deviation from the actual enforcement position.
認識ワードとしては、音声認識を起動させる語句と投稿の受け付けを開始させる語句とが登録されているとよい。このようにすれば、ユーザが、音声認識を起動させる語句と投稿の受け付けを開始させる語句とを発話することにより、音声認識と、投稿の受け付けという多段階の操作を簡単に実行させることができる。 As the recognition word, it is preferable that a phrase for starting speech recognition and a phrase for starting acceptance of a post are registered. In this way, the user can easily execute a multi-step operation of voice recognition and acceptance of a post by speaking a phrase that activates speech recognition and a phrase that starts accepting a post. .
音声認識を起動させる語句と投稿の受け付けを開始させる語句としては、例えば、別々に分かれた語句として登録されていてもよい。このようにすれば、例えば、音声認識の開始とともに投稿の受け付けが開始してしまい、誤認識が生じることを防止できてよい。また、音声認識を起動させる語句と投稿の受け付けを開始させる語句として、例えば、一連の語句として設定されていてもよい。このようにすれば、例えば、音声認識の開始とともに投稿の受け付けを一発で開始させることができるので、即座に投稿可能な状態とすることができてよい。 For example, a phrase that activates speech recognition and a phrase that starts accepting postings may be registered as separate phrases. In this way, for example, it may be possible to prevent a recognition error from occurring due to the start of acceptance of a post with the start of voice recognition. Moreover, as a phrase for starting speech recognition and a phrase for starting acceptance of a post, for example, a series of phrases may be set. If it does in this way, since acceptance of contribution can be started by one shot with the start of voice recognition, for example, it may be in the state where it can post immediately.
認識ワードとしては、音声認識を起動させる語句と投稿をさせる語句とが登録されていれば、ユーザが、音声認識を起動させる語句と投稿をさせる語句とを発話することにより、音声認識と、投稿という多段階の操作を簡単に行うことができる。 If a word that activates speech recognition and a word that causes posting are registered as the recognition word, the user speaks the word that activates speech recognition and the word that causes posting, and voice recognition and posting The multi-step operation can be easily performed.
音声認識を起動させる語句と投稿させる語句としては、例えば、別々に分かれた語句として登録されていてもよい。このようにすれば、例えば、音声認識の開始とともに投稿されてしまい、誤って投稿されることを防止できてよい。また、音声認識を開始させる語句と投稿させる語句としては、例えば、一連の語句として設定されていてもよい。このようにすれば、例えば、音声認識の開始とともに投稿を一発で行わせることができるので、即座に投稿できて、取締場所と投稿場所とのずれを極力少なくすることができてよい。 As a phrase for starting speech recognition and a phrase for posting, for example, it may be registered as separate phrases. If it does in this way, it may be posted, for example with the start of voice recognition, and it may be prevented from being posted accidentally. Moreover, as a phrase for starting speech recognition and a phrase for posting, for example, a series of phrases may be set. In this way, for example, since the posting can be performed at once with the start of the voice recognition, the posting can be made immediately, and the deviation between the control place and the posting place can be reduced as much as possible.
なお、投稿のための認識ワードは、他の認識ワードよりも短くてもよい。このようにすれば、例えば、緊急性の高い投稿について、短時間で指示することができてよい。 Note that the recognition word for posting may be shorter than other recognition words. In this way, for example, it may be possible to instruct in a short time about highly urgent posts.
また、投稿のための認識ワードは、他の認識ワードよりも冗長であってもよい。このようにすれば、例えば、通常の音声認識を利用している場合に、他の認識語句を言う可能性が少なくなり、誤って投稿がされてしまうことを防止できる。冗長であるとは、例えば、文字数が多い、複数に分かれているとするとよい。このようにすれば、例えば、投稿を意図していないユーザが、誤って発話してしまう可能性を低減できる。 In addition, the recognition word for posting may be more redundant than other recognition words. In this way, for example, when normal speech recognition is used, there is less possibility of saying other recognition words and phrases, and it is possible to prevent postings by mistake. The term “redundant” means, for example, that there are a large number of characters and a plurality of characters. In this way, for example, it is possible to reduce the possibility that a user who does not intend to post utters by mistake.
また、投稿のための認識ワードは、ユーザが普段言う可能性の低い語句であってもよい。このようにすれば、例えば、ユーザが車内で普段、頻繁に使用する語句によって頻繁に誤認識が生じることを防ぎ、ユーザが意図しない投稿を防止できる。 In addition, the recognition word for posting may be a phrase that the user is unlikely to say normally. In this way, for example, it is possible to prevent frequent misrecognition from being frequently caused by words that are frequently used by the user in the vehicle, and to prevent posting that the user does not intend.
投稿のための認識ワードを認識した場合、制御部18が、これに応じて、あらかじめ登録されたキャラクターの音声を出力することにより、上記の実施形態のような対話機能を実現させてもよい。この場合、投稿のための対話におけるキャラクターの音声は、他の対話における音声よりも短くしてもよい。このようにすれば、例えば、対話の時間を短くして、素早く投稿させることができるのでよい。 When the recognition word for posting is recognized, the control unit 18 may output the voice of a character registered in advance, thereby realizing the interactive function as in the above embodiment. In this case, the voice of the character in the dialogue for posting may be shorter than the voice in other dialogues. In this way, for example, the dialogue time can be shortened and posted quickly.
《応答フレーズのバリエーション》
データベース19にあらかじめ登録するキャラクターの応答フレーズは、以下のように種々の態様とすることができる。
検索された施設の選択を促すキャラクターの音声を、表示されたアイコンに合わせた内容で出力する場合、番号であれば何番がよいかを問い合わせる音声で、アルファベットであればアルファベットの何がよいかを問い合わせる音声で、形状であれば形状が何かを問い合わせる音声で、色であれば色が何かを問い合わせる音声にするとよい。このようにすれば、ユーザは、例えば、何を発話して施設を選択すればよいかが、簡単にわかるのでよい。
《Response phrase variations》
The character response phrases registered in advance in the database 19 can be in various forms as follows.
When outputting the sound of the character prompting the selection of the found facility with the contents that match the displayed icon, it is a voice inquiring what number is better if it is a number, and what is better in the alphabet if it is an alphabet If it is a shape, it may be a voice that asks what the shape is, and if it is a color, it may be a voice that asks what the color is. In this way, for example, the user can easily know what to speak and select a facility.
また、例えば、表示されているアイコンに合わせた内容として、選択される候補の範囲を示す音声とするとよい。これにより、例えば、何番から何番というように音声を出力すれば、ユーザは、発話すべき内容とともに、選択すべき範囲も把握することができるのでよい。 In addition, for example, it is preferable to use a voice indicating the range of candidates to be selected as the content that matches the displayed icon. Thus, for example, if the sound is output from what number to what number, the user may be able to grasp the content to be uttered and the range to be selected.
あらかじめ登録されたキャラクターの音声として、キャラクターの状況を示す内容の音声を挿入してもよい。このようにすれば、ユーザは、キャラクターの状況を聞くことができるので、例えば、キャラクターがネガティブな状況にあれば、ユーザにキャラクターを気遣う気持ちを起こさせることができ、キャラクターがポジティブな状況にあれば、ユーザにキャラクターに共感する気持ちを起こさせることができるのでよい。 You may insert the audio | voice of the content which shows the condition of a character as the audio | voice of the character registered beforehand. In this way, the user can listen to the situation of the character. For example, if the character is in a negative situation, it can cause the user to feel concerned about the character, and if the character is in a positive situation. In this case, it is possible to make the user feel sympathetic with the character.
キャラクターの状況を示す発言としては、例えば、「わたし忙しいんだけど」というように、自らがポジティブな状態にあるかネガティブな状態にあるかがわかる発言とするとよい。このようにすれば、ユーザの指示にシステムが無条件に従うのではなく、ユーザに気遣いの気持ちや、共感の気持ちを生じさせることができるので、実際の人間を相手にした会話のような感覚が得られるのでよい。 As a comment indicating the character's situation, for example, “I'm busy”, it is good to know whether you are in a positive state or a negative state. In this way, the system does not follow the user's instructions unconditionally, but it can create a feeling of caring and empathy for the user, so that it feels like a conversation with an actual person. You can get it.
リストは複数設定され、応答フレーズにおける同一のリスト内であっても他のフレーズとは異質なフレーズが登録されているリストがあってもよい。このようにすれば、例えば、ユーザの同様の内容の発言に対する返答として、異質なフレーズが出力されることにより、ユーザに予想外の印象を与えることができ、キャラクターに対する印象を変化させて、飽きが来ることを防止できるのでよい。異質なフレーズとしては、例えば、図9(a)のレイ応答フレーズ3に示すように、「何か指示して。」、「どうすればい〜い?」、「どうする?」、「どう変えるの?」という積極的な問いかけのフレーズの中に、「好きにして。」というように、曖昧なフレーズを挿入するとよい。また、図9(b)のレイ応答フレーズ24に示すように、「再検索」、「検索し直しね」、「も1回ね」、「やり直しま〜す」というやり直しを示すフレーズの中に、「色々と私を試してるでしょ?」というように、ユーザの心理を読むようなフレーズを挿入するとよい。 A plurality of lists may be set, and there may be a list in which phrases different from other phrases are registered even in the same list of response phrases. In this way, for example, a different phrase is output as a response to the user's similar utterance, which can give the user an unexpected impression, change the impression of the character, and get bored. It is good because it can be prevented from coming. For example, as shown in Ray Response Phrase 3 in FIG. 9 (a), the different phrases include “Instruct me something”, “What should I do?”, “What do I do?”, “How do I change it?” It ’s a good idea to insert an ambiguous phrase, such as “Like me.”, In the active questioning phrase. Further, as shown in the ray response phrase 24 in FIG. 9B, in the phrases indicating redo such as “re-search”, “re-search”, “also once”, “re-do-do”. It ’s a good idea to insert a phrase that reads the user ’s psychology, such as “You ’re trying a lot.
音声認識を間違えた場合に、出力されるフレーズが登録されていてもよい。このようにすれば、例えば、認識を間違えた場合であっても、何等かのフレーズを返すことより、キャラクターとの対話が継続していることを、ユーザに認識させることができるのでよい。 A phrase to be output when speech recognition is mistaken may be registered. In this way, for example, even if the recognition is wrong, by returning some phrase, the user can recognize that the dialogue with the character is continuing.
音声認識に誤りがあった場合に備えた逃げ口上となるフレーズが登録されているとよい。このようにすれば、例えば、音声認識に誤りが生じる可能性はあるが、たとえ誤りが生じたとしても、キャラクターの逃げ口上によって、ユーザの苛立ちや怒りを和らげることができるのでよい。 It is preferable that a phrase to be an escape point in case there is an error in speech recognition is registered. In this way, for example, there is a possibility that an error may occur in voice recognition, but even if an error occurs, the user's frustration and anger can be eased by the escape of the character.
逃げ口上としては、例えば、図8(a)のレイ応答フレーズ1に示す「音声認識頑張ります。100%認識できないかもしれないけれど」のように、正確に認識しようとする意欲を示す表現とともに、完全な達成は困難であることを示す表現とするとよい。このようにすれば、例えば、単に、認識ができないことを示すよりも、誤認識に対して、ユーザに許容する心理を生じさせることができるとよい。 As an escape point, for example, as shown in Ray Response Phrase 1 in Fig. 8 (a), "I will do my best speech recognition. I may not be able to recognize 100%". It is better to express that it is difficult to achieve. In this way, for example, it may be possible to generate a psychology that is allowed to the user with respect to misrecognition, rather than simply indicating that recognition is not possible.
ユーザが返答を望む内容とキャラクターの音声の出力の内容とが相違していることを指摘するユーザの音声の入力があった場合に、それに対するキャラクターからの返答のフレーズが登録されているとよい。このようにすれば、例えば、ユーザが、キャラクターの間違えを指摘すると、キャラクターからこれに対する返答があるので、誤解があった場合の人と人との自然なやり取りを楽しむことができるのでよい。 If the user's voice input points out that the content that the user wants to reply is different from the content of the character's voice output, the response phrase from the character should be registered . In this way, for example, if the user points out a mistake in the character, there is a response from the character, so that it is possible to enjoy natural exchange between people when there is a misunderstanding.
宣伝広告となるフレーズが登録されていてるとよい。このようにすれば、例えば、提携している施設にユーザを誘導することができるのでよい。例えば、「○○ショップはどう?」というように、特定の施設に誘うフレーズとするとよい。 A phrase that will be used as a promotional advertisement should be registered. In this way, for example, the user may be guided to a facility that is affiliated. For example, it may be a phrase to invite to a specific facility such as “How about a XX shop?”.
ユーザが行き先とする施設で行うことの原因についてのフレーズが登録されているとよい。このようにすれば、ある施設に行くことになった原因について発話することにより、当該施設に向かうユーザが耳を傾けやすくなる。例えば、その行き先に行く原因がユーザにとって好ましくない場合にも、ユーザにとって好ましい場合にも、ユーザの注意を引くことができる。 A phrase about the cause of what is to be done at the facility the user is going to go to may be registered. If it does in this way, it will become easy for the user who goes to the said facility to listen by speaking about the cause which went to a certain facility. For example, the user's attention can be drawn when the cause of going to the destination is not preferable for the user or when it is preferable for the user.
行き先へ行く原因がユーザにとって好ましいものでない施設としては、例えば、「病院」、「歯医者」、「薬局」のように、ユーザの病気に関係している施設とするとよい。行き先へ行く原因がユーザにとって好ましい施設としては、例えば、「デパート」「寿司」「うなぎ」のように、日常良く行く施設よりも、ややハードルが高い施設とするとよい。 As a facility where the cause of going to the destination is not preferable for the user, for example, a facility related to the user's illness such as “hospital”, “dentist”, and “pharmacy” may be used. As a facility that is preferable for the user to go to the destination, for example, “department store”, “sushi”, “unagi”, and the like, it may be a facility with a slightly higher hurdle than a facility that is frequently used daily.
キャラクターがユーザに対して種々の感情を起こさせるフレーズとしては、例えば、図9(c)の応答フレーズ6−8に示すように、「病院? どこか具合が悪いの? 大丈夫?」、「あまり無理しないでね。」のようにユーザの状態を思いやることによりキャラクターに愛着を感じさせるフレーズとするとよい。また、例えば、図9(d)の応答フレーズ6−29に示すように、「ちゃんと歯磨きしてる?」のようにユーザに後悔の念を起こさせるフレーズとするとよい。 As a phrase that causes the character to cause various emotions to the user, for example, as shown in the response phrase 6-8 in FIG. 9C, “Hospital? Something is wrong? It ’s a good phrase to make the character feel attached by thinking about the user ’s condition. Further, for example, as shown in a response phrase 6-29 in FIG. 9D, a phrase that causes the user to regret, such as “Do you brush your teeth properly?” Is preferable.
ユーザが行き先とする施設で行うことについての肯定的又は否定的なアドバイスとなるフレーズが登録されているとよい。このようにすれば、例えば、キャラクターのアドバイスにより、ユーザが行き先ですべきことや、すべきでないことを判断できるのでよい。肯定的なアドバイスとしては、例えば、図9(d)の応答フレーズ6−29に示すように、「たまには歯垢をとってもらった方がいいよ。」のように何かを勧めるフレーズとするとよい。また、否定的なアドバイスとしては、例えば、図9(e)の応答フレーズ6−23に示すように、「苦しそうな顔しちゃダメ。涼しい顔して我慢するのが男なの。」のように何かを禁止するフレーズとするとよい。 A phrase that serves as a positive or negative advice about what to do at the facility that the user is going to visit may be registered. In this way, for example, what the user should or should not do at the destination may be determined by the advice of the character. As a positive advice, for example, as shown in the response phrase 6-29 in FIG. 9 (d), if it is a phrase that recommends something like "It is better to get plaque once in a while." Good. As negative advice, for example, as shown in a response phrase 6-23 in FIG. 9 (e), “Don't look painful. Don't put up with a cool face.” A phrase that prohibits something is good.
ユーザが行き先とする施設で行うことについてのキャラクターの一方的な感想となるフレーズが登録されているとよい。このようにすれば、例えば、キャラクターの感想が得られるので、ユーザは、行き先での行動についての参考とすることができてよい。 It is preferable that a phrase that is a one-sided impression of the character about what to do at the facility where the user goes is registered. In this way, for example, the impression of the character can be obtained, so that the user may be able to refer to the action at the destination.
キャラクターの一方的な感想としては、例えば、図9(f)の応答フレーズ6−14に示すように「お口の中でとろけるような黒ブタチャーシュー。ステキ〜。」のように、肯定的な感想とするとよい。このようにすれば、ユーザが、同様の行動を施設でとりたくなるのでよい。また、例えば、「一人でレストランに行くの?寂しくない?・・ほっとけって?」のように否定的な感想とするとよい。このようにすれば、ユーザに行き先を変える気を起こさせるのでよい。さらに、例えば、図9(g)の応答フレーズ6−21に示すように、「ショッピングモールって見て回るだけで楽しそう。でも疲れそう。」のように、肯定的な感想と否定的な感想が混じっていてもよい。このようにすれば、行き先での状況について、ユーザにあらかじめ覚悟させることができるのでよい。 As the one-sided impression of the character, for example, as shown in the response phrase 6-14 in FIG. 9 (f), “black pig char shoe that melts in your mouth. Impressions are good. In this way, the user may want to take the same action at the facility. In addition, for example, it may be a negative impression such as “go to the restaurant alone? Are you not lonely? In this way, the user may be encouraged to change the destination. Furthermore, for example, as shown in the response phrase 6-21 in FIG. 9 (g), positive impressions and negative impressions such as “Looking around shopping malls may seem fun but tired.” Impressions may be mixed. In this way, the user can be prepared in advance about the situation at the destination.
キャラクターが、現実に存在することを思わせるフレーズが登録されていてもよい。このようにすれば、例えば、ユーザは、キャラクターが実際に存在するような感覚が得られるのでよい。 Phrases reminiscent of the fact that the character actually exists may be registered. In this way, for example, the user may obtain a feeling that the character actually exists.
現実に存在することを思わせるフレーズとしては、例えば、図9(h)の応答フレーズ6−24に示すように、「出張にも私を連れて行ってくれるなんて、うれしいです〜。」、図9(i)の応答フレーズ6−25に示すように、「私達、どこに泊まる?」のように、同行していることを思わせるフレーズとするとよい。このようにすれば、例えば、ユーザは、キャラクターといつも一緒にいる感覚が得られるのでよい。 As a phrase reminiscent of actually existing, for example, as shown in the response phrase 6-24 in FIG. 9 (h), “I am glad to take me on business trips.” As shown in the response phrase 6-25 of 9 (i), it may be a phrase reminiscent of being accompanied, such as “Where do we stay?” In this way, for example, the user may be able to obtain a feeling of being always with the character.
あらかじめ認識語句として設定された語句以外の音声が入力された場合に、キャラクターが出力する音声データが登録されているとよい。このようにすれば、例えば、認識語句以外であっても、必ずキャラクターの反応があるため、対話が途切れたり、エラーとして報知する等によりシステムとのやり取りであることをユーザに想起させてしまうことがなく、キャラクターと対話を継続している感覚を維持できるのでよい。設定された語句以外の音声が入力された場合のフレーズとしては、図9(j)のレイ応答フレーズ50に示すような認識不可のフレーズとすることが考えられる。なお、応答フレーズは、複数の中からランダムに出力される態様には限定されない。複数の中から出力される順序が決まっていて、その順番で順次出力され、最後の順位の応答フレーズが出力されたら、最初の順位の応答フレーズに戻って出力するようにすれば、繰り返し同じ応答フレーズが出力されることを防止できる。さらに、認識語句毎に、対応する応答フレーズが、一対一に決まっていてもよい。このようにすれば、情報の記憶量を節約できるのでよい。このような場合でも、上記で示したような内容の応答フレーズが設定されていれば、同様の効果が得られる。 It is preferable that voice data output by the character is registered when voice other than words set in advance as recognition words is input. In this way, for example, even if it is not a recognized phrase, there is always a character's reaction, so the dialogue is interrupted or the user is reminded that the exchange is with the system by notifying as an error etc. It is good because you can maintain the feeling of continuing dialogue with the character. As a phrase when a voice other than the set word is input, it is possible to use an unrecognizable phrase as shown in the ray response phrase 50 in FIG. Note that the response phrase is not limited to a mode in which a plurality of response phrases are output randomly. If the output order is decided from among multiple, the order is output in that order, and the response phrase of the last rank is output. By returning to the response phrase of the first rank, the same response is repeated. The phrase can be prevented from being output. Furthermore, the corresponding response phrase may be determined on a one-to-one basis for each recognized word / phrase. In this way, the amount of information stored can be saved. Even in such a case, the same effect can be obtained if a response phrase having the contents as described above is set.
《音声出力と音声認識のタイミング》
音声出力と音声認識のタイミングは、以下のように種々の設定が可能である。
制御部18は、キャラクターの音声が出力されている間は、音声を出力し終えるまで、音声認識を停止してもよい。このようにすれば、例えば、キャラクターの音声の途中で、ユーザからの音声の入力があった場合に、音声認識により他の処理が実行されてしまうことを防止できてよい。他の処理としては、例えば、音量、輝度、スケール、周辺検索のように、緊急性の低い処理とするとよい。このようにすれば、必ずしも直ちに実行しなくてもよいものまで、音声認識により実行されてしまうことがなくてよい。
<< Timing of voice output and voice recognition >>
Various settings can be made for the timing of voice output and voice recognition as follows.
While the character's voice is being output, the control unit 18 may stop the voice recognition until the voice has been output. In this way, for example, when a voice is input from the user in the middle of the character's voice, it may be possible to prevent other processing from being executed due to voice recognition. As another process, for example, a process with low urgency may be used, such as volume, brightness, scale, and peripheral search. In this way, it is not necessary to execute the voice recognition even if it is not necessarily executed immediately.
制御部18は、キャラクターの音声が出力されている間も、音声認識を受け付けてもよい。このようにすれば、例えば、キャラクターの音声の途中で、ユーザからの音声の入力があった場合に、音声認識より他の処理が中断されないのでよい。他の処理としては、例えば、取締場所に関する位置情報を情報収集サーバに送信する処理のように、緊急性の高い処理とするとよい。このようにすれば、ユーザが直ちに実行して欲しい処理が、中断されることがなくてよい。 The control unit 18 may accept voice recognition while the character's voice is being output. In this way, for example, when a voice is input from the user in the middle of the character's voice, other processes than the voice recognition may not be interrupted. As another process, for example, a process with high urgency may be used, such as a process of transmitting position information related to the control location to the information collection server. In this way, the process that the user wants to execute immediately does not have to be interrupted.
制御部18は、キャラクターの音声が出力されている間に、ユーザからの音声の入力があった場合に、キャラクターの音声の出力を停止してもよい。このようにすれば、例えば、ユーザの音声によって、キャラクターの発言を遮ったような印象を与えることができる。停止したキャラクターの音声の出力は、例えば、あらためて出力しなければ、同じ発話が始めから繰り返されて不自然な印象を与えることがなくてよい。また、停止したキャラクターの音声の出力を、例えば、止めたところから開始すれば、ユーザの発言の間、キャラクターが待ってくれていた印象を与えることができてよい。 The control unit 18 may stop outputting the character's voice when the voice is input from the user while the voice of the character is being output. In this way, for example, the user's voice can give an impression that the character's speech is blocked. For example, if the voice of the stopped character is not output again, the same utterance may be repeated from the beginning without giving an unnatural impression. Further, if the output of the voice of the stopped character is started, for example, from the point where it is stopped, it may be possible to give the impression that the character has been waiting for the user to speak.
制御部18は、キャラクターの音声が出力されている間に、所定の入力操作がなされた場合に、キャラクターの音声を停止してもよい。このようにすれば、例えば、キャラクターとの対話を第三者に聞かれたくないときに、所定の入力操作によって、キャラクターの音声を停止させることができてよい。所定の入力操作としては、例えば、物理キーの操作とするとよい。このようにすれば、常時、固定的に存在する箇所を操作すればよいので、とっさの操作がしやすい。 The control unit 18 may stop the voice of the character when a predetermined input operation is performed while the voice of the character is being output. In this way, for example, when it is not desired that a dialogue with the character be heard by a third party, the voice of the character may be stopped by a predetermined input operation. The predetermined input operation may be a physical key operation, for example. In this way, since it is only necessary to operate a fixed location at all times, a quick operation is easy.
《音声認識起動のタイミング》
音声認識起動のタイミングは、以下のように、種々の態様が可能である。
制御部18は、対話に応じて、ユーザが知りたい情報を出力するための所定の処理を、所定の認識ワードに対応するユーザからの音声の入力により開始するとよい。このようにすれば、例えば、所定の処理をユーザからの音声の入力があって開始するため、システムが勝手に開始して処理が実行されてしまうことがなくてよい。
《Voice recognition activation timing》
Various modes are possible for the timing of voice recognition activation as follows.
The control unit 18 may start a predetermined process for outputting information that the user wants to know in response to the dialogue by inputting a voice from the user corresponding to the predetermined recognition word. In this way, for example, since the predetermined process is started upon input of a voice from the user, the system does not have to start and execute the process.
制御部18は、対話に応じて、ユーザが知りたい情報を出力するための所定の処理を、所定のキャラクターの音声の出力に対し、所定の認識語句に対応するユーザからの音声の入力があって開始してもよい。このようにすれば、例えば、キャラクターの音声の出力が、ユーザが所定の処理を開始するか否かを判断する契機となるので、システムを利用する機会を増やすことができるのでよい。 The control unit 18 performs a predetermined process for outputting information that the user wants to know in response to the dialogue, in response to a voice input from a user corresponding to a predetermined recognition word / phrase in response to a voice output of a predetermined character. You can start. In this way, for example, the output of the character's voice is an opportunity for the user to determine whether or not to start a predetermined process, so that the opportunity to use the system can be increased.
キャラクターの音声の出力は、例えば、特定の処理の開始の有無を問い合わせるものとするとよい。このようにすれば、例えば、ユーザが、処理の利用を促されるのでよい。キャラクターの音声の出力のタイミングは、例えば、定期的とすれば、処理を利用させる頻度を高めるのでよい。また、タイミングを所定の条件を満たした場合とすれば、処理の利用に適したタイミングで、ユーザに利用を促すことができるのでよい。 For example, the character voice may be output as an inquiry about whether or not a specific process is started. In this way, for example, the user may be prompted to use the process. For example, if the character voice is output periodically, the frequency at which the process is used may be increased. If the timing satisfies a predetermined condition, the user may be prompted to use at a timing suitable for the use of the process.
《その他》
周辺の施設を示すアイコンを、地図と比べて相対的に強調表示させる態様としては、施設の位置が明確となる表示とするとよい。例えば、アイコンと地図の明度、彩度、色相の少なくとも一つを変えれば、両者の対比が際立つのでよい。
<Others>
As an aspect in which icons indicating surrounding facilities are relatively highlighted as compared with the map, it is preferable to display the location of the facility clearly. For example, if at least one of the brightness, saturation, and hue of the icon and the map is changed, the contrast between the two may stand out.
周辺の施設を示すアイコンに、所定の基準に従った順位が区別できる表示をする場合、所定の基準としては、例えば、ユーザにとっての重要度が高い順としてもよい。このようにすれば、ユーザが最も知りたい施設が優先的に表示されるのでよい。ユーザにとっての重要度とは、例えば、過去に行ったことがある、過去に行った頻度が高い、ユーザの好みに合う等とするとよい。このようにすれば、ユーザが行きたい施設を素早く知ることができるのでよい。また、例えば、過去に行ったけれども、二度と行きたくないなど、ユーザにとっての重要度が低いものが除外されるようにしてもよい。このようにすれば、例えば、ユーザが行く可能性があるもののみを表示させることができてよい。 In the case where the icons indicating the surrounding facilities are displayed so that the order according to the predetermined standard can be distinguished, the predetermined standard may be, for example, in the order of importance to the user. In this way, the facility that the user wants to know most is preferentially displayed. The degree of importance for the user may be, for example, a thing that has been done in the past, a frequency that has been done in the past, or a preference of the user. In this way, the user can quickly know the facility he wants to go to. Also, for example, those that have been performed in the past but do not want to go again, such as those that are less important to the user, may be excluded. In this way, for example, it may be possible to display only what the user may go to.
順位が区別できる表示としては、例えば、◎、○、△、×等の形状や、明度、彩度、色相により段階的に変化をつける等、視覚的に順位を示す情報としてもよい。このようにすれば、例えば、順位を視覚により直感的に把握できるのでよい。 The display that can distinguish the order may be, for example, information that visually indicates the order, such as a shape such as ○, ◯, Δ, or x, or a stepwise change according to lightness, saturation, or hue. In this way, for example, the order may be intuitively grasped visually.
表示されたアイコンに合わせた内容で、いずれかの施設を選択するユーザの音声を認識する場合、例えば、アルファベットであれば所望の施設のアイコンのアルファベット、形状であれば所望の施設のアイコンの形状、色であれば所望の施設のアイコンの色としてもよい。このようにしても、施設名よりも覚えやすい言葉で、施設を選択することができるのでよい。 When recognizing the voice of the user who selects one of the facilities with the content that matches the displayed icon, for example, the alphabet of the desired facility icon if it is an alphabet, and the shape of the desired facility icon if it is a shape If it is a color, it may be the icon color of the desired facility. Even in this case, the facility can be selected with a language that is easier to remember than the facility name.
ボタン表示された項目の表示領域において、背後の画像が見える部分としては、例えば、透過する部分としてもよい。このようにすれば、例えば、項目表示の視認性を確保したまま、背景の画像も、より良く見ることができるのでよい。 In the display area of the button-displayed item, the portion where the background image can be seen may be a transparent portion, for example. In this way, for example, the background image can be better viewed while ensuring the visibility of the item display.
ユーザの音声を認識するためにあらかじめ登録される認識ワードが、表示画面に表示されているものと、表示画面に表示されていないものとがあってもよい。このようにすれば、例えば、ユーザが、表示画面に表示されていない語句を発話した場合であっても、あらかじめ設定された認識語句であれば、キャラクターからの何らかの反応を得ることができるので、ユーザにとってサプライズとなり、ユーザに発見の喜びを与えることができる。 The recognition words registered in advance for recognizing the user's voice may be displayed on the display screen or not displayed on the display screen. In this way, for example, even if the user utters a phrase that is not displayed on the display screen, if the recognition phrase is set in advance, some reaction from the character can be obtained. It becomes a surprise for the user and can give the user a pleasure of discovery.
認識ワードとしての量的に変化する機能に対応する指示語と、量的レベルを示す数字としては、例えば、「おんりょうさん」、「きどに」、「すけーるにきろ」のように、名称と量的レベルとを1つの認識語句にまとめてもよい。このようにすれば、発話が一回で済むのでよい。 For example, "Onryo-san", "Kidoni", and "Sky Nikiro" can be used as the instruction word corresponding to the quantitatively changing function as the recognition word and the numerical value indicating the quantitative level. The name and the quantitative level may be combined into one recognition word / phrase. In this way, only one utterance is required.
機能に対応する指示語が表示されるボタンは、別の表示画面に遷移せずに機能を実行させるボタンがあってもよい。このようにすれば、例えば、機能を実行させるために別の表示画面に遷移しなくても、対話により機能を実行させることができるので、現在の画面表示が邪魔されることがなくてよい。 The button for displaying the instruction word corresponding to the function may be a button for executing the function without changing to another display screen. In this way, for example, the function can be executed by interaction without transitioning to another display screen to execute the function, so that the current screen display does not have to be disturbed.
本実施形態では、ナビゲーション装置の例で説明したが、各種の電子機器の機能として実施することができる。たとえば、レーダー探知機、ドライブレコーダ、カーオーディオの機能として組み込んでもよい。また本実施形態で記載した量的レベルの値、表示部5の画面サイズ、各種の時間設定など、本発明の効果を奏する範囲で任意のものとすることができる。また、制御部18には、各機能や警報の優先順位をリモコン17等からのユーザからの指示に基づいて設定する機能を設け、この設定された優先順位で制御部18が処理を行うように構成してもよい。 In the present embodiment, the navigation device has been described as an example, but it can be implemented as a function of various electronic devices. For example, you may incorporate as a function of a radar detector, a drive recorder, and a car audio. Further, the value of the quantitative level described in the present embodiment, the screen size of the display unit 5, various time settings, and the like can be arbitrarily set within a range where the effects of the present invention are exhibited. Further, the control unit 18 is provided with a function of setting the priority order of each function and alarm based on an instruction from the user from the remote controller 17 or the like, and the control unit 18 performs processing in this set priority order. It may be configured.
さらに、上述した実施形態では、装置内に各種の情報を記憶したデータベース19を備え、制御部18は係るデータベース19にアクセスして必要な情報を読み出し、各種の処理をしたが、本発明はこれに限ることはない。例えば、データベース19に登録する情報の一部または全部をサーバに登録しておく。そして、ナビゲーション装置、レーダー探知機その他の電子機器・装置は、係るサーバと通信する機能を備え、制御部18は、適宜サーバにアクセスし、必要な情報を取得して処理を実行するシステムとしてもよい。さらには、制御部18の機能の少なくとも一部をサーバにおき、当該機能をサーバで実行し、ユーザが持つ電子機器は、その実行結果を取得するようなシステムとしても良い。 Further, in the above-described embodiment, the apparatus includes the database 19 that stores various types of information, and the control unit 18 accesses the database 19 to read out necessary information and performs various types of processing. It is not limited to. For example, part or all of the information registered in the database 19 is registered in the server. The navigation device, radar detector, and other electronic devices / devices have a function of communicating with the server, and the control unit 18 may access the server as appropriate, acquire necessary information, and execute a process. Good. Furthermore, at least a part of the function of the control unit 18 may be placed on a server, the function may be executed on the server, and an electronic device owned by the user may acquire the execution result.
上述した実施形態の制御システムとしての機能は制御部18に備えるコンピュータに実現させるためのプログラムとして構成されているが、これに限らずプログラムは複数のコンピュータに分散配置し、分散処理するようにしてもよい。 The functions as the control system of the above-described embodiment are configured as a program for causing a computer included in the control unit 18 to realize the function. However, the present invention is not limited to this, and the program is distributed and distributed to a plurality of computers. Also good.
2 装置本体
3 クレードル
4 ケース本体
5 表示部
6 クレードル本体
7 台座部
8 タッチパネル
10 警報ランプ
11 マイクロ波受信機
12 GPS受信機
13 無線受信機
18 制御部
19 データベース
20 スピーカ
21 SDメモリカード用スロット
22 SDメモリカード
51 現在位置
52 目的地
53 ルート
2 device main body 3 cradle 4 case main body 5 display unit 6 cradle main body 7 pedestal unit 8 touch panel 10 alarm lamp 11 microwave receiver 12 GPS receiver 13 wireless receiver 18 control unit 19 database 20 speaker 21 SD memory card slot 22 SD Memory card 51 Current location 52 Destination 53 Route
Claims (17)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013185728A JP6312053B2 (en) | 2013-09-06 | 2013-09-06 | System and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013185728A JP6312053B2 (en) | 2013-09-06 | 2013-09-06 | System and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018043726A Division JP6601643B2 (en) | 2018-03-12 | 2018-03-12 | System and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015052945A true JP2015052945A (en) | 2015-03-19 |
JP6312053B2 JP6312053B2 (en) | 2018-04-18 |
Family
ID=52701923
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013185728A Active JP6312053B2 (en) | 2013-09-06 | 2013-09-06 | System and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6312053B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015052539A (en) * | 2013-09-06 | 2015-03-19 | 株式会社ユピテル | System and program |
JP2018063328A (en) * | 2016-10-12 | 2018-04-19 | 株式会社東芝 | Electronic apparatus and method for controlling the same |
JP2019144195A (en) * | 2018-02-23 | 2019-08-29 | アルパイン株式会社 | Navigation device and route introduction stoppage method |
JP2020008876A (en) * | 2019-09-24 | 2020-01-16 | 株式会社ユピテル | System and program |
JP2020527899A (en) * | 2017-07-20 | 2020-09-10 | アップル インコーポレイテッドApple Inc. | Electronic device with sensor and display device |
JPWO2019035427A1 (en) * | 2017-08-14 | 2020-11-19 | 住友建機株式会社 | Excavator and support device that cooperates with excavator |
JP2021067951A (en) * | 2020-12-24 | 2021-04-30 | 華為技術有限公司Huawei Technologies Co.,Ltd. | Voice recognition method, voice wakeup device, voice recognition device, and terminal |
JP2022188102A (en) * | 2020-09-08 | 2022-12-20 | 株式会社ユピテル | Device and program |
US11783825B2 (en) | 2015-04-10 | 2023-10-10 | Honor Device Co., Ltd. | Speech recognition method, speech wakeup apparatus, speech recognition apparatus, and terminal |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11224265A (en) * | 1998-02-06 | 1999-08-17 | Pioneer Electron Corp | Device and method for information retrieval and record medium where information retrieving program is recorded |
JPH11272639A (en) * | 1998-03-23 | 1999-10-08 | Aqueous Reserch:Kk | Agent device |
JP2000314635A (en) * | 1999-04-28 | 2000-11-14 | Equos Research Co Ltd | Agent device |
JP2002073322A (en) * | 2000-08-29 | 2002-03-12 | Sharp Corp | On-demand interface device and its window display device |
JP2003115929A (en) * | 2001-10-02 | 2003-04-18 | Hitachi Ltd | Voice input system, voice portal server, and voice input terminal |
JP2003122393A (en) * | 2001-10-19 | 2003-04-25 | Denso Corp | Input device and program |
JP2005148724A (en) * | 2003-10-21 | 2005-06-09 | Zenrin Datacom Co Ltd | Information processor accompanied by information input using voice recognition |
JP2006154926A (en) * | 2004-11-25 | 2006-06-15 | Denso Corp | Electronic equipment operation system using character display and electronic apparatuses |
JP2007091209A (en) * | 2005-09-02 | 2007-04-12 | Denso Corp | Manual operation system |
WO2007077703A1 (en) * | 2006-01-06 | 2007-07-12 | Pioneer Corporation | Audio recognition device, display method, and display processing program |
JP2008204305A (en) * | 2007-02-22 | 2008-09-04 | Maruhama:Kk | On-vehicle information communicating device |
JP2011232270A (en) * | 2010-04-30 | 2011-11-17 | Clarion Co Ltd | Navigation device and help presentation method thereof |
-
2013
- 2013-09-06 JP JP2013185728A patent/JP6312053B2/en active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11224265A (en) * | 1998-02-06 | 1999-08-17 | Pioneer Electron Corp | Device and method for information retrieval and record medium where information retrieving program is recorded |
JPH11272639A (en) * | 1998-03-23 | 1999-10-08 | Aqueous Reserch:Kk | Agent device |
JP2000314635A (en) * | 1999-04-28 | 2000-11-14 | Equos Research Co Ltd | Agent device |
JP2002073322A (en) * | 2000-08-29 | 2002-03-12 | Sharp Corp | On-demand interface device and its window display device |
JP2003115929A (en) * | 2001-10-02 | 2003-04-18 | Hitachi Ltd | Voice input system, voice portal server, and voice input terminal |
JP2003122393A (en) * | 2001-10-19 | 2003-04-25 | Denso Corp | Input device and program |
JP2005148724A (en) * | 2003-10-21 | 2005-06-09 | Zenrin Datacom Co Ltd | Information processor accompanied by information input using voice recognition |
JP2006154926A (en) * | 2004-11-25 | 2006-06-15 | Denso Corp | Electronic equipment operation system using character display and electronic apparatuses |
JP2007091209A (en) * | 2005-09-02 | 2007-04-12 | Denso Corp | Manual operation system |
WO2007077703A1 (en) * | 2006-01-06 | 2007-07-12 | Pioneer Corporation | Audio recognition device, display method, and display processing program |
JP2008204305A (en) * | 2007-02-22 | 2008-09-04 | Maruhama:Kk | On-vehicle information communicating device |
JP2011232270A (en) * | 2010-04-30 | 2011-11-17 | Clarion Co Ltd | Navigation device and help presentation method thereof |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015052539A (en) * | 2013-09-06 | 2015-03-19 | 株式会社ユピテル | System and program |
US11783825B2 (en) | 2015-04-10 | 2023-10-10 | Honor Device Co., Ltd. | Speech recognition method, speech wakeup apparatus, speech recognition apparatus, and terminal |
US11404060B2 (en) | 2016-10-12 | 2022-08-02 | Hisense Visual Technology Co., Ltd. | Electronic device and control method thereof |
JP2018063328A (en) * | 2016-10-12 | 2018-04-19 | 株式会社東芝 | Electronic apparatus and method for controlling the same |
US10522139B2 (en) | 2016-10-12 | 2019-12-31 | Qingdao Hisense Electronics Co., Ltd. | Electronic device and control method thereof |
US11609603B2 (en) | 2017-07-20 | 2023-03-21 | Apple Inc. | Electronic device with sensors and display devices |
US11150692B2 (en) | 2017-07-20 | 2021-10-19 | Apple Inc. | Electronic device with sensors and display devices |
JP2020527899A (en) * | 2017-07-20 | 2020-09-10 | アップル インコーポレイテッドApple Inc. | Electronic device with sensor and display device |
JPWO2019035427A1 (en) * | 2017-08-14 | 2020-11-19 | 住友建機株式会社 | Excavator and support device that cooperates with excavator |
JP7344117B2 (en) | 2017-08-14 | 2023-09-13 | 住友建機株式会社 | Excavators and support devices that work with the excavators |
JP7106290B2 (en) | 2018-02-23 | 2022-07-26 | アルパイン株式会社 | Navigation device and route guidance stop method |
JP2019144195A (en) * | 2018-02-23 | 2019-08-29 | アルパイン株式会社 | Navigation device and route introduction stoppage method |
JP2020008876A (en) * | 2019-09-24 | 2020-01-16 | 株式会社ユピテル | System and program |
JP2022188102A (en) * | 2020-09-08 | 2022-12-20 | 株式会社ユピテル | Device and program |
JP7475079B2 (en) | 2020-09-08 | 2024-04-26 | 株式会社ユピテル | Apparatus and program |
JP2021067951A (en) * | 2020-12-24 | 2021-04-30 | 華為技術有限公司Huawei Technologies Co.,Ltd. | Voice recognition method, voice wakeup device, voice recognition device, and terminal |
JP7258007B2 (en) | 2020-12-24 | 2023-04-14 | オナー デバイス カンパニー リミテッド | Voice recognition method, voice wake-up device, voice recognition device, and terminal |
Also Published As
Publication number | Publication date |
---|---|
JP6312053B2 (en) | 2018-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6312053B2 (en) | System and program | |
RU2706462C2 (en) | Easier interaction between users and their environment using headset having input mechanisms | |
EP2728313A1 (en) | Method of displaying objects on a navigation map | |
CN108337380A (en) | Adjust automatically user interface is for hands-free interaction | |
JP2009025224A (en) | Navigation device and control method for navigation device | |
JP2019008570A (en) | Information processing device, information processing method, and program | |
US20180025283A1 (en) | Information processing apparatus, information processing method, and program | |
JP2024028844A (en) | System and program | |
JP6725933B2 (en) | System and program | |
JP4259054B2 (en) | In-vehicle device | |
JP6601643B2 (en) | System and program | |
JP6807611B2 (en) | Systems and programs | |
JP7199104B2 (en) | System and program | |
JP6291643B2 (en) | System and program | |
JP6661859B2 (en) | System and program | |
JP2023158056A (en) | System and program | |
JP4258607B2 (en) | In-vehicle device | |
JP2018141742A (en) | Navigation device, navigation method, and navigation program | |
JP2004037953A (en) | On-vehicle device, and device and program for data creation | |
JP2023116595A (en) | System and program | |
JP2004053251A (en) | In-vehicle device, data creating device and data creation program | |
JP2004050975A (en) | In-vehicle device, data preparation device, and data preparation program | |
JP2004061252A (en) | On-vehicle device, data generation device and data generation program | |
CN118964755A (en) | Point-of-interest query method, electronic device, vehicle and computer program product | |
JP2004317250A (en) | Guidance information providing system, guidance information providing device, and program for providing guidance information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160715 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170417 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170724 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20171106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180312 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6312053 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |