JP2014065359A - Display control device, display system and display control method - Google Patents
Display control device, display system and display control method Download PDFInfo
- Publication number
- JP2014065359A JP2014065359A JP2012210429A JP2012210429A JP2014065359A JP 2014065359 A JP2014065359 A JP 2014065359A JP 2012210429 A JP2012210429 A JP 2012210429A JP 2012210429 A JP2012210429 A JP 2012210429A JP 2014065359 A JP2014065359 A JP 2014065359A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- user
- display
- display control
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 112
- 230000006870 function Effects 0.000 description 26
- 238000004891 communication Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 19
- 230000008054 signal transmission Effects 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
Images
Landscapes
- Navigation (AREA)
Abstract
Description
本発明は、ユーザの音声の認識結果を用いる技術に関する。 The present invention relates to a technique using a recognition result of a user's voice.
従来より、車両に搭載されるナビゲーション装置などの車載表示システムにおいては、ユーザ(代表的にはドライバ)の音声の認識結果に応じた動作を実行する音声アシスト機能が採用されている(例えば、特許文献1参照。)。例えば、ユーザが「オーディオ消音」と発声した場合には、車載表示システムは、音声認識処理の認識結果に基いてオーディオを消音するコマンドが与えられたと判断し、出力する音の音量を0にする。 Conventionally, in an in-vehicle display system such as a navigation device mounted on a vehicle, a voice assist function for performing an operation in accordance with a voice recognition result of a user (typically a driver) has been employed (for example, patents). Reference 1). For example, when the user utters “audio mute”, the in-vehicle display system determines that a command to mute the audio is given based on the recognition result of the voice recognition process, and sets the volume of the output sound to zero. .
このような音声アシスト機能を用いることで、ユーザは、車両の運転中であっても、ボタン等の物理的な操作部を頻繁に操作することなく、車載表示システムに所望の動作を実行させることができる。 By using such a voice assist function, the user can cause the in-vehicle display system to perform a desired operation without frequently operating a physical operation unit such as a button even when the vehicle is in operation. Can do.
ところで、上記のような音声アシスト機能を円滑に実行するためには、発声のタイミングや音声認識処理の認識結果など音声アシスト機能に係る各種の案内情報を、ユーザへ報知することが望ましい。このような案内情報は、車両の車室内に設けられた表示装置において表示される。 By the way, in order to smoothly execute the voice assist function as described above, it is desirable to notify the user of various guidance information related to the voice assist function such as the timing of utterance and the recognition result of the voice recognition process. Such guidance information is displayed on a display device provided in the passenger compartment of the vehicle.
一般的な車両では、表示装置は、ユーザが比較的大きく視線を動かす必要がある位置(例えば、ダッシュボードの左右中央)に配置される。このため、音声アシスト機能を実行する際には、案内情報が報知されるごとにユーザは視線を動かすことが必要となるため、煩雑に感じる可能性があった。 In a general vehicle, the display device is disposed at a position where the user needs to move the line of sight relatively large (for example, at the center of the left and right of the dashboard). For this reason, when executing the voice assist function, it is necessary for the user to move his / her line of sight each time the guidance information is notified, which may be complicated.
また、車載表示システムが、音声アシスト機能の処理結果として施設の情報などの案内情報以外の情報をユーザに報知する場合は、案内情報以外の情報と案内情報とが同一の表示装置の画面に表示される。このため、表示装置が同時に表示する情報量が多くなり、ユーザは必要とする情報を速やかに把握することが難しくなる可能性があった。 When the in-vehicle display system notifies the user of information other than the guidance information such as facility information as the processing result of the voice assist function, the information other than the guidance information and the guidance information are displayed on the same display device screen. Is done. For this reason, the amount of information displayed on the display device at the same time increases, and it may be difficult for the user to quickly grasp necessary information.
本発明は、上記課題に鑑みてなされたものであり、ユーザが視線を大きく動かすことなく案内情報を容易に確認できる技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique that allows a user to easily check guidance information without greatly moving his / her line of sight.
上記課題を解決するため、請求項1の発明は、車両に設けられた表示装置に情報を表示させる表示制御装置であって、前記車両のユーザが着座する座席の正面中央までの距離が相対的に小さい第1表示装置と、前記距離が相対的に大きい第2表示装置とのそれぞれに情報を表示させる表示制御手段と、前記ユーザの音声を取得する音声取得手段と、前記ユーザの音声を対象とした音声認識処理の認識結果に基づく、検索対象の検索結果を取得する検索結果取得手段と、を備え、前記表示制御手段は、前記音声認識処理の認識結果を用いた処理に係る前記ユーザへの案内情報を前記第1表示装置に表示させ、前記検索結果のリストを前記第2表示装置に表示させる。 In order to solve the above-mentioned problem, the invention of claim 1 is a display control device for displaying information on a display device provided in a vehicle, wherein the distance to the front center of the seat on which the user of the vehicle is seated is relative. Display control means for displaying information on each of the first display device having a relatively small distance and the second display device having a relatively large distance, sound acquisition means for obtaining the sound of the user, and the sound of the user Search result acquisition means for acquiring the search result of the search target based on the recognition result of the voice recognition process, and the display control means to the user related to the process using the recognition result of the voice recognition process Is displayed on the first display device, and the search result list is displayed on the second display device.
また、請求項2の発明は、請求項1に記載の表示制御装置において、前記第2表示装置の画面サイズは、前記第1表示装置よりも大きい。 According to a second aspect of the present invention, in the display control device according to the first aspect, the screen size of the second display device is larger than that of the first display device.
また、請求項3の発明は、請求項1または2に記載の表示制御装置において、前記第2表示装置に表示された前記リストに関するユーザの手動操作を受け付ける操作手段、を備え、前記表示制御手段は、前記リストを前記第2表示装置に表示させた場合に、前記手動操作を説明する操作説明を、前記案内情報として前記第1表示装置に表示させる。
Further, the invention according to claim 3 is the display control device according to
また、請求項4の発明は、請求項3に記載の表示制御装置において、前記表示制御手段は、前記リストを前記第2表示装置に表示させた場合に、前記音声認識処理の認識結果を用いた前記リストに関する音声操作が可能なときに、該音声操作を説明する操作説明と前記手動操作を説明する操作説明との双方を同時に前記案内情報として前記第1表示装置に表示させる。 According to a fourth aspect of the present invention, in the display control device according to the third aspect, the display control means uses the recognition result of the voice recognition process when the list is displayed on the second display device. When the voice operation related to the list is possible, both the operation explanation for explaining the voice operation and the operation explanation for explaining the manual operation are simultaneously displayed on the first display device as the guidance information.
また、請求項5の発明は、請求項1ないし4のいずれかに記載の表示制御装置において、前記音声認識処理の認識結果を取得する認識結果取得手段、をさらに備え、前記案内情報は、前記認識結果を含む。 The invention according to claim 5 is the display control device according to any one of claims 1 to 4, further comprising recognition result acquisition means for acquiring a recognition result of the voice recognition processing, wherein the guidance information includes Includes recognition results.
また、請求項6の発明は、請求項1ないし5のいずれかに記載の表示制御装置において、前記音声認識処理の認識結果を用いた処理の処理状況を取得する状況取得手段、をさらに備え、前記案内情報は、前記処理状況を含む。 Further, the invention of claim 6 further comprises status acquisition means for acquiring a processing status of processing using the recognition result of the voice recognition processing in the display control device according to any one of claims 1 to 5, The guidance information includes the processing status.
また、請求項7の発明は、表示システムであって、請求項1ないし6のいずれかに記載の表示制御装置と、前記表示制御装置の制御に基いて情報を表示する前記第1表示装置と、前記表示制御装置の制御に基いて情報を表示する前記第2表示装置と、を備えている。
The invention according to
また、請求項8の発明は、車両に設けられた表示装置に情報を表示させる表示制御方法であって、(a)前記車両のユーザの音声を取得する工程と、(b)前記ユーザの音声を対象とした音声認識処理の認識結果に基づく、検索対象の検索結果を取得する工程と、(c)前記音声認識処理の認識結果を用いた処理に係る前記ユーザへの案内情報を、前記ユーザが着座する座席の正面中央までの距離が相対的に小さい第1表示装置に表示させる工程と、(d)前記検索結果のリストを、前記距離が相対的に大きい第2表示装置に表示させる工程と、を備えている。
The invention of
請求項1ないし8の発明によれば、ユーザへの案内情報がユーザの正面近傍にある第1表示装置に表示されるため、ユーザは視線を大きく動かすことなく、案内情報に従って音声認識処理の認識結果を用いた処理を実行させることができる。また、案内情報と検索結果のリストとが異なる表示装置に表示されるため、ユーザは必要とする情報を容易に確認できる。 According to the first to eighth aspects of the present invention, since the guidance information to the user is displayed on the first display device in the vicinity of the front of the user, the user recognizes the voice recognition process according to the guidance information without moving the line of sight greatly. Processing using the result can be executed. In addition, since the guidance information and the search result list are displayed on different display devices, the user can easily check the necessary information.
また、特に請求項2の発明によれば、検索結果のリストを画面サイズが大きな第2表示装置に表示するため、一度に表示するリストの項目の数を増やすことができる。このため、ユーザはリストに含まれる項目を容易に把握できる。
In particular, according to the invention of
また、特に請求項3の発明によれば、手動操作を説明する操作説明がユーザの正面近傍にある第1表示装置に表示されるため、ユーザは視線を大きく動かすことなくリストに関する手動操作の方法を把握できる。 In particular, according to the invention of claim 3, since the operation explanation for explaining the manual operation is displayed on the first display device in the vicinity of the front of the user, the user can manually operate the list without moving the line of sight greatly. Can be grasped.
また、特に請求項4の発明によれば、音声操作を説明する操作説明と手動操作を説明する操作説明との双方が同時に第1表示装置に表示されるため、ユーザは任意の操作手法を選択してリストに関する操作を行うことができる。 In particular, according to the invention of claim 4, since both the operation explanation explaining the voice operation and the operation explanation explaining the manual operation are simultaneously displayed on the first display device, the user selects an arbitrary operation method. Then, you can perform operations related to the list.
また、特に請求項5の発明によれば、音声認識処理の認識結果がユーザの正面近傍にある第1表示装置に表示されるため、ユーザは視線を大きく動かすことなく音声認識処理の認識結果が正しいか否かを確認することができる。 In particular, according to the invention of claim 5, since the recognition result of the voice recognition process is displayed on the first display device in the vicinity of the front of the user, the user can recognize the recognition result of the voice recognition process without moving the line of sight greatly. Whether it is correct or not can be confirmed.
また、特に請求項6の発明によれば、処理状況がユーザの正面近傍にある第1表示装置に表示されるため、ユーザは視線を大きく動かすことなく処理状況を把握することができる。 In particular, according to the invention of claim 6, since the processing status is displayed on the first display device in the vicinity of the user's front, the user can grasp the processing status without moving the line of sight greatly.
以下、図面を参照しつつ本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<1.音声処理システムの概要>
図1は、本実施の形態に係る車載表示システム1を含む音声処理システム10の概要を示す図である。音声処理システム10は、車両9の外部に配置されるサーバ7と、車両9に搭載される車載表示システム1とを備えている。車載表示システム1は、目的地までのルートを案内するナビゲーション機能と、楽曲を再生するオーディオ機能とを備えている。サーバ7と車載表示システム1とは、インターネットなどのネットワーク8を介して相互にデータを送受信することが可能となっている。
<1. Outline of speech processing system>
FIG. 1 is a diagram showing an outline of a
音声処理システム10は、車両9のユーザ(代表的にはドライバ)の音声を対象とした音声認識処理を行い、その認識結果に応じた動作を実行する音声アシスト処理を行う。この音声アシスト処理により、車両9のユーザは、様々な音声を発声することで車載表示システム1に所望の動作を実行させることができる。音声処理システム10が対象とする音声の内容は「コマンド」「施設の条件」及び「楽曲の条件」のいずれかである。
The
図2は、音声処理システム10が実行する音声アシスト処理の概要を示す図である。図2に示すように、サーバ7は、ユーザの音声を対象とした音声認識処理を実行する音声認識部74と、ユーザの音声の意味を理解する意味理解処理を行う意味理解部75とを備えている。
FIG. 2 is a diagram showing an outline of the voice assist process executed by the
音声アシスト処理では、まず、車載表示システム1がユーザの音声を取得し、その音声を示す音声データをサーバ7に送信する(矢印C1)。次に、サーバ7の音声認識部74が、受信した音声データを用いて音声認識処理を実行して、受信した音声データをユーザの音声を表す文字列(テキスト)に変換する。音声認識部74は、音声認識処理の認識結果である文字列を車載表示システム1に送信する(矢印C2)。これとともに、音声認識部74は、音声認識処理の認識結果である文字列を意味理解部75に出力する。
In the voice assist process, first, the in-vehicle display system 1 acquires the user's voice and transmits voice data indicating the voice to the server 7 (arrow C1). Next, the
意味理解部75は、音声認識処理の認識結果の文字列に基いて意味理解処理を実行する。意味理解部75は、まず、ユーザの音声の意味が「コマンド」「施設の条件」及び「楽曲の条件」のいずれであるかを判定する。意味理解部75は、ユーザの音声の意味が「コマンド」と判定した場合は、判定した「コマンド」を車載表示システム1に送信する(矢印C3)。
The meaning
また、意味理解部75は、ユーザの音声の意味が「施設の条件」と判定した場合は、判定した「施設の条件」に該当する施設をデータベースから検索し、その検索結果を車載表示システム1に送信する(矢印C3)。また、意味理解部75は、ユーザの音声の意味が「楽曲の条件」と判定した場合は、判定した「楽曲の条件」に該当する楽曲をデータベースから検索し、その検索結果を車載表示システム1に送信する(矢印C3)。
In addition, when the meaning
これにより、車載表示システム1は、意味理解部75による意味理解処理の処理結果として、「コマンド」、「施設の検索結果」または「楽曲の検索結果」をサーバ7から受信する。そして、車載表示システム1は、受信した処理結果に応じた動作を実行する。
Thus, the in-vehicle display system 1 receives “command”, “facility search result”, or “music search result” from the
車載表示システム1は、意味理解部75の処理結果として「コマンド」をサーバ7から受信した場合は、当該「コマンド」を実行する。例えば、ユーザが「オーディオを消して」と発声した場合は、車載表示システム1はオーディオの消音を指示する「コマンド」をサーバ7から受信する。そして、車載表示システム1は、この「コマンド」を実行し、車両9で出力される音の音量を0とする。また例えば、ユーザが「エアコンをつけて」と発声した場合は、車載表示システム1は、エアコン装置のオンを指示する「コマンド」をサーバ7から受信する。そして、車載表示システム1は、この「コマンド」を実行し、車両9のエアコン装置をオンとする。
When the “command” is received from the
また、車載表示システム1は、意味理解部75の処理結果として「施設の検索結果」をサーバ7から受信した場合は、当該「施設の検索結果」のリストを表示する。例えば、ユーザが「近くのコンビニに行きたい」と発声した場合は、車載表示システム1は車両9の周辺に存在するコンビニエンスストアの検索結果をサーバ7から受信する。そして、車載表示システム1は、この検索結果のリストを表示する。ユーザは、このように表示された検索結果のリストの項目の一つを選択することで、当該項目の施設をナビゲーション機能の目的地に設定することができる。
Further, when the “institution search result” is received from the
また、車載表示システム1は、意味理解部75の処理結果として「楽曲の検索結果」をサーバ7から受信した場合は、当該「楽曲の検索結果」のリストを表示する。例えば、ユーザが「アーティストAの曲を聞きたい」と発声した場合は、車載表示システム1はアーティストAに係る楽曲の検索結果をサーバ7から受信する。そして、車載表示システム1は、この検索結果のリストを表示する。ユーザは、このように表示された検索結果のリストの項目の一つを選択することで、当該項目の楽曲をオーディオ機能の再生対象にすることができる。
When the in-vehicle display system 1 receives the “music search result” from the
このように車載表示システム1は、サーバ7と協働することによって音声アシスト処理を実行し、車両9のユーザの音声に応じた様々な動作を実行することができる。音声アシスト処理は、ユーザの音声を対象とした音声認識処理の認識結果を用いた処理であるともいえる。以下、このような音声アシスト処理を実行する音声処理システム10のサーバ7及び車載表示システム1のそれぞれについて詳細に説明する。
As described above, the in-vehicle display system 1 can execute the voice assist process by cooperating with the
<2.サーバの構成>
図3は、サーバ7の構成を示す図である。サーバ7は、制御部71と、データ通信部72と、記憶部73とを備えている。
<2. Server configuration>
FIG. 3 is a diagram illustrating the configuration of the
データ通信部72は、ネットワーク8に接続されており、ネットワーク8に接続可能な他の通信装置とのデータ通信が可能である。これにより、データ通信部72は、車載表示システム1との間でネットワーク8を介してデータの送受信を行う。
The
制御部71は、CPU、RAM及びROMなどを備えたコンピュータである。記憶部73に記憶されたプログラム73eに従ってCPUが演算処理を行うことで、制御部71の各種の機能が実現される。サーバ7が備える音声認識部74及び意味理解部75は、このようにプログラム73eに従って演算処理を行うことで実現される機能部の一部である。
The
また、記憶部73は、例えば、ハードディスクなどの不揮発性の記憶装置であり、各種の情報を記憶する。記憶部73は、前述のプログラム73eの他に、音声認識辞書73a、意味判定辞書73b、施設データベース73c、及び、楽曲データベース73dを記憶している。
The
音声認識辞書73aは、音声認識部74がユーザの音声を認識する際に参照する辞書である。音声認識辞書73aは、音声の特徴量と文字との対応関係を示すデータを含んでいる。また、意味判定辞書73bは、意味理解部75がユーザの音声の意味を判定する際に参照する辞書である。音声認識辞書73aは、単語と意味(「コマンド」「施設の条件」または「楽曲の条件」)との対応関係を示すデータを含んでいる。
The
施設データベース73cは、ユーザの音声の意味が「施設の条件」である場合に、意味理解部75が検索対象とするデータベースである。施設データベース52は、ナビゲーション機能の目的地の候補となる多数の施設のデータを含んでいる。施設データベース73cに含まれるデータは、定期的に最新のものに更新される。
The
また、楽曲データベース73dは、ユーザの音声の意味が「楽曲の条件」である場合に、意味理解部75が検索対象とするデータベースである。楽曲データベース73dは、オーディオ機能で再生可能な多数の楽曲のデータを含んでいる。楽曲データベース73dに含まれるデータは、定期的に最新のものに更新される。
The
<3.車載表示システムの構成>
図4は、車載表示システム1の概要を示す図である。図4は、車両9の車室内の様子を示している。図4に示すように、車載表示システム1は、ユーザの指による操作(以下、「手動操作」という。)を受け付ける操作部33と、ユーザが発声した音声を入力するマイク34と、音を出力するスピーカ35とを備えている。操作部33及びマイク34は車両9のステアリングホイール93に配置され、スピーカ35は車両9のドア95に配置されている。
<3. Configuration of in-vehicle display system>
FIG. 4 is a diagram showing an overview of the in-vehicle display system 1. FIG. 4 shows the interior of the
図5は、ステアリングホイール93を拡大して示す図である。図5に示すように、マイク34は、ユーザの音声を効率的に入力できるように、ステアリングホイール93の中央部の近傍に設けられている。
FIG. 5 is an enlarged view showing the
また、操作部33は、ステアリングスイッチとも呼ばれ、ユーザが手動操作するための物理的な複数のボタン33a〜33cを備えている。これらのボタン33a〜33cは、ユーザがステアリングホイール93を握ったまま手動操作できるように、ステアリングホイール93の左側と右側とに分散して配置されている。
The
ステアリングホイール93の左側には、ホイールボタン33aとキャンセルボタン33bとが設けられている。ホイールボタン33aは、上下方向に回転する操作と、押圧する操作とをユーザから受け付けることが可能である。また、ステアリングホイール93の右側には、音声認識ボタン33cが設けられている。ユーザは、この音声認識ボタン33cを押圧することで、音声処理システム10に音声アシスト処理を開始させることができる。
On the left side of the
図4に戻り、車載表示システム1は、また、各種の情報を表示する表示装置として、メインディスプレイ31とサブディスプレイ32とを備えている。メインディスプレイ31は、サブディスプレイ32と比較して画面サイズが大きく、同時に多くの情報を表示することができる。また、メインディスプレイ31は、タッチパネル機能を備えており、ユーザの手動操作を受け付けることも可能となっている。
Returning to FIG. 4, the in-vehicle display system 1 also includes a
メインディスプレイ31は、車両9のダッシュボード92の左右中央に設けられている。一方、サブディスプレイ32は、ダッシュボード92において、ユーザ(ドライバ)が着座する運転席91の正面にあるメータパネル94の上部に設けられている。このためサブディスプレイ32は、運転席91のほぼ正面中央に配置される。
The
サブディスプレイ32は運転席91の正面中央までの距離が相対的に小さく、メインディスプレイ31は運転席91の正面中央までの距離が相対的に大きいともいえる。したがって、運転中においてユーザ(ドライバ)は、視線を大きく動かすことなく、サブディスプレイ32を確認することができる。これに対して、ユーザ(ドライバ)は、メインディスプレイ31を確認するためには、視線を比較的大きく動かす必要がある。
It can be said that the
また、車載表示システム1は、これらの2つのディスプレイ31,32を制御する表示制御装置2を備えている。2つのディスプレイ31,32はそれぞれ、この表示制御装置2の制御に基いて情報を表示する。表示制御装置2は、例えば、車両9のセンターコンソール96に配置される。
The in-vehicle display system 1 includes a
図6は、表示制御装置2を含む車載表示システム1の構成を示す図である。表示制御装置2は、制御部21と、データ通信部22と、ナビゲーション部23と、オーディオ部24と、記憶部25と、信号送信部26とを備えている。
FIG. 6 is a diagram illustrating a configuration of the in-vehicle display system 1 including the
制御部21は、表示制御装置2の全体を統括的に制御するマイクロコンピュータであり、CPU、RAM及びROMなどを備えている。制御部21は、車載表示システム1が備えるメインディスプレイ31、サブディスプレイ32、操作部33、マイク34及びスピーカ35のそれぞれと電気的に接続されている。これにより、制御部21は、2つのディスプレイ31,32を制御して各種の情報を表示させることができる。また、制御部21は、スピーカ35を制御して各種の音を出力させることができる。さらに、制御部21は、操作部33が受け付けたユーザの手動操作の内容を示す操作信号や、マイク34が入力したユーザの音声を示す音声信号を受け取り、これらの信号に応答して処理を行うことができる。
The
データ通信部22は、WiMAX(登録商標)や3Gなどの無線通信を利用したネットワーク8への接続機能を有している。したがって、データ通信部22は、サーバ7との間でネットワーク8を介してデータの送受信を行うことが可能である。なお、データ通信部22が、ネットワーク8への接続機能を有するスマートフォン等の他の通信装置を中継器として利用して、サーバ7との間でデータの送受信を行ってもよい。
The
ナビゲーション部23は、目的地までのルートを案内するナビゲーション機能を実現する。ナビゲーション部23は、ユーザにより目的地が設定された場合は、GPSにより取得される車両9の位置から目的地までのルートを導出し、導出したルートをユーザへ案内する。また、ナビゲーション部23は、記憶部25に記憶された地図データ25aを用いて、車両9の周辺の地図画像を生成する。この車両9の周辺の地図画像は、制御部21の制御により、メインディスプレイ31に表示される。
The
オーディオ部24は、楽曲を再生するオーディオ機能を実現する。オーディオ部24は、ユーザにより再生対象となる楽曲が設定された場合は、その楽曲の音響データをデコードして音響信号を生成する。この音響信号は制御部21の制御によりスピーカ35に出力され、スピーカ35から音が出力される。
The
記憶部25は、例えば、フラッシュメモリなどの不揮発性の記憶装置であり、各種の情報を記憶する。記憶部25は、地図データ25aの他に、プログラム25bを記憶している。
The
信号送信部26は、車載表示システム1以外に車両9に設けられる装置に制御信号を送信する。信号送信部26は、例えば、制御部21の制御により、車両9に設けられるエアコン装置97に制御信号を送信する。制御部21は、このように信号送信部26を介してエアコン装置97に制御信号を送信することで、エアコン装置97のオン/オフ、あるいは、設定温度の変更など、エアコン装置97の動作を制御することができる。
The
また、制御部21は、記憶部25に記憶されたプログラム25bに従ってCPUが演算処理を行うことで実現される機能として、各種の機能を備えている。図中に示す表示制御部21a、サーバ連携部21b、状況取得部21c、ナビ制御部21d、オーディオ制御部21e及びコマンド実行部21fは、プログラム25bに従って演算処理を行うことで実現される制御部21の機能部の一部である。
The
表示制御部21aは、メインディスプレイ31及びサブディスプレイ32を制御し、これら2つのディスプレイ31,32のそれぞれに各種の情報を表示させる。表示制御部21aは、音声アシスト処理の実行中においては、音声アシスト処理に係るユーザへの各種の案内情報をサブディスプレイ32に表示させる。このユーザへの案内情報は、例えば、発声のタイミング、音声認識処理の認識結果などである。このようにユーザへの案内情報がユーザの正面近傍にあるサブディスプレイ32に表示されるため、ユーザは視線を大きく動かすことなく案内情報に従って音声アシスト処理を実行させることができる。
The
サーバ連携部21bは、データ通信部22を介してサーバ7と通信を行い、サーバ7と連携して音声アシスト処理に必要な処理を実行する。例えば、サーバ連携部21bは、ユーザの音声を取得して、ユーザの音声を示す音声データをサーバ7に送信する。また、サーバ連携部21bは、音声認識部74の認識結果、及び、意味理解部75の処理結果(「コマンド」または「検索結果」)をサーバ7から取得する。
The
状況取得部21cは、サーバ連携部21bの処理に基いて、音声アシスト処理の処理状況を取得する。具体的には、状況取得部21cは、音声認識部74による音声認識処理の実行中、あるいは、意味理解部75による意味理解処理の実行中などの処理状況を取得する。
The
また、ナビ制御部21dはナビゲーション部23の動作を制御し、オーディオ制御部21eはオーディオ部24の動作を制御する。また、コマンド実行部21fは、音声アシスト処理において「コマンド」をサーバ7から取得した場合に当該「コマンド」を実行する。これらの機能部21a〜21fの処理の詳細についてはさらに後述する。
The
<4.音声アシスト処理の流れ>
次に、音声処理システム10による音声アシスト処理の流れを説明する。図7及び図8は、この音声アシスト処理の流れを示す図である。図7においては、図中の左側は車載表示システム1の処理の流れを示しており、図中の右側はサーバ7の処理の流れを示している。また、図8は、車載表示システム1のみの処理の流れを示している。また、図9から図15はそれぞれ、メインディスプレイ31及びサブディスプレイ32それぞれの同一時点での表示内容の例を示している。
<4. Voice assist processing flow>
Next, the flow of voice assist processing by the
図9は、音声アシスト処理の開始前の2つのディスプレイ31,32の表示内容の例を示している。音声アシスト処理の開始前においては、表示制御部21aは、メインディスプレイ31に車両9の周辺の地図画像MPを表示させ、サブディスプレイ32にその時点の時刻等を表示させる。このような状態において、車両9のユーザが音声認識ボタン33c(図5参照。)を押圧すると、音声アシスト処理が開始される。
FIG. 9 shows an example of display contents on the two
音声アシスト処理が開始されると、まず、表示制御部21aが、音声アシスト処理に係る案内情報として、ユーザが発声すべきタイミングをサブディスプレイ32に表示させる(図7のステップS11)。これにより、図10に示すように、「ピッとなったらお話ください」という案内情報G1がサブディスプレイ32に表示される。
When the voice assist process is started, first, the
次に、サーバ連携部21bが、スピーカ35を制御してビープ音をスピーカ35から出力させる。このビープ音の出力後、ユーザは任意の音声を発声し、マイク34がユーザの音声を入力する。サーバ連携部21bは、このマイク34から出力される音声信号を受け取り、ユーザの音声を取得する。
Next, the
ビープ音の出力後、所定時間(例えば10秒間)ユーザが音声を発声せず、サーバ連携部21bがユーザの音声を取得できなかった場合は(ステップS12にてNo)、表示制御部21aが音声アシスト処理を終了する旨のメッセージをサブディスプレイ32に表示させ(ステップS13)、音声アシスト処理が終了する。
When the user does not utter a voice for a predetermined time (for example, 10 seconds) after the beep sound is output and the
また、サーバ連携部21bがユーザの音声を取得できた場合は(ステップS12にてYes)、次に、サーバ連携部21bは、受信した音声信号のうちユーザの音声が含まれる区間を抽出する区間抽出処理を実行する(ステップS14)。サーバ連携部21bは、例えば、音声信号のうち所定の閾値を超えるレベルの信号が連続する区間を抽出する。サーバ連携部21bは、抽出した音声信号をMP3などの所定形式の音声データに変換する。
If the
次に、サーバ連携部21bは、ユーザの音声を示す音声データを、データ通信部22を介してサーバ7へ送信する(ステップS15)(矢印C1)。サーバ7の音声認識部74は、このように車載表示システム1から送信された音声データをデータ通信部72を介して受信する(ステップS71)。
Next, the
音声認識部74は、音声データを受信すると、音声データが示すユーザの音声を対象に音声認識処理を実行する(ステップS72)。音声認識部74は、音声認識辞書73aを参照し、ユーザの音声の特徴量に基づいてユーザの音声を文字に変換する。そして、音声認識部74は、音声認識処理の認識結果としてユーザの音声を表す文字列を生成する。
When receiving the voice data, the
また、このようなサーバ7における音声認識処理の実行(ステップS72)に並行して、車載表示システム1の状況取得部21cは、音声データの送信完了に基づき、サーバ7において音声認識処理が実行中であるという処理状況を取得する。そして、表示制御部21aが、音声アシスト処理に係る案内情報として、この音声アシスト処理の処理状況をサブディスプレイ32に表示させる(ステップS16)。これにより、図11に示すように、処理状況を示す「音声認識中」という案内情報G2がサブディスプレイ32に表示される。
In parallel with the execution of the voice recognition process in the server 7 (step S72), the
その後、サーバ7の音声認識部74が音声認識処理を完了すると、音声認識部74は、音声認識処理の認識結果の文字列を車載表示システム1にデータ通信部72を介して送信する(ステップS73)(矢印C2)。
Thereafter, when the
また、音声認識部74は、音声認識処理の認識結果の文字列を意味理解部75に出力する。意味理解部75は、これに応答して、音声認識処理の認識結果の文字列を対象に意味理解処理を開始する(ステップS74)。
Further, the
一方、車載表示システム1のサーバ連携部21bは、サーバ7から送信された音声認識処理の認識結果の文字列を、データ通信部22を介して受信して取得する(ステップS17)。車載表示システム1の状況取得部21cは、この認識結果の受信完了に基づき、サーバ7において意味理解処理が実行中であるという処理状況を取得する。
On the other hand, the
そして、表示制御部21aが、音声アシスト処理に係る案内情報として、音声認識処理の認識結果の文字列と、音声アシスト処理の処理状況とをサブディスプレイ32に表示させる(ステップS18)。これにより、図12に示すように、認識結果の文字列(図の例では「近くのコンビニに行きたい」)を示す案内情報G3と、処理状況を示す「意味理解中」という案内情報G4とがサブディスプレイ32に表示される。ユーザは、このようなサブディスプレイ32の表示内容を視認することで、音声認識処理においてユーザの音声が正しく認識されたか否かを確認することができる。
And the
さらに、表示制御部21aは、図12に示すように、コマンドボタンである「やり直し」ボタンB1を含むダイアログDをサブディスプレイ32に表示させる。「やり直し」ボタンB1には、音声認識処理を再実行する指示が割り当てられている。ユーザは、ホイールボタン33aを押圧することで、「やり直し」ボタンB1の指示を確定できる。なお、キャンセルボタン33bを押圧することで、「やり直し」ボタンB1の指示を確定できてもよい。
Further, as shown in FIG. 12, the
「やり直し」ボタンB1の指示が確定された場合は(ステップS19にてYes)、処理はステップS11に戻ることになる。ユーザは、音声が誤って認識された場合は、「やり直し」ボタンB1の指示を確定することで、発声をやり直して音声認識処理を再び実行させることができる。 When the instruction of “redo” button B1 is confirmed (Yes in step S19), the process returns to step S11. If the user recognizes the voice by mistake, the user can confirm the instruction of the “Redo” button B1 to redo the voice and execute the voice recognition process again.
また、このように車載表示システム1において音声認識処理の認識結果等が表示されている状況(ステップS18)に並行して、サーバ7では、意味理解部75が意味理解処理を進行する(ステップS74)。
In addition, in the
意味理解部75は、音声認識処理の認識結果の文字列から、助詞や接続詞などの不用語を消去することで単語を抽出する。そして、意味理解部75は、抽出した単語と、意味判定辞書73bとに基いて、ユーザの音声の意味が「コマンド」「施設の条件」及び「楽曲の条件」のいずれに該当するかを判定する。
The meaning
そして、意味理解部75は、ユーザの音声の意味が「コマンド」と判定した場合は、意味認識処理の処理結果として、当該「コマンド」を車載表示システム1にデータ通信部72を介して送信する(ステップS75)(矢印C3)。「コマンド」は、例えば、「エアコンのオン」、「温度を下げる」等のエアコン装置97に関わるものや、「消音」、「音量を上げる」等のオーディオ機能に係るものなどがある。
If the meaning of the user's voice is determined to be “command”, the meaning
また、意味理解部75は、ユーザの音声の意味が「施設の条件」と判定した場合は、判定した「施設の条件」を検索条件として用い、その検索条件を満足する施設を施設データベース73cから検索する。「施設の条件」は、例えば、「近く」等の場所や「コンビニ」等の施設種別などである。この検索において、車両9の位置が必要な場合は、車載表示システム1のナビゲーション部23から車両9の位置を取得すればよい。そして、意味理解部75は、意味認識処理の処理結果として、その検索結果を車載表示システム1にデータ通信部72を介して送信する(ステップS75)(矢印C3)。
In addition, when the meaning
また、意味理解部75は、ユーザの音声の意味が「楽曲の条件」と判定した場合は、判定した「楽曲の条件」を検索条件として用い、その検索条件を満足する楽曲を楽曲データベース73dから検索する。「楽曲の条件」は、例えば、アーティスト名、アルバム名などである。そして、意味理解部75は、意味認識処理の処理結果として、その検索結果を車載表示システム1にデータ通信部72を介して送信する(ステップS75)(矢印C3)。
If the meaning of the user's voice is determined to be “song condition”, the meaning
車載表示システム1のサーバ連携部21bは、サーバ7から送信された意味認識処理の処理結果を、データ通信部22を介して受信して取得する(ステップS20)。次に、サーバ連携部21bは、サーバ7から取得した処理結果が、「コマンド」及び「検索結果」のいずれであるかを判定する(図8のステップS21)。
The
処理結果が「コマンド」である場合(ステップS21にてNo)は、表示制御部21aが、音声アシスト処理に係る案内情報として、当該「コマンド」の内容をサブディスプレイ32に表示させる(ステップS22)。これにより、図13に示すように「コマンド」の内容(図の例では「エアコンをオンにします」)を示す案内情報G5がサブディスプレイ32に表示される。
When the processing result is “command” (No in step S21), the
次に、コマンド実行部21fが、当該「コマンド」を実行する(ステップS23)。これにより、音声アシスト処理が終了する。例えば、当該「コマンド」がエアコン装置97に係るものである場合は、コマンド実行部21fは、信号送信部26を介してエアコン装置97に制御信号を送信する。また例えば、当該「コマンド」がオーディオ機能に係るものである場合は、コマンド実行部21fは、オーディオ制御部21eに「コマンド」を与え、オーディオ部24を制御させる。
Next, the
また、処理結果が「検索結果」である場合(ステップS21にてYes)は、表示制御部21aは、図14に示すように、「やり直し」ボタンB1とともに、コマンドボタンである「検索結果表示」ボタンB2を含むダイアログDを、サブディスプレイ32に表示させる(ステップS24)。「検索結果表示」ボタンB2には、検索結果のリストを表示する指示が割り当てられている。
When the processing result is “search result” (Yes in step S21), the
ユーザは、ホイールボタン33aを回転することで、「やり直し」ボタンB1及び「検索結果表示」ボタンB2のいずれかをカーソルBCで仮選択できる。そして、ユーザは、ホイールボタン33aを押圧することで、カーソルBCで仮選択したコマンドボタンの指示を確定できる。「やり直し」ボタンB1の指示が確定された場合は(ステップS25にてNo)、処理は図7のステップS11に戻るため、ユーザは、発声をやり直して音声認識処理を再び実行させることができる。なお、キャンセルボタン33bを押圧することで、カーソルBCの位置とは無関係に、「やり直し」ボタンB1の指示を確定できるようにしてもよい。
The user can temporarily select either the “redo” button B1 or the “search result display” button B2 with the cursor BC by rotating the
また、「検索結果表示」ボタンB2の指示が確定された場合は(ステップS25にてYes)、表示制御部21aは、図15に示すように、検索結果のリストLをメインディスプレイ31に表示させる(ステップS26)。
When the instruction of the “search result display” button B2 is confirmed (Yes in step S25), the
図15に示すように、メインディスプレイ31は、その画面が上下2つの領域に分割されて、上側の領域に地図画像MPを表示し、下側の領域に検索結果のリストLを表示する。図15の例では、メインディスプレイ31は、施設に係る検索結果を表示しており、検索結果のリストLの各項目は一つの施設に対応している。また、リストLに含まれる各項目の施設の位置は、地図画像MP上においてアイコンTPによって示されている。
As shown in FIG. 15, the
このように検索結果のリストLが、画面サイズが比較的大きなメインディスプレイ31に表示されるため、一度に表示するリストLの項目の数を増やすことができる。このため、ユーザはリストLに含まれる項目を容易に把握することができる。
Since the search result list L is displayed on the
また、図15のようにメインディスプレイ31が検索結果のリストLを表示している状態においては、ユーザは、手動操作あるいは音声操作によって、検索結果のリストLに関する操作を行うことができる。
Further, in the state where the
ユーザは、手動操作を行う場合は、ホイールボタン33aを回転することで、リストの項目のいずれかをカーソルLCで仮選択する。そして、ユーザは、ホイールボタン33aを押圧することで、カーソルLCで仮選択した項目の選択を確定する。
When performing a manual operation, the user temporarily selects one of the list items with the cursor LC by rotating the
また、ユーザは、音声操作を行う場合は、音声認識ボタン33cを押圧した後、項目を選択するための音声、あるいは、項目を絞り込むための音声を発する。これにより、この音声を対象とした音声認識処理の認識結果を用いた再度の音声アシスト処理が実行される。その結果、リストLの項目の選択、あるいは、リストLの項目の絞り込みがなされる。
Further, when performing a voice operation, the user presses the
具体的には、ユーザが、順番を示す単語を含む音声を発声した場合は、表示されているリストL中の当該順番の項目を選択できる。例えば、ユーザが「2番目」と発声した場合は、リストL中の上から2番目に表示されている項目が選択されることになる。 Specifically, when the user utters a voice including a word indicating the order, the item in the order in the displayed list L can be selected. For example, when the user utters “second”, the item displayed second from the top in the list L is selected.
また、ユーザが、項目の絞込条件となる単語を含む音声を発声した場合は、表示されているリストL中の項目が、当該絞込条件を満足する項目のみに絞り込まれて表示される。例えば、コンビニエンスストアに係る検索結果を表示している場合に、ユーザが「ATMのあるところ」と発声した場合は、元の「施設の条件」に「ATM」という絞込条件が加えられて再度の検索がなされる。そして、その検索結果のリストLが、メインディスプレイ31に表示されることになる。
In addition, when the user utters a voice including a word that is a condition for narrowing down the items, the items in the displayed list L are narrowed down to items that satisfy the narrowing conditions. For example, when a search result related to a convenience store is displayed, if the user speaks “where there is an ATM”, the filtering condition “ATM” is added to the original “facility condition” and the search is again performed. A search is made. Then, the search result list L is displayed on the
このような手動操作及び音声操作をユーザに案内するため、表示制御部21aは、検索結果のリストをメインディスプレイ31に表示させた場合は、音声アシスト処理に係る案内情報として、手動操作を説明する操作説明と、音声操作を説明する操作説明との双方を同時にサブディスプレイ32に表示させる(ステップS27)。これにより、図15に示すように、手動操作に係る操作説明を示す案内情報G6と、音声操作に係る説明説明を示す案内情報G7とがサブディスプレイ32に表示される。
In order to guide such manual operation and voice operation to the user, the
手動操作に係る操作説明を示す案内情報G6は、図形を用いたホイールボタン33aの操作手法を含んでいる。また、音声操作に係る操作説明を示す案内情報G7は、絞込条件の候補となる単語を含んでいる。このような絞込条件に利用可能な単語は、検索結果のリストLの各項目となるデータに予め関連付けておけばよい。
Guidance information G6 indicating an operation description related to a manual operation includes an operation method of the
このように手動操作や音声操作を説明する操作説明がユーザの正面近傍にあるサブディスプレイ32に表示されるため、ユーザは視線を大きく動かすことなくリストLに関する操作の方法を把握できる。また、音声操作を説明する操作説明と手動操作を説明する操作説明との双方が同時にサブディスプレイ32に表示されるため、ユーザは双方の操作手法を把握した上で、任意の操作手法を選択してリストLに関する操作を行うことができる。
In this way, since the operation explanation for explaining the manual operation and the voice operation is displayed on the
メインディスプレイ31が検索結果のリストを表示している状態において、ユーザが音声認識ボタン33cを押圧した場合(ステップS28にてYes)は、処理は図7のステップS11に移行する。これにより、検索結果のリストLに関する音声操作のための音声アシスト処理が実行されることになる。
If the user presses the
また、ユーザが、検索結果のリストLの項目の一つを選択した場合は(ステップS29にてYes)、選択された項目に応じた処理が実行される(ステップS30)。これにより、音声アシスト処理が終了する。 If the user selects one of the items in the search result list L (Yes in step S29), processing corresponding to the selected item is executed (step S30). As a result, the voice assist process ends.
例えば、ユーザが、施設に係る検索結果のリストLの項目の一つを選択した場合は、ナビ制御部21dが、当該項目の施設をナビゲーション機能の目的地に設定する。以降、ナビゲーション部23は、この目的地までのルートを案内する。
For example, when the user selects one of the items in the search result list L related to the facility, the
また、ユーザが、楽曲に係る検索結果のリストLの項目の一つを選択した場合は、オーディオ制御部21eが、当該項目の楽曲をオーディオ機能の再生対象に設定する。以降、オーディオ部24は、この楽曲を再生する。なお、オーディオ部24は、再生対象に設定された楽曲の音響データを、表示制御装置2の内部の記憶部25から取得してもよく、ネットワーク8に接続された外部サーバ等からダウンロードして取得してもよい。
When the user selects one of the items in the search result list L related to the music, the
以上のように、本実施の形態の車載表示システム1は、運転席91の正面中央までの距離が相対的に小さいサブディスプレイ32と、運転席91の正面中央までの距離が相対的に大きいメインディスプレイ31とを備えている。表示制御装置2の表示制御部21aは、これら2つのディスプレイ31,32を制御し、2つのディスプレイ31,32のそれぞれに各種の情報を表示させる。また、表示制御装置2のサーバ連携部21bは、ユーザの音声を取得するとともに、そのユーザの音声を対象とした音声認識処理の認識結果に基づく検索対象の検索結果を取得する。そして、表示制御部21aは、音声認識処理の認識結果を用いた音声アシスト処理に係るユーザへの案内情報をサブディスプレイ32に表示させる一方で、検索結果のリストLをメインディスプレイ31に表示させる。
As described above, the in-vehicle display system 1 according to the present embodiment includes the
このように、音声アシスト処理に係るユーザへの案内情報が運転席91の正面近傍にあるサブディスプレイ32に表示されるため、ユーザは視線を大きく動かすことなく、案内情報に従って音声アシスト処理を実行させることができる。また、音声アシスト処理に係るユーザへの案内情報がサブディスプレイ32に表示される一方で、検索結果のリストLがメインディスプレイ31に表示される。このため、一つのディスプレイが同時に表示する情報量を少なくすることができることから、ユーザは必要とする情報を容易に確認することができる。
Thus, since the guidance information to the user related to the voice assist process is displayed on the
また、検索結果のリストLが画面サイズが比較的大きなメインディスプレイ31に表示されるため、一度に表示するリストの項目の数を増やすことができる。このため、ユーザはリストLに含まれる項目を容易に把握できる。
Further, since the list L of search results is displayed on the
また、音声アシスト処理に係る案内情報として音声認識処理の認識結果がサブディスプレイ32に表示されるため、ユーザは視線を大きく動かすことなく音声認識処理の認識結果が正しいか否かを確認することができる。 In addition, since the recognition result of the voice recognition process is displayed on the sub-display 32 as the guidance information related to the voice assist process, the user can check whether the recognition result of the voice recognition process is correct without greatly moving the line of sight. it can.
また、音声アシスト処理に係る案内情報として音声アシスト処理の処理状況がサブディスプレイ32に表示されるため、ユーザは視線を大きく動かすことなく処理状況を把握することができる。 Further, since the processing status of the voice assist process is displayed on the sub-display 32 as the guidance information related to the voice assist process, the user can grasp the processing status without moving the line of sight greatly.
<5.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
<5. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications are possible. Below, such a modification is demonstrated. All the forms including the above-described embodiment and the form described below can be appropriately combined.
上記実施の形態では、車載表示システム1はサーバ7と協働することによって音声アシスト処理を実行するものであったが、車載表示システム1は単体で音声アシスト処理を実行可能となっていてもよい。この場合は、上記実施の形態でサーバ7が備えていた音声認識部74及び意味理解部75と同様の処理部を、車載表示システム1(例えば、表示制御装置2)が備えていればよい。また、車載表示システム1は、サーバ7との協働による音声アシスト処理と単体での音声アシスト処理とのいずれも実行可能とし、いずれを実行するかをサーバ7との通信状態等に応じて選択するようにしてもよい。
In the above embodiment, the in-vehicle display system 1 executes the voice assist process by cooperating with the
また、上記実施の形態では、サブディスプレイ32はメータパネル94の上部に配置されていたが、メータパネル94の横や、メータパネル94の内部などに配置されてもよい。すなわち、サブディスプレイ32は、メインディスプレイ31と比較してユーザの座席の正面中央までの距離が小さく、視線を大きく動かすことなく確認できる位置に配置すればよい。
In the above-described embodiment, the
また、上記実施の形態では、表示制御装置2は、車両9に搭載される車載装置であるものとして説明したが、携帯電話やスマートフォンなどの可搬性の通信装置であってもよい。
Moreover, in the said embodiment, although the
また、上記実施の形態では、車載表示システム1のユーザは、車両9のドライバであるものとして説明したが、ドライバ以外の同乗者であってもよい。
In the above-described embodiment, the user of the in-vehicle display system 1 has been described as being a driver of the
また、上記実施の形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されると説明したが、これら機能のうちの一部は電気的なハードウェア回路により実現されてもよい。 Further, in the above-described embodiment, it has been described that various functions are realized in software by the arithmetic processing of the CPU according to the program. However, some of these functions are realized by an electrical hardware circuit. Also good.
1 車載表示システム
2 表示制御装置
9 車両
10 音声処理システム
31 メインディスプレイ
32 サブディスプレイ
33c 音声認識ボタン
91 運転席
DESCRIPTION OF SYMBOLS 1 In-
Claims (8)
前記車両のユーザが着座する座席の正面中央までの距離が相対的に小さい第1表示装置と、前記距離が相対的に大きい第2表示装置とのそれぞれに情報を表示させる表示制御手段と、
前記ユーザの音声を取得する音声取得手段と、
前記ユーザの音声を対象とした音声認識処理の認識結果に基づく、検索対象の検索結果を取得する検索結果取得手段と、
を備え、
前記表示制御手段は、
前記音声認識処理の認識結果を用いた処理に係る前記ユーザへの案内情報を前記第1表示装置に表示させ、
前記検索結果のリストを前記第2表示装置に表示させることを特徴とする表示制御装置。 A display control device for displaying information on a display device provided in a vehicle,
Display control means for displaying information on each of the first display device having a relatively small distance to the front center of the seat on which the user of the vehicle is seated and the second display device having a relatively large distance;
Voice acquisition means for acquiring the user's voice;
Search result acquisition means for acquiring a search target search result based on a recognition result of a voice recognition process for the user's voice;
With
The display control means includes
Guide information to the user related to the process using the recognition result of the voice recognition process is displayed on the first display device;
A display control device, wherein the list of search results is displayed on the second display device.
前記第2表示装置の画面サイズは、前記第1表示装置よりも大きいことを特徴とする表示制御装置。 The display control device according to claim 1,
A display control device, wherein a screen size of the second display device is larger than that of the first display device.
前記第2表示装置に表示された前記リストに関するユーザの手動操作を受け付ける操作手段、
を備え、
前記表示制御手段は、前記リストを前記第2表示装置に表示させた場合に、前記手動操作を説明する操作説明を、前記案内情報として前記第1表示装置に表示させることを特徴とする表示制御装置。 The display control apparatus according to claim 1 or 2,
An operation means for accepting a user's manual operation relating to the list displayed on the second display device;
With
The display control means displays an operation explanation for explaining the manual operation on the first display device as the guidance information when the list is displayed on the second display device. apparatus.
前記表示制御手段は、
前記リストを前記第2表示装置に表示させた場合に、前記音声認識処理の認識結果を用いた前記リストに関する音声操作が可能なときに、該音声操作を説明する操作説明と前記手動操作を説明する操作説明との双方を同時に前記案内情報として前記第1表示装置に表示させることを特徴とする表示制御装置。 The display control device according to claim 3,
The display control means includes
When the list is displayed on the second display device, when a voice operation related to the list using the recognition result of the voice recognition process is possible, an explanation of the operation for explaining the voice operation and the manual operation are explained. A display control apparatus that displays both the operation explanation and the guidance information on the first display device at the same time.
前記音声認識処理の認識結果を取得する認識結果取得手段、
をさらに備え、
前記案内情報は、前記認識結果を含むことを特徴とする表示制御装置。 The display control device according to any one of claims 1 to 4,
A recognition result acquisition means for acquiring a recognition result of the voice recognition processing;
Further comprising
The display control apparatus, wherein the guidance information includes the recognition result.
前記音声認識処理の認識結果を用いた処理の処理状況を取得する状況取得手段、
をさらに備え、
前記案内情報は、前記処理状況を含むことを特徴とする表示制御装置。 The display control device according to any one of claims 1 to 5,
Status acquisition means for acquiring the processing status of the processing using the recognition result of the voice recognition processing;
Further comprising
The display control apparatus, wherein the guidance information includes the processing status.
前記表示制御装置の制御に基いて情報を表示する前記第1表示装置と、
前記表示制御装置の制御に基いて情報を表示する前記第2表示装置と、
を備えることを特徴とする表示システム。 A display control device according to any one of claims 1 to 6;
The first display device for displaying information based on the control of the display control device;
The second display device for displaying information based on the control of the display control device;
A display system comprising:
(a)前記車両のユーザの音声を取得する工程と、
(b)前記ユーザの音声を対象とした音声認識処理の認識結果に基づく、検索対象の検索結果を取得する工程と、
(c)前記音声認識処理の認識結果を用いた処理に係る前記ユーザへの案内情報を、前記ユーザが着座する座席の正面中央までの距離が相対的に小さい第1表示装置に表示させる工程と、
(d)前記検索結果のリストを、前記距離が相対的に大きい第2表示装置に表示させる工程と、
を備えることを特徴とする表示制御方法。 A display control method for displaying information on a display device provided in a vehicle,
(A) acquiring the voice of the user of the vehicle;
(B) obtaining a search target search result based on a recognition result of a voice recognition process for the user's voice;
(C) displaying the guidance information to the user related to the process using the recognition result of the voice recognition process on the first display device having a relatively small distance to the front center of the seat on which the user is seated; ,
(D) displaying the list of search results on a second display device having a relatively large distance;
A display control method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012210429A JP5986468B2 (en) | 2012-09-25 | 2012-09-25 | Display control apparatus, display system, and display control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012210429A JP5986468B2 (en) | 2012-09-25 | 2012-09-25 | Display control apparatus, display system, and display control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014065359A true JP2014065359A (en) | 2014-04-17 |
JP5986468B2 JP5986468B2 (en) | 2016-09-06 |
Family
ID=50742204
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012210429A Expired - Fee Related JP5986468B2 (en) | 2012-09-25 | 2012-09-25 | Display control apparatus, display system, and display control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5986468B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019523918A (en) * | 2016-05-10 | 2019-08-29 | グーグル エルエルシー | Implementation of voice assistant on device |
CN110869706A (en) * | 2018-06-26 | 2020-03-06 | 谷歌有限责任公司 | Interfacing between digital assistant applications and navigation applications |
JP2021066226A (en) * | 2019-10-18 | 2021-04-30 | トヨタ自動車株式会社 | Change operation assisting device |
US11860933B2 (en) | 2016-05-13 | 2024-01-02 | Google Llc | Personalized and contextualized audio briefing |
US12146758B2 (en) | 2018-08-01 | 2024-11-19 | Google Llc | Interfacing between digital assistant applications and navigation applications |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0329998A (en) * | 1989-06-27 | 1991-02-07 | Mitsubishi Electric Corp | Voice input device for automobile |
JPH09114488A (en) * | 1995-10-16 | 1997-05-02 | Sony Corp | Device and method for speech recognition, device and method for navigation, and automobile |
JP2003148987A (en) * | 2001-11-09 | 2003-05-21 | Mitsubishi Electric Corp | Navigation apparatus |
JP2003291750A (en) * | 2002-04-01 | 2003-10-15 | Nissan Motor Co Ltd | On-vehicle equipment controller |
JP2005091611A (en) * | 2003-09-16 | 2005-04-07 | Mitsubishi Electric Corp | Information terminal, speech recognition server, and speech recognition system |
JP2006003696A (en) * | 2004-06-18 | 2006-01-05 | Toyota Motor Corp | Voice recognition device, voice recognition method and voice recognition program |
JP2012123492A (en) * | 2010-12-06 | 2012-06-28 | Fujitsu Ten Ltd | Information providing system and information providing device |
-
2012
- 2012-09-25 JP JP2012210429A patent/JP5986468B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0329998A (en) * | 1989-06-27 | 1991-02-07 | Mitsubishi Electric Corp | Voice input device for automobile |
JPH09114488A (en) * | 1995-10-16 | 1997-05-02 | Sony Corp | Device and method for speech recognition, device and method for navigation, and automobile |
JP2003148987A (en) * | 2001-11-09 | 2003-05-21 | Mitsubishi Electric Corp | Navigation apparatus |
JP2003291750A (en) * | 2002-04-01 | 2003-10-15 | Nissan Motor Co Ltd | On-vehicle equipment controller |
JP2005091611A (en) * | 2003-09-16 | 2005-04-07 | Mitsubishi Electric Corp | Information terminal, speech recognition server, and speech recognition system |
JP2006003696A (en) * | 2004-06-18 | 2006-01-05 | Toyota Motor Corp | Voice recognition device, voice recognition method and voice recognition program |
JP2012123492A (en) * | 2010-12-06 | 2012-06-28 | Fujitsu Ten Ltd | Information providing system and information providing device |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11990126B2 (en) | 2016-05-10 | 2024-05-21 | Google Llc | Voice-controlled media play in smart media environment |
US11935535B2 (en) | 2016-05-10 | 2024-03-19 | Google Llc | Implementations for voice assistant on devices |
JP2019523918A (en) * | 2016-05-10 | 2019-08-29 | グーグル エルエルシー | Implementation of voice assistant on device |
US11341964B2 (en) | 2016-05-10 | 2022-05-24 | Google Llc | Voice-controlled media play in smart media environment |
US11355116B2 (en) | 2016-05-10 | 2022-06-07 | Google Llc | Implementations for voice assistant on devices |
US11922941B2 (en) | 2016-05-10 | 2024-03-05 | Google Llc | Implementations for voice assistant on devices |
US11860933B2 (en) | 2016-05-13 | 2024-01-02 | Google Llc | Personalized and contextualized audio briefing |
JP2021529938A (en) * | 2018-06-26 | 2021-11-04 | グーグル エルエルシーGoogle LLC | Interfacing between Digital Assistant and Navigation Applications |
CN110869706B (en) * | 2018-06-26 | 2023-10-27 | 谷歌有限责任公司 | Engagement between a digital assistant application and a navigation application |
JP7176011B2 (en) | 2018-06-26 | 2022-11-21 | グーグル エルエルシー | Interfacing between digital assistant applications and navigation applications |
CN110869706A (en) * | 2018-06-26 | 2020-03-06 | 谷歌有限责任公司 | Interfacing between digital assistant applications and navigation applications |
US12146758B2 (en) | 2018-08-01 | 2024-11-19 | Google Llc | Interfacing between digital assistant applications and navigation applications |
JP7243567B2 (en) | 2019-10-18 | 2023-03-22 | トヨタ自動車株式会社 | Change operation support device |
JP2021066226A (en) * | 2019-10-18 | 2021-04-30 | トヨタ自動車株式会社 | Change operation assisting device |
Also Published As
Publication number | Publication date |
---|---|
JP5986468B2 (en) | 2016-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5821639B2 (en) | Voice recognition device | |
JP4304952B2 (en) | On-vehicle controller and program for causing computer to execute operation explanation method thereof | |
JP6346281B2 (en) | In-vehicle interactive system and in-vehicle information equipment | |
JP6501217B2 (en) | Information terminal system | |
JP4292646B2 (en) | User interface device, navigation system, information processing device, and recording medium | |
JP5637131B2 (en) | Voice recognition device | |
EP2518447A1 (en) | System and method for fixing user input mistakes in an in-vehicle electronic device | |
KR20100076998A (en) | Multimode user interface of a driver assistance system for inputting and presentation of information | |
WO2007097623A9 (en) | Navigation device and method for receiving and playing sound samples | |
JP5986468B2 (en) | Display control apparatus, display system, and display control method | |
JP2013088477A (en) | Speech recognition system | |
JP2003114794A (en) | Operation guide device, and operation guide method | |
JP2009251388A (en) | Native language utterance device | |
WO2016174955A1 (en) | Information processing device and information processing method | |
JP2013019958A (en) | Sound recognition device | |
JP2020144274A (en) | Agent device, control method of agent device, and program | |
JP2014164325A (en) | Communication device, communication system, communication method and program | |
JP7274404B2 (en) | INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND PROGRAM | |
JP6387287B2 (en) | Unknown matter resolution processing system | |
JP2018141742A (en) | Navigation device, navigation method, and navigation program | |
JP6202574B2 (en) | Electronic system, list display method, and list display program | |
JP2018087871A (en) | Voice output device | |
JP2016102823A (en) | Information processing system, voice input device, and computer program | |
JP2015129672A (en) | Facility retrieval apparatus and method | |
WO2011030404A1 (en) | Operating system and operating method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150408 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160719 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160805 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5986468 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |