[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2014065359A - Display control device, display system and display control method - Google Patents

Display control device, display system and display control method Download PDF

Info

Publication number
JP2014065359A
JP2014065359A JP2012210429A JP2012210429A JP2014065359A JP 2014065359 A JP2014065359 A JP 2014065359A JP 2012210429 A JP2012210429 A JP 2012210429A JP 2012210429 A JP2012210429 A JP 2012210429A JP 2014065359 A JP2014065359 A JP 2014065359A
Authority
JP
Japan
Prior art keywords
voice
user
display
display control
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012210429A
Other languages
Japanese (ja)
Other versions
JP5986468B2 (en
Inventor
Takeyoshi Iino
将嘉 伊井野
Chiharu Yamamoto
智春 山本
Toshihiro Kido
敏弘 城戸
Osamu Kukimoto
修 久木元
Yuji Yoshie
裕治 吉江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2012210429A priority Critical patent/JP5986468B2/en
Publication of JP2014065359A publication Critical patent/JP2014065359A/en
Application granted granted Critical
Publication of JP5986468B2 publication Critical patent/JP5986468B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology which allows a user to confirm guidance information easily without greatly moving a line of sight.SOLUTION: An on-vehicle display system 1 includes: a sub display 32 in which distance to the center of the front of a driver's seat 91 is relatively small; and a main display 31 in which distance to the center of the front of the driver's seat 91 is relatively large. Also, a display control device 2 acquires voice of a user, and acquires a search result of a search object based on a recognition result of voice recognition processing for the voice of the user. The display control device 2, while displaying guidance information to the user relating to voice assist processing on the sub display 32, displays a list of the search result on the main display 31. As the guidance information to the user is displayed on the sub display 32 which is in the vicinity of the front of the driver's seat 91, the user can execute the voice assist processing according to the guidance information without greatly moving a line of sight.

Description

本発明は、ユーザの音声の認識結果を用いる技術に関する。   The present invention relates to a technique using a recognition result of a user's voice.

従来より、車両に搭載されるナビゲーション装置などの車載表示システムにおいては、ユーザ(代表的にはドライバ)の音声の認識結果に応じた動作を実行する音声アシスト機能が採用されている(例えば、特許文献1参照。)。例えば、ユーザが「オーディオ消音」と発声した場合には、車載表示システムは、音声認識処理の認識結果に基いてオーディオを消音するコマンドが与えられたと判断し、出力する音の音量を0にする。   Conventionally, in an in-vehicle display system such as a navigation device mounted on a vehicle, a voice assist function for performing an operation in accordance with a voice recognition result of a user (typically a driver) has been employed (for example, patents). Reference 1). For example, when the user utters “audio mute”, the in-vehicle display system determines that a command to mute the audio is given based on the recognition result of the voice recognition process, and sets the volume of the output sound to zero. .

このような音声アシスト機能を用いることで、ユーザは、車両の運転中であっても、ボタン等の物理的な操作部を頻繁に操作することなく、車載表示システムに所望の動作を実行させることができる。   By using such a voice assist function, the user can cause the in-vehicle display system to perform a desired operation without frequently operating a physical operation unit such as a button even when the vehicle is in operation. Can do.

特開2008−152417号公報JP 2008-152417 A

ところで、上記のような音声アシスト機能を円滑に実行するためには、発声のタイミングや音声認識処理の認識結果など音声アシスト機能に係る各種の案内情報を、ユーザへ報知することが望ましい。このような案内情報は、車両の車室内に設けられた表示装置において表示される。   By the way, in order to smoothly execute the voice assist function as described above, it is desirable to notify the user of various guidance information related to the voice assist function such as the timing of utterance and the recognition result of the voice recognition process. Such guidance information is displayed on a display device provided in the passenger compartment of the vehicle.

一般的な車両では、表示装置は、ユーザが比較的大きく視線を動かす必要がある位置(例えば、ダッシュボードの左右中央)に配置される。このため、音声アシスト機能を実行する際には、案内情報が報知されるごとにユーザは視線を動かすことが必要となるため、煩雑に感じる可能性があった。   In a general vehicle, the display device is disposed at a position where the user needs to move the line of sight relatively large (for example, at the center of the left and right of the dashboard). For this reason, when executing the voice assist function, it is necessary for the user to move his / her line of sight each time the guidance information is notified, which may be complicated.

また、車載表示システムが、音声アシスト機能の処理結果として施設の情報などの案内情報以外の情報をユーザに報知する場合は、案内情報以外の情報と案内情報とが同一の表示装置の画面に表示される。このため、表示装置が同時に表示する情報量が多くなり、ユーザは必要とする情報を速やかに把握することが難しくなる可能性があった。   When the in-vehicle display system notifies the user of information other than the guidance information such as facility information as the processing result of the voice assist function, the information other than the guidance information and the guidance information are displayed on the same display device screen. Is done. For this reason, the amount of information displayed on the display device at the same time increases, and it may be difficult for the user to quickly grasp necessary information.

本発明は、上記課題に鑑みてなされたものであり、ユーザが視線を大きく動かすことなく案内情報を容易に確認できる技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique that allows a user to easily check guidance information without greatly moving his / her line of sight.

上記課題を解決するため、請求項1の発明は、車両に設けられた表示装置に情報を表示させる表示制御装置であって、前記車両のユーザが着座する座席の正面中央までの距離が相対的に小さい第1表示装置と、前記距離が相対的に大きい第2表示装置とのそれぞれに情報を表示させる表示制御手段と、前記ユーザの音声を取得する音声取得手段と、前記ユーザの音声を対象とした音声認識処理の認識結果に基づく、検索対象の検索結果を取得する検索結果取得手段と、を備え、前記表示制御手段は、前記音声認識処理の認識結果を用いた処理に係る前記ユーザへの案内情報を前記第1表示装置に表示させ、前記検索結果のリストを前記第2表示装置に表示させる。   In order to solve the above-mentioned problem, the invention of claim 1 is a display control device for displaying information on a display device provided in a vehicle, wherein the distance to the front center of the seat on which the user of the vehicle is seated is relative. Display control means for displaying information on each of the first display device having a relatively small distance and the second display device having a relatively large distance, sound acquisition means for obtaining the sound of the user, and the sound of the user Search result acquisition means for acquiring the search result of the search target based on the recognition result of the voice recognition process, and the display control means to the user related to the process using the recognition result of the voice recognition process Is displayed on the first display device, and the search result list is displayed on the second display device.

また、請求項2の発明は、請求項1に記載の表示制御装置において、前記第2表示装置の画面サイズは、前記第1表示装置よりも大きい。   According to a second aspect of the present invention, in the display control device according to the first aspect, the screen size of the second display device is larger than that of the first display device.

また、請求項3の発明は、請求項1または2に記載の表示制御装置において、前記第2表示装置に表示された前記リストに関するユーザの手動操作を受け付ける操作手段、を備え、前記表示制御手段は、前記リストを前記第2表示装置に表示させた場合に、前記手動操作を説明する操作説明を、前記案内情報として前記第1表示装置に表示させる。   Further, the invention according to claim 3 is the display control device according to claim 1 or 2, further comprising operation means for accepting a user's manual operation relating to the list displayed on the second display device, wherein the display control means When the list is displayed on the second display device, an operation explanation for explaining the manual operation is displayed on the first display device as the guidance information.

また、請求項4の発明は、請求項3に記載の表示制御装置において、前記表示制御手段は、前記リストを前記第2表示装置に表示させた場合に、前記音声認識処理の認識結果を用いた前記リストに関する音声操作が可能なときに、該音声操作を説明する操作説明と前記手動操作を説明する操作説明との双方を同時に前記案内情報として前記第1表示装置に表示させる。   According to a fourth aspect of the present invention, in the display control device according to the third aspect, the display control means uses the recognition result of the voice recognition process when the list is displayed on the second display device. When the voice operation related to the list is possible, both the operation explanation for explaining the voice operation and the operation explanation for explaining the manual operation are simultaneously displayed on the first display device as the guidance information.

また、請求項5の発明は、請求項1ないし4のいずれかに記載の表示制御装置において、前記音声認識処理の認識結果を取得する認識結果取得手段、をさらに備え、前記案内情報は、前記認識結果を含む。   The invention according to claim 5 is the display control device according to any one of claims 1 to 4, further comprising recognition result acquisition means for acquiring a recognition result of the voice recognition processing, wherein the guidance information includes Includes recognition results.

また、請求項6の発明は、請求項1ないし5のいずれかに記載の表示制御装置において、前記音声認識処理の認識結果を用いた処理の処理状況を取得する状況取得手段、をさらに備え、前記案内情報は、前記処理状況を含む。   Further, the invention of claim 6 further comprises status acquisition means for acquiring a processing status of processing using the recognition result of the voice recognition processing in the display control device according to any one of claims 1 to 5, The guidance information includes the processing status.

また、請求項7の発明は、表示システムであって、請求項1ないし6のいずれかに記載の表示制御装置と、前記表示制御装置の制御に基いて情報を表示する前記第1表示装置と、前記表示制御装置の制御に基いて情報を表示する前記第2表示装置と、を備えている。   The invention according to claim 7 is a display system, wherein the display control device according to any one of claims 1 to 6 and the first display device that displays information based on control of the display control device, And the second display device that displays information based on the control of the display control device.

また、請求項8の発明は、車両に設けられた表示装置に情報を表示させる表示制御方法であって、(a)前記車両のユーザの音声を取得する工程と、(b)前記ユーザの音声を対象とした音声認識処理の認識結果に基づく、検索対象の検索結果を取得する工程と、(c)前記音声認識処理の認識結果を用いた処理に係る前記ユーザへの案内情報を、前記ユーザが着座する座席の正面中央までの距離が相対的に小さい第1表示装置に表示させる工程と、(d)前記検索結果のリストを、前記距離が相対的に大きい第2表示装置に表示させる工程と、を備えている。   The invention of claim 8 is a display control method for displaying information on a display device provided in a vehicle, wherein (a) a step of acquiring a voice of the user of the vehicle; and (b) a voice of the user. A step of obtaining a search result of a search target based on a recognition result of a voice recognition process for the target, and (c) guidance information to the user related to a process using the recognition result of the voice recognition process. Displaying on the first display device having a relatively small distance to the front center of the seat on which the person sits, and (d) displaying the search result list on the second display device having the relatively large distance. And.

請求項1ないし8の発明によれば、ユーザへの案内情報がユーザの正面近傍にある第1表示装置に表示されるため、ユーザは視線を大きく動かすことなく、案内情報に従って音声認識処理の認識結果を用いた処理を実行させることができる。また、案内情報と検索結果のリストとが異なる表示装置に表示されるため、ユーザは必要とする情報を容易に確認できる。   According to the first to eighth aspects of the present invention, since the guidance information to the user is displayed on the first display device in the vicinity of the front of the user, the user recognizes the voice recognition process according to the guidance information without moving the line of sight greatly. Processing using the result can be executed. In addition, since the guidance information and the search result list are displayed on different display devices, the user can easily check the necessary information.

また、特に請求項2の発明によれば、検索結果のリストを画面サイズが大きな第2表示装置に表示するため、一度に表示するリストの項目の数を増やすことができる。このため、ユーザはリストに含まれる項目を容易に把握できる。   In particular, according to the invention of claim 2, since the list of search results is displayed on the second display device having a large screen size, the number of items of the list to be displayed at a time can be increased. For this reason, the user can easily grasp the items included in the list.

また、特に請求項3の発明によれば、手動操作を説明する操作説明がユーザの正面近傍にある第1表示装置に表示されるため、ユーザは視線を大きく動かすことなくリストに関する手動操作の方法を把握できる。   In particular, according to the invention of claim 3, since the operation explanation for explaining the manual operation is displayed on the first display device in the vicinity of the front of the user, the user can manually operate the list without moving the line of sight greatly. Can be grasped.

また、特に請求項4の発明によれば、音声操作を説明する操作説明と手動操作を説明する操作説明との双方が同時に第1表示装置に表示されるため、ユーザは任意の操作手法を選択してリストに関する操作を行うことができる。   In particular, according to the invention of claim 4, since both the operation explanation explaining the voice operation and the operation explanation explaining the manual operation are simultaneously displayed on the first display device, the user selects an arbitrary operation method. Then, you can perform operations related to the list.

また、特に請求項5の発明によれば、音声認識処理の認識結果がユーザの正面近傍にある第1表示装置に表示されるため、ユーザは視線を大きく動かすことなく音声認識処理の認識結果が正しいか否かを確認することができる。   In particular, according to the invention of claim 5, since the recognition result of the voice recognition process is displayed on the first display device in the vicinity of the front of the user, the user can recognize the recognition result of the voice recognition process without moving the line of sight greatly. Whether it is correct or not can be confirmed.

また、特に請求項6の発明によれば、処理状況がユーザの正面近傍にある第1表示装置に表示されるため、ユーザは視線を大きく動かすことなく処理状況を把握することができる。   In particular, according to the invention of claim 6, since the processing status is displayed on the first display device in the vicinity of the user's front, the user can grasp the processing status without moving the line of sight greatly.

図1は、音声処理システムの概要を示す図である。FIG. 1 is a diagram showing an outline of a voice processing system. 図2は、音声アシスト処理の概要を示す図である。FIG. 2 is a diagram showing an outline of the voice assist process. 図3は、サーバの構成を示す図である。FIG. 3 is a diagram illustrating the configuration of the server. 図4は、車載表示システムの概要を示す図である。FIG. 4 is a diagram showing an outline of the in-vehicle display system. 図5は、ステアリングホイールを拡大して示す図である。FIG. 5 is an enlarged view of the steering wheel. 図6は、車載表示システムの構成を示す図である。FIG. 6 is a diagram illustrating a configuration of the in-vehicle display system. 図7は、音声アシスト処理の流れを示す図である。FIG. 7 is a diagram showing the flow of the voice assist process. 図8は、音声アシスト処理の流れを示す図である。FIG. 8 is a diagram showing the flow of the voice assist process. 図9は、2つのディスプレイの表示内容の例を示す図である。FIG. 9 is a diagram illustrating an example of display contents on two displays. 図10は、2つのディスプレイの表示内容の例を示す図である。FIG. 10 is a diagram illustrating an example of display contents on two displays. 図11は、2つのディスプレイの表示内容の例を示す図である。FIG. 11 is a diagram illustrating an example of display contents on two displays. 図12は、2つのディスプレイの表示内容の例を示す図である。FIG. 12 is a diagram illustrating an example of display contents on two displays. 図13は、2つのディスプレイの表示内容の例を示す図である。FIG. 13 is a diagram illustrating an example of display contents on two displays. 図14は、2つのディスプレイの表示内容の例を示す図である。FIG. 14 is a diagram illustrating an example of display contents on two displays. 図15は、2つのディスプレイの表示内容の例を示す図である。FIG. 15 is a diagram illustrating an example of display contents on two displays.

以下、図面を参照しつつ本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<1.音声処理システムの概要>
図1は、本実施の形態に係る車載表示システム1を含む音声処理システム10の概要を示す図である。音声処理システム10は、車両9の外部に配置されるサーバ7と、車両9に搭載される車載表示システム1とを備えている。車載表示システム1は、目的地までのルートを案内するナビゲーション機能と、楽曲を再生するオーディオ機能とを備えている。サーバ7と車載表示システム1とは、インターネットなどのネットワーク8を介して相互にデータを送受信することが可能となっている。
<1. Outline of speech processing system>
FIG. 1 is a diagram showing an outline of a voice processing system 10 including an in-vehicle display system 1 according to the present embodiment. The voice processing system 10 includes a server 7 disposed outside the vehicle 9 and an in-vehicle display system 1 mounted on the vehicle 9. The in-vehicle display system 1 includes a navigation function for guiding a route to a destination and an audio function for reproducing music. The server 7 and the in-vehicle display system 1 can exchange data with each other via a network 8 such as the Internet.

音声処理システム10は、車両9のユーザ(代表的にはドライバ)の音声を対象とした音声認識処理を行い、その認識結果に応じた動作を実行する音声アシスト処理を行う。この音声アシスト処理により、車両9のユーザは、様々な音声を発声することで車載表示システム1に所望の動作を実行させることができる。音声処理システム10が対象とする音声の内容は「コマンド」「施設の条件」及び「楽曲の条件」のいずれかである。   The voice processing system 10 performs voice recognition processing for voice of a user (typically a driver) of the vehicle 9 and performs voice assist processing for executing an operation according to the recognition result. By this voice assist process, the user of the vehicle 9 can cause the in-vehicle display system 1 to execute a desired operation by uttering various voices. The audio content targeted by the audio processing system 10 is one of “command”, “facility condition” and “musical condition”.

図2は、音声処理システム10が実行する音声アシスト処理の概要を示す図である。図2に示すように、サーバ7は、ユーザの音声を対象とした音声認識処理を実行する音声認識部74と、ユーザの音声の意味を理解する意味理解処理を行う意味理解部75とを備えている。   FIG. 2 is a diagram showing an outline of the voice assist process executed by the voice processing system 10. As shown in FIG. 2, the server 7 includes a speech recognition unit 74 that executes speech recognition processing for the user's speech, and a meaning understanding unit 75 that performs meaning understanding processing for understanding the meaning of the user's speech. ing.

音声アシスト処理では、まず、車載表示システム1がユーザの音声を取得し、その音声を示す音声データをサーバ7に送信する(矢印C1)。次に、サーバ7の音声認識部74が、受信した音声データを用いて音声認識処理を実行して、受信した音声データをユーザの音声を表す文字列(テキスト)に変換する。音声認識部74は、音声認識処理の認識結果である文字列を車載表示システム1に送信する(矢印C2)。これとともに、音声認識部74は、音声認識処理の認識結果である文字列を意味理解部75に出力する。   In the voice assist process, first, the in-vehicle display system 1 acquires the user's voice and transmits voice data indicating the voice to the server 7 (arrow C1). Next, the voice recognition unit 74 of the server 7 executes voice recognition processing using the received voice data, and converts the received voice data into a character string (text) representing the user's voice. The voice recognition unit 74 transmits a character string that is a recognition result of the voice recognition process to the in-vehicle display system 1 (arrow C2). At the same time, the voice recognition unit 74 outputs a character string that is a recognition result of the voice recognition processing to the meaning understanding unit 75.

意味理解部75は、音声認識処理の認識結果の文字列に基いて意味理解処理を実行する。意味理解部75は、まず、ユーザの音声の意味が「コマンド」「施設の条件」及び「楽曲の条件」のいずれであるかを判定する。意味理解部75は、ユーザの音声の意味が「コマンド」と判定した場合は、判定した「コマンド」を車載表示システム1に送信する(矢印C3)。   The meaning understanding unit 75 executes the meaning understanding process based on the character string of the recognition result of the voice recognition process. The meaning understanding unit 75 first determines whether the meaning of the user's voice is “command”, “facility condition”, or “music condition”. If the meaning of the user's voice is determined to be “command”, the meaning understanding unit 75 transmits the determined “command” to the in-vehicle display system 1 (arrow C3).

また、意味理解部75は、ユーザの音声の意味が「施設の条件」と判定した場合は、判定した「施設の条件」に該当する施設をデータベースから検索し、その検索結果を車載表示システム1に送信する(矢印C3)。また、意味理解部75は、ユーザの音声の意味が「楽曲の条件」と判定した場合は、判定した「楽曲の条件」に該当する楽曲をデータベースから検索し、その検索結果を車載表示システム1に送信する(矢印C3)。   In addition, when the meaning understanding unit 75 determines that the meaning of the user's voice is “facility condition”, the meaning understanding unit 75 searches the database for a facility corresponding to the determined “facility condition”, and the search result is the in-vehicle display system 1. (Arrow C3). In addition, when the meaning understanding unit 75 determines that the meaning of the user's voice is “song condition”, the meaning understanding unit 75 searches the database for music corresponding to the determined “song condition”, and displays the search result on the in-vehicle display system 1. (Arrow C3).

これにより、車載表示システム1は、意味理解部75による意味理解処理の処理結果として、「コマンド」、「施設の検索結果」または「楽曲の検索結果」をサーバ7から受信する。そして、車載表示システム1は、受信した処理結果に応じた動作を実行する。   Thus, the in-vehicle display system 1 receives “command”, “facility search result”, or “music search result” from the server 7 as the processing result of the semantic understanding processing by the semantic understanding unit 75. And the vehicle-mounted display system 1 performs the operation | movement according to the received process result.

車載表示システム1は、意味理解部75の処理結果として「コマンド」をサーバ7から受信した場合は、当該「コマンド」を実行する。例えば、ユーザが「オーディオを消して」と発声した場合は、車載表示システム1はオーディオの消音を指示する「コマンド」をサーバ7から受信する。そして、車載表示システム1は、この「コマンド」を実行し、車両9で出力される音の音量を0とする。また例えば、ユーザが「エアコンをつけて」と発声した場合は、車載表示システム1は、エアコン装置のオンを指示する「コマンド」をサーバ7から受信する。そして、車載表示システム1は、この「コマンド」を実行し、車両9のエアコン装置をオンとする。   When the “command” is received from the server 7 as the processing result of the meaning understanding unit 75, the in-vehicle display system 1 executes the “command”. For example, when the user utters “mute audio”, the in-vehicle display system 1 receives from the server 7 a “command” instructing to mute the audio. The in-vehicle display system 1 executes this “command” and sets the volume of the sound output from the vehicle 9 to zero. For example, when the user utters “turn on the air conditioner”, the in-vehicle display system 1 receives from the server 7 a “command” instructing to turn on the air conditioner device. The in-vehicle display system 1 executes this “command” to turn on the air conditioner device of the vehicle 9.

また、車載表示システム1は、意味理解部75の処理結果として「施設の検索結果」をサーバ7から受信した場合は、当該「施設の検索結果」のリストを表示する。例えば、ユーザが「近くのコンビニに行きたい」と発声した場合は、車載表示システム1は車両9の周辺に存在するコンビニエンスストアの検索結果をサーバ7から受信する。そして、車載表示システム1は、この検索結果のリストを表示する。ユーザは、このように表示された検索結果のリストの項目の一つを選択することで、当該項目の施設をナビゲーション機能の目的地に設定することができる。   Further, when the “institution search result” is received from the server 7 as the processing result of the meaning understanding unit 75, the in-vehicle display system 1 displays a list of the “facility search result”. For example, when the user utters “I want to go to a nearby convenience store”, the in-vehicle display system 1 receives a search result of convenience stores existing around the vehicle 9 from the server 7. And the vehicle-mounted display system 1 displays this search result list. The user can set the facility of the item as the destination of the navigation function by selecting one of the items in the list of search results displayed in this way.

また、車載表示システム1は、意味理解部75の処理結果として「楽曲の検索結果」をサーバ7から受信した場合は、当該「楽曲の検索結果」のリストを表示する。例えば、ユーザが「アーティストAの曲を聞きたい」と発声した場合は、車載表示システム1はアーティストAに係る楽曲の検索結果をサーバ7から受信する。そして、車載表示システム1は、この検索結果のリストを表示する。ユーザは、このように表示された検索結果のリストの項目の一つを選択することで、当該項目の楽曲をオーディオ機能の再生対象にすることができる。   When the in-vehicle display system 1 receives the “music search result” from the server 7 as the processing result of the meaning understanding unit 75, the in-vehicle display system 1 displays the “music search result” list. For example, when the user utters “I want to listen to artist A's song”, the in-vehicle display system 1 receives the search result of the song related to artist A from the server 7. And the vehicle-mounted display system 1 displays this search result list. By selecting one of the items of the search result list displayed in this way, the user can make the music of the item a playback target of the audio function.

このように車載表示システム1は、サーバ7と協働することによって音声アシスト処理を実行し、車両9のユーザの音声に応じた様々な動作を実行することができる。音声アシスト処理は、ユーザの音声を対象とした音声認識処理の認識結果を用いた処理であるともいえる。以下、このような音声アシスト処理を実行する音声処理システム10のサーバ7及び車載表示システム1のそれぞれについて詳細に説明する。   As described above, the in-vehicle display system 1 can execute the voice assist process by cooperating with the server 7 and can perform various operations according to the voice of the user of the vehicle 9. It can be said that the voice assist process is a process using the recognition result of the voice recognition process for the user's voice. Hereinafter, each of the server 7 and the vehicle-mounted display system 1 of the voice processing system 10 that executes such voice assist processing will be described in detail.

<2.サーバの構成>
図3は、サーバ7の構成を示す図である。サーバ7は、制御部71と、データ通信部72と、記憶部73とを備えている。
<2. Server configuration>
FIG. 3 is a diagram illustrating the configuration of the server 7. The server 7 includes a control unit 71, a data communication unit 72, and a storage unit 73.

データ通信部72は、ネットワーク8に接続されており、ネットワーク8に接続可能な他の通信装置とのデータ通信が可能である。これにより、データ通信部72は、車載表示システム1との間でネットワーク8を介してデータの送受信を行う。   The data communication unit 72 is connected to the network 8 and can perform data communication with other communication devices that can be connected to the network 8. As a result, the data communication unit 72 transmits and receives data to and from the in-vehicle display system 1 via the network 8.

制御部71は、CPU、RAM及びROMなどを備えたコンピュータである。記憶部73に記憶されたプログラム73eに従ってCPUが演算処理を行うことで、制御部71の各種の機能が実現される。サーバ7が備える音声認識部74及び意味理解部75は、このようにプログラム73eに従って演算処理を行うことで実現される機能部の一部である。   The control unit 71 is a computer including a CPU, a RAM, a ROM, and the like. Various functions of the control unit 71 are realized by the CPU performing arithmetic processing according to the program 73e stored in the storage unit 73. The voice recognition unit 74 and the meaning understanding unit 75 included in the server 7 are part of functional units realized by performing arithmetic processing according to the program 73e in this way.

また、記憶部73は、例えば、ハードディスクなどの不揮発性の記憶装置であり、各種の情報を記憶する。記憶部73は、前述のプログラム73eの他に、音声認識辞書73a、意味判定辞書73b、施設データベース73c、及び、楽曲データベース73dを記憶している。   The storage unit 73 is a non-volatile storage device such as a hard disk, and stores various types of information. The storage unit 73 stores a speech recognition dictionary 73a, a semantic determination dictionary 73b, a facility database 73c, and a music database 73d in addition to the above-described program 73e.

音声認識辞書73aは、音声認識部74がユーザの音声を認識する際に参照する辞書である。音声認識辞書73aは、音声の特徴量と文字との対応関係を示すデータを含んでいる。また、意味判定辞書73bは、意味理解部75がユーザの音声の意味を判定する際に参照する辞書である。音声認識辞書73aは、単語と意味(「コマンド」「施設の条件」または「楽曲の条件」)との対応関係を示すデータを含んでいる。   The speech recognition dictionary 73a is a dictionary that the speech recognition unit 74 refers to when recognizing the user's speech. The voice recognition dictionary 73a includes data indicating the correspondence between the voice feature amount and the characters. The semantic determination dictionary 73b is a dictionary that the semantic understanding unit 75 refers to when determining the meaning of the user's voice. The speech recognition dictionary 73a includes data indicating the correspondence between words and meanings ("command", "facility conditions" or "musical conditions").

施設データベース73cは、ユーザの音声の意味が「施設の条件」である場合に、意味理解部75が検索対象とするデータベースである。施設データベース52は、ナビゲーション機能の目的地の候補となる多数の施設のデータを含んでいる。施設データベース73cに含まれるデータは、定期的に最新のものに更新される。   The facility database 73c is a database to be searched by the meaning understanding unit 75 when the meaning of the user's voice is “facility conditions”. The facility database 52 includes data on a large number of facilities that are candidates for navigation function destinations. The data included in the facility database 73c is periodically updated to the latest data.

また、楽曲データベース73dは、ユーザの音声の意味が「楽曲の条件」である場合に、意味理解部75が検索対象とするデータベースである。楽曲データベース73dは、オーディオ機能で再生可能な多数の楽曲のデータを含んでいる。楽曲データベース73dに含まれるデータは、定期的に最新のものに更新される。   The music database 73d is a database that the semantic understanding unit 75 searches when the meaning of the user's voice is "musical condition". The music database 73d includes data of a large number of music that can be reproduced by the audio function. The data included in the music database 73d is periodically updated to the latest data.

<3.車載表示システムの構成>
図4は、車載表示システム1の概要を示す図である。図4は、車両9の車室内の様子を示している。図4に示すように、車載表示システム1は、ユーザの指による操作(以下、「手動操作」という。)を受け付ける操作部33と、ユーザが発声した音声を入力するマイク34と、音を出力するスピーカ35とを備えている。操作部33及びマイク34は車両9のステアリングホイール93に配置され、スピーカ35は車両9のドア95に配置されている。
<3. Configuration of in-vehicle display system>
FIG. 4 is a diagram showing an overview of the in-vehicle display system 1. FIG. 4 shows the interior of the vehicle 9. As illustrated in FIG. 4, the in-vehicle display system 1 includes an operation unit 33 that receives an operation by a user's finger (hereinafter referred to as “manual operation”), a microphone 34 that inputs a voice uttered by the user, and outputs a sound. And a speaker 35. The operation unit 33 and the microphone 34 are disposed on the steering wheel 93 of the vehicle 9, and the speaker 35 is disposed on the door 95 of the vehicle 9.

図5は、ステアリングホイール93を拡大して示す図である。図5に示すように、マイク34は、ユーザの音声を効率的に入力できるように、ステアリングホイール93の中央部の近傍に設けられている。   FIG. 5 is an enlarged view showing the steering wheel 93. As shown in FIG. 5, the microphone 34 is provided in the vicinity of the center portion of the steering wheel 93 so that the user's voice can be input efficiently.

また、操作部33は、ステアリングスイッチとも呼ばれ、ユーザが手動操作するための物理的な複数のボタン33a〜33cを備えている。これらのボタン33a〜33cは、ユーザがステアリングホイール93を握ったまま手動操作できるように、ステアリングホイール93の左側と右側とに分散して配置されている。   The operation unit 33 is also referred to as a steering switch, and includes a plurality of physical buttons 33a to 33c that are manually operated by the user. These buttons 33 a to 33 c are distributed on the left side and the right side of the steering wheel 93 so that the user can perform manual operation while holding the steering wheel 93.

ステアリングホイール93の左側には、ホイールボタン33aとキャンセルボタン33bとが設けられている。ホイールボタン33aは、上下方向に回転する操作と、押圧する操作とをユーザから受け付けることが可能である。また、ステアリングホイール93の右側には、音声認識ボタン33cが設けられている。ユーザは、この音声認識ボタン33cを押圧することで、音声処理システム10に音声アシスト処理を開始させることができる。   On the left side of the steering wheel 93, a wheel button 33a and a cancel button 33b are provided. The wheel button 33a can receive an operation of rotating in the vertical direction and an operation of pressing from the user. A voice recognition button 33c is provided on the right side of the steering wheel 93. The user can cause the voice processing system 10 to start the voice assist process by pressing the voice recognition button 33c.

図4に戻り、車載表示システム1は、また、各種の情報を表示する表示装置として、メインディスプレイ31とサブディスプレイ32とを備えている。メインディスプレイ31は、サブディスプレイ32と比較して画面サイズが大きく、同時に多くの情報を表示することができる。また、メインディスプレイ31は、タッチパネル機能を備えており、ユーザの手動操作を受け付けることも可能となっている。   Returning to FIG. 4, the in-vehicle display system 1 also includes a main display 31 and a sub display 32 as display devices for displaying various types of information. The main display 31 has a larger screen size than the sub-display 32, and can display a large amount of information at the same time. The main display 31 has a touch panel function, and can accept a user's manual operation.

メインディスプレイ31は、車両9のダッシュボード92の左右中央に設けられている。一方、サブディスプレイ32は、ダッシュボード92において、ユーザ(ドライバ)が着座する運転席91の正面にあるメータパネル94の上部に設けられている。このためサブディスプレイ32は、運転席91のほぼ正面中央に配置される。   The main display 31 is provided at the left and right center of the dashboard 92 of the vehicle 9. On the other hand, the sub-display 32 is provided on the dashboard 92 at the top of the meter panel 94 in front of the driver's seat 91 on which the user (driver) sits. For this reason, the sub-display 32 is disposed substantially in the front center of the driver's seat 91.

サブディスプレイ32は運転席91の正面中央までの距離が相対的に小さく、メインディスプレイ31は運転席91の正面中央までの距離が相対的に大きいともいえる。したがって、運転中においてユーザ(ドライバ)は、視線を大きく動かすことなく、サブディスプレイ32を確認することができる。これに対して、ユーザ(ドライバ)は、メインディスプレイ31を確認するためには、視線を比較的大きく動かす必要がある。   It can be said that the sub display 32 has a relatively small distance to the front center of the driver's seat 91 and the main display 31 has a relatively large distance to the front center of the driver's seat 91. Therefore, the user (driver) can check the sub-display 32 without greatly moving his / her line of sight during driving. On the other hand, in order to confirm the main display 31, the user (driver) needs to move the line of sight relatively large.

また、車載表示システム1は、これらの2つのディスプレイ31,32を制御する表示制御装置2を備えている。2つのディスプレイ31,32はそれぞれ、この表示制御装置2の制御に基いて情報を表示する。表示制御装置2は、例えば、車両9のセンターコンソール96に配置される。   The in-vehicle display system 1 includes a display control device 2 that controls these two displays 31 and 32. Each of the two displays 31 and 32 displays information based on the control of the display control device 2. The display control device 2 is disposed on the center console 96 of the vehicle 9, for example.

図6は、表示制御装置2を含む車載表示システム1の構成を示す図である。表示制御装置2は、制御部21と、データ通信部22と、ナビゲーション部23と、オーディオ部24と、記憶部25と、信号送信部26とを備えている。   FIG. 6 is a diagram illustrating a configuration of the in-vehicle display system 1 including the display control device 2. The display control device 2 includes a control unit 21, a data communication unit 22, a navigation unit 23, an audio unit 24, a storage unit 25, and a signal transmission unit 26.

制御部21は、表示制御装置2の全体を統括的に制御するマイクロコンピュータであり、CPU、RAM及びROMなどを備えている。制御部21は、車載表示システム1が備えるメインディスプレイ31、サブディスプレイ32、操作部33、マイク34及びスピーカ35のそれぞれと電気的に接続されている。これにより、制御部21は、2つのディスプレイ31,32を制御して各種の情報を表示させることができる。また、制御部21は、スピーカ35を制御して各種の音を出力させることができる。さらに、制御部21は、操作部33が受け付けたユーザの手動操作の内容を示す操作信号や、マイク34が入力したユーザの音声を示す音声信号を受け取り、これらの信号に応答して処理を行うことができる。   The control unit 21 is a microcomputer that comprehensively controls the entire display control device 2 and includes a CPU, a RAM, a ROM, and the like. The control unit 21 is electrically connected to each of the main display 31, the sub display 32, the operation unit 33, the microphone 34, and the speaker 35 included in the in-vehicle display system 1. Thereby, the control part 21 can control the two displays 31 and 32 to display various information. The control unit 21 can control the speaker 35 to output various sounds. Further, the control unit 21 receives an operation signal indicating the content of the user's manual operation received by the operation unit 33 and an audio signal indicating the user's voice input by the microphone 34, and performs processing in response to these signals. be able to.

データ通信部22は、WiMAX(登録商標)や3Gなどの無線通信を利用したネットワーク8への接続機能を有している。したがって、データ通信部22は、サーバ7との間でネットワーク8を介してデータの送受信を行うことが可能である。なお、データ通信部22が、ネットワーク8への接続機能を有するスマートフォン等の他の通信装置を中継器として利用して、サーバ7との間でデータの送受信を行ってもよい。   The data communication unit 22 has a function of connecting to the network 8 using wireless communication such as WiMAX (registered trademark) or 3G. Therefore, the data communication unit 22 can exchange data with the server 7 via the network 8. Note that the data communication unit 22 may transmit and receive data to and from the server 7 using another communication device such as a smartphone having a function of connecting to the network 8 as a relay.

ナビゲーション部23は、目的地までのルートを案内するナビゲーション機能を実現する。ナビゲーション部23は、ユーザにより目的地が設定された場合は、GPSにより取得される車両9の位置から目的地までのルートを導出し、導出したルートをユーザへ案内する。また、ナビゲーション部23は、記憶部25に記憶された地図データ25aを用いて、車両9の周辺の地図画像を生成する。この車両9の周辺の地図画像は、制御部21の制御により、メインディスプレイ31に表示される。   The navigation unit 23 realizes a navigation function for guiding a route to the destination. When the destination is set by the user, the navigation unit 23 derives a route from the position of the vehicle 9 acquired by the GPS to the destination, and guides the derived route to the user. The navigation unit 23 generates a map image around the vehicle 9 using the map data 25a stored in the storage unit 25. The map image around the vehicle 9 is displayed on the main display 31 under the control of the control unit 21.

オーディオ部24は、楽曲を再生するオーディオ機能を実現する。オーディオ部24は、ユーザにより再生対象となる楽曲が設定された場合は、その楽曲の音響データをデコードして音響信号を生成する。この音響信号は制御部21の制御によりスピーカ35に出力され、スピーカ35から音が出力される。   The audio unit 24 implements an audio function for playing back music. When the music to be played is set by the user, the audio unit 24 decodes the acoustic data of the music and generates an acoustic signal. This acoustic signal is output to the speaker 35 under the control of the control unit 21, and sound is output from the speaker 35.

記憶部25は、例えば、フラッシュメモリなどの不揮発性の記憶装置であり、各種の情報を記憶する。記憶部25は、地図データ25aの他に、プログラム25bを記憶している。   The storage unit 25 is a non-volatile storage device such as a flash memory, and stores various types of information. The storage unit 25 stores a program 25b in addition to the map data 25a.

信号送信部26は、車載表示システム1以外に車両9に設けられる装置に制御信号を送信する。信号送信部26は、例えば、制御部21の制御により、車両9に設けられるエアコン装置97に制御信号を送信する。制御部21は、このように信号送信部26を介してエアコン装置97に制御信号を送信することで、エアコン装置97のオン/オフ、あるいは、設定温度の変更など、エアコン装置97の動作を制御することができる。   The signal transmission unit 26 transmits a control signal to a device provided in the vehicle 9 other than the in-vehicle display system 1. For example, the signal transmission unit 26 transmits a control signal to the air conditioner 97 provided in the vehicle 9 under the control of the control unit 21. The control unit 21 controls the operation of the air conditioner 97 such as turning on / off the air conditioner 97 or changing the set temperature by transmitting the control signal to the air conditioner 97 through the signal transmitter 26 in this way. can do.

また、制御部21は、記憶部25に記憶されたプログラム25bに従ってCPUが演算処理を行うことで実現される機能として、各種の機能を備えている。図中に示す表示制御部21a、サーバ連携部21b、状況取得部21c、ナビ制御部21d、オーディオ制御部21e及びコマンド実行部21fは、プログラム25bに従って演算処理を行うことで実現される制御部21の機能部の一部である。   The control unit 21 also has various functions as functions realized by the CPU performing arithmetic processing according to the program 25b stored in the storage unit 25. The display control unit 21a, the server cooperation unit 21b, the situation acquisition unit 21c, the navigation control unit 21d, the audio control unit 21e, and the command execution unit 21f shown in the figure are realized by performing arithmetic processing according to the program 25b. Is part of the functional part.

表示制御部21aは、メインディスプレイ31及びサブディスプレイ32を制御し、これら2つのディスプレイ31,32のそれぞれに各種の情報を表示させる。表示制御部21aは、音声アシスト処理の実行中においては、音声アシスト処理に係るユーザへの各種の案内情報をサブディスプレイ32に表示させる。このユーザへの案内情報は、例えば、発声のタイミング、音声認識処理の認識結果などである。このようにユーザへの案内情報がユーザの正面近傍にあるサブディスプレイ32に表示されるため、ユーザは視線を大きく動かすことなく案内情報に従って音声アシスト処理を実行させることができる。   The display control unit 21a controls the main display 31 and the sub display 32 to display various information on each of the two displays 31 and 32. The display control unit 21a causes the sub display 32 to display various types of guidance information for the user related to the voice assist process during the voice assist process. The guidance information to the user includes, for example, the timing of utterance, the recognition result of the voice recognition process, and the like. Thus, the guidance information for the user is displayed on the sub-display 32 in the vicinity of the front of the user, so that the user can execute the voice assist process according to the guidance information without greatly moving the line of sight.

サーバ連携部21bは、データ通信部22を介してサーバ7と通信を行い、サーバ7と連携して音声アシスト処理に必要な処理を実行する。例えば、サーバ連携部21bは、ユーザの音声を取得して、ユーザの音声を示す音声データをサーバ7に送信する。また、サーバ連携部21bは、音声認識部74の認識結果、及び、意味理解部75の処理結果(「コマンド」または「検索結果」)をサーバ7から取得する。   The server cooperation unit 21 b communicates with the server 7 via the data communication unit 22 and executes processing necessary for the voice assist processing in cooperation with the server 7. For example, the server cooperation unit 21 b acquires the user's voice and transmits voice data indicating the user's voice to the server 7. Further, the server cooperation unit 21 b acquires the recognition result of the voice recognition unit 74 and the processing result (“command” or “search result”) of the meaning understanding unit 75 from the server 7.

状況取得部21cは、サーバ連携部21bの処理に基いて、音声アシスト処理の処理状況を取得する。具体的には、状況取得部21cは、音声認識部74による音声認識処理の実行中、あるいは、意味理解部75による意味理解処理の実行中などの処理状況を取得する。   The status acquisition unit 21c acquires the processing status of the voice assist process based on the processing of the server cooperation unit 21b. Specifically, the status acquisition unit 21 c acquires a processing status such as when the voice recognition process by the voice recognition unit 74 is being executed or when the meaning understanding process is being executed by the meaning understanding unit 75.

また、ナビ制御部21dはナビゲーション部23の動作を制御し、オーディオ制御部21eはオーディオ部24の動作を制御する。また、コマンド実行部21fは、音声アシスト処理において「コマンド」をサーバ7から取得した場合に当該「コマンド」を実行する。これらの機能部21a〜21fの処理の詳細についてはさらに後述する。   The navigation control unit 21d controls the operation of the navigation unit 23, and the audio control unit 21e controls the operation of the audio unit 24. Further, the command execution unit 21 f executes the “command” when the “command” is acquired from the server 7 in the voice assist process. Details of the processing of these functional units 21a to 21f will be described later.

<4.音声アシスト処理の流れ>
次に、音声処理システム10による音声アシスト処理の流れを説明する。図7及び図8は、この音声アシスト処理の流れを示す図である。図7においては、図中の左側は車載表示システム1の処理の流れを示しており、図中の右側はサーバ7の処理の流れを示している。また、図8は、車載表示システム1のみの処理の流れを示している。また、図9から図15はそれぞれ、メインディスプレイ31及びサブディスプレイ32それぞれの同一時点での表示内容の例を示している。
<4. Voice assist processing flow>
Next, the flow of voice assist processing by the voice processing system 10 will be described. 7 and 8 show the flow of this voice assist process. In FIG. 7, the left side in the figure shows the process flow of the in-vehicle display system 1, and the right side in the figure shows the process flow of the server 7. FIG. 8 shows the flow of processing only by the in-vehicle display system 1. 9 to 15 show examples of display contents at the same time on the main display 31 and the sub display 32, respectively.

図9は、音声アシスト処理の開始前の2つのディスプレイ31,32の表示内容の例を示している。音声アシスト処理の開始前においては、表示制御部21aは、メインディスプレイ31に車両9の周辺の地図画像MPを表示させ、サブディスプレイ32にその時点の時刻等を表示させる。このような状態において、車両9のユーザが音声認識ボタン33c(図5参照。)を押圧すると、音声アシスト処理が開始される。   FIG. 9 shows an example of display contents on the two displays 31 and 32 before the start of the voice assist process. Prior to the start of the voice assist process, the display control unit 21a displays the map image MP around the vehicle 9 on the main display 31, and displays the time and the like at that time on the sub display 32. In such a state, when the user of the vehicle 9 presses the voice recognition button 33c (see FIG. 5), the voice assist process is started.

音声アシスト処理が開始されると、まず、表示制御部21aが、音声アシスト処理に係る案内情報として、ユーザが発声すべきタイミングをサブディスプレイ32に表示させる(図7のステップS11)。これにより、図10に示すように、「ピッとなったらお話ください」という案内情報G1がサブディスプレイ32に表示される。   When the voice assist process is started, first, the display control unit 21a displays on the sub-display 32 the timing at which the user should speak as guidance information related to the voice assist process (step S11 in FIG. 7). As a result, as shown in FIG. 10, guidance information G <b> 1 is displayed on the sub-display 32, “Please speak when you get a beep”.

次に、サーバ連携部21bが、スピーカ35を制御してビープ音をスピーカ35から出力させる。このビープ音の出力後、ユーザは任意の音声を発声し、マイク34がユーザの音声を入力する。サーバ連携部21bは、このマイク34から出力される音声信号を受け取り、ユーザの音声を取得する。   Next, the server cooperation unit 21 b controls the speaker 35 to output a beep sound from the speaker 35. After outputting the beep sound, the user utters an arbitrary sound and the microphone 34 inputs the user's sound. The server cooperation part 21b receives the audio | voice signal output from this microphone 34, and acquires a user's audio | voice.

ビープ音の出力後、所定時間(例えば10秒間)ユーザが音声を発声せず、サーバ連携部21bがユーザの音声を取得できなかった場合は(ステップS12にてNo)、表示制御部21aが音声アシスト処理を終了する旨のメッセージをサブディスプレイ32に表示させ(ステップS13)、音声アシスト処理が終了する。   When the user does not utter a voice for a predetermined time (for example, 10 seconds) after the beep sound is output and the server cooperation unit 21b cannot acquire the user's voice (No in step S12), the display control unit 21a A message to end the assist process is displayed on the sub-display 32 (step S13), and the voice assist process ends.

また、サーバ連携部21bがユーザの音声を取得できた場合は(ステップS12にてYes)、次に、サーバ連携部21bは、受信した音声信号のうちユーザの音声が含まれる区間を抽出する区間抽出処理を実行する(ステップS14)。サーバ連携部21bは、例えば、音声信号のうち所定の閾値を超えるレベルの信号が連続する区間を抽出する。サーバ連携部21bは、抽出した音声信号をMP3などの所定形式の音声データに変換する。   If the server cooperation unit 21b has acquired the user's voice (Yes in step S12), the server cooperation unit 21b then extracts a section in which the user's voice is included from the received voice signal. An extraction process is executed (step S14). For example, the server cooperation unit 21b extracts a section in which a signal having a level exceeding a predetermined threshold is continued from the audio signal. The server cooperation unit 21b converts the extracted audio signal into audio data in a predetermined format such as MP3.

次に、サーバ連携部21bは、ユーザの音声を示す音声データを、データ通信部22を介してサーバ7へ送信する(ステップS15)(矢印C1)。サーバ7の音声認識部74は、このように車載表示システム1から送信された音声データをデータ通信部72を介して受信する(ステップS71)。   Next, the server cooperation unit 21b transmits voice data indicating the user's voice to the server 7 via the data communication unit 22 (step S15) (arrow C1). The voice recognition unit 74 of the server 7 receives the voice data thus transmitted from the in-vehicle display system 1 via the data communication unit 72 (step S71).

音声認識部74は、音声データを受信すると、音声データが示すユーザの音声を対象に音声認識処理を実行する(ステップS72)。音声認識部74は、音声認識辞書73aを参照し、ユーザの音声の特徴量に基づいてユーザの音声を文字に変換する。そして、音声認識部74は、音声認識処理の認識結果としてユーザの音声を表す文字列を生成する。   When receiving the voice data, the voice recognition unit 74 executes a voice recognition process on the user voice indicated by the voice data (step S72). The voice recognition unit 74 refers to the voice recognition dictionary 73a and converts the user's voice into characters based on the feature amount of the user's voice. Then, the voice recognition unit 74 generates a character string representing the user's voice as a recognition result of the voice recognition process.

また、このようなサーバ7における音声認識処理の実行(ステップS72)に並行して、車載表示システム1の状況取得部21cは、音声データの送信完了に基づき、サーバ7において音声認識処理が実行中であるという処理状況を取得する。そして、表示制御部21aが、音声アシスト処理に係る案内情報として、この音声アシスト処理の処理状況をサブディスプレイ32に表示させる(ステップS16)。これにより、図11に示すように、処理状況を示す「音声認識中」という案内情報G2がサブディスプレイ32に表示される。   In parallel with the execution of the voice recognition process in the server 7 (step S72), the status acquisition unit 21c of the in-vehicle display system 1 is executing the voice recognition process in the server 7 based on the completion of the transmission of the voice data. Get the processing status of. Then, the display control unit 21a displays the processing status of the voice assist process on the sub display 32 as guidance information related to the voice assist process (step S16). As a result, as shown in FIG. 11, guidance information G <b> 2 indicating “processing is being recognized” indicating the processing status is displayed on the sub-display 32.

その後、サーバ7の音声認識部74が音声認識処理を完了すると、音声認識部74は、音声認識処理の認識結果の文字列を車載表示システム1にデータ通信部72を介して送信する(ステップS73)(矢印C2)。   Thereafter, when the voice recognition unit 74 of the server 7 completes the voice recognition process, the voice recognition unit 74 transmits the character string of the recognition result of the voice recognition process to the in-vehicle display system 1 via the data communication unit 72 (step S73). ) (Arrow C2).

また、音声認識部74は、音声認識処理の認識結果の文字列を意味理解部75に出力する。意味理解部75は、これに応答して、音声認識処理の認識結果の文字列を対象に意味理解処理を開始する(ステップS74)。   Further, the voice recognition unit 74 outputs a character string as a recognition result of the voice recognition process to the meaning understanding unit 75. In response to this, the meaning understanding unit 75 starts the meaning understanding process for the character string of the recognition result of the speech recognition process (step S74).

一方、車載表示システム1のサーバ連携部21bは、サーバ7から送信された音声認識処理の認識結果の文字列を、データ通信部22を介して受信して取得する(ステップS17)。車載表示システム1の状況取得部21cは、この認識結果の受信完了に基づき、サーバ7において意味理解処理が実行中であるという処理状況を取得する。   On the other hand, the server cooperation part 21b of the vehicle-mounted display system 1 receives and acquires the character string of the recognition result of the speech recognition process transmitted from the server 7 via the data communication part 22 (step S17). The status acquisition unit 21c of the in-vehicle display system 1 acquires a processing status that the meaning understanding processing is being executed in the server 7 based on the completion of reception of the recognition result.

そして、表示制御部21aが、音声アシスト処理に係る案内情報として、音声認識処理の認識結果の文字列と、音声アシスト処理の処理状況とをサブディスプレイ32に表示させる(ステップS18)。これにより、図12に示すように、認識結果の文字列(図の例では「近くのコンビニに行きたい」)を示す案内情報G3と、処理状況を示す「意味理解中」という案内情報G4とがサブディスプレイ32に表示される。ユーザは、このようなサブディスプレイ32の表示内容を視認することで、音声認識処理においてユーザの音声が正しく認識されたか否かを確認することができる。   And the display control part 21a displays the character string of the recognition result of a voice recognition process, and the process status of a voice assist process on the sub-display 32 as guidance information concerning a voice assist process (step S18). As a result, as shown in FIG. 12, the guidance information G3 indicating the character string of the recognition result (in the example of the figure, “I want to go to a nearby convenience store”), the guidance information G4 indicating “under understanding of meaning” indicating the processing status, Is displayed on the sub-display 32. The user can confirm whether or not the user's voice is correctly recognized in the voice recognition process by visually recognizing the display content of the sub-display 32.

さらに、表示制御部21aは、図12に示すように、コマンドボタンである「やり直し」ボタンB1を含むダイアログDをサブディスプレイ32に表示させる。「やり直し」ボタンB1には、音声認識処理を再実行する指示が割り当てられている。ユーザは、ホイールボタン33aを押圧することで、「やり直し」ボタンB1の指示を確定できる。なお、キャンセルボタン33bを押圧することで、「やり直し」ボタンB1の指示を確定できてもよい。   Further, as shown in FIG. 12, the display control unit 21a causes the sub-display 32 to display a dialog D including a “redo” button B1 that is a command button. An instruction to re-execute the voice recognition process is assigned to the “redo” button B1. The user can confirm the instruction of the “redo” button B1 by pressing the wheel button 33a. Note that the instruction of the “redo” button B1 may be confirmed by pressing the cancel button 33b.

「やり直し」ボタンB1の指示が確定された場合は(ステップS19にてYes)、処理はステップS11に戻ることになる。ユーザは、音声が誤って認識された場合は、「やり直し」ボタンB1の指示を確定することで、発声をやり直して音声認識処理を再び実行させることができる。   When the instruction of “redo” button B1 is confirmed (Yes in step S19), the process returns to step S11. If the user recognizes the voice by mistake, the user can confirm the instruction of the “Redo” button B1 to redo the voice and execute the voice recognition process again.

また、このように車載表示システム1において音声認識処理の認識結果等が表示されている状況(ステップS18)に並行して、サーバ7では、意味理解部75が意味理解処理を進行する(ステップS74)。   In addition, in the server 7, the meaning understanding unit 75 proceeds with the meaning understanding process (step S 74) in parallel with the situation where the recognition result or the like of the voice recognition processing is displayed in the in-vehicle display system 1 in this way (step S 18). ).

意味理解部75は、音声認識処理の認識結果の文字列から、助詞や接続詞などの不用語を消去することで単語を抽出する。そして、意味理解部75は、抽出した単語と、意味判定辞書73bとに基いて、ユーザの音声の意味が「コマンド」「施設の条件」及び「楽曲の条件」のいずれに該当するかを判定する。   The meaning understanding unit 75 extracts words from the character string of the recognition result of the speech recognition processing by deleting non-terms such as particles and conjunctions. Then, the meaning understanding unit 75 determines whether the meaning of the user's voice corresponds to “command”, “facility condition”, or “musical condition” based on the extracted word and the meaning determination dictionary 73b. To do.

そして、意味理解部75は、ユーザの音声の意味が「コマンド」と判定した場合は、意味認識処理の処理結果として、当該「コマンド」を車載表示システム1にデータ通信部72を介して送信する(ステップS75)(矢印C3)。「コマンド」は、例えば、「エアコンのオン」、「温度を下げる」等のエアコン装置97に関わるものや、「消音」、「音量を上げる」等のオーディオ機能に係るものなどがある。   If the meaning of the user's voice is determined to be “command”, the meaning understanding unit 75 transmits the “command” to the in-vehicle display system 1 via the data communication unit 72 as the processing result of the meaning recognition processing. (Step S75) (arrow C3). The “command” includes, for example, those related to the air conditioner device 97 such as “turn on air conditioner” and “decrease temperature”, and those related to audio functions such as “mute” and “increase volume”.

また、意味理解部75は、ユーザの音声の意味が「施設の条件」と判定した場合は、判定した「施設の条件」を検索条件として用い、その検索条件を満足する施設を施設データベース73cから検索する。「施設の条件」は、例えば、「近く」等の場所や「コンビニ」等の施設種別などである。この検索において、車両9の位置が必要な場合は、車載表示システム1のナビゲーション部23から車両9の位置を取得すればよい。そして、意味理解部75は、意味認識処理の処理結果として、その検索結果を車載表示システム1にデータ通信部72を介して送信する(ステップS75)(矢印C3)。   In addition, when the meaning understanding unit 75 determines that the meaning of the user's voice is “facility condition”, the determined “facility condition” is used as a search condition, and a facility that satisfies the search condition is retrieved from the facility database 73c. Search for. The “facility condition” is, for example, a location such as “near” or a facility type such as “convenience store”. In this search, when the position of the vehicle 9 is necessary, the position of the vehicle 9 may be acquired from the navigation unit 23 of the in-vehicle display system 1. And the meaning understanding part 75 transmits the search result to the vehicle-mounted display system 1 via the data communication part 72 as a process result of a meaning recognition process (step S75) (arrow C3).

また、意味理解部75は、ユーザの音声の意味が「楽曲の条件」と判定した場合は、判定した「楽曲の条件」を検索条件として用い、その検索条件を満足する楽曲を楽曲データベース73dから検索する。「楽曲の条件」は、例えば、アーティスト名、アルバム名などである。そして、意味理解部75は、意味認識処理の処理結果として、その検索結果を車載表示システム1にデータ通信部72を介して送信する(ステップS75)(矢印C3)。   If the meaning of the user's voice is determined to be “song condition”, the meaning understanding unit 75 uses the determined “song condition” as a search condition, and selects a song that satisfies the search condition from the song database 73d. Search for. The “song condition” is, for example, an artist name, an album name, or the like. And the meaning understanding part 75 transmits the search result to the vehicle-mounted display system 1 via the data communication part 72 as a process result of a meaning recognition process (step S75) (arrow C3).

車載表示システム1のサーバ連携部21bは、サーバ7から送信された意味認識処理の処理結果を、データ通信部22を介して受信して取得する(ステップS20)。次に、サーバ連携部21bは、サーバ7から取得した処理結果が、「コマンド」及び「検索結果」のいずれであるかを判定する(図8のステップS21)。   The server cooperation part 21b of the vehicle-mounted display system 1 receives and acquires the processing result of the meaning recognition process transmitted from the server 7 via the data communication part 22 (step S20). Next, the server cooperation unit 21b determines whether the processing result acquired from the server 7 is “command” or “search result” (step S21 in FIG. 8).

処理結果が「コマンド」である場合(ステップS21にてNo)は、表示制御部21aが、音声アシスト処理に係る案内情報として、当該「コマンド」の内容をサブディスプレイ32に表示させる(ステップS22)。これにより、図13に示すように「コマンド」の内容(図の例では「エアコンをオンにします」)を示す案内情報G5がサブディスプレイ32に表示される。   When the processing result is “command” (No in step S21), the display control unit 21a displays the content of the “command” on the sub display 32 as guidance information related to the voice assist process (step S22). . As a result, as shown in FIG. 13, guidance information G <b> 5 indicating the contents of “command” (in the illustrated example, “turn on the air conditioner”) is displayed on the sub display 32.

次に、コマンド実行部21fが、当該「コマンド」を実行する(ステップS23)。これにより、音声アシスト処理が終了する。例えば、当該「コマンド」がエアコン装置97に係るものである場合は、コマンド実行部21fは、信号送信部26を介してエアコン装置97に制御信号を送信する。また例えば、当該「コマンド」がオーディオ機能に係るものである場合は、コマンド実行部21fは、オーディオ制御部21eに「コマンド」を与え、オーディオ部24を制御させる。   Next, the command execution unit 21f executes the “command” (step S23). As a result, the voice assist process ends. For example, when the “command” relates to the air conditioner device 97, the command execution unit 21 f transmits a control signal to the air conditioner device 97 via the signal transmission unit 26. For example, when the “command” relates to an audio function, the command execution unit 21 f gives the “command” to the audio control unit 21 e and controls the audio unit 24.

また、処理結果が「検索結果」である場合(ステップS21にてYes)は、表示制御部21aは、図14に示すように、「やり直し」ボタンB1とともに、コマンドボタンである「検索結果表示」ボタンB2を含むダイアログDを、サブディスプレイ32に表示させる(ステップS24)。「検索結果表示」ボタンB2には、検索結果のリストを表示する指示が割り当てられている。   When the processing result is “search result” (Yes in step S21), the display control unit 21a, as shown in FIG. 14, displays “search result display” which is a command button together with the “redo” button B1. The dialog D including the button B2 is displayed on the sub display 32 (step S24). An instruction to display a list of search results is assigned to the “search result display” button B2.

ユーザは、ホイールボタン33aを回転することで、「やり直し」ボタンB1及び「検索結果表示」ボタンB2のいずれかをカーソルBCで仮選択できる。そして、ユーザは、ホイールボタン33aを押圧することで、カーソルBCで仮選択したコマンドボタンの指示を確定できる。「やり直し」ボタンB1の指示が確定された場合は(ステップS25にてNo)、処理は図7のステップS11に戻るため、ユーザは、発声をやり直して音声認識処理を再び実行させることができる。なお、キャンセルボタン33bを押圧することで、カーソルBCの位置とは無関係に、「やり直し」ボタンB1の指示を確定できるようにしてもよい。   The user can temporarily select either the “redo” button B1 or the “search result display” button B2 with the cursor BC by rotating the wheel button 33a. Then, the user can confirm the instruction of the command button temporarily selected with the cursor BC by pressing the wheel button 33a. When the instruction of “redo” button B1 is confirmed (No in step S25), the process returns to step S11 in FIG. 7, so that the user can repeat the speech and execute the speech recognition process again. Note that by pressing the cancel button 33b, the instruction of the “redo” button B1 may be confirmed regardless of the position of the cursor BC.

また、「検索結果表示」ボタンB2の指示が確定された場合は(ステップS25にてYes)、表示制御部21aは、図15に示すように、検索結果のリストLをメインディスプレイ31に表示させる(ステップS26)。   When the instruction of the “search result display” button B2 is confirmed (Yes in step S25), the display control unit 21a displays the search result list L on the main display 31, as shown in FIG. (Step S26).

図15に示すように、メインディスプレイ31は、その画面が上下2つの領域に分割されて、上側の領域に地図画像MPを表示し、下側の領域に検索結果のリストLを表示する。図15の例では、メインディスプレイ31は、施設に係る検索結果を表示しており、検索結果のリストLの各項目は一つの施設に対応している。また、リストLに含まれる各項目の施設の位置は、地図画像MP上においてアイコンTPによって示されている。   As shown in FIG. 15, the main display 31 divides the screen into two upper and lower areas, displays the map image MP in the upper area, and displays the search result list L in the lower area. In the example of FIG. 15, the main display 31 displays search results relating to facilities, and each item in the search result list L corresponds to one facility. Further, the location of the facility of each item included in the list L is indicated by an icon TP on the map image MP.

このように検索結果のリストLが、画面サイズが比較的大きなメインディスプレイ31に表示されるため、一度に表示するリストLの項目の数を増やすことができる。このため、ユーザはリストLに含まれる項目を容易に把握することができる。   Since the search result list L is displayed on the main display 31 having a relatively large screen size, the number of items in the list L displayed at a time can be increased. For this reason, the user can easily grasp the items included in the list L.

また、図15のようにメインディスプレイ31が検索結果のリストLを表示している状態においては、ユーザは、手動操作あるいは音声操作によって、検索結果のリストLに関する操作を行うことができる。   Further, in the state where the main display 31 displays the search result list L as shown in FIG. 15, the user can perform operations related to the search result list L by manual operation or voice operation.

ユーザは、手動操作を行う場合は、ホイールボタン33aを回転することで、リストの項目のいずれかをカーソルLCで仮選択する。そして、ユーザは、ホイールボタン33aを押圧することで、カーソルLCで仮選択した項目の選択を確定する。   When performing a manual operation, the user temporarily selects one of the list items with the cursor LC by rotating the wheel button 33a. Then, the user presses the wheel button 33a to confirm the selection of the item temporarily selected with the cursor LC.

また、ユーザは、音声操作を行う場合は、音声認識ボタン33cを押圧した後、項目を選択するための音声、あるいは、項目を絞り込むための音声を発する。これにより、この音声を対象とした音声認識処理の認識結果を用いた再度の音声アシスト処理が実行される。その結果、リストLの項目の選択、あるいは、リストLの項目の絞り込みがなされる。   Further, when performing a voice operation, the user presses the voice recognition button 33c and then makes a voice for selecting an item or a voice for narrowing down an item. As a result, the voice assist process is performed again using the recognition result of the voice recognition process for the voice. As a result, the items in the list L are selected or the items in the list L are narrowed down.

具体的には、ユーザが、順番を示す単語を含む音声を発声した場合は、表示されているリストL中の当該順番の項目を選択できる。例えば、ユーザが「2番目」と発声した場合は、リストL中の上から2番目に表示されている項目が選択されることになる。   Specifically, when the user utters a voice including a word indicating the order, the item in the order in the displayed list L can be selected. For example, when the user utters “second”, the item displayed second from the top in the list L is selected.

また、ユーザが、項目の絞込条件となる単語を含む音声を発声した場合は、表示されているリストL中の項目が、当該絞込条件を満足する項目のみに絞り込まれて表示される。例えば、コンビニエンスストアに係る検索結果を表示している場合に、ユーザが「ATMのあるところ」と発声した場合は、元の「施設の条件」に「ATM」という絞込条件が加えられて再度の検索がなされる。そして、その検索結果のリストLが、メインディスプレイ31に表示されることになる。   In addition, when the user utters a voice including a word that is a condition for narrowing down the items, the items in the displayed list L are narrowed down to items that satisfy the narrowing conditions. For example, when a search result related to a convenience store is displayed, if the user speaks “where there is an ATM”, the filtering condition “ATM” is added to the original “facility condition” and the search is again performed. A search is made. Then, the search result list L is displayed on the main display 31.

このような手動操作及び音声操作をユーザに案内するため、表示制御部21aは、検索結果のリストをメインディスプレイ31に表示させた場合は、音声アシスト処理に係る案内情報として、手動操作を説明する操作説明と、音声操作を説明する操作説明との双方を同時にサブディスプレイ32に表示させる(ステップS27)。これにより、図15に示すように、手動操作に係る操作説明を示す案内情報G6と、音声操作に係る説明説明を示す案内情報G7とがサブディスプレイ32に表示される。   In order to guide such manual operation and voice operation to the user, the display control unit 21a will explain the manual operation as guidance information related to the voice assist process when the search result list is displayed on the main display 31. Both the operation explanation and the operation explanation explaining the voice operation are simultaneously displayed on the sub-display 32 (step S27). As a result, as shown in FIG. 15, guidance information G <b> 6 indicating the operation description related to the manual operation and guidance information G <b> 7 indicating the description description related to the voice operation are displayed on the sub display 32.

手動操作に係る操作説明を示す案内情報G6は、図形を用いたホイールボタン33aの操作手法を含んでいる。また、音声操作に係る操作説明を示す案内情報G7は、絞込条件の候補となる単語を含んでいる。このような絞込条件に利用可能な単語は、検索結果のリストLの各項目となるデータに予め関連付けておけばよい。   Guidance information G6 indicating an operation description related to a manual operation includes an operation method of the wheel button 33a using a figure. Further, the guidance information G7 indicating the operation description related to the voice operation includes a word that is a candidate for the narrowing-down condition. Words that can be used for such a narrowing condition may be associated in advance with the data that will be the items of the list L of search results.

このように手動操作や音声操作を説明する操作説明がユーザの正面近傍にあるサブディスプレイ32に表示されるため、ユーザは視線を大きく動かすことなくリストLに関する操作の方法を把握できる。また、音声操作を説明する操作説明と手動操作を説明する操作説明との双方が同時にサブディスプレイ32に表示されるため、ユーザは双方の操作手法を把握した上で、任意の操作手法を選択してリストLに関する操作を行うことができる。   In this way, since the operation explanation for explaining the manual operation and the voice operation is displayed on the sub display 32 near the front of the user, the user can grasp the operation method related to the list L without moving the line of sight greatly. Further, since both the operation explanation explaining the voice operation and the operation explanation explaining the manual operation are simultaneously displayed on the sub-display 32, the user selects an arbitrary operation technique after grasping both operation techniques. Thus, operations related to the list L can be performed.

メインディスプレイ31が検索結果のリストを表示している状態において、ユーザが音声認識ボタン33cを押圧した場合(ステップS28にてYes)は、処理は図7のステップS11に移行する。これにより、検索結果のリストLに関する音声操作のための音声アシスト処理が実行されることになる。   If the user presses the voice recognition button 33c while the main display 31 is displaying the list of search results (Yes in step S28), the process proceeds to step S11 in FIG. Thereby, the voice assist process for the voice operation related to the search result list L is executed.

また、ユーザが、検索結果のリストLの項目の一つを選択した場合は(ステップS29にてYes)、選択された項目に応じた処理が実行される(ステップS30)。これにより、音声アシスト処理が終了する。   If the user selects one of the items in the search result list L (Yes in step S29), processing corresponding to the selected item is executed (step S30). As a result, the voice assist process ends.

例えば、ユーザが、施設に係る検索結果のリストLの項目の一つを選択した場合は、ナビ制御部21dが、当該項目の施設をナビゲーション機能の目的地に設定する。以降、ナビゲーション部23は、この目的地までのルートを案内する。   For example, when the user selects one of the items in the search result list L related to the facility, the navigation control unit 21d sets the facility of the item as the destination of the navigation function. Thereafter, the navigation unit 23 guides the route to this destination.

また、ユーザが、楽曲に係る検索結果のリストLの項目の一つを選択した場合は、オーディオ制御部21eが、当該項目の楽曲をオーディオ機能の再生対象に設定する。以降、オーディオ部24は、この楽曲を再生する。なお、オーディオ部24は、再生対象に設定された楽曲の音響データを、表示制御装置2の内部の記憶部25から取得してもよく、ネットワーク8に接続された外部サーバ等からダウンロードして取得してもよい。   When the user selects one of the items in the search result list L related to the music, the audio control unit 21e sets the music of the item as a playback target of the audio function. Thereafter, the audio unit 24 reproduces this music piece. Note that the audio unit 24 may acquire the acoustic data of the music set as a reproduction target from the storage unit 25 inside the display control device 2 or download it from an external server or the like connected to the network 8. May be.

以上のように、本実施の形態の車載表示システム1は、運転席91の正面中央までの距離が相対的に小さいサブディスプレイ32と、運転席91の正面中央までの距離が相対的に大きいメインディスプレイ31とを備えている。表示制御装置2の表示制御部21aは、これら2つのディスプレイ31,32を制御し、2つのディスプレイ31,32のそれぞれに各種の情報を表示させる。また、表示制御装置2のサーバ連携部21bは、ユーザの音声を取得するとともに、そのユーザの音声を対象とした音声認識処理の認識結果に基づく検索対象の検索結果を取得する。そして、表示制御部21aは、音声認識処理の認識結果を用いた音声アシスト処理に係るユーザへの案内情報をサブディスプレイ32に表示させる一方で、検索結果のリストLをメインディスプレイ31に表示させる。   As described above, the in-vehicle display system 1 according to the present embodiment includes the sub display 32 having a relatively small distance to the front center of the driver's seat 91 and the main having a relatively large distance to the front center of the driver's seat 91. And a display 31. The display control unit 21a of the display control device 2 controls the two displays 31 and 32 to display various information on the two displays 31 and 32, respectively. Moreover, the server cooperation part 21b of the display control apparatus 2 acquires a user's voice, and acquires a search target search result based on the recognition result of the voice recognition process for the user's voice. Then, the display control unit 21 a displays guidance information for the user related to the voice assist process using the recognition result of the voice recognition process on the sub display 32, while displaying the search result list L on the main display 31.

このように、音声アシスト処理に係るユーザへの案内情報が運転席91の正面近傍にあるサブディスプレイ32に表示されるため、ユーザは視線を大きく動かすことなく、案内情報に従って音声アシスト処理を実行させることができる。また、音声アシスト処理に係るユーザへの案内情報がサブディスプレイ32に表示される一方で、検索結果のリストLがメインディスプレイ31に表示される。このため、一つのディスプレイが同時に表示する情報量を少なくすることができることから、ユーザは必要とする情報を容易に確認することができる。   Thus, since the guidance information to the user related to the voice assist process is displayed on the sub display 32 in the vicinity of the front of the driver's seat 91, the user executes the voice assist process according to the guidance information without moving the line of sight greatly. be able to. In addition, guidance information to the user related to the voice assist process is displayed on the sub display 32, while a search result list L is displayed on the main display 31. For this reason, since the amount of information simultaneously displayed on one display can be reduced, the user can easily confirm the necessary information.

また、検索結果のリストLが画面サイズが比較的大きなメインディスプレイ31に表示されるため、一度に表示するリストの項目の数を増やすことができる。このため、ユーザはリストLに含まれる項目を容易に把握できる。   Further, since the list L of search results is displayed on the main display 31 having a relatively large screen size, the number of items in the list displayed at a time can be increased. For this reason, the user can easily grasp the items included in the list L.

また、音声アシスト処理に係る案内情報として音声認識処理の認識結果がサブディスプレイ32に表示されるため、ユーザは視線を大きく動かすことなく音声認識処理の認識結果が正しいか否かを確認することができる。   In addition, since the recognition result of the voice recognition process is displayed on the sub-display 32 as the guidance information related to the voice assist process, the user can check whether the recognition result of the voice recognition process is correct without greatly moving the line of sight. it can.

また、音声アシスト処理に係る案内情報として音声アシスト処理の処理状況がサブディスプレイ32に表示されるため、ユーザは視線を大きく動かすことなく処理状況を把握することができる。   Further, since the processing status of the voice assist process is displayed on the sub-display 32 as the guidance information related to the voice assist process, the user can grasp the processing status without moving the line of sight greatly.

<5.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
<5. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications are possible. Below, such a modification is demonstrated. All the forms including the above-described embodiment and the form described below can be appropriately combined.

上記実施の形態では、車載表示システム1はサーバ7と協働することによって音声アシスト処理を実行するものであったが、車載表示システム1は単体で音声アシスト処理を実行可能となっていてもよい。この場合は、上記実施の形態でサーバ7が備えていた音声認識部74及び意味理解部75と同様の処理部を、車載表示システム1(例えば、表示制御装置2)が備えていればよい。また、車載表示システム1は、サーバ7との協働による音声アシスト処理と単体での音声アシスト処理とのいずれも実行可能とし、いずれを実行するかをサーバ7との通信状態等に応じて選択するようにしてもよい。   In the above embodiment, the in-vehicle display system 1 executes the voice assist process by cooperating with the server 7, but the in-vehicle display system 1 may be capable of executing the voice assist process alone. . In this case, the vehicle-mounted display system 1 (for example, the display control device 2) only needs to include processing units similar to the voice recognition unit 74 and the semantic understanding unit 75 included in the server 7 in the above embodiment. The in-vehicle display system 1 can execute either voice assist processing in cooperation with the server 7 or single voice assist processing, and selects which one to execute according to the communication state with the server 7 or the like. You may make it do.

また、上記実施の形態では、サブディスプレイ32はメータパネル94の上部に配置されていたが、メータパネル94の横や、メータパネル94の内部などに配置されてもよい。すなわち、サブディスプレイ32は、メインディスプレイ31と比較してユーザの座席の正面中央までの距離が小さく、視線を大きく動かすことなく確認できる位置に配置すればよい。   In the above-described embodiment, the sub display 32 is disposed on the top of the meter panel 94. However, the sub display 32 may be disposed on the side of the meter panel 94 or inside the meter panel 94. That is, the sub-display 32 may be disposed at a position where the distance to the front center of the user's seat is smaller than that of the main display 31 and can be confirmed without greatly moving the line of sight.

また、上記実施の形態では、表示制御装置2は、車両9に搭載される車載装置であるものとして説明したが、携帯電話やスマートフォンなどの可搬性の通信装置であってもよい。   Moreover, in the said embodiment, although the display control apparatus 2 demonstrated as what is a vehicle-mounted apparatus mounted in the vehicle 9, portable communication apparatuses, such as a mobile phone and a smart phone, may be sufficient.

また、上記実施の形態では、車載表示システム1のユーザは、車両9のドライバであるものとして説明したが、ドライバ以外の同乗者であってもよい。   In the above-described embodiment, the user of the in-vehicle display system 1 has been described as being a driver of the vehicle 9, but may be a passenger other than the driver.

また、上記実施の形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されると説明したが、これら機能のうちの一部は電気的なハードウェア回路により実現されてもよい。   Further, in the above-described embodiment, it has been described that various functions are realized in software by the arithmetic processing of the CPU according to the program. However, some of these functions are realized by an electrical hardware circuit. Also good.

1 車載表示システム
2 表示制御装置
9 車両
10 音声処理システム
31 メインディスプレイ
32 サブディスプレイ
33c 音声認識ボタン
91 運転席
DESCRIPTION OF SYMBOLS 1 In-vehicle display system 2 Display control apparatus 9 Vehicle 10 Voice processing system 31 Main display 32 Sub display 33c Voice recognition button 91 Driver's seat

Claims (8)

車両に設けられた表示装置に情報を表示させる表示制御装置であって、
前記車両のユーザが着座する座席の正面中央までの距離が相対的に小さい第1表示装置と、前記距離が相対的に大きい第2表示装置とのそれぞれに情報を表示させる表示制御手段と、
前記ユーザの音声を取得する音声取得手段と、
前記ユーザの音声を対象とした音声認識処理の認識結果に基づく、検索対象の検索結果を取得する検索結果取得手段と、
を備え、
前記表示制御手段は、
前記音声認識処理の認識結果を用いた処理に係る前記ユーザへの案内情報を前記第1表示装置に表示させ、
前記検索結果のリストを前記第2表示装置に表示させることを特徴とする表示制御装置。
A display control device for displaying information on a display device provided in a vehicle,
Display control means for displaying information on each of the first display device having a relatively small distance to the front center of the seat on which the user of the vehicle is seated and the second display device having a relatively large distance;
Voice acquisition means for acquiring the user's voice;
Search result acquisition means for acquiring a search target search result based on a recognition result of a voice recognition process for the user's voice;
With
The display control means includes
Guide information to the user related to the process using the recognition result of the voice recognition process is displayed on the first display device;
A display control device, wherein the list of search results is displayed on the second display device.
請求項1に記載の表示制御装置において、
前記第2表示装置の画面サイズは、前記第1表示装置よりも大きいことを特徴とする表示制御装置。
The display control device according to claim 1,
A display control device, wherein a screen size of the second display device is larger than that of the first display device.
請求項1または2に記載の表示制御装置において、
前記第2表示装置に表示された前記リストに関するユーザの手動操作を受け付ける操作手段、
を備え、
前記表示制御手段は、前記リストを前記第2表示装置に表示させた場合に、前記手動操作を説明する操作説明を、前記案内情報として前記第1表示装置に表示させることを特徴とする表示制御装置。
The display control apparatus according to claim 1 or 2,
An operation means for accepting a user's manual operation relating to the list displayed on the second display device;
With
The display control means displays an operation explanation for explaining the manual operation on the first display device as the guidance information when the list is displayed on the second display device. apparatus.
請求項3に記載の表示制御装置において、
前記表示制御手段は、
前記リストを前記第2表示装置に表示させた場合に、前記音声認識処理の認識結果を用いた前記リストに関する音声操作が可能なときに、該音声操作を説明する操作説明と前記手動操作を説明する操作説明との双方を同時に前記案内情報として前記第1表示装置に表示させることを特徴とする表示制御装置。
The display control device according to claim 3,
The display control means includes
When the list is displayed on the second display device, when a voice operation related to the list using the recognition result of the voice recognition process is possible, an explanation of the operation for explaining the voice operation and the manual operation are explained. A display control apparatus that displays both the operation explanation and the guidance information on the first display device at the same time.
請求項1ないし4のいずれかに記載の表示制御装置において、
前記音声認識処理の認識結果を取得する認識結果取得手段、
をさらに備え、
前記案内情報は、前記認識結果を含むことを特徴とする表示制御装置。
The display control device according to any one of claims 1 to 4,
A recognition result acquisition means for acquiring a recognition result of the voice recognition processing;
Further comprising
The display control apparatus, wherein the guidance information includes the recognition result.
請求項1ないし5のいずれかに記載の表示制御装置において、
前記音声認識処理の認識結果を用いた処理の処理状況を取得する状況取得手段、
をさらに備え、
前記案内情報は、前記処理状況を含むことを特徴とする表示制御装置。
The display control device according to any one of claims 1 to 5,
Status acquisition means for acquiring the processing status of the processing using the recognition result of the voice recognition processing;
Further comprising
The display control apparatus, wherein the guidance information includes the processing status.
請求項1ないし6のいずれかに記載の表示制御装置と、
前記表示制御装置の制御に基いて情報を表示する前記第1表示装置と、
前記表示制御装置の制御に基いて情報を表示する前記第2表示装置と、
を備えることを特徴とする表示システム。
A display control device according to any one of claims 1 to 6;
The first display device for displaying information based on the control of the display control device;
The second display device for displaying information based on the control of the display control device;
A display system comprising:
車両に設けられた表示装置に情報を表示させる表示制御方法であって、
(a)前記車両のユーザの音声を取得する工程と、
(b)前記ユーザの音声を対象とした音声認識処理の認識結果に基づく、検索対象の検索結果を取得する工程と、
(c)前記音声認識処理の認識結果を用いた処理に係る前記ユーザへの案内情報を、前記ユーザが着座する座席の正面中央までの距離が相対的に小さい第1表示装置に表示させる工程と、
(d)前記検索結果のリストを、前記距離が相対的に大きい第2表示装置に表示させる工程と、
を備えることを特徴とする表示制御方法。
A display control method for displaying information on a display device provided in a vehicle,
(A) acquiring the voice of the user of the vehicle;
(B) obtaining a search target search result based on a recognition result of a voice recognition process for the user's voice;
(C) displaying the guidance information to the user related to the process using the recognition result of the voice recognition process on the first display device having a relatively small distance to the front center of the seat on which the user is seated; ,
(D) displaying the list of search results on a second display device having a relatively large distance;
A display control method comprising:
JP2012210429A 2012-09-25 2012-09-25 Display control apparatus, display system, and display control method Expired - Fee Related JP5986468B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012210429A JP5986468B2 (en) 2012-09-25 2012-09-25 Display control apparatus, display system, and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012210429A JP5986468B2 (en) 2012-09-25 2012-09-25 Display control apparatus, display system, and display control method

Publications (2)

Publication Number Publication Date
JP2014065359A true JP2014065359A (en) 2014-04-17
JP5986468B2 JP5986468B2 (en) 2016-09-06

Family

ID=50742204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012210429A Expired - Fee Related JP5986468B2 (en) 2012-09-25 2012-09-25 Display control apparatus, display system, and display control method

Country Status (1)

Country Link
JP (1) JP5986468B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019523918A (en) * 2016-05-10 2019-08-29 グーグル エルエルシー Implementation of voice assistant on device
CN110869706A (en) * 2018-06-26 2020-03-06 谷歌有限责任公司 Interfacing between digital assistant applications and navigation applications
JP2021066226A (en) * 2019-10-18 2021-04-30 トヨタ自動車株式会社 Change operation assisting device
US11860933B2 (en) 2016-05-13 2024-01-02 Google Llc Personalized and contextualized audio briefing
US12146758B2 (en) 2018-08-01 2024-11-19 Google Llc Interfacing between digital assistant applications and navigation applications

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0329998A (en) * 1989-06-27 1991-02-07 Mitsubishi Electric Corp Voice input device for automobile
JPH09114488A (en) * 1995-10-16 1997-05-02 Sony Corp Device and method for speech recognition, device and method for navigation, and automobile
JP2003148987A (en) * 2001-11-09 2003-05-21 Mitsubishi Electric Corp Navigation apparatus
JP2003291750A (en) * 2002-04-01 2003-10-15 Nissan Motor Co Ltd On-vehicle equipment controller
JP2005091611A (en) * 2003-09-16 2005-04-07 Mitsubishi Electric Corp Information terminal, speech recognition server, and speech recognition system
JP2006003696A (en) * 2004-06-18 2006-01-05 Toyota Motor Corp Voice recognition device, voice recognition method and voice recognition program
JP2012123492A (en) * 2010-12-06 2012-06-28 Fujitsu Ten Ltd Information providing system and information providing device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0329998A (en) * 1989-06-27 1991-02-07 Mitsubishi Electric Corp Voice input device for automobile
JPH09114488A (en) * 1995-10-16 1997-05-02 Sony Corp Device and method for speech recognition, device and method for navigation, and automobile
JP2003148987A (en) * 2001-11-09 2003-05-21 Mitsubishi Electric Corp Navigation apparatus
JP2003291750A (en) * 2002-04-01 2003-10-15 Nissan Motor Co Ltd On-vehicle equipment controller
JP2005091611A (en) * 2003-09-16 2005-04-07 Mitsubishi Electric Corp Information terminal, speech recognition server, and speech recognition system
JP2006003696A (en) * 2004-06-18 2006-01-05 Toyota Motor Corp Voice recognition device, voice recognition method and voice recognition program
JP2012123492A (en) * 2010-12-06 2012-06-28 Fujitsu Ten Ltd Information providing system and information providing device

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11990126B2 (en) 2016-05-10 2024-05-21 Google Llc Voice-controlled media play in smart media environment
US11935535B2 (en) 2016-05-10 2024-03-19 Google Llc Implementations for voice assistant on devices
JP2019523918A (en) * 2016-05-10 2019-08-29 グーグル エルエルシー Implementation of voice assistant on device
US11341964B2 (en) 2016-05-10 2022-05-24 Google Llc Voice-controlled media play in smart media environment
US11355116B2 (en) 2016-05-10 2022-06-07 Google Llc Implementations for voice assistant on devices
US11922941B2 (en) 2016-05-10 2024-03-05 Google Llc Implementations for voice assistant on devices
US11860933B2 (en) 2016-05-13 2024-01-02 Google Llc Personalized and contextualized audio briefing
JP2021529938A (en) * 2018-06-26 2021-11-04 グーグル エルエルシーGoogle LLC Interfacing between Digital Assistant and Navigation Applications
CN110869706B (en) * 2018-06-26 2023-10-27 谷歌有限责任公司 Engagement between a digital assistant application and a navigation application
JP7176011B2 (en) 2018-06-26 2022-11-21 グーグル エルエルシー Interfacing between digital assistant applications and navigation applications
CN110869706A (en) * 2018-06-26 2020-03-06 谷歌有限责任公司 Interfacing between digital assistant applications and navigation applications
US12146758B2 (en) 2018-08-01 2024-11-19 Google Llc Interfacing between digital assistant applications and navigation applications
JP7243567B2 (en) 2019-10-18 2023-03-22 トヨタ自動車株式会社 Change operation support device
JP2021066226A (en) * 2019-10-18 2021-04-30 トヨタ自動車株式会社 Change operation assisting device

Also Published As

Publication number Publication date
JP5986468B2 (en) 2016-09-06

Similar Documents

Publication Publication Date Title
JP5821639B2 (en) Voice recognition device
JP4304952B2 (en) On-vehicle controller and program for causing computer to execute operation explanation method thereof
JP6346281B2 (en) In-vehicle interactive system and in-vehicle information equipment
JP6501217B2 (en) Information terminal system
JP4292646B2 (en) User interface device, navigation system, information processing device, and recording medium
JP5637131B2 (en) Voice recognition device
EP2518447A1 (en) System and method for fixing user input mistakes in an in-vehicle electronic device
KR20100076998A (en) Multimode user interface of a driver assistance system for inputting and presentation of information
WO2007097623A9 (en) Navigation device and method for receiving and playing sound samples
JP5986468B2 (en) Display control apparatus, display system, and display control method
JP2013088477A (en) Speech recognition system
JP2003114794A (en) Operation guide device, and operation guide method
JP2009251388A (en) Native language utterance device
WO2016174955A1 (en) Information processing device and information processing method
JP2013019958A (en) Sound recognition device
JP2020144274A (en) Agent device, control method of agent device, and program
JP2014164325A (en) Communication device, communication system, communication method and program
JP7274404B2 (en) INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND PROGRAM
JP6387287B2 (en) Unknown matter resolution processing system
JP2018141742A (en) Navigation device, navigation method, and navigation program
JP6202574B2 (en) Electronic system, list display method, and list display program
JP2018087871A (en) Voice output device
JP2016102823A (en) Information processing system, voice input device, and computer program
JP2015129672A (en) Facility retrieval apparatus and method
WO2011030404A1 (en) Operating system and operating method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160805

R150 Certificate of patent or registration of utility model

Ref document number: 5986468

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees