JP2020020987A - In-car system - Google Patents
In-car system Download PDFInfo
- Publication number
- JP2020020987A JP2020020987A JP2018145740A JP2018145740A JP2020020987A JP 2020020987 A JP2020020987 A JP 2020020987A JP 2018145740 A JP2018145740 A JP 2018145740A JP 2018145740 A JP2018145740 A JP 2018145740A JP 2020020987 A JP2020020987 A JP 2020020987A
- Authority
- JP
- Japan
- Prior art keywords
- information
- vehicle
- occupant
- center
- useful information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Navigation (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、乗員に対して音声及び映像にて情報を提供可能な車内システムに関する。 The present invention relates to an in-vehicle system capable of providing occupants with information by voice and video.
特許文献1には、操作スイッチが配置された操作部と、裸眼立体視可能な表示部と、操作部を操作するユーザの手を複数の方向から撮影する撮像手段と、撮像手段から得られる視差画像に基づいて、手の立体視画像を生成する立体視画像生成手段と、を備えた操作装置が開示されている。この操作装置は、表示部上に、操作部における操作スイッチの配置位置及び操作スイッチの機能を表す操作メニュー画像と、手の立体視画像とを合成して表示することを特徴としている。 Patent Literature 1 discloses an operation unit in which operation switches are arranged, a display unit capable of stereoscopic viewing with naked eyes, an imaging unit that captures a user's hand operating the operation unit from a plurality of directions, and a parallax obtained from the imaging unit. There is disclosed an operating device including: a stereoscopic image generation unit configured to generate a stereoscopic image of a hand based on an image. This operation device is characterized in that an operation menu image indicating the positions of the operation switches and the functions of the operation switches in the operation unit and a stereoscopic image of the hand are combined and displayed on the display unit.
一方、特許文献1の立体視可能な表示部と、車室内に設けられた一般的なスピーカとを用いて、乗員に映像や音声を提供する場合、特定の乗員向けに提供するには、更なる改善の余地がある。 On the other hand, when video and audio are provided to an occupant using a stereoscopic display unit disclosed in Patent Document 1 and a general speaker provided in a vehicle cabin, in order to provide video and audio to a specific occupant, additional There is room for improvement.
本発明は、上記事実を考慮して成されたもので、同乗者が存在していても映像や音声をプライベートに取得することが可能な車内システムの提供を目的とする。 The present invention has been made in view of the above-described facts, and has as its object to provide an in-vehicle system capable of privately acquiring video and audio even when a passenger is present.
請求項1に記載の車内システムは、車室内における特定の乗員が発する身体情報を検出する検出部と、前記特定の乗員が装着するAR表示器と、前記特定の乗員向けの音声が出力されるスピーカと、前記検出部によって検出された前記身体情報に基づいて、前記特定の乗員に適した有用情報を生成する生成部と、前記有用情報に係る音声が前記スピーカから出力され、前記有用情報に係る表示が車室内外の風景に重畳してAR表示器に表示されるように制御する制御部と、を備えている。 The in-vehicle system according to claim 1, wherein a detection unit that detects physical information emitted by a specific occupant in the vehicle interior, an AR display worn by the specific occupant, and a voice for the specific occupant are output. A speaker, a generation unit that generates useful information suitable for the specific occupant based on the physical information detected by the detection unit, and a voice related to the useful information is output from the speaker, and And a control unit that controls the display so that the display is superimposed on the landscape inside and outside the vehicle interior and displayed on the AR display.
ここで、「乗員が発する身体情報」とは、脈拍、脳波、血圧、心拍数等の生体情報、乗員の顔の表情等の乗員画像を含む。また、「乗員に適した有用情報」とは、車内を快適に過ごすための情報、車両を安全に走行させるための情報、車両の周辺の立ち寄り情報を含む。 Here, the “physical information emitted by the occupant” includes biological information such as pulse, brain waves, blood pressure, and heart rate, and occupant images such as facial expressions of the occupant. The “useful information suitable for the occupant” includes information for comfortably traveling inside the vehicle, information for safely driving the vehicle, and drop-in information around the vehicle.
請求項1に記載の発明において、特定の乗員は検出部により同乗者に悟られることなく、自身の感情や意思を生成部に対して伝達することができる。また、生成部では特定の乗員に適した有用情報が生成され、特定の乗員はAR(Augmented Reality:拡張現実)表示器及びスピーカを通じて他の同乗者に悟られることなく当該有用情報を得ることができる。すなわち、請求項1に記載の発明によれば、同乗者が存在していても映像や音声をプライベートに取得することができる。 According to the first aspect of the present invention, the specific occupant can transmit his / her own feelings and intentions to the generation unit without being recognized by the passenger by the detection unit. Further, the generation unit generates useful information suitable for a specific occupant, and the specific occupant can obtain the useful information through an AR (Augmented Reality) display and a speaker without being realized by other passengers. it can. That is, according to the first aspect of the present invention, it is possible to privately obtain video and audio even when a passenger is present.
本発明によれば、同乗者が存在していても映像や音声をプライベートに取得することができる。 ADVANTAGE OF THE INVENTION According to this invention, a video and audio | voice can be acquired privately even if a fellow passenger exists.
以下、図面を参照して本発明の実施の形態の一例を詳細に説明する。図1は、本実施形態に係る車内システムの概略を示す図である。また、図2は、本実施形態に係る車内システムの構成を示すブロック図である。 Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a diagram schematically illustrating an in-vehicle system according to the present embodiment. FIG. 2 is a block diagram illustrating the configuration of the in-vehicle system according to the present embodiment.
図1に示されるように、本実施形態に係る車内システム10は、車両50に搭載された車載器12、ネットワーク16、生成部としての情報生成センタ14、及び情報DB(データベース)センタ15を有する。本実施形態の車内システム10では、車載器12が特定の乗員の身体情報を取得し、情報生成センタ14は当該身体情報に基づいて乗員の感情や意思を認識する。そして、情報生成センタ14は乗員に適した有用情報を生成すると共に、当該有用情報は、車載器12に接続されたスピーカ24及びスマートグラス26を通じて特定の乗員に提供される。 As shown in FIG. 1, an in-vehicle system 10 according to the present embodiment includes an on-vehicle device 12, a network 16, an information generation center 14 as a generation unit, and an information DB (database) center 15 mounted on a vehicle 50. . In the in-vehicle system 10 of the present embodiment, the vehicle-mounted device 12 acquires physical information of a specific occupant, and the information generation center 14 recognizes the occupant's emotions and intentions based on the physical information. Then, the information generation center 14 generates useful information suitable for the occupant, and the useful information is provided to a specific occupant through the speaker 24 and the smart glasses 26 connected to the vehicle-mounted device 12.
本実施形態に係る車内システム10は、車載器12、情報生成センタ14、及び情報DBセンタ15の各々が、携帯電話回線等を含むネットワーク16を介して接続されている。また、車内システム10は、ネットワーク16に接続される装置であって、他の車両52に設置された車載装置52A、及び自宅54に設置された通信装置54Aを含んでいてもよい。 In the in-vehicle system 10 according to the present embodiment, each of the on-vehicle device 12, the information generation center 14, and the information DB center 15 is connected via a network 16 including a mobile phone line or the like. The in-vehicle system 10 is a device connected to the network 16 and may include a vehicle-mounted device 52A installed in another vehicle 52 and a communication device 54A installed in the home 54.
図2に示されるように、車載器12は、車両周辺監視部18、検出部としてのモニターカメラ20、マイク22、スピーカ24、検出部としての生体センサ25、AR表示器としてのスマートグラス26、高速移動体通信デバイス28、GPS装置31及び車載デバイス32を備え、制御部としての制御ECU(Electronic Control Unit)30に各々接続されている。 As shown in FIG. 2, the vehicle-mounted device 12 includes a vehicle periphery monitoring unit 18, a monitor camera 20 as a detection unit, a microphone 22, a speaker 24, a biological sensor 25 as a detection unit, a smart glass 26 as an AR display, A high-speed mobile communication device 28, a GPS device 31, and a vehicle-mounted device 32 are provided, and each is connected to a control ECU (Electronic Control Unit) 30 as a control unit.
車両周辺監視部18は、車両50の周辺の状況を監視する。具体的には、車両周辺監視部18は、カメラ、レーダー(Radar)、及びライダー(LIDER:Laser Imaging Detection and Ranging)のうち少なくとも一つを含む。カメラは、例えば、車両50のフロントガラス上部の室内側に設けられ、車両50の外部状況を撮影することにより車外画像を取得する。カメラは、単眼カメラであってもよく、ステレオカメラであってもよい。ステレオカメラの場合、両眼視差を再現するように配置された二つの撮像部を有する。ステレオカメラの車外画像には、奥行き方向の情報も含まる。レーダーは、電波(例えばミリ波)を車両50の周囲に送信し、障害物で反射された電波を受信することで障害物を検出する。ライダーは、光を車両50の周囲に送信し、障害物で反射された光を受信することで反射点までの距離を計測し、障害物を検出する。なお、カメラ、ライダー及びレーダーは、必ずしも重複して備える必要はない。 The vehicle periphery monitoring unit 18 monitors a situation around the vehicle 50. Specifically, the vehicle periphery monitoring unit 18 includes at least one of a camera, a radar (Radar), and a lidar (LIDER: Laser Imaging Detection and Ranging). The camera is provided, for example, on the indoor side above the windshield of the vehicle 50, and obtains an image outside the vehicle by capturing an external situation of the vehicle 50. The camera may be a monocular camera or a stereo camera. In the case of a stereo camera, it has two imaging units arranged to reproduce binocular parallax. The image outside the vehicle of the stereo camera also includes information on the depth direction. The radar detects an obstacle by transmitting a radio wave (for example, a millimeter wave) around the vehicle 50 and receiving a radio wave reflected by the obstacle. The rider transmits the light around the vehicle 50, receives the light reflected by the obstacle, measures the distance to the reflection point, and detects the obstacle. The camera, the rider, and the radar do not necessarily have to be provided in duplicate.
モニターカメラ20は、車室内に設けられ、車室内の運転者Dや他の乗員を撮影し、撮影した乗員の乗員画像を制御ECU30に出力する。 The monitor camera 20 is provided in the vehicle interior, photographs the driver D and other occupants in the vehicle interior, and outputs the captured occupant image to the control ECU 30.
マイク22は、車室内に設けられ、乗員の音声などの車室内の音声を電気信号に変換して音声情報として制御ECU30に出力する。 The microphone 22 is provided in the vehicle interior, converts audio in the vehicle interior such as an occupant's voice into an electric signal, and outputs the signal to the control ECU 30 as voice information.
スピーカ24は、車室内に設けられ、制御ECU30から送信される音声情報等を物理的な振動に変えて音声などの音を発生する。本実施形態のスピーカ24は、特定の座席に着座した特定の乗員に向けて音声を出力するスピーカであって、例えば、超音波スピーカ等の指向性の高いスピーカや、ヘッドレスト51A毎に埋め込まれたスピーカが採用される(図3参照)。 The loudspeaker 24 is provided in the vehicle interior, and generates sound such as voice by converting voice information or the like transmitted from the control ECU 30 into physical vibration. The speaker 24 according to the present embodiment is a speaker that outputs sound to a specific occupant seated in a specific seat, and is, for example, a speaker having high directivity such as an ultrasonic speaker or embedded in each headrest 51A. A speaker is employed (see FIG. 3).
生体センサ25は、乗員の状態を検出するために、例えば、脈拍、脳波、血圧、心拍数等の生体情報を検出する。また、生体センサ25は検出した生体情報を制御ECU30に出力する。生体センサ25のうち脈拍及び脳波を測定するセンサは、スマートグラス26と一体に形成してもよい。また、生体センサ25のうち脈拍及び心拍数を測定するセンサは、シート51(図3参照)と一体に形成してもよい。 The biological sensor 25 detects biological information such as a pulse, an electroencephalogram, a blood pressure, and a heart rate in order to detect the state of the occupant. The biological sensor 25 outputs the detected biological information to the control ECU 30. The sensor that measures the pulse and the brain wave of the biological sensor 25 may be formed integrally with the smart glass 26. Further, among the biological sensors 25, the sensors for measuring the pulse and the heart rate may be formed integrally with the sheet 51 (see FIG. 3).
スマートグラス26は、AR(Augmented Reality:拡張現実)技術を用いて、仮想の乗員であるバーチャル同乗者V(図3参照)、及び有用情報に係る画像を車室内外の風景に重畳させて表示するヘッドマウントディスプレイ方式のウェアラブルデバイスである。具体的には、特許第6033866号公報に記載の技術や、Microsoft社製のHoloLens(https://www.microsoft.com/en-us/hololens)を適用することができる。 The smart glass 26 uses an AR (Augmented Reality) technology to display a virtual passenger V (see FIG. 3), which is a virtual occupant, and an image related to useful information in a superimposed manner on a scene inside and outside the vehicle interior. This is a wearable device of the head mounted display type. Specifically, the technology described in Japanese Patent No. 6033866 or HoloLens (https://www.microsoft.com/en-us/hololens) manufactured by Microsoft Corporation can be applied.
高速移動体通信デバイス28は、携帯電話回線網や公衆回線網のネットワーク16に接続し、ネットワーク16に接続された情報生成センタ14や情報DBセンタ15と情報の授受を行う。高速移動体通信デバイス28は、モニターカメラ20によって撮影された乗員画像、及び生体センサ25により検出された生体情報を身体情報としてネットワーク16経由で情報生成センタ14や情報DBセンタ15に送信する。また、高速移動体通信デバイス28は、車両周辺監視部18のカメラ等で撮影された車外画像、及び後述するGPS装置31で取得された位置情報を環境情報としてネットワーク16経由で情報生成センタ14や情報DBセンタ15に送信する。さらに、高速移動体通信デバイス28は、情報生成センタ14や情報DBセンタ15からの情報をネットワーク16経由で受信する。 The high-speed mobile communication device 28 is connected to a network 16 of a mobile phone line network or a public line network, and exchanges information with the information generation center 14 and the information DB center 15 connected to the network 16. The high-speed mobile communication device 28 transmits the occupant image captured by the monitor camera 20 and the biological information detected by the biological sensor 25 to the information generation center 14 and the information DB center 15 via the network 16 as physical information. In addition, the high-speed mobile communication device 28 uses the outside image captured by the camera or the like of the vehicle periphery monitoring unit 18 and position information acquired by a GPS device 31 to be described later as environmental information via the network 16 as the information generation center 14 or The information is transmitted to the information DB center 15. Further, the high-speed mobile communication device 28 receives information from the information generation center 14 and the information DB center 15 via the network 16.
GPS装置31は、車両50の位置情報を取得する装置であって、カーナビゲーション装置と一体の装置でもよいし、独立した装置でもよい。 The GPS device 31 is a device that acquires position information of the vehicle 50, and may be an integrated device with the car navigation device or an independent device.
車載デバイス32は、車両50に搭載された機器であり、例えば、空調装置や、オーディオ装置等の各種車載デバイスを適用できる。 The in-vehicle device 32 is a device mounted on the vehicle 50, and for example, various in-vehicle devices such as an air conditioner and an audio device can be applied.
また、制御ECU30は、ネットワーク16に接続された情報生成センタ14や情報DBセンタ15との通信に基づいて、コミュニケーションを図るための各種制御を行うと共に、特定の乗員向けの有用情報の提示や車載デバイス32の制御を行う。制御ECU30は、CPU、ROM、RAMで構成されるマイクロコンピュータである。制御ECU30は、情報の提示や車載デバイス32の制御を行う際に、バーチャル同乗者Vが発言したり、車載デバイス32の操作等を行っているような立体映像の表示や音声の発生を制御する。 Further, the control ECU 30 performs various controls for communication based on communication with the information generation center 14 and the information DB center 15 connected to the network 16, and presents useful information for a specific occupant, The device 32 is controlled. The control ECU 30 is a microcomputer including a CPU, a ROM, and a RAM. When presenting information or controlling the in-vehicle device 32, the control ECU 30 controls display of a stereoscopic image and generation of sound as if the virtual passenger V was speaking, operating the in-vehicle device 32, and the like. .
一方、情報生成センタ14は、音声認識システム34、表情認識システム35、感情認識システム36、情報制御部37、及び通信デバイス38を備えている。なお、情報生成センタ14は、例えば、CPU、ROM、及びRAM等を備えたコンピュータにより実現される。 On the other hand, the information generation center 14 includes a voice recognition system 34, a facial expression recognition system 35, an emotion recognition system 36, an information control unit 37, and a communication device 38. The information generation center 14 is realized by, for example, a computer including a CPU, a ROM, a RAM, and the like.
音声認識システム34は、周知の音声認識技術により、車載器12から受信した身体情報に含まれる音声情報を解析して音声認識を行うと共に、乗員の意思及び感情の認識を行う。 The voice recognition system 34 performs voice recognition by analyzing voice information included in the physical information received from the vehicle-mounted device 12 and recognizes the intention and emotion of the occupant by a known voice recognition technology.
表情認識システム35は、周知の表情認識技術により、車載器12から受信した身体情報に含まれる乗員画像を解析して、乗員の意思及び感情の認識を行う。 The facial expression recognition system 35 analyzes the occupant image included in the physical information received from the vehicle-mounted device 12 and recognizes the occupant's intention and emotion by using a well-known facial expression recognition technology.
感情認識システム36は、車載器12から受信した身体情報に含まれる乗員の生体情報を解析して、乗員の感情の認識を行う。 The emotion recognition system 36 analyzes the occupant's biological information included in the physical information received from the vehicle-mounted device 12 and recognizes the occupant's emotion.
情報制御部37は、音声認識システム34における意思及び感情の認識結果、表情認識システム35における意思及び感情の認識結果、並びに感情認識システム36の感情の認識結果に基づいて、特定の乗員に適した有用情報を生成する。なお、情報制御部37は、情報DBセンタ15から得られる乗員の嗜好や車両の現在地を反映して有用情報を生成する。 The information control unit 37 is suitable for a specific occupant based on the recognition result of intention and emotion in the voice recognition system 34, the recognition result of intention and emotion in the facial expression recognition system 35, and the recognition result of emotion in the emotion recognition system 36. Generate useful information. The information control unit 37 generates useful information by reflecting the occupant's preference and the current location of the vehicle obtained from the information DB center 15.
通信デバイス38は、携帯電話回線網や公衆回線網のネットワーク16に接続し、ネットワーク16に接続された車載器12や情報DBセンタ15と通信が可能とされている。 The communication device 38 is connected to the network 16 of a mobile phone line network or a public line network, and can communicate with the vehicle-mounted device 12 and the information DB center 15 connected to the network 16.
情報DBセンタ15は、個人情報DB40、地図情報DB41、検索部42、及び通信デバイス44を備えている。情報DBセンタ15は情報生成センタ14と同様に、例えば、CPU、ROM、及びRAM等を備えたコンピュータにより実現される。 The information DB center 15 includes a personal information DB 40, a map information DB 41, a search unit 42, and a communication device 44. The information DB center 15 is realized by a computer having a CPU, a ROM, a RAM, and the like, for example, like the information generation center 14.
個人情報DB40は、乗員に関する各種情報が個人情報として記憶されている。例えば、ネット決済の履歴や、クレジットカードの利用情報、乗員が携帯するスマートホンと連携した位置情報、インターネット等のネットワークから収集した話題の情報等が記憶される。より具体的には、検索部42が、乗員が車でレストランへ行った際のレストランのカテゴリや、位置などの情報を車載器12や乗員の携帯電話等から収集して個人情報DB40に記憶する。 The personal information DB 40 stores various types of information regarding the occupant as personal information. For example, a history of online settlement, credit card usage information, positional information associated with a smartphone carried by an occupant, topic information collected from a network such as the Internet, and the like are stored. More specifically, the search unit 42 collects information such as the category and the location of the restaurant when the occupant went to the restaurant by car from the vehicle-mounted device 12 or the occupant's mobile phone and stores it in the personal information DB 40. .
地図情報DB41は、車両50が走行可能な道路に関する情報、レストランやショッピングセンタ等の店舗情報などが地図情報と共に記憶されている。また、地図情報DB41は、道路管理者等から取得した渋滞情報などを記憶していてもよい。 The map information DB 41 stores information on roads on which the vehicle 50 can travel, store information on restaurants, shopping centers, and the like, along with map information. Further, the map information DB 41 may store traffic congestion information and the like obtained from a road manager or the like.
検索部42は、車載器12において取得された身体情報及び環境情報、並びに情報生成センタ14における意思及び感情の認識結果に基づいて、乗員の嗜好や車両の現在地に関する情報検索を行い、その結果を情報生成センタ14に送信する。ここで、身体情報及び環境情報は、車載器12から直接取得してもよいし、情報生成センタ14経由で取得してもよい。 The search unit 42 performs an information search on the occupant's preference and the current location of the vehicle based on the physical information and environmental information acquired by the vehicle-mounted device 12 and the recognition result of the intention and emotion in the information generation center 14, and The information is transmitted to the information generation center 14. Here, the physical information and the environment information may be obtained directly from the vehicle-mounted device 12 or may be obtained via the information generation center 14.
検索部42は、例えば、空調の温度設定や、オーディオの音量設定等の各種情報を、該情報の提案タイミングを含めてニューラルネットワークなどを用いた人工知能等によって学習した上で、各種情報を提示する。検索部42における嗜好に関する情報検索は、AI(Artificial Intelligence)等の人工知能の技術を用いて行うことが可能である。 The search unit 42 presents various types of information, such as, for example, various information such as air-conditioning temperature settings and audio volume settings, including artificial information using a neural network or the like, including the proposed timing of the information. I do. The information search on the preference in the search unit 42 can be performed using an artificial intelligence technology such as AI (Artificial Intelligence).
通信デバイス44は、携帯電話回線網や公衆回線網のネットワーク16に接続し、ネットワーク16に接続された車載器12や情報生成センタ14と通信が可能とされている。 The communication device 44 is connected to the network 16 of a mobile phone line network or a public line network, and can communicate with the vehicle-mounted device 12 and the information generation center 14 connected to the network 16.
このように構成された本実施形態に係る車内システム10における情報提供の例について説明する。本実施形態の車内システム10では、スマートグラス26にバーチャル同乗者Vを表示させ、バーチャル同乗者Vから話しかけられる感覚で車両50から有用情報の提供を受ける。 An example of information provision in the in-vehicle system 10 according to the present embodiment configured as described above will be described. In the in-vehicle system 10 according to the present embodiment, the virtual passenger V is displayed on the smart glass 26, and the useful information is provided from the vehicle 50 as if the virtual passenger V is talking to the virtual passenger V.
ここで、運転者Dが特定の乗員とする場合における情報提供の例を示す。
例えば、運転者Dが空腹である場合、車載器12は有用情報としてお勧めの飲食店の情報を運転者Dに提供することができる。具体的に、情報生成センタ14は、モニターカメラ20で撮影された乗員画像や、生体センサ25で検出された生体情報から運転者Dの感情を認識し、空腹であると判定する。
Here, an example of information provision when the driver D is a specific occupant will be described.
For example, when the driver D is hungry, the vehicle-mounted device 12 can provide the driver D with recommended restaurant information as useful information. Specifically, the information generation center 14 recognizes the emotion of the driver D from the occupant image captured by the monitor camera 20 and the biological information detected by the biological sensor 25, and determines that the driver D is hungry.
また、情報DBセンタ15は、運転者Dに提供する店の情報を検索する。例えば、情報DBセンタ15は、車両50の車外画像や位置情報を含む環境情報を車載器12から取得し、地図情報DB41から車両50の周辺の店を検索する。このとき、情報DBセンタ15は、過去に寄った店のカテゴリ別の回数等から運転者Dの嗜好を解析し、推薦する店を検索する。 Further, the information DB center 15 searches for shop information to be provided to the driver D. For example, the information DB center 15 acquires environmental information including an image outside the vehicle 50 and position information from the vehicle-mounted device 12 and searches for a store around the vehicle 50 from the map information DB 41. At this time, the information DB center 15 analyzes the preference of the driver D based on the number of stores in the past that have dropped in by category and searches for a recommended store.
そして、情報DBセンタ15が検索結果を情報生成センタ14へ返信することにより、情報生成センタ14が、推薦する店を有用情報として生成する。有用情報を受信した車載器12では、バーチャル同乗者Vが有用情報に基づいて運転者Dに店を提案する。例えば、図4に示されるように、車載器12が、スマートグラス26を制御して運転者Dに語りかけるバーチャル同乗者Vを表示すると共に、お勧めのメニューの画像62を表示する。また、車載器12はスピーカ24を制御して、「○○のラーメンが人気みたいだよ。」等のメッセージを発音する。 Then, the information DB center 15 returns a search result to the information generation center 14, so that the information generation center 14 generates a recommended shop as useful information. In the vehicle-mounted device 12 that has received the useful information, the virtual fellow passenger V proposes a store to the driver D based on the useful information. For example, as shown in FIG. 4, the vehicle-mounted device 12 controls the smart glasses 26 to display the virtual passenger V who speaks to the driver D, and displays the recommended menu image 62. Also, the vehicle-mounted device 12 controls the speaker 24 to emit a message such as “The ramen of XX seems to be popular.”
これに対して、運転者Dが頷いて意思表示をしたり、好意的な感情有していると情報生成センタ14が判定した場合には、有用情報に含まれる店の位置情報に基づいて、車載デバイス32が有するナビゲーション装置が目的地を設定する。このとき、バーチャル同乗者Vがナビゲーション装置の目的地の設定を行っているような映像を表示する。 On the other hand, when the information generation center 14 determines that the driver D nods and displays a will or has a favorable emotion, based on the location information of the shop included in the useful information, The navigation device of the in-vehicle device 32 sets the destination. At this time, an image is displayed as if the virtual passenger V is setting the destination of the navigation device.
また例えば、車両50を運転中の運転者Dが走行路上の標識を見落としている場合、車載器12は有用情報として標識の情報を運転者Dに提供することができる。具体的に、図5に示されるように、車両周辺監視部18により撮影された車外画像に標識70が存在し、モニターカメラ20から抽出した運転者Dの視線が標識70にない場合、情報生成センタ14は、運転者Dが標識を見落としていると判定する。この判定に際し、情報生成センタ14は、生体センサ25で検出された生体情報を活用してもよい。例えば、脈拍や脳波が通常よりも安定している場合、情報生成センタ14は、運転者Dが緊張状態にないことを認識し、運転に際して警戒の意思がないことを認識することができる。 Further, for example, when the driver D who is driving the vehicle 50 has overlooked the sign on the traveling road, the vehicle-mounted device 12 can provide the information of the sign to the driver D as useful information. Specifically, as shown in FIG. 5, when the sign 70 exists in the outside image captured by the vehicle periphery monitoring unit 18 and the driver D's line of sight extracted from the monitor camera 20 is not on the sign 70, information generation is performed. The center 14 determines that the driver D has overlooked the sign. In this determination, the information generation center 14 may utilize the biological information detected by the biological sensor 25. For example, when the pulse and the brain wave are more stable than usual, the information generation center 14 can recognize that the driver D is not in a nervous state, and can recognize that there is no intention to be alert when driving.
また、情報DBセンタ15は、車両50の環境情報を取得し、環境情報に含まれる位置情報から、走行路周辺において注意すべき情報を検索する。そして、情報DBセンタ15が検索結果を情報生成センタ14へ返信することにより、情報生成センタ14が、注意すべき情報を有用情報として生成する。有用情報を受信した車載器12では、バーチャル同乗者Vが有用情報に基づいて運転者Dに注意喚起する。例えば、車載器12が、スマートグラス26を制御して運転者Dに語りかけるバーチャル同乗者Vを表示すると共に、注意すべき動物の画像64を走行路上に表示する。また、車載器12はスピーカ24を制御して、「○○を過ぎるまで動物に注意して。」等のメッセージを発音する(図5参照)。 Further, the information DB center 15 acquires the environment information of the vehicle 50, and searches for information to be careful around the traveling road from the position information included in the environment information. Then, the information DB center 15 returns the search result to the information generation center 14, so that the information generation center 14 generates information to be noted as useful information. At the vehicle-mounted device 12 that has received the useful information, the virtual passenger V alerts the driver D based on the useful information. For example, the vehicle-mounted device 12 controls the smart glasses 26 to display the virtual passenger V who speaks to the driver D, and displays an image 64 of an animal to be careful on the traveling road. Further, the vehicle-mounted device 12 controls the speaker 24 to generate a message such as "Be careful of animals until passing XX" (see FIG. 5).
なお、以上の注意喚起は、運転者Dが走行路上の標識を見落としている場合に実行されることとしているが、これに限らず、車載器12が標識を検知する度に実行してもよい。また、情報生成センタ14は、情報DBセンタ15に対する検索を行わず、車両50の位置情報に依存しない定型の情報を提供してもよい。 Note that the above alert is performed when the driver D has overlooked the sign on the traveling road, but is not limited thereto, and may be executed each time the vehicle-mounted device 12 detects the sign. . Further, the information generation center 14 may provide the fixed information that does not depend on the position information of the vehicle 50 without performing the search for the information DB center 15.
また例えば、図6に示されるように、建物の死角に自転車72が存在する場合、車載器12は有用情報として死角に存在する自転車72の情報を運転者Dに提供することができる。まず、車載器12は、車車間通信により他の車両52の車載装置52Aから、死角に存在する自転車72の情報を取得することができる。そして、車載器12が死角に存在する自転車72の情報を取得すると共に、モニターカメラ20から抽出した運転者Dの視線が自転車72の方向にない場合、情報生成センタ14は、運転者Dが自転車72を見落とす可能性があると判定する。この判定に際し、情報生成センタ14は、生体センサ25で検出された生体情報を活用してもよい。例えば、脈拍が通常よりも早く、脳波が乱れている場合、情報生成センタ14は、運転者Dが怒り又は興奮の感情にあると認識し、運転に際して周囲へ配慮する意思が薄いことを認識することができる。 For example, as shown in FIG. 6, when the bicycle 72 exists in the blind spot of the building, the vehicle-mounted device 12 can provide the driver D with information on the bicycle 72 existing in the blind spot as useful information. First, the vehicle-mounted device 12 can acquire information on the bicycle 72 existing in the blind spot from the vehicle-mounted device 52A of the other vehicle 52 by inter-vehicle communication. When the vehicle-mounted device 12 acquires information on the bicycle 72 existing in the blind spot, and the driver D's line of sight extracted from the monitor camera 20 is not in the direction of the bicycle 72, the information generation center 14 determines that the driver D It is determined that there is a possibility that 72 will be overlooked. In this determination, the information generation center 14 may utilize the biological information detected by the biological sensor 25. For example, when the pulse is faster than usual and the brain wave is disturbed, the information generation center 14 recognizes that the driver D is in an anger or an excitement feeling, and recognizes that the driver D has little intention to consider surroundings when driving. be able to.
そして、情報生成センタ14は、死角の自転車72に対する情報を有用情報として生成する。有用情報を受信した車載器12では、バーチャル同乗者Vが有用情報に基づいて運転者Dに注意喚起する。例えば、車載器12が、スマートグラス26を制御して運転者Dに語りかけるバーチャル同乗者Vを表示すると共に、死角に潜む自転車72のイメージ画像66を表示する。また、車載器12はスピーカ24を制御して、「右から出てくる自転車に注意して。」等のメッセージを発音する(図6参照)。 Then, the information generation center 14 generates information on the blind spot bicycle 72 as useful information. At the vehicle-mounted device 12 that has received the useful information, the virtual passenger V alerts the driver D based on the useful information. For example, the vehicle-mounted device 12 controls the smart glasses 26 to display the virtual passenger V talking to the driver D, and displays the image image 66 of the bicycle 72 lurking in the blind spot. Also, the vehicle-mounted device 12 controls the speaker 24 to generate a message such as "Be careful of a bicycle coming out from the right" (see FIG. 6).
なお、以上の注意喚起は、運転者Dが自転車72を見落とす可能性がある場合に実行されることにしているが、これに限らず、車載器12が他の車両52の車載装置52Aから、死角に存在する自転車72の情報を取得する度に実行してもよい。この例では、建物の死角に自転車72が存在する場合を例としたが、死角に存在する場合に注意喚起する対象となるのは、自転車に限らず、歩行者、車両等が含まれる。 Note that the above alert is performed when there is a possibility that the driver D may overlook the bicycle 72. However, the present invention is not limited to this. It may be executed each time information on the bicycle 72 existing in the blind spot is acquired. In this example, the case where the bicycle 72 exists in the blind spot of the building has been described as an example. However, a target to be alerted when the bicycle 72 exists in the blind spot includes not only bicycles but also pedestrians and vehicles.
続いて、本実施形態に係る車内システム10の各部で行われる具体的な処理内容について説明する。 Subsequently, specific processing contents performed in each unit of the in-vehicle system 10 according to the present embodiment will be described.
まず、車載器12で行われる具体的な処理について説明する。図7は、本実施形態に係る車内システム10の車載器12で行われる処理の流れの一例を示すフローチャートである。 First, a specific process performed by the vehicle-mounted device 12 will be described. FIG. 7 is a flowchart illustrating an example of a flow of a process performed by the vehicle-mounted device 12 of the in-vehicle system 10 according to the present embodiment.
ステップ100では、制御ECU30が、バーチャル同乗者Vの表示が許可されているか否かを判定する。制御ECU30が、バーチャル同乗者Vの表示が許可されていると判定した場合は、次にステップ102へ移行する。一方、制御ECU30が、バーチャル同乗者Vの表示が許可されていないと判定した場合は、ステップ104へ移行する。 In step 100, the control ECU 30 determines whether the display of the virtual passenger V is permitted. When the control ECU 30 determines that the display of the virtual passenger V is permitted, the process proceeds to step 102. On the other hand, when the control ECU 30 determines that the display of the virtual passenger V is not permitted, the process proceeds to step 104.
ステップ102では、制御ECU30が、スマートグラス26を制御することにより、バーチャル同乗者Vを表示する。そして次のステップ104へ移行する。 In step 102, the control ECU 30 controls the smart glasses 26 to display the virtual passenger V. Then, the process proceeds to the next step 104.
ステップ104では、制御ECU30が、車両周辺監視部18から環境情報である車外画像を取得し、GPS装置31から環境情報である位置情報を取得する。そして次のステップ106へ移行する。 In step 104, the control ECU 30 acquires the outside image as the environment information from the vehicle periphery monitoring unit 18 and acquires the position information as the environment information from the GPS device 31. Then, the process proceeds to the next Step 106.
ステップ106では、制御ECU30が、特定の乗員を対象として、モニターカメラ20から身体情報である乗員画像を取得し、生体センサ25から身体情報である生体情報を取得する。また、制御ECU30は、マイク22から身体情報として音声情報を取得してもよい。そして次のステップ108へ移行する。 In step 106, the control ECU 30 acquires the occupant image, which is the physical information, from the monitor camera 20 for the specific occupant, and acquires the biological information, which is the physical information, from the biological sensor 25. In addition, the control ECU 30 may acquire audio information from the microphone 22 as physical information. Then, control goes to the next step 108.
ステップ108では、制御ECU30が、取得した乗員の身体情報と車両50の環境情報とを情報生成センタ14へ送信する。そして次のステップ110へ移行する。 In step 108, the control ECU 30 transmits the acquired physical information of the occupant and the environment information of the vehicle 50 to the information generation center 14. Then, the process proceeds to the next step 110.
ステップ110では、制御ECU30が、乗員に対する有用情報を情報生成センタ14から受信したか否を判定する。制御ECU30が、有用情報を受信していないと判定した場合にはステップ108に戻って上述の処理を繰り返し、有用情報を受信したと判定した場合はステップ112へ移行する。 In step 110, the control ECU 30 determines whether useful information for the occupant has been received from the information generation center 14. When the control ECU 30 determines that the useful information has not been received, the process returns to step 108 to repeat the above-described processing, and when it determines that the useful information has been received, the process proceeds to step 112.
ステップ112では、制御ECU30が、スマートグラス26及びスピーカ24を制御することによりバーチャル同乗者Vを含むARコンテンツの制御(以下、「AR制御」と称する。)処理を実行する。そして次のステップ114へ移行する。AR制御処理では、例えば、乗員が暑がっており車室内温度を下げる旨の有用情報が生成された場合には、バーチャル同乗者Vが空調装置の温度設定を下げる様子を再現すべく、制御ECU30がスマートグラス26及びスピーカ24を制御する。なお、有用情報は、後述するように、情報DBセンタ15の情報検索結果に基づいて情報生成センタ14によって生成される。 In step 112, the control ECU 30 controls the smart glasses 26 and the speaker 24 to execute the control of the AR content including the virtual passenger V (hereinafter, referred to as “AR control”). Then, control goes to the next step 114. In the AR control processing, for example, when useful information indicating that the occupant is hot and the vehicle interior temperature is to be reduced is generated, the virtual passenger V is controlled in order to reproduce a state in which the temperature setting of the air conditioner is reduced. The ECU 30 controls the smart glass 26 and the speaker 24. The useful information is generated by the information generation center 14 based on the information search result of the information DB center 15 as described later.
ステップ114では、制御ECU30が、AR制御を終了するか否かを判定する。該判定は、例えば、音声によってバーチャル同乗者Vの表示終了が指示されたか否かを判定してもよいし、バーチャル同乗者Vの表示終了を指示するスイッチ等が操作されたか否か等を判定してもよい。制御ECU30が、AR制御を終了しないと判定した場合にはステップ104に戻って上述の処理を繰り返し、AR制御を終了すると判定した場合には一連の処理を終了する。 In step 114, the control ECU 30 determines whether to end the AR control. The determination may be, for example, whether or not an instruction to end the display of the virtual passenger V has been given by voice, or whether or not a switch or the like for instructing to end the display of the virtual passenger V has been operated. May be. When the control ECU 30 determines that the AR control is not to be ended, the process returns to step 104 to repeat the above-described processing, and when it is determined that the AR control is to be ended, a series of processing ends.
次に、情報生成センタ14で行われる具体的な処理内容について説明する。図8は、本実施形態に係る車内システム10の情報生成センタ14で行われる処理の流れの一例を示すフローチャートである。なお、図8の処理は、例えば、ステップ108において、身体情報及び環境情報の送信が車載器12から行われた場合に開始する。 Next, specific processing contents performed in the information generation center 14 will be described. FIG. 8 is a flowchart illustrating an example of a flow of a process performed in the information generation center 14 of the in-vehicle system 10 according to the present embodiment. The process in FIG. 8 is started, for example, when the transmission of the physical information and the environmental information is performed from the vehicle-mounted device 12 in step 108.
ステップ200では、情報制御部37が、車載器12から送信された身体情報及び環境情報を受信したか否かを判定する。該判定が肯定されるまで待機してステップ202へ移行する。 In step 200, the information control unit 37 determines whether the physical information and the environmental information transmitted from the vehicle-mounted device 12 have been received. The process waits until the determination is affirmed, and proceeds to step 202.
ステップ202では、情報生成センタ14が乗員の意思や感情を認識する。具体的に、表情認識システム35は、車載器12から受信した身体情報に含まれる乗員画像に基づいて乗員の意思及び感情の認識を行う。また、感情認識システム36は、車載器12から受信した身体情報に含まれる乗員の生体情報に基づいて乗員の感情の認識を行う。情報生成センタ14が、乗員の意思及び感情を認識すると次のステップ204へ移行する。 In step 202, the information generation center 14 recognizes the occupant's intention and emotion. Specifically, the facial expression recognition system 35 recognizes the occupant's intention and emotion based on the occupant image included in the physical information received from the vehicle-mounted device 12. The emotion recognition system 36 recognizes the occupant's emotion based on the occupant's biological information included in the physical information received from the vehicle-mounted device 12. When the information generation center 14 recognizes the intention and emotion of the occupant, the process proceeds to the next step 204.
ステップ204では、情報制御部37が、車載器12から受信した身体情報及び環境情報、並びに乗員の意思及び感情の認識結果に基づく情報検索を情報DBセンタ15に指示する。そして次のステップ206へ移行する。 In step 204, the information control unit 37 instructs the information DB center 15 to search for information based on the physical information and environmental information received from the vehicle-mounted device 12 and the recognition result of the occupant's intention and emotion. Then, control goes to the next step 206.
ステップ206では、情報制御部37が、情報DBセンタ15から情報検索結果を受信したが否かを判定する。該判定が肯定されるまで待機してステップ208へ移行する。 In step 206, the information control unit 37 determines whether or not an information search result has been received from the information DB center 15. The process waits until the determination is affirmed, and proceeds to step 208.
ステップ208では、情報制御部37が、情報検索結果を反映した有用情報を生成する。例えば、乗員に食事をするという意思がある場合、情報検索結果に含まれる乗員の嗜好に応じてお勧めの店の情報含む有用情報を生成する。また例えば、乗員が標識を見落としている場合、情報検索結果に含まれる車両50周辺の注意情報を含む有用情報を生成する。生成された有用情報は、スマートグラス26に表示させる文字や画像の情報、及びスピーカ24から出力させる音声情報を含む。情報制御部37が、有用情報を生成すると次のステップ210へ移行する。 In step 208, the information control unit 37 generates useful information reflecting the information search result. For example, when the occupant intends to eat, useful information including recommended shop information is generated according to the occupant's preference included in the information search result. In addition, for example, when the occupant has overlooked the sign, useful information including caution information around the vehicle 50 included in the information search result is generated. The generated useful information includes character and image information to be displayed on the smart glass 26 and audio information to be output from the speaker 24. When the information control unit 37 generates the useful information, the process proceeds to the next step 210.
ステップ210では、情報制御部37が、生成した有用情報を車載器12に送信して一連の処理を終了する。 In step 210, the information control unit 37 transmits the generated useful information to the vehicle-mounted device 12, and ends a series of processing.
次に、情報DBセンタ15で行われる具体的な処理について説明する。図9は、本実施形態に係る車内システム10の情報DBセンタ15の検索部42で行われる処理の流れの一例を示すフローチャートである。 Next, a specific process performed by the information DB center 15 will be described. FIG. 9 is a flowchart illustrating an example of a flow of a process performed by the search unit 42 of the information DB center 15 of the in-vehicle system 10 according to the present embodiment.
ステップ300では、検索部42が、身体情報及び環境情報、並びに乗員の意思及び感情の認識結果を情報生成センタ14から受信したか否かを判定する。受信が完了し、該判定が肯定されるまで待機してステップ302へ移行する。 In step 300, the search unit 42 determines whether or not the body information and the environment information and the recognition result of the occupant's intention and emotion have been received from the information generation center 14. After the reception is completed, the process waits until the determination is affirmed, and proceeds to step 302.
ステップ302では、検索部42が情報検索を実行する。具体的に、検索部42は身体情報並びに乗員の意思及び感情の認識結果に基づいて嗜好に関する情報検索を行う。当該情報検索は、個人情報DB40に蓄積された乗員の個人情報を用いて実行される。例えば、乗員の意思と、個人情報DB40に記憶された情報に基づいて、嗜好解析を行うことにより、乗員好みの店の情報を検索する。検索部42が情報検索を終了する、次のステップ304に移行する。 In step 302, the search unit 42 performs an information search. Specifically, the search unit 42 performs an information search on the preference based on the physical information and the recognition result of the occupant's intention and emotion. The information search is executed using the occupant's personal information stored in the personal information DB 40. For example, based on the intention of the occupant and the information stored in the personal information DB 40, a preference analysis is performed to search for information on a store that the occupant likes. When the search unit 42 ends the information search, the process proceeds to the next step 304.
ステップ304では、検索部42が、情報検索結果を情報生成センタ14に返信して一連の処理を終了する。 In step 304, the search unit 42 returns an information search result to the information generation center 14, and ends a series of processing.
(まとめ)
以上のように各部で処理を行うことにより、本実施形態に係る車内システム10では、乗員が言葉を発しなくとも車両側から有用情報の提供を受けることができる。そして、有用情報に係る表示は、乗員が個別に装着するスマートグラス26から提供され、有用情報に係る音声は、乗員別に出力されるスピーカ24から提供される。すなわち、本実施形態の車内システム10によれば、同乗者が存在していても映像や音声をプライベートに取得することができる。
(Summary)
By performing the processing in each unit as described above, the in-vehicle system 10 according to the present embodiment can receive useful information from the vehicle without the occupant uttering a word. The display related to the useful information is provided from the smart glasses 26 individually worn by the occupant, and the sound related to the useful information is provided from the speaker 24 output for each occupant. That is, according to the in-vehicle system 10 of the present embodiment, it is possible to privately acquire video and audio even when a passenger is present.
なお、車室内に乗員が複数居る場合、各乗員がスマートグラス26を装着すると共に、乗員別のスピーカ24を設けることにより、乗員がそれぞれプライベートに情報を取得することができる。また、ある時は各乗員に異なる情報を提供してもよいし、またある時は各乗員に同じ情報を提供してもよい。 When there are a plurality of occupants in the vehicle cabin, each occupant can acquire information privately by wearing the smart glasses 26 and providing a speaker 24 for each occupant. Further, at some times, different information may be provided to each occupant, and at other times, the same information may be provided to each occupant.
また、本実施形態では、有用情報の提供がバーチャル同乗者Vを介して行われる。そのため、乗員は、思ったり感じたりするだけでバーチャル同乗者Vが意図を汲み取って自分の望む行動をとると感じる。したがって、本実施形態によれば、バーチャル同乗者Vとの間で、双方向でリアルタイムにコミュニケーションを図ることができる。そして、バーチャル同乗者Vというプライベートな相手との間で円滑にコミュニケーションを図ることにより、移動を楽しんだり、運転の負担を軽減したりすることができる。 Further, in the present embodiment, the provision of the useful information is performed via the virtual passenger V. Therefore, the occupant feels that the virtual fellow passenger V takes his intention and takes the action he desires only by thinking or feeling. Therefore, according to the present embodiment, bidirectional real-time communication with the virtual passenger V can be achieved. Then, by smoothly communicating with the private partner called the virtual passenger V, it is possible to enjoy traveling and reduce the burden of driving.
特に本実施形態では、自動運転ではない運転負荷がある状況下において、運転者が思ったり感じたりしてバーチャル同乗者Vに指示を出すことで、各機能を遅滞なく使用することが可能である。例えば、空調装置の温度調整、オーディオ装置の温度調整、カーナビゲーション装置の目的地設定等の操作はバーチャル同乗者Vを通じて行うことができる。 In particular, in the present embodiment, in a situation where there is a driving load other than the automatic driving, the driver can think and feel and give an instruction to the virtual passenger V to use each function without delay. . For example, operations such as adjusting the temperature of the air conditioner, adjusting the temperature of the audio device, and setting the destination of the car navigation device can be performed through the virtual passenger V.
本実施形態では、スマートグラス26が車室内を対象にバーチャル同乗者Vを表示させる他、車室外を対象に有用情報を係る画像を表示させることができる。例えば、制御ECU30はスマートグラス26を制御して、お勧めの店舗の実像にお勧めの商品画像を重畳して表示させたり(図4参照)、注意の標識のある走行路の実像に動物の画像を重畳して表示させたり(図5参照)することができる。また例えば、他の車両52が認識している自転車や歩行者等に係る画像をスマートグラス26に表示させることができる(図6参照)。同様に、車両50の死角にある自転車や歩行者等の画像をスマートグラス26に表示させてもよい。そして、死角の自転車や歩行者等をスマートグラス26に表示させると共に、バーチャル同乗者Vが運転者に語り掛けるように注意喚起することにより、より安全運転に寄与することができる。 In the present embodiment, the smart glasses 26 can display the virtual passenger V in the vehicle interior, and can display an image relating to useful information outside the vehicle interior. For example, the control ECU 30 controls the smart glass 26 to display the recommended product image superimposed on the real image of the recommended store (see FIG. 4), or to display the animal image on the real image of the traveling road with a caution sign. Images can be superimposed and displayed (see FIG. 5). Further, for example, an image of a bicycle, a pedestrian, or the like recognized by another vehicle 52 can be displayed on the smart glass 26 (see FIG. 6). Similarly, an image of a bicycle, a pedestrian, or the like in the blind spot of the vehicle 50 may be displayed on the smart glass 26. By displaying the blind spot bicycle, pedestrian, and the like on the smart glass 26 and alerting the virtual passenger V to speak to the driver, it is possible to contribute to safer driving.
本実施形態では、乗員が言葉を発しなくともバーチャル同乗者Vを通じて有用情報を受けることができるが、これに限らない。例えば、乗員がマイク22に向かって発した音声に基づき、情報生成センタ14が有用情報を生成すると共に、バーチャル同乗者Vを通じて当該有用情報の提供を受けてもよい。つまり、乗員はバーチャル同乗者Vと対話形式によりコミュニケーションを図ることが可能となる。そして、通常の同乗者が存在する感覚で運転を楽しむことができる。 In the present embodiment, the occupant can receive useful information through the virtual fellow passenger V without uttering a word, but is not limited to this. For example, the information generation center 14 may generate useful information based on a voice uttered by the occupant toward the microphone 22 and receive the useful information through the virtual fellow passenger V. That is, the occupant can communicate with the virtual passenger V in an interactive manner. Then, it is possible to enjoy driving as if a normal passenger were present.
本実施形態の車内システム10では、車室内に存在するように表示されたバーチャル同乗者Vとコミュニケーションを図ることを可能としているが、これに限らず、他の車両52に乗車している友人や、自宅54で留守番している子供等とコミュニケーションを図ることができる。例えば、自宅54に居る子供とコミュニケーションを図る場合、自宅54の通信装置54Aは、図示しないカメラで撮影された映像を車載器12に対してリアルタイムに送信する。そして、車載器12では、制御ECU30がスマートグラス26を制御して、子供の映像Vcを車室内に表示させることで(図3参照)、移動空間を共有し、ユーザ体験を共有することができる。 In the in-vehicle system 10 of the present embodiment, it is possible to communicate with the virtual fellow passenger V displayed so as to be present in the passenger compartment. However, the present invention is not limited to this. Can communicate with a child or the like who is away from home at home 54. For example, when trying to communicate with a child who is at home 54, the communication device 54 </ b> A at home 54 transmits an image captured by a camera (not shown) to the vehicle-mounted device 12 in real time. Then, in the vehicle-mounted device 12, the control ECU 30 controls the smart glass 26 to display the image Vc of the child in the vehicle interior (see FIG. 3), thereby sharing the moving space and sharing the user experience. .
なお、本実施形態の車内システム10は、運転者Dの運転負荷に係らずバーチャル同乗者Vの表示を可能としているが、これに限らず、運転者Dの運転負荷を検出し、自動運転中などの運転負荷がない場合に限りバーチャル同乗者Vが表示されるようしてもよい。具体的に、制御ECU30は車両周辺監視部18による車両50の周辺の監視結果に基づいて、車内システム10を安全に使用できる状態であるかを運転負荷として検出する。例えば、制御ECU30は、車両周辺監視部18の監視結果に基づいて自動運転モードへ移行する制御を行い、車両50が自動運転モードに入るなど、運転者Dに運転負荷がない場合に、安全に使用できる状態と判定する。そして、制御ECU30が、バーチャル同乗者Vを表示する。なお、自動運転モードへの移行の判定は、車両周辺監視部18の監視結果に基づいて周知の自動運転技術を用いて判定することができる。 The in-vehicle system 10 of the present embodiment enables the display of the virtual fellow passenger V regardless of the driving load of the driver D. However, the present invention is not limited to this. The virtual passenger V may be displayed only when there is no driving load. Specifically, the control ECU 30 detects whether the in-vehicle system 10 can be used safely as a driving load based on the result of monitoring the periphery of the vehicle 50 by the vehicle periphery monitoring unit 18. For example, the control ECU 30 performs control to shift to the automatic driving mode based on the monitoring result of the vehicle periphery monitoring unit 18 and safely performs the operation when the driver D has no driving load such as when the vehicle 50 enters the automatic driving mode. It is determined that it can be used. Then, the control ECU 30 displays the virtual passenger V. The determination of the transition to the automatic driving mode can be made by using a known automatic driving technique based on the monitoring result of the vehicle periphery monitoring unit 18.
また、バーチャル同乗者Vとのコミュニケーションの途中であっても、車両周辺監視部18の監視結果から車内システム10を安全に使用できない状態が検出された場合には、制御ECU30が、バーチャル同乗者Vの表示を中断してもよい。これにより、安全を確実に確保した状態で、運転者Dがバーチャル同乗者Vとコミュニケーションを図ることが可能となる。 Further, even during the communication with the virtual passenger V, if the in-vehicle system 10 cannot be used safely from the monitoring result of the vehicle periphery monitoring unit 18, the control ECU 30 transmits the virtual passenger V May be interrupted. This allows the driver D to communicate with the virtual passenger V while ensuring safety.
(補足)
上記の実施形態では、車載器12、情報生成センタ14、及び情報DBセンタ15の各部で処理を行う形態として説明したが、これに限るものではない。例えば、情報DBセンタ15の構成を車載器12に搭載した形態の車内システムとしてもよい。或いは、情報DBセンタ15だけでなく、情報生成センタ14の構成も車載器12に搭載して、車載器12だけで処理可能な形態としてもよい。
(Supplement)
In the above-described embodiment, a description has been given of a mode in which each unit of the in-vehicle device 12, the information generation center 14, and the information DB center 15 performs the processing, but the present invention is not limited to this. For example, an in-vehicle system in which the configuration of the information DB center 15 is mounted on the vehicle-mounted device 12 may be employed. Alternatively, not only the information DB center 15 but also the configuration of the information generation center 14 may be mounted on the vehicle-mounted device 12 so that the vehicle-mounted device 12 can perform processing.
車載器12、情報生成センタ14、及び情報DBセンタ15の各部での処理は、各装置が備えるCPUが、ROMから実行プログラムを読み出してRAMに展開し、CPUが実行プログラムをロードして実行することで実現される。なお、実行プログラムは、DVD(Digital Versatile Disc)などの非一時的記録媒体に記憶され、記録媒体読込装置を介して読み込まれ、RAMに展開させてもよい。 The processing in each unit of the on-vehicle device 12, the information generation center 14, and the information DB center 15 is such that the CPU of each device reads the execution program from the ROM and expands it in the RAM, and the CPU loads and executes the execution program. This is achieved by: Note that the execution program may be stored in a non-temporary recording medium such as a DVD (Digital Versatile Disc), read through a recording medium reading device, and expanded in a RAM.
また、本実施形態に係る車内システム10は、車載器12に超音波を発生する装置を更に設けて、人肌のぬくもりなどの触感も乗員に付与可能な構成としてもよい。 The in-vehicle system 10 according to the present embodiment may further include a device that generates an ultrasonic wave in the on-vehicle device 12 so that the occupant can be given a tactile sensation such as warmth of human skin.
上記の実施形態における車内システム10の各部で行われる処理は、プログラムを実行することにより行われるソフトウエア処理としてもよいし、ハードウエアで行う処理としてもよい。或いは、ソフトウエア及びハードウエアの双方を組み合わせた処理としてもよい。 The processing performed by each unit of the in-vehicle system 10 in the above embodiment may be a software processing performed by executing a program or a processing performed by hardware. Alternatively, the processing may be a combination of both software and hardware.
さらに、本発明は、上記に限定されるものでなく、上記以外にも、その主旨を逸脱しない範囲内において種々変形して実施可能であることは勿論である。 Furthermore, the present invention is not limited to the above, and it goes without saying that, other than the above, various modifications can be made without departing from the spirit of the present invention.
10 車内システム
14 情報生成センタ(生成部)
20 モニターカメラ(検出部)
24 スピーカ
25 生体センサ(検出部)
26 スマートグラス(AR表示器)
30 制御ECU(制御部)
10 In-vehicle system 14 Information generation center (generation unit)
20 monitor camera (detection unit)
24 speaker 25 biological sensor (detection unit)
26 Smart Glasses (AR Display)
30 control ECU (control unit)
Claims (1)
前記特定の乗員が装着するAR表示器と、
前記特定の乗員向けの音声が出力されるスピーカと、
前記検出部によって検出された前記身体情報に基づいて、前記特定の乗員に適した有用情報を生成する生成部と、
前記有用情報に係る音声が前記スピーカから出力され、前記有用情報に係る表示が車室内外の風景に重畳してAR表示器に表示されるように制御する制御部と、
を備えた車内システム。 A detection unit that detects physical information emitted by a specific occupant in the vehicle interior;
An AR indicator worn by the specific occupant;
A speaker from which sound for the specific occupant is output,
A generation unit that generates useful information suitable for the specific occupant based on the physical information detected by the detection unit;
A control unit that controls so that a sound related to the useful information is output from the speaker, and a display related to the useful information is displayed on an AR display in a manner superimposed on scenes inside and outside the vehicle cabin;
In-car system with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018145740A JP2020020987A (en) | 2018-08-02 | 2018-08-02 | In-car system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018145740A JP2020020987A (en) | 2018-08-02 | 2018-08-02 | In-car system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020020987A true JP2020020987A (en) | 2020-02-06 |
Family
ID=69588682
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018145740A Pending JP2020020987A (en) | 2018-08-02 | 2018-08-02 | In-car system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020020987A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114312797A (en) * | 2020-10-09 | 2022-04-12 | 丰田自动车株式会社 | Agent device, agent method, and recording medium |
WO2022208695A1 (en) | 2021-03-30 | 2022-10-06 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
JP7453889B2 (en) | 2020-10-02 | 2024-03-21 | フォルシアクラリオン・エレクトロニクス株式会社 | Computing equipment and programs |
-
2018
- 2018-08-02 JP JP2018145740A patent/JP2020020987A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7453889B2 (en) | 2020-10-02 | 2024-03-21 | フォルシアクラリオン・エレクトロニクス株式会社 | Computing equipment and programs |
CN114312797A (en) * | 2020-10-09 | 2022-04-12 | 丰田自动车株式会社 | Agent device, agent method, and recording medium |
JP2022063121A (en) * | 2020-10-09 | 2022-04-21 | トヨタ自動車株式会社 | Agent device, agent method, and agent program |
JP7314898B2 (en) | 2020-10-09 | 2023-07-26 | トヨタ自動車株式会社 | Agent device, agent method and agent program |
CN114312797B (en) * | 2020-10-09 | 2024-09-20 | 丰田自动车株式会社 | Agent device, agent method, and recording medium |
WO2022208695A1 (en) | 2021-03-30 | 2022-10-06 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107415938B (en) | Controlling autonomous vehicle functions and outputs based on occupant position and attention | |
EP3067827B1 (en) | Driver distraction detection system | |
US20230106673A1 (en) | Vehicle and mobile device interface for vehicle occupant assistance | |
US10636301B2 (en) | Method for assisting operation of an ego-vehicle, method for assisting other traffic participants and corresponding assistance systems and vehicles | |
US11062598B2 (en) | Method, mobile user device, and computer program for producing visual information for at least one occupant of a vehicle | |
EP3128462A2 (en) | Driver assistance apparatus and control method for the same | |
CN111016820B (en) | Agent system, agent control method, and storage medium | |
US10460186B2 (en) | Arrangement for creating an image of a scene | |
US9734412B2 (en) | Method and system of communicating vehicle information | |
US11489954B2 (en) | Vehicular electronic device and operation method thereof | |
JP2019086805A (en) | In-vehicle system | |
JP2020055348A (en) | Agent device, agent control method, and program | |
JP2020020987A (en) | In-car system | |
JP2017021745A (en) | Information collection device, information collection server, and information collection system | |
CN111007968A (en) | Agent device, agent presentation method, and storage medium | |
JP2005212709A (en) | Vehicle driving supporting system | |
KR20190103521A (en) | Vehicle and control method for the same | |
US20230186651A1 (en) | Control device, projection system, control method, and program | |
CN110281857B (en) | Display control device and display control method | |
WO2020250645A1 (en) | In-vehicle communication device, vehicle remote control system, communication method, and program | |
JP2020059401A (en) | Vehicle control device, vehicle control method and program | |
US20240087339A1 (en) | Information processing device, information processing system, and information processing method | |
JP7469359B2 (en) | Traffic Safety Support System | |
JP7460407B2 (en) | Audio output device, audio output system, and audio output method | |
US20230316923A1 (en) | Traffic safety support system |