以下に、本開示の情報処理方法、情報処理システム及びプログラムについて、その実施形態を示す図面に基づいて詳述する。
The information processing method, information processing system, and program of the present disclosure will be described in detail below with reference to drawings showing embodiments thereof.
(実施形態1)
車両内部の状況及び車両外部(車両周辺)の状況に応じたコンテンツを車両内で再生する情報処理システムについて説明する。本実施形態では、コンテンツは、画像、音声(音楽)、光(照明光)、振動、芳香、空調(風)のいずれかによるコンテンツであってもよく、これらの複数を組み合わせて一体として構成されたコンテンツであってもよい。また、本実施形態のコンテンツは、映画、ドラマ、アニメ、音楽ライブ等のエンターテインメントコンテンツ、商品又はサービスを宣伝するための広告コンテンツ等、どのようなコンテンツであってもよいが、視聴(体験)するユーザに感情の変化が起きるようなコンテンツであることが望ましい。例えば、視聴(体験)したユーザがワクワクする(気持ちが高揚する)コンテンツ、ドキドキする(胸が高鳴る)コンテンツ、怒りがおさまる(冷静になる)コンテンツ等、感情の変化を起こさせるようなコンテンツが望ましい。本実施形態における車両は自動車又はバス等の移動体であり、運転者による操作に従って走行する車両であってもよく、自動走行できるように構成された自動走行車両であってもよい。図1は情報処理システムの構成例を示す模式図である。本実施形態の情報処理システムは、サーバ10及び車両に搭載された車載装置20を含み、サーバ10及び車載装置20は、インターネット等のネットワークNに接続可能であり、ネットワークNを介して情報の送受信を行う。
(Embodiment 1)
An information processing system that reproduces contents according to the situation inside the vehicle and the situation outside the vehicle (around the vehicle) will be described. In the present embodiment, the content may be content by any one of image, sound (music), light (illumination light), vibration, fragrance, and air conditioning (wind), and a plurality of these may be combined and configured as one. Content may be used. Further, the content of the present embodiment may be any content such as entertainment content such as a movie, drama, animation, live music, or advertising content for promoting a product or service, but is viewed (experienced). It is desirable that the content is such that the user's emotions change. For example, content that causes emotional changes, such as content that excites (excites) the user who has watched (experienced), content that excites (excites the chest), and content that calms anger (calms down), is desirable. .. The vehicle in the present embodiment is a moving body such as an automobile or a bus, and may be a vehicle that travels according to an operation by a driver, or may be an automatically traveling vehicle configured to be able to automatically travel. FIG. 1 is a schematic diagram showing a configuration example of an information processing system. The information processing system of the present embodiment includes a server 10 and an in-vehicle device 20 mounted on a vehicle, and the server 10 and the in-vehicle device 20 can be connected to a network N such as the Internet, and information can be transmitted / received via the network N. I do.
サーバ10は、種々の情報処理及び情報の送受信が可能な情報処理装置であり、例えばサーバコンピュータ又はパーソナルコンピュータを用いて構成されている。サーバ10は、複数台設けられて分散処理するように構成されていてもよく、1台のサーバ内に設けられた複数の仮想マシンによって実現されていてもよく、クラウドサーバを用いて実現されていてもよい。車載装置20は、サーバ10が提供するコンテンツ配信サービスを利用するユーザが乗車する車両に搭載されている装置であり、複数台の車両にそれぞれ設けられている。車載装置20は、種々の情報処理及び情報の送受信が可能な情報処理装置であり、例えばパーソナルコンピュータ、タブレット端末、スマートフォン、カーナビゲーション装置を用いて構成されている。なお、車載装置20は、専用の装置によって構成されていてもよい。
The server 10 is an information processing device capable of various information processing and transmission / reception of information, and is configured by using, for example, a server computer or a personal computer. A plurality of servers 10 may be provided and configured to perform distributed processing, may be realized by a plurality of virtual machines provided in one server, and may be realized by using a cloud server. You may. The in-vehicle device 20 is a device mounted on a vehicle on which a user who uses the content distribution service provided by the server 10 rides, and is provided in each of a plurality of vehicles. The in-vehicle device 20 is an information processing device capable of transmitting and receiving various information processing and information, and is configured by using, for example, a personal computer, a tablet terminal, a smartphone, or a car navigation device. The in-vehicle device 20 may be configured by a dedicated device.
本実施形態の情報処理システムでは、複数のイベントのそれぞれについて、イベントに適合する条件(イベント発生条件)及び複数のコンテンツが対応付けて登録してある。車載装置20は、車両内部(車内)の状況及び車両外部(車外)の状況に基づいて、いずれかのイベントの発生条件を満たすか否かを判断しており、いずれかのイベントの発生条件を満たす場合、イベントの発生をサーバ10に通知する。サーバ10は、いずれかのイベントが発生した車両(車載装置20)に対して、イベントに対応するコンテンツを送信(配信)し、車載装置20は、サーバ10から送信されてくるコンテンツを受信して再生する。また車載装置20は、コンテンツを視聴するユーザ(車両の乗車者)の反応を検出してサーバ10に通知し、サーバ10は、車両内のユーザの反応に応じて、送信するコンテンツを適宜切り替える。なお、車内の状況とは、例えば乗車人数、乗車者の属性及び着座位置、乗車者の動作及び感情等の情報を含む。また車外の状況とは、例えば日時(年月日、季節、曜日、時間帯等)、現在地、車両周辺の環境(周辺地図、景色、音)、天気(気温、湿度、降水量、日照時間等)、走行速度・走行方角、出発地・目的地等の情報を含む。
In the information processing system of the present embodiment, for each of the plurality of events, conditions conforming to the events (event occurrence conditions) and a plurality of contents are registered in association with each other. The in-vehicle device 20 determines whether or not the occurrence condition of any event is satisfied based on the situation inside the vehicle (inside the vehicle) and the situation outside the vehicle (outside the vehicle), and determines whether or not the occurrence condition of any event is satisfied. If it is satisfied, the server 10 is notified of the occurrence of the event. The server 10 transmits (delivers) the content corresponding to the event to the vehicle (vehicle-mounted device 20) in which any of the events has occurred, and the vehicle-mounted device 20 receives the content transmitted from the server 10. Reproduce. Further, the in-vehicle device 20 detects the reaction of the user (passenger of the vehicle) who views the content and notifies the server 10, and the server 10 appropriately switches the content to be transmitted according to the reaction of the user in the vehicle. The situation inside the vehicle includes, for example, information such as the number of passengers, the attributes and seating positions of the passengers, the movements and emotions of the passengers, and the like. The conditions outside the vehicle include, for example, the date and time (date, season, day, time zone, etc.), current location, environment around the vehicle (surrounding map, scenery, sound), weather (temperature, humidity, precipitation, sunshine hours, etc.). ), Includes information such as running speed / direction, starting point / destination, etc.
図2はサーバ10の構成例を示すブロック図である。サーバ10は、制御部11、記憶部12、通信部13、入力部14、表示部15、読み取り部16等を含み、これらの各部はバスを介して相互に接続されている。制御部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の1又は複数のプロセッサを含む。制御部11は、記憶部12に記憶してある制御プログラム12Pを適宜実行することにより、サーバ10が行うべき種々の情報処理及び制御処理等を実行する。
FIG. 2 is a block diagram showing a configuration example of the server 10. The server 10 includes a control unit 11, a storage unit 12, a communication unit 13, an input unit 14, a display unit 15, a reading unit 16, and the like, and each of these units is connected to each other via a bus. The control unit 11 includes one or a plurality of processors such as a CPU (Central Processing Unit), an MPU (Micro-Processing Unit), and a GPU (Graphics Processing Unit). The control unit 11 appropriately executes the control program 12P stored in the storage unit 12 to execute various information processing and control processing to be performed by the server 10.
記憶部12は、RAM(Random Access Memory)、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)等を含む。記憶部12は、制御部11が実行する制御プログラム12P及び制御プログラム12Pの実行に必要な各種のデータ等を予め記憶している。また記憶部12は、制御部11が制御プログラム12Pを実行する際に発生するデータ等を一時的に記憶する。また記憶部12は、後述するユーザDB(データベース)12a及びコンテンツDB12bを記憶する。ユーザDB12a及びコンテンツDB12bは、サーバ10に接続された他の記憶装置に記憶されてもよく、サーバ10が通信可能な他の記憶装置に記憶されていてもよい。
The storage unit 12 includes a RAM (Random Access Memory), a flash memory, a hard disk, an SSD (Solid State Drive), and the like. The storage unit 12 stores in advance various data and the like necessary for executing the control program 12P and the control program 12P executed by the control unit 11. Further, the storage unit 12 temporarily stores data or the like generated when the control unit 11 executes the control program 12P. Further, the storage unit 12 stores the user DB (database) 12a and the content DB 12b, which will be described later. The user DB 12a and the content DB 12b may be stored in another storage device connected to the server 10, or may be stored in another storage device with which the server 10 can communicate.
通信部13は、有線通信又は無線通信によってネットワークNに接続するためのインタフェースであり、ネットワークNを介して他の装置との間で情報の送受信を行う。入力部14は、例えばマウス及びキーボードを含み、サーバ10を使用するユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部11へ送出する。表示部15は、液晶ディスプレイ又は有機ELディスプレイ等であり、制御部11からの指示に従って各種の情報を表示する。入力部14及び表示部15は一体として構成されたタッチパネルであってもよい。
The communication unit 13 is an interface for connecting to the network N by wired communication or wireless communication, and transmits / receives information to / from another device via the network N. The input unit 14, including, for example, a mouse and a keyboard, receives an operation input by a user who uses the server 10, and sends a control signal corresponding to the operation content to the control unit 11. The display unit 15 is a liquid crystal display, an organic EL display, or the like, and displays various information according to instructions from the control unit 11. The input unit 14 and the display unit 15 may be a touch panel configured as one.
読み取り部16は、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM、USB(Universal Serial Bus)メモリ、SD(Secure Digital)カード等を含む可搬型記憶媒体1aに記憶された情報を読み取る。記憶部12に記憶される制御プログラム12P及び各種のデータは、制御部11が読み取り部16を介して可搬型記憶媒体1aから読み取って記憶部12に記憶してもよい。また、記憶部12に記憶される制御プログラム12P及び各種のデータは、制御部11が通信部13を介して他の装置からダウンロードして記憶部12に記憶してもよい。
The reading unit 16 stores information stored in a portable storage medium 1a including a CD (Compact Disc) -ROM, a DVD (Digital Versatile Disc) -ROM, a USB (Universal Serial Bus) memory, an SD (Secure Digital) card, and the like. read. The control program 12P and various data stored in the storage unit 12 may be read by the control unit 11 from the portable storage medium 1a via the reading unit 16 and stored in the storage unit 12. Further, the control program 12P and various data stored in the storage unit 12 may be downloaded from another device by the control unit 11 via the communication unit 13 and stored in the storage unit 12.
図3はサーバ10に記憶されるDB12a~12bの構成例を示す模式図である。図3AはユーザDB12aを、図3BはコンテンツDB12bをそれぞれ示す。ユーザDB12aは、サーバ10が提供するコンテンツ配信サービスを利用するためにユーザ登録を行ったユーザに関する情報を記憶する。図3Aに示すユーザDB12aは、ユーザID列、ユーザ情報列、イベント発生履歴列等を含み、ユーザIDに対応付けてユーザに関する情報を記憶する。ユーザID列は、各ユーザに予め割り当てられた識別情報(ユーザID)を記憶する。ユーザ情報列は、ユーザの性別及び年齢等の属性情報、家族構成及び趣味嗜好等の個人情報、ユーザが使用する車載装置20と通信するための宛先情報等を記憶する。イベント発生履歴列は、ユーザが車両に乗車中に発生したイベントに関する履歴情報を記憶する。履歴情報は、イベントが発生した日時、発生したイベントのイベントID、ユーザの車両(車載装置20)へ送信されたコンテンツのコンテンツID、各コンテンツの視聴時におけるユーザの反応等を含む。なお、イベントの発生日時は、イベント発生条件を満たした日時であってもよく、イベントが発生してから終了又は次のイベントが発生するまでの時間帯であってもよい。ユーザの反応は、コンテンツの視聴時(視聴中)におけるユーザの動作(ジェスチャー、姿勢又は行動)及び感情(感情情報)を含む。履歴情報は、イベントが発生した場所(位置)、イベント発生時の車両内の雰囲気(乗車者の感情等)、各コンテンツの再生日時等を更に含んでもよい。ユーザDB12aに記憶されるユーザIDは、新たなユーザが登録された場合に、制御部11によって発行されて記憶される。ユーザDB12aに記憶されるユーザ情報は、制御部11が通信部13又は入力部14を介して追加又は変更の指示を取得した場合に、制御部11によって追加又は変更される。ユーザDB12aに記憶されるイベント発生履歴は、制御部11が通信部13を介してイベントの発生を通知された場合、通信部13を介してイベントに対応するコンテンツを車載装置20へ送信した場合、通信部13を介してユーザの反応を通知された場合に、制御部11によって記憶される。ユーザDB12aの記憶内容は図3Aに示す例に限定されず、例えばユーザの車両に関する情報が記憶されていてもよい。
FIG. 3 is a schematic diagram showing a configuration example of DBs 12a to 12b stored in the server 10. FIG. 3A shows the user DB 12a, and FIG. 3B shows the content DB 12b. The user DB 12a stores information about a user who has registered as a user in order to use the content distribution service provided by the server 10. The user DB 12a shown in FIG. 3A includes a user ID column, a user information column, an event occurrence history column, and the like, and stores information about the user in association with the user ID. The user ID column stores identification information (user ID) pre-assigned to each user. The user information column stores attribute information such as the user's gender and age, personal information such as family structure and hobbies and preferences, destination information for communicating with the in-vehicle device 20 used by the user, and the like. The event occurrence history column stores historical information about events that occurred while the user was in the vehicle. The history information includes the date and time when the event occurred, the event ID of the event that occurred, the content ID of the content transmitted to the user's vehicle (vehicle-mounted device 20), the reaction of the user when viewing each content, and the like. The date and time when the event occurs may be the date and time when the event occurrence condition is satisfied, or may be the time zone from the occurrence of the event to the end or the occurrence of the next event. The user's reaction includes the user's actions (gestures, postures or actions) and emotions (emotion information) when the content is viewed (viewing). The history information may further include the place (position) where the event occurred, the atmosphere in the vehicle at the time of the event (emotion of the occupant, etc.), the playback date and time of each content, and the like. The user ID stored in the user DB 12a is issued and stored by the control unit 11 when a new user is registered. The user information stored in the user DB 12a is added or changed by the control unit 11 when the control unit 11 acquires an instruction for addition or change via the communication unit 13 or the input unit 14. The event occurrence history stored in the user DB 12a is when the control unit 11 is notified of the occurrence of the event via the communication unit 13, or when the content corresponding to the event is transmitted to the in-vehicle device 20 via the communication unit 13. When the user's reaction is notified via the communication unit 13, it is stored by the control unit 11. The storage content of the user DB 12a is not limited to the example shown in FIG. 3A, and for example, information about the user's vehicle may be stored.
コンテンツDB12bは、車両に発生したイベントに応じて車載装置20に提供されるコンテンツを記憶する。図3Bに示すコンテンツDB12bは、イベントID列、コンテンツID列、コンテンツデータ列、対応反応列等を含み、イベントIDに対応付けて各イベントの発生時に提供されるコンテンツに関する情報を記憶する。イベントID列は、各イベントに予め割り当てられた識別情報(イベントID)を記憶する。コンテンツID列は、各イベントに対応付けられたコンテンツに予め割り当てられた識別情報(コンテンツID)を記憶する。コンテンツIDは例えば、各イベントに対応付けられた複数のコンテンツに対してデフォルトで設定された再生順序に従ったIDを用いる。なお、コンテンツDB12bに再生順序列を設け、各コンテンツの再生順序を記憶する構成としてもよく、この場合、コンテンツIDは任意のIDを用いることができる。コンテンツデータ列は、コンテンツIDに対応するコンテンツデータを記憶する。コンテンツデータは、画像コンテンツ、音声コンテンツ、光(照明光)によるコンテンツ、振動によるコンテンツ、芳香によるコンテンツ、空調(風)によるコンテンツ、又は、これらの複数を組み合わせたコンテンツを含む。例えば画像コンテンツ及び音声コンテンツを含む動画コンテンツであってもよく、動画コンテンツに更に動画コンテンツの内容に応じた光、振動、芳香又は空調によるコンテンツが追加されたコンテンツであってもよい。光によるコンテンツは、照明光の色、強度、又は点滅速度等によって規定され、振動によるコンテンツは、振動パターン、振動の強度、又は継続時間等によって規定され、芳香によるコンテンツは、芳香の種類、強度、又は継続時間等によって規定される。また、空調によるコンテンツは、車両に設けられた空調機器から吹き出される空気(風)の温度もしくは湿度の高低、風量の多少、風向、又は継続時間等によって規定される。コンテンツデータは、コンテンツDB12bに記憶されるほかに、記憶部12の所定領域又は他の記憶装置に記憶されてもよく、この場合、コンテンツデータ列は、コンテンツデータを読み出すための情報(例えば記憶場所を示すファイル名)を記憶する。対応反応列は、各コンテンツを配信する際に適したユーザの反応に関する情報を記憶し、ユーザの反応は、ユーザの動作(ジェスチャー、姿勢又は行動)及び感情(雰囲気)を含む。コンテンツDB12bに記憶されるイベントIDは、新たなイベントが登録された場合に、制御部11によって発行されて記憶される。コンテンツDB12bに記憶されるコンテンツID、コンテンツデータ及び対応反応は、制御部11が通信部13又は入力部14を介して追加又は変更の指示を取得した場合に、制御部11によって追加又は変更される。コンテンツDB12bの記憶内容は図3Bに示す例に限定されず、例えば各イベントの発生条件が記憶されていてもよい。また、コンテンツDB12bはユーザ毎に設定されてもよく、この場合、コンテンツDB12bにユーザID列を設け、ユーザIDに対応付けて各イベントのコンテンツが記憶される構成としてもよい。更に、ユーザ毎にコンテンツDB12bが設定される場合、コンテンツDB12bを車載装置20に記憶させてもよい。
The content DB 12b stores the content provided to the in-vehicle device 20 in response to the event generated in the vehicle. The content DB 12b shown in FIG. 3B includes an event ID column, a content ID column, a content data column, a corresponding reaction column, and the like, and stores information about the content provided when each event occurs in association with the event ID. The event ID column stores identification information (event ID) pre-assigned to each event. The content ID column stores identification information (content ID) pre-assigned to the content associated with each event. As the content ID, for example, an ID according to the playback order set by default for a plurality of contents associated with each event is used. The content DB 12b may be provided with a reproduction order sequence to store the reproduction order of each content. In this case, any ID can be used as the content ID. The content data column stores the content data corresponding to the content ID. The content data includes image content, audio content, light (illumination light) content, vibration content, fragrance content, air conditioning (wind) content, or a combination of these. For example, it may be video content including image content and audio content, or may be content in which content by light, vibration, fragrance, or air conditioning according to the content of the video content is further added to the video content. The content by light is defined by the color, intensity, blinking speed, etc. of the illumination light, the content by vibration is defined by the vibration pattern, vibration intensity, duration, etc., and the content by fragrance is defined by the type and intensity of fragrance. , Or the duration, etc. Further, the content by air conditioning is defined by the temperature or humidity of the air (wind) blown from the air conditioning equipment provided in the vehicle, the amount of air volume, the wind direction, the duration, and the like. In addition to being stored in the content DB 12b, the content data may be stored in a predetermined area of the storage unit 12 or another storage device. In this case, the content data string is information for reading the content data (for example, a storage location). (File name indicating) is memorized. The corresponding reaction sequence stores information about the user's reaction suitable for delivering each content, and the user's reaction includes the user's action (gesture, posture or action) and emotion (atmosphere). The event ID stored in the content DB 12b is issued and stored by the control unit 11 when a new event is registered. The content ID, content data, and corresponding reaction stored in the content DB 12b are added or changed by the control unit 11 when the control unit 11 obtains an addition or change instruction via the communication unit 13 or the input unit 14. .. The stored content of the content DB 12b is not limited to the example shown in FIG. 3B, and for example, the occurrence condition of each event may be stored. Further, the content DB 12b may be set for each user. In this case, the content DB 12b may be provided with a user ID column, and the content of each event may be stored in association with the user ID. Further, when the content DB 12b is set for each user, the content DB 12b may be stored in the in-vehicle device 20.
図4は車載装置20の構成例を示すブロック図、図5は車両内部の構成例を示す模式図である。図5は後部座席側からフロントウィンドウを見たときの車内の状態を簡単に示しており、ダッシュボード、インストルメントパネル、ドア等の図示を省略している。本実施形態の車両は、フロントウィンドウの左右端にそれぞれAピラーを介してサイドウィンドウ(左サイドウィンドウ、右サイドウィンドウ)が設けられており、フロントウィンドウ及び2つのサイドウィンドウの上端を連結するようにルーフが設けられている。また図5に示す車両は、フロントウィンドウに対向して乗車者が座るように2つの前部座席が設けられており、前部座席に着座した乗車者が視認できる位置に表示部25が設けられている。なお、車両に設けられる座席は、位置を移動できるよう設置されていてもよく、例えば1つの前部座席をフロントウィンドウの真正面に配置できるように構成されていてもよい。また、進行方向の左側の座席を左サイドウィンドウに向けて、右側の座席を右サイドウィンドウに向けて配置できるように構成されていてもよい。更に、各座席が折り畳み可能に構成されていてもよく、この場合、不要な座席を折り畳んでおくことが可能となる。表示部25は、前部座席及び後部座席に着座した乗車者が視認できる位置に設けられていればよく、複数箇所に設けられていてもよい。また図5に示す車両は、フロントウィンドウ及びルーフの境界部分の中央部と、左サイドウィンドウ及びルーフの境界部分の適宜位置と、右サイドウィンドウ及びルーフの境界部分の適宜位置とにそれぞれカメラ27が設けられている。カメラ27は、前部座席及び後部座席に着座した乗車者を撮影できる位置に設けられていればよく、図5に示す位置以外の位置に設けられていてもよい。更に図5に示す車両は、フロントウィンドウ及びルーフの境界部分の適宜位置に照明部30が設けられている。照明部30は、車内の空間を発光色で彩ることができる位置に設けられていればよく、例えばルーフの適宜位置又は乗車者の足元に近い位置等に設けられていてもよい。
FIG. 4 is a block diagram showing a configuration example of the in-vehicle device 20, and FIG. 5 is a schematic diagram showing a configuration example inside the vehicle. FIG. 5 simply shows the state of the inside of the vehicle when the front window is viewed from the rear seat side, and the dashboard, instrument panel, door, etc. are not shown. The vehicle of the present embodiment is provided with side windows (left side window, right side window) at the left and right ends of the front window via A pillars, respectively, so as to connect the front windows and the upper ends of the two side windows. There is a roof. Further, the vehicle shown in FIG. 5 is provided with two front seats so that the passenger can sit facing the front window, and a display unit 25 is provided at a position where the passenger seated in the front seat can visually recognize the vehicle. ing. The seats provided in the vehicle may be installed so as to be movable in position, and may be configured so that, for example, one front seat can be arranged directly in front of the front window. Further, the seat on the left side in the traveling direction may be arranged toward the left side window, and the seat on the right side may be arranged toward the right side window. Further, each seat may be configured to be foldable, in which case unnecessary seats can be folded. The display unit 25 may be provided at a plurality of locations as long as it is provided at a position that can be visually recognized by the passengers seated in the front seat and the rear seat. Further, in the vehicle shown in FIG. 5, the camera 27 is located at an appropriate position at the central portion of the boundary portion between the front window and the roof, at an appropriate position at the boundary portion between the left side window and the roof, and at an appropriate position at the boundary portion between the right side window and the roof, respectively. It is provided. The camera 27 may be provided at a position where the passengers seated in the front seat and the rear seat can be photographed, and may be provided at a position other than the position shown in FIG. Further, in the vehicle shown in FIG. 5, the lighting unit 30 is provided at an appropriate position at the boundary portion between the front window and the roof. The lighting unit 30 may be provided at a position where the space inside the vehicle can be colored with a light emitting color, and may be provided at an appropriate position on the roof or at a position close to the feet of the occupant, for example.
図5では図示しないが、本実施形態の車両には、マイク28、スピーカ29、振動を発生させる振動発生部31、芳香を発生させる芳香発生部32、及び風を発生させる空調制御部33が車内の適宜位置に設けられている。また、本実施形態の車両には、カメラ27が車内の乗車者を撮影できる位置に設けられているほかに、車外の風景を撮影できる位置にも設けられていてもよい。また、マイク28が車内の乗車者の発話音声を収集できる位置に設けられているほかに、車外の音を収集できる位置にも設けられていてもよい。また、本実施形態の車両には、車両周辺の香り(匂い)を収集する装置が車両外面の適宜位置に設けられていてもよい。なお、香りを収集する装置は車載装置20に内蔵されていてもよく、車載装置20に外付けされていてもよい。
Although not shown in FIG. 5, the vehicle of the present embodiment includes a microphone 28, a speaker 29, a vibration generating unit 31 that generates vibration, an fragrance generating unit 32 that generates fragrance, and an air conditioning control unit 33 that generates wind. It is provided at an appropriate position. Further, in the vehicle of the present embodiment, in addition to the camera 27 being provided at a position where the passenger inside the vehicle can be photographed, the camera 27 may be provided at a position where the scenery outside the vehicle can be photographed. Further, the microphone 28 may be provided at a position where the voice of the passenger inside the vehicle can be collected, or may be provided at a position where the sound outside the vehicle can be collected. Further, the vehicle of the present embodiment may be provided with a device for collecting the scent (smell) around the vehicle at an appropriate position on the outer surface of the vehicle. The device for collecting the scent may be built in the in-vehicle device 20 or may be externally attached to the in-vehicle device 20.
図4に示すように車載装置20は、制御部21、記憶部22、通信部23、入力部24、表示部25、測位部26、カメラ27、マイク28、スピーカ29、照明部30、振動発生部31、芳香発生部32、空調制御部33、バイタルデータ取得部34等を含み、これらの各部はバスを介して相互に接続されている。車載装置20の制御部21、記憶部22、通信部23、入力部24及び表示部25のそれぞれは、サーバ10の制御部11、記憶部12、通信部13、入力部14及び表示部15と同様の構成であるので詳細な説明は省略する。車載装置20の記憶部22は、制御部21が実行する制御プログラム22Pに加え、地図データ22D及び後述するイベントDB22aを記憶している。地図データ22Dは、車両が走行する可能性のある場所の地図データであればよく、地図データを記憶している他のサーバから車両の走行に伴って逐次ダウンロードする地図データであってもよい。地図データには、地形、道路、交差点、観光地、各種の店舗、農産物の生産地、水産物の産地(水揚げした漁港)等に関する情報が含まれる。
As shown in FIG. 4, the in-vehicle device 20 includes a control unit 21, a storage unit 22, a communication unit 23, an input unit 24, a display unit 25, a positioning unit 26, a camera 27, a microphone 28, a speaker 29, a lighting unit 30, and vibration generation. A unit 31, an aroma generation unit 32, an air conditioning control unit 33, a vital data acquisition unit 34, and the like are included, and each of these units is connected to each other via a bus. The control unit 21, the storage unit 22, the communication unit 23, the input unit 24, and the display unit 25 of the in-vehicle device 20 are the control unit 11, the storage unit 12, the communication unit 13, the input unit 14, and the display unit 15 of the server 10, respectively. Since it has the same configuration, detailed description will be omitted. The storage unit 22 of the in-vehicle device 20 stores the map data 22D and the event DB 22a described later in addition to the control program 22P executed by the control unit 21. The map data 22D may be map data of a place where the vehicle may travel, and may be map data that is sequentially downloaded as the vehicle travels from another server that stores the map data. Map data includes information on topography, roads, intersections, tourist spots, various stores, agricultural product production areas, marine product production areas (landed fishing ports), and the like.
車載装置20の入力部24は、マイク28を介した音声入力によってユーザによる操作を受け付ける構成でもよい。車載装置20の表示部25(コンテンツ再生部)は、液晶ディスプレイ又は有機ELディスプレイのほかに、ガラスに情報を映し出す(投影する)ヘッドアップディスプレイ、又はプロジェクタであってもよい。なお、表示部25がヘッドアップディスプレイである場合、フロントウィンドウ、リアウィンドウ及びサイドウィンドウ(車両窓)の一部の領域又は全領域に情報を映し出してもよく、ルーフがガラス又は透明な合成樹脂製の板で構成されている場合、ルーフの一部の領域又は全領域に情報を映し出してもよい。
The input unit 24 of the in-vehicle device 20 may be configured to accept operations by the user by voice input via the microphone 28. The display unit 25 (content reproduction unit) of the in-vehicle device 20 may be a head-up display or a projector that projects (projects) information on glass, in addition to a liquid crystal display or an organic EL display. When the display unit 25 is a head-up display, information may be projected on a part or all of the front window, the rear window, and the side window (vehicle window), and the roof is made of glass or a transparent synthetic resin. If it is composed of a board, information may be projected on a part or the whole area of the roof.
測位部26は、車載装置20(又は車両)の現在地を検出し、現在地を示す現在地情報(例えば経度及び緯度の座標値)を取得し、取得した現在地情報を制御部21へ送出する。測位部26は、例えばGPS(Global Positioning System )衛星から送信される電波を、車載装置20又は車両に設けられたGPSアンテナ(図示せず)を介して受信し、受信した電波に基づいて現在地を検出する。なお、現在地の検出方法はGPS衛星からの電波に基づく方法に限らない。測位部26は、検出した現在地及び地図データ22Dに基づいて、検出した現在地が地図上のどこであるのか、車両が走行中の道路及び交差点を特定できる。また測位部26は、ジャイロセンサ等を有し、車両の進行方向(例えば、東西南北で示される方角)を特定できる。
The positioning unit 26 detects the current location of the vehicle-mounted device 20 (or vehicle), acquires current location information (for example, coordinate values of longitude and latitude) indicating the current location, and sends the acquired current location information to the control unit 21. The positioning unit 26 receives, for example, a radio wave transmitted from a GPS (Global Positioning System) satellite via an in-vehicle device 20 or a GPS antenna (not shown) provided in the vehicle, and determines the current location based on the received radio wave. To detect. The method of detecting the current location is not limited to the method based on the radio waves from the GPS satellites. Based on the detected current location and the map data 22D, the positioning unit 26 can identify the detected current location on the map, the road on which the vehicle is traveling, and the intersection. Further, the positioning unit 26 has a gyro sensor and the like, and can specify the traveling direction of the vehicle (for example, the direction indicated by north, south, east, and west).
カメラ27は、制御部21からの指示に従って撮影する撮像装置であり、取得した撮影画像(画像データ)を記憶部22へ送出して記憶させる。カメラ27は、車載装置20に内蔵されていてもよく、車載装置20に外付けされていてもよい。外付けされる場合、車載装置20は、外部カメラの接続が可能な接続部、又は外部カメラとの無線通信が可能な無線通信部を備え、外部カメラが撮影した画像データを接続部又は無線通信部を介して取得する。
The camera 27 is an image pickup device that shoots images according to instructions from the control unit 21, and sends the acquired captured images (image data) to the storage unit 22 for storage. The camera 27 may be built in the vehicle-mounted device 20 or may be externally attached to the vehicle-mounted device 20. When externally attached, the in-vehicle device 20 includes a connection unit to which an external camera can be connected or a wireless communication unit capable of wireless communication with the external camera, and the image data taken by the external camera is connected to the connection unit or wireless communication. Get through the department.
マイク28は、制御部21からの指示に従って集音する集音装置であり、取得した音声データを記憶部22へ送出して記憶させる。マイク28は、車内に設けられて車内の音声を収集するマイクと、例えば車両の外面に設けられて車外の音声を収集するマイクとを有する。車内の音声は例えば車両内の乗車者が発話する音声、車両内でスピーカ29から出力される音声等を含む。車外の音声は例えば車両の周囲の物音、人声、雨音、サイレン音等を含む。マイク28は、車載装置20に内蔵されていてもよく、車載装置20に外付けされていてもよい。外付けされる場合、車載装置20は、外部マイクの接続が可能な接続部、又は外部マイクとの無線通信が可能な無線通信部を備え、外部マイクが収集した音声データを接続部又は無線通信部を介して取得する。
The microphone 28 is a sound collecting device that collects sound according to an instruction from the control unit 21, and sends the acquired voice data to the storage unit 22 for storage. The microphone 28 has a microphone provided inside the vehicle and collecting the sound inside the vehicle, and a microphone provided on the outer surface of the vehicle for collecting the sound outside the vehicle, for example. The voice in the vehicle includes, for example, the voice spoken by the passenger in the vehicle, the voice output from the speaker 29 in the vehicle, and the like. The sound outside the vehicle includes, for example, noise around the vehicle, human voice, rain sound, siren sound, and the like. The microphone 28 may be built in the vehicle-mounted device 20 or may be externally attached to the vehicle-mounted device 20. When externally attached, the in-vehicle device 20 includes a connection unit capable of connecting an external microphone or a wireless communication unit capable of wireless communication with the external microphone, and the voice data collected by the external microphone is connected to the connection unit or wireless communication. Get through the department.
スピーカ29(コンテンツ再生部)は、制御部21からの指示に従って音声出力する音声出力部であり、制御部21が指示する音声又は音楽を出力する。スピーカ29は、車載装置20に内蔵されていてもよく、車載装置20に外付けされていてもよい。外付けされる場合、車載装置20は、外部スピーカの接続が可能な接続部、又は外部スピーカとの無線通信が可能な無線通信部を備え、接続部又は無線通信部は、制御部21からの指示に従った音声信号(音楽信号)を外部スピーカへ送出し、外部スピーカに音声又は音楽を出力させる。
The speaker 29 (content reproduction unit) is an audio output unit that outputs audio according to an instruction from the control unit 21, and outputs audio or music instructed by the control unit 21. The speaker 29 may be built in the vehicle-mounted device 20 or may be externally attached to the vehicle-mounted device 20. When externally attached, the in-vehicle device 20 includes a connection unit capable of connecting an external speaker or a wireless communication unit capable of wireless communication with the external speaker, and the connection unit or the wireless communication unit is from the control unit 21. The voice signal (music signal) according to the instruction is sent to the external speaker, and the voice or music is output to the external speaker.
照明部30は、白色、赤色、青色、緑色等のいずれかの色又は複数色の光を発するライトを有し、制御部21からの指示に従った色の光を発する。照明部30は、車載装置20に内蔵されていてもよく、車載装置20に外付けされていてもよい。外付けされる場合、車載装置20は、外部ライトの接続が可能な接続部、又は外部ライトとの無線通信が可能な無線通信部を備え、接続部又は無線通信部は、制御部21からの発光指示を外部ライトへ送出し、外部ライトを発光させる。
The illumination unit 30 has a light that emits light of any one color such as white, red, blue, and green, or a plurality of colors, and emits light of a color according to an instruction from the control unit 21. The lighting unit 30 may be built in the vehicle-mounted device 20 or may be externally attached to the vehicle-mounted device 20. When externally attached, the in-vehicle device 20 includes a connection unit capable of connecting an external light or a wireless communication unit capable of wireless communication with the external light, and the connection unit or the wireless communication unit is from the control unit 21. A light emission instruction is sent to an external light to make the external light emit light.
振動発生部31は、例えば複数パターンの振動を発生させることができるバイブレータを有し、制御部21からの指示に従ったパターンの振動をバイブレータによって発生させる。振動発生部31は、例えば各座席に設けられており、各座席に対して同じパターンの振動を発生させるように構成されていてもよく、それぞれ異なるパターンの振動を発生させるように構成されていてもよい。振動発生部31は、車載装置20に内蔵されていてもよく、車載装置20に外付けされていてもよい。外付けされる場合、車載装置20は、外部バイブレータの接続が可能な接続部、又は外部バイブレータとの無線通信が可能な無線通信部を備え、接続部又は無線通信部は、制御部21からの振動指示を外部バイブレータへ送出し、外部バイブレータを振動させる。
The vibration generating unit 31 has, for example, a vibrator capable of generating a plurality of patterns of vibration, and generates a pattern of vibration according to an instruction from the control unit 21 by the vibrator. The vibration generating unit 31 is provided in each seat, for example, and may be configured to generate the same pattern of vibration for each seat, or may be configured to generate different patterns of vibration. May be good. The vibration generating unit 31 may be built in the vehicle-mounted device 20 or may be externally attached to the vehicle-mounted device 20. When externally attached, the in-vehicle device 20 includes a connection unit capable of connecting an external vibrator or a wireless communication unit capable of wireless communication with an external vibrator, and the connection unit or the wireless communication unit is from the control unit 21. The vibration instruction is sent to the external vibrator to vibrate the external vibrator.
芳香発生部32は、例えば複数種類の芳香剤又はアロマオイルを貯蔵する貯蔵タンクと、貯蔵タンク内の芳香剤又はアロマオイルを放出(噴霧)する放出部とを有する芳香発生デバイスを有し、制御部21からの指示に従った芳香(香り)を芳香発生デバイスによって発生させる。芳香発生部32は、車載装置20に内蔵されていてもよく、車載装置20に外付けされていてもよい。外付けされる場合、車載装置20は、外部の芳香発生デバイスの接続が可能な接続部、又は外部の芳香発生デバイスとの無線通信が可能な無線通信部を備え、接続部又は無線通信部は、制御部21からの芳香発生指示を外部の芳香発生デバイスへ送出し、外部の芳香発生デバイスによって芳香を発生させる。
The fragrance generation unit 32 has, for example, a storage tank for storing a plurality of types of fragrances or aroma oils, and an fragrance generation device having a discharge unit for releasing (spraying) the fragrances or aroma oils in the storage tank, and controls the fragrance generation unit 32. The aroma (scent) according to the instruction from the part 21 is generated by the aroma generating device. The fragrance generating unit 32 may be built in the vehicle-mounted device 20 or may be externally attached to the vehicle-mounted device 20. When externally attached, the in-vehicle device 20 includes a connection unit capable of connecting an external fragrance generating device or a wireless communication unit capable of wireless communication with an external fragrance generating device, and the connection unit or the wireless communication unit is provided. , The fragrance generation instruction from the control unit 21 is sent to the external fragrance generation device, and the fragrance is generated by the external fragrance generation device.
空調制御部33は、車両内の空気の温度及び湿度等を調整する空調機器(エアーコンディショナー)から放出される空気の状態を制御する空調制御デバイスであり、制御部21からの指示に従った空気(風)を空調機器に放出させる。空調制御部33は、空調機器から放出される空気の温度、湿度、風量、風向等の空調条件を制御する。また空調機器は、例えばコンプレッサーで圧縮した圧縮空気を噴射するエアブラスト機能を有しており、空調制御部33は、空調機器から噴射される空気の風量(風力)を制御できる。バイタルデータ取得部34は、制御部21からの指示に従って乗車者のバイタルデータを取得し、取得したバイタルデータを記憶部22へ送出して記憶させる。バイタルデータは例えば体温、心拍(脈拍)、心電図、呼吸の状態等を含む。バイタルデータ取得部34は例えば、乗車者のバイタルデータを計測する計測器(図示せず)を有し、計測器によって計測されたバイタルデータを取得する。なお、計測器は、例えば車両のハンドル又はアームレスト(肘掛け)等に設けられ、ハンドルを把持する乗車者(運転者)の手、又はアームレストに載置された乗車者の手又は腕からバイタルデータを計測するように構成されていてもよい。計測器は車載装置20に内蔵されていてもよく、車載装置20に外付けされていてもよい。またバイタルデータ取得部34は、計測器を有する構成のほかに、計測器との通信が可能な通信器を有し、計測器が計測したバイタルデータを通信器にて取得する構成でもよい。この場合、計測器は例えば腕時計型のウェアラブルデバイスであってもよく、乗車者の手首、腕等に装着されて使用される。なお、乗車者のバイタルデータは、例えば乗車者を撮影した画像を解析して取得されてもよく、乗車者の顔画像を分析して得られる乗車者の表情を含んでいてもよい。
The air conditioning control unit 33 is an air conditioning control device that controls the state of the air discharged from the air conditioning device (air conditioner) that adjusts the temperature and humidity of the air in the vehicle, and the air according to the instruction from the control unit 21. (Wind) is released to the air conditioner. The air conditioning control unit 33 controls air conditioning conditions such as temperature, humidity, air volume, and wind direction of air discharged from the air conditioning equipment. Further, the air conditioning equipment has, for example, an air blast function for injecting compressed air compressed by a compressor, and the air conditioning control unit 33 can control the air volume (wind power) of the air injected from the air conditioning equipment. The vital data acquisition unit 34 acquires the occupant's vital data according to the instruction from the control unit 21, and sends the acquired vital data to the storage unit 22 for storage. Vital data includes, for example, body temperature, heart rate (pulse), electrocardiogram, respiratory status, and the like. The vital data acquisition unit 34 has, for example, a measuring instrument (not shown) for measuring the vital data of the passenger, and acquires the vital data measured by the measuring instrument. The measuring instrument is provided, for example, on the steering wheel or armrest (armrest) of the vehicle, and the vital data is collected from the hand of the occupant (driver) who holds the steering wheel, or the hand or arm of the occupant placed on the armrest. It may be configured to measure. The measuring instrument may be built in the vehicle-mounted device 20 or may be externally attached to the vehicle-mounted device 20. Further, in addition to the configuration having the measuring instrument, the vital data acquisition unit 34 may have a communication device capable of communicating with the measuring instrument and may acquire the vital data measured by the measuring instrument by the communication device. In this case, the measuring instrument may be, for example, a wristwatch-type wearable device, and is used by being worn on the wrist, arm, or the like of a occupant. The vital data of the occupant may be acquired by analyzing, for example, an image of the occupant, or may include the facial expression of the occupant obtained by analyzing the facial image of the occupant.
図6はイベントDB22aの構成例を示す模式図である。イベントDB22aは、複数のイベントのそれぞれについてイベントの発生条件を記憶する。図6に示すイベントDB22aは、イベントID列及び発生条件列等を含む。イベントID列は、各イベントの識別情報(イベントID)を記憶する。発生条件列は、それぞれのイベントが発生したとする発生条件に関する情報を記憶する。発生条件は、車内に関する条件(車内条件)と、車外に関する条件(車外条件)とを含む。車内条件は例えば車両内の乗車者の着座位置、各着座位置の乗車者の属性(性別及び年齢等)、関係性(親密度)、動作及び感情、各乗車者の着座位置の相対関係等、車内の状況に関する条件を含む。例えば前部座席に20代の男女2人が乗車していること、車両内に子供(例えば10歳以下)が乗車していること、各乗車者が喜び、悲しみ、恐怖、リラックス等の所定の感情であること等を車内条件に用いることができる。車外条件は例えば現在日時(季節、曜日、時間帯等)、天気、車両の現在地、走行速度及び走行方角、出発地及び目的地、車両周辺の景色、音及び香り(匂い)等、車外の状況に関する条件を含む。例えば所定の店舗までの距離が所定距離以内となったこと、走行場所(現在地)が所定の町内であること、平均的な走行速度が所定速度以上又は以下であること、所定季節の所定時間帯又は所定天気であること等を車外条件に用いることができる。イベントDB22aに記憶されるイベントIDは、新たなイベントの発生条件が登録される場合に、制御部21によって発行されて記憶される。イベントDB22aに記憶される発生条件は、制御部21が通信部23又は入力部24を介して追加又は変更の指示を取得した場合に、制御部21によって追加又は変更される。なお、各イベントの発生条件は、例えばサーバ10のコンテンツDB12bに一旦登録された後に、イベントIDに対応付けてサーバ10から車載装置20へ送信され、車載装置20のイベントDB22aに登録されてもよい。イベントDB22aの記憶内容は図6に示す例に限定されない。例えば各イベントに対応するコンテンツデータ及び各コンテンツを配信(再生)する際に適したユーザの反応(対応反応)が予めダウンロードされてイベントDB22aに記憶されていてもよい。また、イベントの発生条件のほかに、発生中のイベントが中断したとする中断条件に関する情報、発生中のイベントが完了したとする完了条件に関する情報、他のイベントに切り替えるための切替条件に関する情報等がイベントDB22aに記憶されていてもよい。
FIG. 6 is a schematic diagram showing a configuration example of the event DB 22a. The event DB 22a stores the event occurrence condition for each of the plurality of events. The event DB 22a shown in FIG. 6 includes an event ID column, an occurrence condition column, and the like. The event ID column stores identification information (event ID) of each event. The occurrence condition column stores information about the occurrence condition when each event occurs. Occurrence conditions include conditions related to the inside of the vehicle (conditions inside the vehicle) and conditions related to the outside of the vehicle (conditions outside the vehicle). The conditions inside the vehicle are, for example, the seating position of the passenger in the vehicle, the attributes (gender and age, etc.) of the passenger at each seating position, the relationship (intimacy), movement and emotion, the relative relationship of the seating position of each passenger, etc. Includes conditions regarding the situation inside the car. For example, two men and women in their twenties are in the front seats, children (for example, under 10 years old) are in the vehicle, and each passenger is happy, sad, scared, relaxed, etc. Being emotional can be used as an in-vehicle condition. The conditions outside the vehicle are, for example, the current date and time (season, day, time zone, etc.), weather, current location of the vehicle, traveling speed and direction, departure point and destination, scenery around the vehicle, sound and scent (smell), etc. Includes conditions for. For example, the distance to a predetermined store is within a predetermined distance, the driving place (current location) is in a predetermined town, the average traveling speed is equal to or less than the predetermined speed, and the predetermined time zone of the predetermined season. Alternatively, it can be used as an outside condition such as having a predetermined weather. The event ID stored in the event DB 22a is issued and stored by the control unit 21 when a new event occurrence condition is registered. The generation condition stored in the event DB 22a is added or changed by the control unit 21 when the control unit 21 acquires an instruction for addition or change via the communication unit 23 or the input unit 24. The occurrence condition of each event may be, for example, once registered in the content DB 12b of the server 10, transmitted from the server 10 to the in-vehicle device 20 in association with the event ID, and registered in the event DB 22a of the in-vehicle device 20. .. The stored content of the event DB 22a is not limited to the example shown in FIG. For example, the content data corresponding to each event and the user's reaction (corresponding reaction) suitable for distributing (reproducing) each content may be downloaded in advance and stored in the event DB 22a. In addition to the event occurrence condition, information on the interruption condition that the occurring event is interrupted, information on the completion condition that the occurring event is completed, information on the switching condition for switching to another event, etc. May be stored in the event DB 22a.
本実施形態では、各車両で発生したイベントの発生履歴は、サーバ10のユーザDB12aにユーザIDに対応付けて記憶される構成とする。これにより、同じユーザが異なる車両に乗車する場合であっても、サーバ10に登録してあるイベント発生履歴を考慮したコンテンツを、ユーザが乗車する車両に提供することが可能となる。このほかに、各車両で発生したイベントの発生履歴を車載装置20のイベントDB22a又は記憶部22に記憶する構成としてもよい。この場合、車載装置20は、イベント発生の有無を判定する際に、過去のイベント発生履歴を参照することが可能となる。
In the present embodiment, the occurrence history of the event generated in each vehicle is stored in the user DB 12a of the server 10 in association with the user ID. As a result, even when the same user gets on a different vehicle, it is possible to provide the content considering the event occurrence history registered in the server 10 to the vehicle on which the user gets on. In addition, the event DB 22a or the storage unit 22 of the vehicle-mounted device 20 may store the event occurrence history of each vehicle. In this case, the in-vehicle device 20 can refer to the past event occurrence history when determining the presence / absence of the event occurrence.
以下に、上述した構成の情報処理システムにおいて、車両で発生したイベントに応じたコンテンツをサーバ10が車載装置20に提供する処理について説明する。図7及び図8はコンテンツの提供処理手順の一例を示すフローチャート、図9は車外情報の取得処理手順の一例を示すフローチャート、図10は車内情報の取得処理手順の一例を示すフローチャートである。図7及び図8では左側に車載装置20が行う処理を、右側にサーバ10が行う処理をそれぞれ示す。図9に示す車外情報の取得処理は、図7中のステップS12の処理であり、図10に示す車内情報の取得処理は、図7中のステップS13の処理である。以下の処理は、車載装置20の記憶部22に記憶してある制御プログラム22Pに従って制御部21によって実現され、サーバ10の記憶部12に記憶してある制御プログラム12Pに従って制御部11によって実現される。以下の処理の一部を専用のハードウェア回路で実現してもよい。
Hereinafter, in the information processing system having the above-described configuration, the process of providing the content corresponding to the event generated in the vehicle to the in-vehicle device 20 by the server 10 will be described. 7 and 8 are a flowchart showing an example of a content provision processing procedure, FIG. 9 is a flowchart showing an example of an outside vehicle information acquisition processing procedure, and FIG. 10 is a flowchart showing an example of an in-vehicle information acquisition processing procedure. 7 and 8 show the processing performed by the in-vehicle device 20 on the left side and the processing performed by the server 10 on the right side. The process of acquiring the information outside the vehicle shown in FIG. 9 is the process of step S12 in FIG. 7, and the process of acquiring the information inside the vehicle shown in FIG. 10 is the process of step S13 in FIG. The following processing is realized by the control unit 21 according to the control program 22P stored in the storage unit 22 of the vehicle-mounted device 20, and is realized by the control unit 11 according to the control program 12P stored in the storage unit 12 of the server 10. .. A part of the following processing may be realized by a dedicated hardware circuit.
本実施形態の情報処理システムにおいて、車載装置20は、動作を開始した場合、定期的に車両の内外の状態に関する情報(状態情報)を収集し、収集した状態情報に基づいていずれかのイベントの発生条件を満たすか否かを判断する。なお、状態情報は車両外部(車外)の状態に関する情報(車外情報)及び車両内部(車内)の状態に関する情報(車内情報)を含む。いずれかのイベントの発生条件を満たすと判断した場合、車載装置20はサーバ10に発生イベントを通知し、サーバ10は、発生イベントに対応するコンテンツを車載装置20に提供する。なお、車載装置20が動作を開始した場合とは、車両が走行を開始した場合であってもよく、車両が停車中又は駐車中であってもよい。また車両が自動走行できるように構成された自動走行車両である場合、車両が自動走行を開始した場合であってもよい。
In the information processing system of the present embodiment, when the in-vehicle device 20 starts operation, it periodically collects information (state information) regarding the state inside and outside the vehicle, and based on the collected state information, any event Judge whether or not the occurrence condition is satisfied. The state information includes information on the state outside the vehicle (outside the vehicle) (information outside the vehicle) and information on the state inside the vehicle (inside the vehicle) (information inside the vehicle). When it is determined that the occurrence condition of any of the events is satisfied, the in-vehicle device 20 notifies the server 10 of the occurrence event, and the server 10 provides the in-vehicle device 20 with the content corresponding to the occurrence event. The case where the in-vehicle device 20 starts the operation may be the case where the vehicle starts running, and the vehicle may be stopped or parked. Further, when the vehicle is an automatic traveling vehicle configured to be able to automatically travel, it may be a case where the vehicle starts automatic traveling.
車載装置20の制御部21は、車外情報及び車内情報を取得するタイミングが到来したか否かを判断する(S11)。制御部21は定期的に車外情報及び車内情報を取得しており、直近の取得処理の実行から所定時間が経過したか否かに応じて、実行タイミングが到来したか否かを判断する。取得タイミングが到来していないと判断した場合(S11:NO)、制御部21は他の処理を行いつつ待機する。取得タイミングが到来したと判断した場合(S11:YES)、制御部21は、車外情報の取得処理を行う(S12)。
The control unit 21 of the in-vehicle device 20 determines whether or not the timing for acquiring the information outside the vehicle and the information inside the vehicle has arrived (S11). The control unit 21 periodically acquires information outside the vehicle and information inside the vehicle, and determines whether or not the execution timing has arrived, depending on whether or not a predetermined time has elapsed from the execution of the latest acquisition process. When it is determined that the acquisition timing has not arrived (S11: NO), the control unit 21 stands by while performing other processing. When it is determined that the acquisition timing has arrived (S11: YES), the control unit 21 performs the acquisition process of the information outside the vehicle (S12).
図9に示す車外情報の取得処理において、制御部21は、この時点での日時情報を取得する(S31)。例えば車載装置20は時計を有しており、制御部21は、時計が示す日時情報(年月日、時、分、秒、曜日)を取得する。次に制御部21は、この時点での車両(車載装置20)の位置情報(現在地情報)を測位部26によって取得し(S32)、車両の現在地情報に基づいて、車両の周辺地図を地図データ22Dから取得する(S33)。例えば制御部21は車両周囲の所定範囲内(例えば10km以内)の地図データを取得する。また制御部21は、車両の現在地の天気情報(気温、湿度、降水量、日照時間等)を取得する(S34)。例えば制御部21は、ネットワークN経由で天気情報(気象情報)を公開しているウェブサーバ(図示せず)から現在地の天気情報を取得してもよく、車両に気温、湿度、降水量、日照時間等を検知するセンサが設けてある場合、各センサから検知結果を取得してもよい。なお、制御部21は、現在の天気情報を取得してもよく、現在から所定時間後(例えば1時間後)までの天気情報を取得してもよい。
In the vehicle outside information acquisition process shown in FIG. 9, the control unit 21 acquires the date and time information at this point (S31). For example, the vehicle-mounted device 20 has a clock, and the control unit 21 acquires date and time information (year / month / day, hour, minute, second, day of the week) indicated by the clock. Next, the control unit 21 acquires the position information (current location information) of the vehicle (vehicle-mounted device 20) at this time by the positioning unit 26 (S32), and maps the surrounding map of the vehicle based on the vehicle's current location information. Obtained from 22D (S33). For example, the control unit 21 acquires map data within a predetermined range (for example, within 10 km) around the vehicle. Further, the control unit 21 acquires weather information (temperature, humidity, precipitation, sunshine duration, etc.) of the current location of the vehicle (S34). For example, the control unit 21 may acquire the weather information of the current location from a web server (not shown) that publishes the weather information (weather information) via the network N, and the temperature, humidity, precipitation, and sunshine of the vehicle may be acquired. If a sensor for detecting time or the like is provided, the detection result may be acquired from each sensor. The control unit 21 may acquire the current weather information, or may acquire the weather information from the present to a predetermined time (for example, one hour later).
また制御部21は、車両の走行速度及び走行方向の方角を取得する(S35)。例えば制御部21は、車両に設けられている速度センサ(図示せず)が検知した速度(走行速度)を取得し、測位部26が検知した走行方向の方角を取得する。また制御部21は、車両の出発地及び目的地を取得する(S36)。例えば制御部21は、車両が走行を開始した時点で測位部26が検知した位置情報を出発地の情報として取得し、車内に設けられたナビゲーション装置に設定された目的地を車両の目的地として取得する。なお、出発地の情報は、車両が走行を開始した際に一度取得すればよく、目的地の情報は、ナビゲーション装置に目的地が設定された際に、又は目的地が変更された際に取得すればよい。また制御部21は、車外の風景を撮影できる位置に設けられたカメラ27によって車両周辺の撮影画像を取得し(S37)、車外の音を収集できる位置に設けられたマイク28によって車両周辺の音声を取得する(S38)。そして制御部21は、車両周辺の画像及び音声に基づいて、車両周辺の環境情報を取得する(S39)。例えば制御部21は、車両周辺の環境が商業施設の多い繁華街であるか、閑静な住宅街であるか、田舎の田園風景であるか、海辺であるか、山道であるか等、街並み及び人の様子等を検出する。なお、車両に香り(匂い)を収集する装置が設けられている場合、制御部21は、車両周辺の香り(匂い)を取得し、取得した香りも考慮して周辺環境を判定してもよい。制御部21は、上述した情報を含む車外情報を取得する都度、記憶部22に記憶しておく。なお、車外情報は、上述した情報のほかに、車外の状況に関する情報、車外から取得できる情報等を含んでいてもよい。
Further, the control unit 21 acquires the traveling speed and the traveling direction of the vehicle (S35). For example, the control unit 21 acquires the speed (traveling speed) detected by the speed sensor (not shown) provided in the vehicle, and acquires the direction in the traveling direction detected by the positioning unit 26. Further, the control unit 21 acquires the departure point and the destination of the vehicle (S36). For example, the control unit 21 acquires the position information detected by the positioning unit 26 at the time when the vehicle starts traveling as the information of the departure place, and sets the destination set in the navigation device provided in the vehicle as the destination of the vehicle. get. The departure point information may be acquired once when the vehicle starts traveling, and the destination information may be acquired when the destination is set in the navigation device or when the destination is changed. do it. Further, the control unit 21 acquires a photographed image around the vehicle by a camera 27 provided at a position where the scenery outside the vehicle can be photographed (S37), and a microphone 28 provided at a position where the sound outside the vehicle can be collected makes a sound around the vehicle. (S38). Then, the control unit 21 acquires the environmental information around the vehicle based on the image and the sound around the vehicle (S39). For example, the control unit 21 has a cityscape and a mountain road, such as whether the environment around the vehicle is a downtown area with many commercial facilities, a quiet residential area, a rural landscape, a seaside, or a mountain road. Detects the state of people. When the vehicle is provided with a device for collecting scents (smell), the control unit 21 may acquire the scent (smell) around the vehicle and determine the surrounding environment in consideration of the acquired scent. .. The control unit 21 stores the information outside the vehicle including the above-mentioned information in the storage unit 22 each time it is acquired. In addition to the above-mentioned information, the information outside the vehicle may include information regarding the situation outside the vehicle, information that can be acquired from outside the vehicle, and the like.
制御部21は、図7に示す処理に戻り、車内情報の取得処理を行う(S13)。図10に示す車内情報の取得処理において、制御部21は、乗車者の着座位置を検出する(S51)。例えば車両内の各座席に着座センサが設けられている場合、制御部21は、それぞれの着座センサによる検知結果に基づいて、各座席に乗車者が着座しているか否かを判断する。また、制御部21は、車内をカメラ27で撮影し、得られた撮影画像に基づいて、各座席に乗車者が着座しているか否かを判断してもよい。この場合、ステップS52の処理後にステップS51の処理を行えばよい。
The control unit 21 returns to the process shown in FIG. 7 and performs an in-vehicle information acquisition process (S13). In the vehicle interior information acquisition process shown in FIG. 10, the control unit 21 detects the seating position of the occupant (S51). For example, when each seat in the vehicle is provided with a seating sensor, the control unit 21 determines whether or not a occupant is seated in each seat based on the detection result of each seating sensor. Further, the control unit 21 may photograph the inside of the vehicle with the camera 27 and determine whether or not the passenger is seated in each seat based on the obtained captured image. In this case, the process of step S51 may be performed after the process of step S52.
次に制御部21は、各座席に着座している乗車者をカメラ27にて撮影し、撮影画像を取得する(S52)。また制御部21は、各座席に着座している乗車者の発話音声をマイク28にて取得する(S53)。更に制御部21は、各座席に着座している乗車者のバイタルデータをバイタルデータ取得部34にて取得する(S54)。各座席に対応付けてカメラ27、マイク28及びバイタルデータ取得部34(計測器)が設けられている場合、制御部21は、それぞれのカメラ27、マイク28及びバイタルデータ取得部34によって各座席に着座している乗車者の撮影画像、発話音声及びバイタルデータを取得できる。制御部21は、各乗車者の撮影画像及び/又は発話音声に基づいて、各乗車者の属性を検出する(S55)。例えば制御部21は、テンプレートマッチング技術によって撮影画像中の乗車者の属性を検出する。具体的には、属性(性別及び年齢層)毎に、一般的な人の顔又は上半身の画像に基づくテンプレートを予め記憶部22に登録しておき、制御部21は、撮影画像からいずれかのテンプレートに一致する領域を検知した場合、検知したテンプレートに対応する属性を撮影画像中の乗車者の属性に特定する。また、属性(性別及び年齢層)毎に、一般的な人の発話音声の音声信号に基づくテンプレートを予め記憶部22に登録しておき、制御部21は、マイク28を介して取得した発話音声からいずれかのテンプレートに一致する音声信号を検知した場合、検知したテンプレートに対応する属性を、発話音声を集音した乗車者の属性に特定する。なお、制御部21は、撮影画像に基づいて特定した乗車者の属性と、発話音声に基づいて特定した乗車者の属性とを考慮して、最終的な乗車者の属性を特定してもよい。
Next, the control unit 21 photographs the passengers seated in each seat with the camera 27 and acquires the photographed image (S52). Further, the control unit 21 acquires the utterance voice of the passenger seated in each seat with the microphone 28 (S53). Further, the control unit 21 acquires the vital data of the passengers seated in each seat by the vital data acquisition unit 34 (S54). When a camera 27, a microphone 28, and a vital data acquisition unit 34 (measuring instrument) are provided in association with each seat, the control unit 21 attaches the camera 27, the microphone 28, and the vital data acquisition unit 34 to each seat by means of the respective cameras 27, the microphone 28, and the vital data acquisition unit 34. It is possible to acquire captured images, spoken voices, and vital data of seated passengers. The control unit 21 detects the attributes of each passenger based on the captured image and / or the spoken voice of each passenger (S55). For example, the control unit 21 detects the attributes of the passenger in the captured image by the template matching technique. Specifically, for each attribute (gender and age group), a template based on an image of a general person's face or upper body is registered in advance in the storage unit 22, and the control unit 21 uses any of the captured images. When an area matching the template is detected, the attribute corresponding to the detected template is specified as the attribute of the passenger in the captured image. Further, for each attribute (gender and age group), a template based on the voice signal of a general person's utterance voice is registered in advance in the storage unit 22, and the control unit 21 obtains the utterance voice via the microphone 28. When a voice signal matching any of the templates is detected from, the attribute corresponding to the detected template is specified as the attribute of the passenger who collected the uttered voice. The control unit 21 may specify the final occupant attribute in consideration of the occupant attribute specified based on the captured image and the occupant attribute specified based on the utterance voice. ..
なお、制御部21は、機械学習によって構築されたニューラルネットワークを用いて、各乗車者の撮影画像及び/又は発話音声に基づいて、各乗車者の属性を検出してもよい。例えばCNN(Convolution Neural Network)モデルで構成され、撮影画像が入力された場合に、撮影画像中の被写体(乗車者)の性別及び年齢層を出力するように学習された学習モデルを用いてもよい。この場合、制御部21は、ステップS52で取得した撮影画像を学習済みの学習モデルに入力し、学習モデルからの出力情報に基づいて、撮影画像中の乗車者の性別及び年齢層を特定することができる。また、CNNモデル、RNN(Recurrent Neural Network)モデル等で構成され、発話音声が入力された場合に、発話者(乗車者)の性別及び年齢層を出力するように学習された学習モデルを用いてもよい。この場合、制御部21は、ステップS53で取得した発話音声を学習済みの学習モデルに入力し、学習モデルからの出力情報に基づいて、発話音声に係る発話者の性別及び年齢層を特定することができる。ここでも、制御部21は、撮影画像に基づいて特定した乗車者の属性と、発話音声に基づいて特定した乗車者の属性とを考慮して、最終的な乗車者の属性を特定してもよい。なお、制御部21は、ステップS54で取得した各乗車者のバイタルデータも考慮して、各乗車者の属性を検出してもよい。
The control unit 21 may detect the attributes of each passenger based on the captured image and / or the spoken voice of each passenger by using the neural network constructed by machine learning. For example, a learning model composed of a CNN (Convolution Neural Network) model and trained to output the gender and age group of the subject (passenger) in the captured image when the captured image is input may be used. .. In this case, the control unit 21 inputs the captured image acquired in step S52 into the trained learning model, and identifies the gender and age group of the passenger in the captured image based on the output information from the learning model. Can be done. In addition, using a learning model that is composed of a CNN model, RNN (Recurrent Neural Network) model, etc. and is trained to output the gender and age group of the speaker (passenger) when the spoken voice is input. May be good. In this case, the control unit 21 inputs the utterance voice acquired in step S53 into the learned learning model, and identifies the gender and age group of the speaker related to the utterance voice based on the output information from the learning model. Can be done. Again, the control unit 21 may specify the final occupant attribute in consideration of the occupant attribute identified based on the captured image and the occupant attribute identified based on the utterance voice. good. The control unit 21 may detect the attributes of each passenger in consideration of the vital data of each passenger acquired in step S54.
次に制御部21は、各乗車者の撮影画像に基づいて、各乗車者の動作を検出する(S56)。例えば制御部21は、撮影画像中の被写体(乗車者)の頭部、手、腕又は胴体等の各部を検出し、時系列の撮影画像において乗車者の各部の移動軌跡を検出する。また、乗車者が行う可能性のある各動作に対応付けて、乗車者の各部の移動軌跡を予め記憶部22に登録しておき、制御部21は、検出した乗車者の各部の移動軌跡に一致する動作を特定する。例えば制御部21は、乗車者がうなずく動作、手を振る動作、腕を回す動作等を行ったか否かを検出する。ここでも制御部21は、ニューラルネットワークを用いて撮影画像中の乗車者の動作を検出してもよい。例えばCNNモデル又はRNNモデルで構成され、撮影画像が入力された場合に、撮影画像中の被写体(乗車者)が行った動きに関する情報を出力するように学習された学習モデルを用いてもよい。この場合、制御部21は、ステップS52で取得した撮影画像を学習済みの学習モデルに入力し、学習モデルからの出力情報に基づいて、撮影画像中の乗車者の動きを特定することができる。
Next, the control unit 21 detects the movement of each passenger based on the captured image of each passenger (S56). For example, the control unit 21 detects each part of the subject (passenger)'s head, hand, arm, torso, etc. in the captured image, and detects the movement locus of each part of the passenger in the time-series captured image. Further, the movement locus of each part of the occupant is registered in advance in the storage unit 22 in association with each movement that the occupant may perform, and the control unit 21 uses the detected movement locus of each part of the occupant as the movement locus of the occupant. Identify matching behaviors. For example, the control unit 21 detects whether or not the occupant has performed a nodding motion, a waving motion, an arm turning motion, or the like. Here, too, the control unit 21 may detect the movement of the occupant in the captured image by using the neural network. For example, a learning model composed of a CNN model or an RNN model and trained to output information on the movement performed by the subject (passenger) in the captured image when the captured image is input may be used. In this case, the control unit 21 can input the captured image acquired in step S52 into the trained learning model and identify the movement of the occupant in the captured image based on the output information from the learning model.
次に制御部21は、各乗車者の撮影画像及び/又は発話音声に基づいて、各乗車者の感情を検出する(S57)。例えば制御部21は、Microsoft社製のEmotion APIのように撮影画像から被写体の感情を検出するアプリケーションプログラムを用いて、撮影画像中の乗車者の感情を検出する。また制御部21は、乗車者の発話音声(会話音声)から乗車者の声のトーン及び強さ、話すスピード等の情報を抽出し、抽出した情報に基づいて乗車者の感情を検出する。乗車者の感情は例えば喜び、悲しみ、怒り、嫌悪、驚き、リラックス等を含み、各感情について例えば10点満点(10点が最高で0点が最低)の数値で表される。なお、制御部21は、乗車者の撮影画像及び発話音声に加えて、乗車者のバイタルデータを分析することによって乗車者の感情を検出してもよい。例えば制御部21は、乗車者のバイタルデータから心拍数又は呼吸の状態等を抽出し、抽出した情報に基づいて乗車者の感情を検出してもよい。ここでも制御部21は、ニューラルネットワークを用いて乗車者の感情を検出してもよい。例えばCNNモデルで構成され、乗車者の撮影画像及び/又は発話音声が入力された場合に、乗車者の感情に関する情報を出力するように学習された学習モデルを用いてもよい。この場合、制御部21は、ステップS52で取得した撮影画像及び/又はステップS53で取得した発話音声を学習済みの学習モデルに入力し、学習モデルからの出力情報に基づいて、乗車者の感情を推定することができる。また、乗車者の撮影画像及び/又は発話音声に加えてバイタルデータが入力された場合に、乗車者の感情に関する情報を出力するように学習された学習モデルを用いてもよい。乗車者は車両の走行中は着座位置を移動しない可能性が高いので、各乗車者の着座位置、各座席に着座している乗車者の属性は、例えば車両が走行を開始した際に一度取得すればよい。なお、各乗車者の着座位置及び属性も定期的に取得してもよく、この場合、車載装置20が動作中(例えば車両の走行中)に乗車者が着座位置を移動した場合であっても、各座席に着座している乗車者の属性を逐次更新できる。上述した処理により、制御部21は、車内の各座席について、乗車者の着座の有無、着座している乗車者の属性、動作及び感情等を含む車内情報を取得し、上述した車内情報を取得する都度、記憶部22に記憶しておく。なお、車内情報は、上述した情報のほかに、車内の状況に関する情報、車内で取得できる情報等を含んでいてもよい。
Next, the control unit 21 detects the emotions of each passenger based on the captured image and / or the spoken voice of each passenger (S57). For example, the control unit 21 detects the emotion of the occupant in the captured image by using an application program that detects the emotion of the subject from the captured image, such as the Emotion API manufactured by Microsoft. Further, the control unit 21 extracts information such as the tone and strength of the passenger's voice and the speaking speed from the spoken voice (conversation voice) of the passenger, and detects the emotion of the passenger based on the extracted information. The passenger's emotions include, for example, joy, sadness, anger, disgust, surprise, relaxation, etc., and each emotion is represented by a numerical value of, for example, a maximum of 10 points (10 points is the highest and 0 points is the lowest). The control unit 21 may detect the occupant's emotions by analyzing the occupant's vital data in addition to the occupant's photographed image and spoken voice. For example, the control unit 21 may extract a heart rate, a respiratory state, or the like from the vital data of the passenger, and detect the emotion of the passenger based on the extracted information. Again, the control unit 21 may detect the emotions of the occupant using a neural network. For example, a learning model composed of a CNN model and trained to output information on the occupant's emotions when a photographed image and / or utterance voice of the occupant is input may be used. In this case, the control unit 21 inputs the captured image acquired in step S52 and / or the utterance voice acquired in step S53 into the learned learning model, and based on the output information from the learning model, the emotions of the occupant are input. Can be estimated. Further, a learning model trained to output information on the occupant's emotions when vital data is input in addition to the occupant's photographed image and / or utterance voice may be used. Since it is highly likely that the passenger does not move the seating position while the vehicle is running, the seating position of each passenger and the attributes of the passengers seated in each seat are acquired once, for example, when the vehicle starts running. do it. The seating position and attributes of each passenger may also be acquired periodically. In this case, even if the passenger moves the seating position while the in-vehicle device 20 is operating (for example, while the vehicle is running). , The attributes of the passengers seated in each seat can be updated sequentially. Through the above-mentioned processing, the control unit 21 acquires in-vehicle information including the presence / absence of seating of the occupant, the attributes, movements, emotions, etc. of the seated occupant for each seat in the vehicle, and acquires the above-mentioned in-vehicle information. Each time it is done, it is stored in the storage unit 22. In addition to the above-mentioned information, the in-vehicle information may include information on the situation inside the vehicle, information that can be acquired in the vehicle, and the like.
制御部21は、図7に示す処理に戻り、ステップS12で取得した車外情報と、ステップS13で取得した車内情報とに基づいて、いずれかのイベントの発生条件を満たすか否かを判断する(S14)。具体的には、制御部21は、イベントDB22aに記憶してある各イベントの発生条件(車外条件又は車内条件)に対して、取得した車外情報及び車内情報が適合するか否かを判断し、いずれかのイベントの発生条件に適合する場合、このイベントの発生条件を満たすと判断する。これにより、例えば車両の現在地(位置情報)、季節、時間帯、天候、走行速度、出発地及び目的地、車両周辺の景色及び音等の車外情報、又は、乗車人数、各乗車者(ユーザ)の着座位置、属性、動作及び感情等の車内情報に基づいて、いずれかのイベントの発生条件を満たすか否かを判断できる。制御部21は、いずれのイベントの発生条件にも適合しない(イベント発生条件を満たさない)と判断した場合(S14:NO)、ステップS11の処理に戻る。制御部21は、取得タイミングが到来する都度、ステップS12~S14の処理を行い、車外情報及び車内情報を取得し、いずれかのイベントの発生条件を満たすか否かを判断する処理を繰り返す。
The control unit 21 returns to the process shown in FIG. 7, and determines whether or not the occurrence condition of any of the events is satisfied based on the out-of-vehicle information acquired in step S12 and the in-vehicle information acquired in step S13 (). S14). Specifically, the control unit 21 determines whether or not the acquired out-of-vehicle information and in-vehicle information match the occurrence conditions (outside-vehicle conditions or in-vehicle conditions) of each event stored in the event DB 22a. If the occurrence condition of any of the events is met, it is judged that the occurrence condition of this event is satisfied. As a result, for example, outside information such as the vehicle's current location (position information), season, time zone, weather, traveling speed, departure point and destination, scenery and sound around the vehicle, or the number of passengers and each passenger (user). Based on the in-vehicle information such as the seating position, attributes, movements, and emotions of the vehicle, it is possible to determine whether or not the occurrence condition of any of the events is satisfied. When the control unit 21 determines that the event occurrence conditions are not met (event generation conditions are not satisfied) (S14: NO), the control unit 21 returns to the process of step S11. The control unit 21 performs the processes of steps S12 to S14 each time the acquisition timing arrives, acquires the information outside the vehicle and the information inside the vehicle, and repeats the process of determining whether or not the occurrence condition of any of the events is satisfied.
いずれかのイベントの発生条件を満たすと判断した場合(S14:YES)、制御部21は、イベントの発生をサーバ10に通知する(S15)。例えば制御部21は、この車両に乗車しているユーザのユーザID、車載装置20の宛先情報、発生したイベントのイベントIDを対応付けてサーバ10へ送信する。なお、ユーザID及び車載装置20の宛先情報は予め記憶部22に記憶してあってもよく、入力部24を介して入力されてもよい。サーバ10の制御部11は、車載装置20からイベントの発生を通知された場合、車載装置20から受信したユーザIDに対応付けて、このときの日時及び受信したイベントIDをイベント発生履歴としてユーザDB12aに記憶しておく。
When it is determined that the occurrence condition of any of the events is satisfied (S14: YES), the control unit 21 notifies the server 10 of the occurrence of the event (S15). For example, the control unit 21 transmits the user ID of the user in the vehicle, the destination information of the in-vehicle device 20, and the event ID of the generated event to the server 10 in association with each other. The user ID and the destination information of the vehicle-mounted device 20 may be stored in the storage unit 22 in advance, or may be input via the input unit 24. When the in-vehicle device 20 notifies the occurrence of an event, the control unit 11 of the server 10 associates the user ID received from the in-vehicle device 20 with the date and time and the received event ID as the event occurrence history in the user DB 12a. Remember in.
制御部11は、車載装置20から通知されたイベント、即ち、車載装置20が搭載されている車両で発生したイベントに対応するコンテンツをコンテンツDB12bから読み出す(S16)。例えば制御部11は、イベントに対応するコンテンツのうちで、コンテンツIDが最小(最初)のコンテンツを読み出す。そして制御部11(再生処理部)は、読み出したコンテンツを車載装置20へ送信し(S17)、車載装置20に再生させる。制御部11は、車載装置20へ送信したコンテンツのコンテンツIDを、ユーザID及びイベントIDに対応付けてユーザDB12aに記憶しておく。これにより、サーバ10が車載装置20へ送信したコンテンツの送信履歴をユーザDB12aに記憶しておくことができる。なお、制御部11は、コンテンツIDに対応付けてコンテンツの送信日時をユーザDB12aに記憶しておいてもよい。
The control unit 11 reads the content notified from the vehicle-mounted device 20, that is, the content corresponding to the event generated in the vehicle on which the vehicle-mounted device 20 is mounted, from the content DB 12b (S16). For example, the control unit 11 reads out the content having the smallest (first) content ID among the contents corresponding to the event. Then, the control unit 11 (reproduction processing unit) transmits the read content to the in-vehicle device 20 (S17), and causes the in-vehicle device 20 to reproduce the content. The control unit 11 stores the content ID of the content transmitted to the vehicle-mounted device 20 in the user DB 12a in association with the user ID and the event ID. As a result, the transmission history of the content transmitted by the server 10 to the in-vehicle device 20 can be stored in the user DB 12a. The control unit 11 may store the transmission date and time of the content in the user DB 12a in association with the content ID.
車載装置20の制御部21は、サーバ10から受信したコンテンツを再生する(S18)。例えば制御部21は、コンテンツに画像コンテンツが含まれる場合、画像コンテンツを表示部25に表示させ、コンテンツに音声コンテンツが含まれる場合、音声コンテンツをスピーカ29から音声出力させる。また制御部21は、コンテンツに光によるコンテンツが含まれる場合、光によるコンテンツに従って照明部30を点灯又は点滅させ、コンテンツに振動によるコンテンツが含まれる場合、振動によるコンテンツに従って振動発生部31にて振動を発生させる。更に制御部21は、コンテンツに芳香によるコンテンツが含まれる場合、芳香によるコンテンツに従って芳香発生部32にて芳香を発生させる。更に制御部21は、コンテンツに空調(空気、風)によるコンテンツが含まれる場合、空調によるコンテンツに従って空調制御部33によって風を発生させる。
The control unit 21 of the in-vehicle device 20 reproduces the content received from the server 10 (S18). For example, the control unit 21 causes the display unit 25 to display the image content when the content includes the image content, and outputs the audio content from the speaker 29 when the content includes the audio content. Further, when the content includes the content due to light, the control unit 21 turns on or blinks the lighting unit 30 according to the content due to light, and when the content includes the content due to vibration, the control unit 21 vibrates according to the content due to vibration. To generate. Further, when the content includes the content due to the fragrance, the control unit 21 generates the fragrance in the fragrance generation unit 32 according to the content due to the fragrance. Further, when the content includes the content by air conditioning (air, wind), the control unit 21 generates wind by the air conditioning control unit 33 according to the content by air conditioning.
車載装置20の制御部21は、サーバ10から受信するコンテンツの再生中においても、ステップS12,S13の処理を定期的に繰り返し、車外情報及び車内情報を収集する。よって、制御部21(検出部)は、再生されたコンテンツを視聴(体感)する乗車者の動作及び感情(反応)を逐次検出できる。そして、制御部21は、コンテンツの再生中に逐次取得する乗車者の反応(動作及び感情)に基づいてユーザの反応に変化が生じたか否かを判断する(S19)。例えば制御部21は、定期的に検出する各乗車者の感情が変化したか否かを判断し、変化した場合、ユーザ(乗車者)の反応に変化が生じたと判断する。また制御部21は、各乗車者の動作が変化したか否かを判断し、変化した場合、乗車者の反応に変化が生じたと判断する。制御部21は、ユーザ(乗車者)の反応に変化が生じたと判断した場合(S19:YES)、ユーザの反応を示す反応情報をサーバ10へ送信する(S20)。例えば制御部21は、ユーザのユーザID、再生中のコンテンツのコンテンツID、ユーザの反応を示す反応情報を対応付けてサーバ10へ送信する。なお、反応情報は、変化後の反応(例えばユーザの感情又は動作)を示す情報であってもよく、変化前後の反応をそれぞれ示す情報であってもよい。ここで、各コンテンツには、反応の変化を検出すべき検出対象のユーザが設定されていてもよく、この場合、制御部21は、車両内の乗車者から、検出対象のユーザを特定し、特定したユーザの反応に変化が生じたか否かを判断してもよい。この場合、コンテンツDB12bに記憶してある各コンテンツの対応反応(配信する際に適したユーザの反応)の情報に、検出対象のユーザの情報及びこのユーザの反応を含める。検出対象のユーザの情報は例えば、年齢又は性別等を含む属性情報、着座位置、目的地(行き先)等を含んでもよい。これにより、コンテンツを視聴する乗車者のうちで、例えば子供(所定年齢以下の乗車者)、又は助手席に着座しているユーザ等、コンテンツに応じたユーザの反応を検出することができる。なお、検出対象のユーザとして複数のユーザが登録され、各ユーザに対して優先順位が設定されていてもよい。例えば、優先順位1番に助手席のユーザが設定され、優先順位2番に運転席のユーザが設定されている場合、助手席に着座するユーザがいる場合には、このユーザの反応を検出し、助手席に着座するユーザがいない場合には、運転席に着座するユーザ(運転手)の反応を検出してもよい。
The control unit 21 of the in-vehicle device 20 periodically repeats the processes of steps S12 and S13 even during the reproduction of the content received from the server 10, and collects the information outside the vehicle and the information inside the vehicle. Therefore, the control unit 21 (detection unit) can sequentially detect the movements and emotions (reactions) of the passenger who views (experiences) the reproduced content. Then, the control unit 21 determines whether or not the user's reaction has changed based on the passenger's reaction (motion and emotion) that is sequentially acquired during the reproduction of the content (S19). For example, the control unit 21 determines whether or not the emotions of each passenger that are periodically detected have changed, and if so, determines that the reaction of the user (passenger) has changed. Further, the control unit 21 determines whether or not the movement of each passenger has changed, and if so, determines that the reaction of the passenger has changed. When the control unit 21 determines that the reaction of the user (passenger) has changed (S19: YES), the control unit 21 transmits reaction information indicating the user's reaction to the server 10 (S20). For example, the control unit 21 transmits the user ID of the user, the content ID of the content being played, and the reaction information indicating the reaction of the user to the server 10 in association with each other. The reaction information may be information indicating the reaction after the change (for example, the emotion or action of the user), or may be information indicating the reaction before and after the change. Here, a detection target user to detect a change in reaction may be set in each content. In this case, the control unit 21 identifies the detection target user from the passengers in the vehicle. It may be determined whether or not the reaction of the identified user has changed. In this case, the information of the user to be detected and the reaction of this user are included in the information of the corresponding reaction (the reaction of the user suitable for distribution) of each content stored in the content DB 12b. The information of the user to be detected may include, for example, attribute information including age or gender, a seating position, a destination (destination), and the like. Thereby, among the passengers who watch the content, it is possible to detect the reaction of the user according to the content, for example, a child (a passenger of a predetermined age or younger) or a user sitting in the passenger seat. A plurality of users may be registered as users to be detected, and a priority may be set for each user. For example, if a passenger seat user is set in priority 1 and a driver seat user is set in priority 2, and there is a user seated in the passenger seat, the reaction of this user is detected. If there is no user seated in the passenger seat, the reaction of the user (driver) seated in the driver's seat may be detected.
サーバ10の制御部11は、車載装置20からユーザの反応情報を受信した場合、車載装置20から受信したユーザID及びコンテンツIDに対応付けて、受信した反応情報をイベント発生履歴のユーザ反応としてユーザDB12aに記憶しておく。そして制御部11は、車載装置20から受信したユーザの反応情報に基づいて、現在車載装置20へ送信中のコンテンツの送信を中止すべきか否かを判断する(S21)。例えば制御部11は、車載装置20へ送信中のコンテンツを配信する際に適したユーザの反応(対応反応)をコンテンツDB12bから読み出す。そして制御部11は、車載装置20から受信したユーザの反応が、コンテンツDB12bから読み出した対応反応に一致するか否かを判断し、一致しない場合、コンテンツの送信を中止すべきであると判断する。なお、制御部11は、車載装置20から受信したユーザの反応が、コンテンツDB12bから読み出した対応反応に一致する場合、コンテンツの送信を中止する必要はないと判断してもよい。
When the control unit 11 of the server 10 receives the reaction information of the user from the in-vehicle device 20, the control unit 11 associates the received reaction information with the user ID and the content ID received from the in-vehicle device 20 and uses the received reaction information as the user reaction in the event occurrence history. Store in DB12a. Then, the control unit 11 determines whether or not to stop the transmission of the content currently being transmitted to the vehicle-mounted device 20 based on the reaction information of the user received from the vehicle-mounted device 20 (S21). For example, the control unit 11 reads a user's reaction (corresponding reaction) suitable for delivering the content being transmitted to the in-vehicle device 20 from the content DB 12b. Then, the control unit 11 determines whether or not the reaction of the user received from the in-vehicle device 20 matches the corresponding reaction read from the content DB 12b, and if not, determines that the transmission of the content should be stopped. .. If the user's reaction received from the in-vehicle device 20 matches the corresponding reaction read from the content DB 12b, the control unit 11 may determine that it is not necessary to stop the transmission of the content.
コンテンツの送信を中止する必要はないと判断した場合(S21:NO)、制御部11は、ステップS17の処理に戻り、車両で発生しているイベントに対応するコンテンツの車載装置20への送信を継続する。これにより、車載装置20は、サーバ10から提供されるコンテンツの再生を継続する。なお、各イベントに対応付けられている複数のコンテンツにはデフォルトで再生順序(配信順序)が設定されており、制御部11は、1つのコンテンツの送信を完了した場合、次の再生順序のコンテンツをコンテンツDB12bから読み出して車載装置20への送信を開始する。これにより、サーバ10は、ユーザの反応が各コンテンツの対応反応に一致する場合、即ち、ユーザの反応がコンテンツ配信に適した反応である場合、予め設定された再生順序で各コンテンツを車載装置20へ送信する。
When it is determined that it is not necessary to stop the transmission of the content (S21: NO), the control unit 11 returns to the process of step S17 and transmits the content corresponding to the event occurring in the vehicle to the in-vehicle device 20. continue. As a result, the in-vehicle device 20 continues to reproduce the content provided by the server 10. The playback order (delivery order) is set by default for the plurality of contents associated with each event, and when the control unit 11 completes the transmission of one content, the content of the next playback order is set. Is read from the content DB 12b and transmission to the in-vehicle device 20 is started. As a result, when the user's reaction matches the corresponding reaction of each content, that is, when the user's reaction is a reaction suitable for content distribution, the server 10 displays each content in the preset reproduction order in the vehicle-mounted device 20. Send to.
コンテンツの送信を中止すべきであると判断した場合(S21:YES)、制御部11は、同じイベントに対応するコンテンツのうちで、現在のユーザの反応に適したコンテンツをコンテンツDB12bから読み出し(S22)、車載装置20へ送信する(S17)。例えば制御部11は、コンテンツDB12bに記憶してある各コンテンツの対応反応から、車載装置20から受信したユーザの反応に一致する対応反応を特定し、特定した対応反応に対応するコンテンツを、このユーザに提供すべきコンテンツとして読み出し、車載装置20へ提供する。また、制御部11は、ユーザDB12aに登録してある各コンテンツに対する過去のユーザの反応を考慮して、現在のユーザの反応に適したコンテンツを特定してもよい。よって、制御部11は、コンテンツを視聴(体験)する乗車者の反応に応じて、再生中のコンテンツの再生継続又は再生終了を制御し、再生終了した場合には次に再生すべきコンテンツを特定する処理(コンテンツ制御)を行うコンテンツ制御部として動作する。これにより、サーバ10は、ユーザの反応に応じたコンテンツを車載装置20経由でユーザに提供できる。なお、車載装置20から受信したユーザの反応に一致する対応反応に対応するコンテンツが複数ある場合、例えばコンテンツIDの順に読み出してもよい。なお、制御部11は、車載装置20に対するコンテンツの送信を開始した後、送信を開始したコンテンツのコンテンツIDを、ユーザID及びイベントIDに対応付けてユーザDB12aに記憶しておく。また制御部11は、コンテンツIDに対応付けてコンテンツの送信日時をユーザDB12aに記憶しておいてもよい。
When it is determined that the transmission of the content should be stopped (S21: YES), the control unit 11 reads the content corresponding to the same event, which is suitable for the reaction of the current user, from the content DB 12b (S22). ), Sent to the in-vehicle device 20 (S17). For example, the control unit 11 identifies a correspondence reaction that matches the user's reaction received from the in-vehicle device 20 from the correspondence reaction of each content stored in the content DB 12b, and selects the content corresponding to the specified correspondence reaction by this user. It is read out as content to be provided to the in-vehicle device 20 and provided to the in-vehicle device 20. Further, the control unit 11 may specify the content suitable for the reaction of the current user in consideration of the reaction of the past user to each content registered in the user DB 12a. Therefore, the control unit 11 controls the continuation or end of playback of the content being played according to the reaction of the passenger who views (experiences) the content, and when the playback ends, the control unit 11 specifies the content to be played next. Operates as a content control unit that performs processing (content control). As a result, the server 10 can provide the user with the content according to the reaction of the user via the in-vehicle device 20. When there are a plurality of contents corresponding to the corresponding reactions that match the user's reactions received from the in-vehicle device 20, for example, the contents may be read out in the order of the content IDs. After starting the transmission of the content to the in-vehicle device 20, the control unit 11 stores the content ID of the content for which the transmission has started in the user DB 12a in association with the user ID and the event ID. Further, the control unit 11 may store the transmission date and time of the content in the user DB 12a in association with the content ID.
なお、ステップS22において、制御部11は、ニューラルネットワークを用いて、ユーザの反応に適したコンテンツを特定してもよい。例えばCNNモデルで構成され、乗車者の感情、現在日時、現在地等の情報が入力された場合に、乗車者に提供すべきコンテンツに関する情報(例えばコンテンツID、コンテンツのタイプ、コンテンツの提供に適したユーザの反応)を出力するように学習された学習モデルを用いてもよい。この場合、制御部11は、車載装置20がステップS57で取得した乗車者の感情、ステップS31で取得した日時情報、ステップS32で取得した現在地情報等を取得し、これらの情報を学習済みの学習モデルに入力し、学習モデルからの出力情報に基づいて、乗車者に提供すべきコンテンツを特定することができる。なお、各乗車者の着座位置、属性、感情、動作等を含む車内情報と、現在日時、現在地、天気、走行速度、走行方角、目的地、車両周辺の環境等を含む車外情報とが入力された場合に、乗車者に提供すべきコンテンツに関する情報を出力するように学習された学習モデルを用いてもよい。この場合、制御部11は、車載装置20がステップS12で取得した車外情報、及びステップS13で取得した車内情報を取得し、車外情報及び車内情報を学習済みの学習モデルに入力し、学習モデルからの出力情報に基づいて、乗車者に提供すべきコンテンツを特定することができる。
In step S22, the control unit 11 may specify the content suitable for the user's reaction by using the neural network. For example, it is composed of a CNN model and is suitable for providing information about the content to be provided to the passenger (for example, content ID, content type, content provision) when information such as the passenger's emotion, current date and time, and current location is input. A learning model trained to output the user's reaction) may be used. In this case, the control unit 11 acquires the occupant's emotion acquired in step S57, the date and time information acquired in step S31, the current location information acquired in step S32, and the like, and the in-vehicle device 20 has learned these information. It can be input to the model and the content to be provided to the passenger can be specified based on the output information from the learning model. In-vehicle information including the seating position, attributes, emotions, movements, etc. of each passenger and outside information including the current date and time, current location, weather, traveling speed, driving direction, destination, environment around the vehicle, etc. are input. In that case, a learning model trained to output information about the content to be provided to the passenger may be used. In this case, the control unit 11 acquires the out-of-vehicle information acquired in step S12 and the in-vehicle information acquired in step S13, inputs the out-of-vehicle information and the in-vehicle information into the learned learning model, and uses the learning model. Based on the output information of, the content to be provided to the passenger can be specified.
車載装置20の制御部21は、サーバ10から送信されるコンテンツに対して、ステップS18~S20の処理を行う。即ち、制御部21は、サーバ10から受信したコンテンツを再生し(S18)、このときのユーザの反応に変化が生じたか否かを判断し(S19)、変化が生じた場合に(S19:YES)、ユーザの反応をサーバ10へ送信する(S20)。これにより、サーバ10は、1つのイベントに対応付けられている複数のコンテンツを、ユーザの反応に応じた順序で車載装置20へ提供でき、車載装置20で再生させることができる。
The control unit 21 of the in-vehicle device 20 performs the processes of steps S18 to S20 for the content transmitted from the server 10. That is, the control unit 21 reproduces the content received from the server 10 (S18), determines whether or not the user's reaction at this time has changed (S19), and if the change occurs (S19: YES). ), The user's reaction is transmitted to the server 10 (S20). As a result, the server 10 can provide the plurality of contents associated with one event to the in-vehicle device 20 in an order according to the reaction of the user, and can be reproduced by the in-vehicle device 20.
車載装置20の制御部21は、コンテンツの再生中にユーザの反応に変化が生じていないと判断した場合(S19:NO)、ステップS20の処理をスキップし、サーバ10から送信されてくる1つのコンテンツが終了したか否かを判断する(S23)。例えば各コンテンツは最初及び最後にそれぞれ最初又は最後を示す情報が付与されており、制御部21は、コンテンツの最後を示す情報をサーバ10から受信した場合、再生中のコンテンツが終了したと判断する。再生中のコンテンツが終了していないと判断した場合(S23:NO)、制御部21は、ステップS18の処理に戻り、サーバ10から送信されてくるコンテンツの再生を継続する。
When the control unit 21 of the in-vehicle device 20 determines that the reaction of the user has not changed during the reproduction of the content (S19: NO), the process of step S20 is skipped and one transmitted from the server 10. It is determined whether or not the content is finished (S23). For example, each content is given information indicating the beginning or the end, respectively, and the control unit 21 determines that the content being played has ended when the information indicating the end of the content is received from the server 10. .. If it is determined that the content being played is not finished (S23: NO), the control unit 21 returns to the process of step S18 and continues playing the content transmitted from the server 10.
制御部21は、再生中のコンテンツが終了したと判断した場合(S23:YES)、この時点のユーザの反応を検出し(S24)、検出した反応を示す反応情報をサーバ10へ送信する(S25)。ここでは、制御部21は、定期的に収集する車内情報に基づいて、この時点のユーザの反応(動作及び感情)を検出し、ユーザのユーザID、再生が終了したコンテンツのコンテンツID、ユーザの反応情報を対応付けてサーバ10へ送信する。サーバ10の制御部11は、車載装置20からユーザの反応情報を受信した場合、受信したユーザID及びコンテンツIDに対応付けて、受信した反応情報をイベント発生履歴のユーザ反応としてユーザDB12aに記憶しておく(S26)。
When the control unit 21 determines that the content being played has ended (S23: YES), the control unit 21 detects the user's reaction at this point (S24), and transmits the reaction information indicating the detected reaction to the server 10 (S25). ). Here, the control unit 21 detects the user's reaction (motion and emotion) at this time based on the in-vehicle information collected periodically, and the user's user ID, the content ID of the content whose reproduction has been completed, and the user's The reaction information is associated and transmitted to the server 10. When the control unit 11 of the server 10 receives the reaction information of the user from the in-vehicle device 20, the control unit 11 stores the received reaction information in the user DB 12a as a user reaction of the event occurrence history in association with the received user ID and content ID. Keep it (S26).
車載装置20の制御部21は、上述した一連の処理を終了すべきか否かを判断しており(S27)、終了すべきでないと判断した場合(S27:NO)、ステップS18の処理に戻る。そして、制御部21は、サーバ10から逐次送信されてくるコンテンツを受信して再生し(S18)、上述した処理を繰り返す。これにより、サーバ10は、車両で発生したイベントに対応するコンテンツであり、ユーザの反応に応じたコンテンツを車載装置20に提供することができ、車載装置20を介してユーザに提供できる。制御部21は、上述した一連の処理を終了すべきであると判断した場合(S27:YES)、処理を終了する。
The control unit 21 of the in-vehicle device 20 has determined whether or not the series of processes described above should be terminated (S27), and if it is determined that the process should not be terminated (S27: NO), the process returns to the process of step S18. Then, the control unit 21 receives and reproduces the content sequentially transmitted from the server 10 (S18), and repeats the above-mentioned processing. As a result, the server 10 is content corresponding to the event generated in the vehicle, can provide the content according to the reaction of the user to the vehicle-mounted device 20, and can be provided to the user via the vehicle-mounted device 20. When the control unit 21 determines that the above-mentioned series of processes should be completed (S27: YES), the control unit 21 ends the processes.
上述した処理により、車載装置20が定期的に取得する車外情報及び車内情報に基づいていずれかのイベントが車両に発生したと判断された場合に、車両に発生したイベントに対応するコンテンツが車載装置20で再生される。よって、車両内のユーザ(乗車者)は車両に発生したイベントに応じたコンテンツを車載装置20で視聴(体験)することができる。例えば所定の住所に車両が進入したというイベント発生条件に対応付けて、所定の住所に関するコンテンツを登録しておくことにより、車両が所定の住所に進入した場合に、所定の住所に対応付けられているコンテンツを車載装置20に再生させることができる。具体的には、所定の場所に対応付けて、所定場所に関する画像及び音声(音楽)を含む動画コンテンツを登録しておくことにより、車両が所定の場所を走行した場合に、その場所の画像及び音楽が再生される。なお、コンテンツは、画像及び音声だけでなく、画像又は音声に応じた光(照明光)、振動、芳香又は空調によるコンテンツを含んでもよい。これにより、車両の走行場所(現在地)に応じた画像を表示することができ、音声を出力することができ、光、振動、芳香及び風を発生させることができる。なお、例えば乗車者に怒りの感情が生じたというイベント発生条件に対応付けて、空調機器から吹き出される空気(風)の温度を所定温度下げるというコンテンツを登録しておくことにより、乗車者に怒りの感情が生じた場合に、空調機器から吹き出される空気の温度を所定温度下げることができ、その結果、乗車者の怒りが鎮まる可能性が期待できる。また、車両の走行速度(イベント発生条件)に応じて空調機器から吹き出される風量を登録しておくことにより、車両の走行速度に応じた風量に制御することができ、車両の外面が受ける空気抵抗を車内で感じる(体験する)ことが可能となる。
When it is determined by the above-mentioned processing that any event has occurred in the vehicle based on the information outside the vehicle and the information inside the vehicle periodically acquired by the vehicle-mounted device 20, the content corresponding to the event generated in the vehicle is the content corresponding to the vehicle-mounted device. Played at 20. Therefore, the user (passenger) in the vehicle can view (experience) the content corresponding to the event generated in the vehicle on the in-vehicle device 20. For example, by registering the content related to the predetermined address in association with the event occurrence condition that the vehicle has entered the predetermined address, when the vehicle enters the predetermined address, it is associated with the predetermined address. The existing content can be reproduced by the in-vehicle device 20. Specifically, by registering video content including images and sounds (music) related to a predetermined place in association with a predetermined place, when the vehicle travels in the predetermined place, the image of the place and the image of the place and the video content are registered. Music is played. The content may include not only the image and the sound but also the light (illumination light), vibration, fragrance, or air-conditioning content corresponding to the image or the sound. As a result, an image corresponding to the traveling place (current location) of the vehicle can be displayed, a sound can be output, and light, vibration, fragrance, and wind can be generated. In addition, for example, by registering the content of lowering the temperature of the air (wind) blown from the air conditioner by a predetermined temperature in association with the event occurrence condition that the passenger feels angry, the passenger can be informed. When feelings of anger occur, the temperature of the air blown from the air conditioner can be lowered by a predetermined temperature, and as a result, it can be expected that the anger of the passenger will be calmed down. In addition, by registering the amount of air blown from the air conditioner according to the traveling speed of the vehicle (event generation condition), it is possible to control the air volume according to the traveling speed of the vehicle, and the air received by the outer surface of the vehicle. It is possible to feel (experience) resistance in the car.
また、交差点、橋、トンネル、高速道路等の所定場所に車両が進入したというイベント発生条件に対応付けて、所定場所に対応するコンテンツを登録しておいてもよい。この場合、車両が所定場所を走行中に、所定場所に対応付けられているコンテンツを車載装置20に再生させることができる。また、所定の店舗までの距離が所定距離以下となったというイベント発生条件に対応付けて、この店舗の広告に関するコンテンツを登録しておいてもよい。この場合、所定の店舗までの距離が所定距離以下となったときに、この店舗の広告に関するコンテンツを車載装置20に再生させることができる。また、目的地が海水浴場で目的地までの距離が所定距離以下となったというイベント発生条件に対応付けて、海水浴で使用する浮輪又はパラソル等を販売する店舗の広告、又は、浮輪やパラソル等の購入を促す広告に関するコンテンツを登録しておいてもよい。この場合、目的地の海水浴場までの距離が所定距離以下となったときに、近隣の店舗の広告、又は、浮輪やパラソル等の購入を促す広告に関するコンテンツを車載装置20に再生させることができる。また、目的地に所定場所が設定されたというイベント発生条件に対応付けて、所定場所に関するコンテンツを登録しておいてもよい。この場合、目的地に所定場所が設定されたときに、目的地に到着するまでの間、所定場所に関するコンテンツを車載装置20に再生させることができる。また、乗車者にネガティブな感情(例えば悲しみ、怒り、嫌悪等)が生じたというイベント発生条件に対応付けて、乗車者の気持ちを明るくするためのコンテンツを登録しておいてもよい。この場合、乗車者にネガティブな感情が発生したときに、乗車者の気持ちを明るくするためのコンテンツを車載装置20に再生させることができる。また、車両が走行中又は停車中であるというイベント発生条件に対応付けてそれぞれ異なるコンテンツを登録しておいてもよく、この場合、車両の状態(走行中又は停車中)に応じたコンテンツを車載装置20に再生させることができる。
Further, the content corresponding to the predetermined place may be registered in association with the event occurrence condition that the vehicle has entered the predetermined place such as an intersection, a bridge, a tunnel, or a highway. In this case, while the vehicle is traveling in the predetermined place, the content associated with the predetermined place can be reproduced by the in-vehicle device 20. Further, the content related to the advertisement of this store may be registered in association with the event occurrence condition that the distance to the predetermined store is equal to or less than the predetermined distance. In this case, when the distance to the predetermined store becomes less than or equal to the predetermined distance, the content related to the advertisement of the store can be reproduced by the in-vehicle device 20. In addition, in correspondence with the event occurrence condition that the destination is a beach and the distance to the destination is less than a predetermined distance, advertisements for stores selling floats or parasols used for swimming, or floats, parasols, etc. You may register the content related to the advertisement that encourages the purchase of. In this case, when the distance to the destination beach is less than or equal to a predetermined distance, the in-vehicle device 20 can reproduce the content related to the advertisement of a nearby store or the advertisement for urging the purchase of a float, a parasol, or the like. .. Further, the content related to the predetermined place may be registered in association with the event occurrence condition that the predetermined place is set as the destination. In this case, when a predetermined place is set as the destination, the in-vehicle device 20 can reproduce the content related to the predetermined place until the predetermined place is reached. In addition, content for brightening the passenger's feelings may be registered in association with the event occurrence condition that the passenger has a negative emotion (for example, sadness, anger, disgust, etc.). In this case, when the occupant has a negative emotion, the in-vehicle device 20 can reproduce the content for brightening the occupant's feelings. Further, different contents may be registered in correspondence with the event occurrence condition that the vehicle is running or stopped. In this case, the contents according to the state of the vehicle (running or stopped) are mounted on the vehicle. It can be regenerated by the device 20.
また、所定の店舗までの距離が所定距離以下となったときに乗車者に喜びの感情が生じたというイベント発生条件に対応付けて、この店舗で使用できるクーポンに関するコンテンツを登録しておいてもよい。この場合、所定の店舗までの距離が所定距離以下となったときに乗車者に喜びの感情が生じていれば、この店舗のクーポンに関するコンテンツを車載装置20に再生でき、クーポンを提供することができる。このように、車両の位置情報と乗車者の感情とを組み合わせた条件をイベント発生条件に設定しておいてもよい。更に、車両周囲にコスモス畑があるというイベント発生条件、又は車両周囲でコスモスの香りがするというイベント発生条件に対応付けて、コスモスの香り(芳香)を発生させるというコンテンツを登録しておいてもよい。この場合、車両がコスモス畑の近くを走行したときに、コスモスの香り(芳香)を車載装置20の芳香発生部32にて発生させることができる。この場合、車両の窓及びドアを閉めている場合であっても、車両内のユーザが、車両外と同様の芳香を体験することが可能となる。
In addition, even if the content related to the coupon that can be used at this store is registered in association with the event occurrence condition that the passenger feels joy when the distance to the predetermined store is less than the predetermined distance. good. In this case, if the passenger feels joy when the distance to the predetermined store is less than or equal to the predetermined distance, the content related to the coupon of this store can be reproduced on the in-vehicle device 20 and the coupon can be provided. can. In this way, a condition that combines the position information of the vehicle and the emotion of the occupant may be set as the event occurrence condition. Furthermore, even if the content that generates the scent of cosmos (fragrance) is registered in association with the event occurrence condition that there is a cosmos field around the vehicle or the event occurrence condition that the scent of cosmos is scented around the vehicle. good. In this case, when the vehicle travels near the cosmos field, the scent (fragrance) of cosmos can be generated by the fragrance generating unit 32 of the in-vehicle device 20. In this case, even when the windows and doors of the vehicle are closed, the user inside the vehicle can experience the same fragrance as outside the vehicle.
更に、20代の男女が前部座席に着座しており、2人に喜びの感情が生じているというイベント発生条件に対応付けて、ロマンチックなコンテンツを登録しておいてもよい。この場合、前部座席に着座している20代の男女に喜びの感情が生じたときに、ロマンチックなコンテンツを車載装置20に再生させることができる。なお、20代の男女が前部座席に着座しているというイベント発生条件と、60代の男女が前部座席に着座しているというイベント発生条件とにおいて異なるコンテンツを登録しておくことにより、年齢層に応じたコンテンツの提供が可能となる。例えば、60代の男女が前部座席に着座しているというイベント発生条件に対応付けて、60代の男女が20代の頃に流行った音楽を登録しておいてもよい。また、車両周辺で緊急車両のサイレン音が発生しているというイベント発生条件に対応付けて、緊急車両が接近していることを通知するためのコンテンツ、又は緊急車両に道路を譲ることを通知するためのコンテンツを登録しておいてもよい。この場合、緊急車両が接近してきたときに、対応するコンテンツを車載装置20に再生させることにより、緊急車両の接近を乗車者に通知できる。
Further, romantic content may be registered in association with the event occurrence condition that a man and a woman in their twenties are seated in the front seats and the two people are feeling joy. In this case, when a man or woman in his twenties sitting in the front seat feels joy, romantic content can be reproduced on the in-vehicle device 20. By registering different contents depending on the event occurrence condition that men and women in their 20s are seated in the front seats and the event occurrence conditions that men and women in their 60s are seated in the front seats, It is possible to provide content according to the age group. For example, music that was popular when men and women in their 60s were in their 20s may be registered in association with the event occurrence condition that men and women in their 60s are seated in the front seats. In addition, in correspondence with the event occurrence condition that the siren sound of the emergency vehicle is generated around the vehicle, the content for notifying that the emergency vehicle is approaching or notifying the emergency vehicle that the road is to be handed over. You may register the contents for the purpose. In this case, when the emergency vehicle is approaching, the in-vehicle device 20 can reproduce the corresponding content, so that the passenger can be notified of the approach of the emergency vehicle.
また、各座席に着座する乗車者の属性に応じたコンテンツを登録しておいてもよく、この場合、各乗車者が着座する位置に応じて異なるコンテンツを再生させることが可能となる。例えば、前部座席(助手席)に大人が着座している場合と、子供が着座している場合とにおいて、前部座席から視認可能な表示部25に表示される画像コンテンツを異ならせることが可能である。また、表示部25が複数設けられている場合、1人の乗車者が前部座席に着座している場合と、後部座席に着座している場合とにおいて、この乗車者に提供する画像コンテンツをこの乗車者が視認可能な表示部25に表示させることが可能である。
In addition, content corresponding to the attributes of the passengers seated in each seat may be registered, and in this case, different contents can be reproduced according to the seated position of each passenger. For example, the image content displayed on the display unit 25 visible from the front seat may be different depending on whether an adult is seated in the front seat (passenger seat) or a child is seated. It is possible. Further, when a plurality of display units 25 are provided, the image content provided to the passenger is provided when one passenger is seated in the front seat and when the passenger is seated in the rear seat. It is possible to display the display on the display unit 25 that can be visually recognized by the passenger.
上述したように、本実施形態では、車内情報及び車外情報を組み合わせて設定された発生条件に基づいて、車両にいずれのイベントが発生しているかが判断され、車両に発生したイベントに応じたコンテンツを車載装置20にて再生することができる。よって、車両の走行場所(現在地)、季節、時間帯、天候、乗車人数、各乗車者の属性、着座位置及び感情等に基づくイベント発生条件を設定しておくことにより、車両に発生したイベントに応じて異なるコンテンツを再生させることができる。なお、各イベントに対応するコンテンツは、ユーザ毎に登録しておいてもよく、この場合、同様のイベントが発生した場合であっても、ユーザ毎に異なるコンテンツを再生させることが可能となる。また、各イベントの発生条件はユーザ毎に登録しておいてもよく、この場合、ユーザ毎に異なる条件でイベント発生の有無を判断できる。
As described above, in the present embodiment, it is determined which event is occurring in the vehicle based on the generation condition set by combining the in-vehicle information and the out-of-vehicle information, and the content corresponding to the event generated in the vehicle is determined. Can be reproduced by the in-vehicle device 20. Therefore, by setting the event occurrence conditions based on the vehicle's travel location (current location), season, time zone, weather, number of passengers, attributes of each passenger, seating position, emotions, etc., the event that occurred in the vehicle can be determined. Different contents can be played depending on the situation. The content corresponding to each event may be registered for each user, and in this case, even if a similar event occurs, it is possible to play different content for each user. Further, the occurrence condition of each event may be registered for each user, and in this case, it is possible to determine whether or not the event has occurred under different conditions for each user.
本実施形態では、車載装置20は、サーバ10から提供されるコンテンツの再生中にユーザの反応を検出しており、ユーザの反応に応じて再生対象のコンテンツを適宜切り替えることができる。例えば、コンテンツを視聴するユーザの感情がリラックスから嫌悪に変化した場合、サーバ10は、車載装置20に提供中のコンテンツの送信を停止し、異なるコンテンツの送信を開始する。また、コンテンツを視聴するユーザに恐怖の感情が生じた場合に、サーバ10は、異なるコンテンツの送信を開始することにより、乗車者に恐怖を感じさせないコンテンツに切り替えることが可能となる。なお、各コンテンツを送信する際に適したユーザの反応がサーバ10(コンテンツDB12b)に登録してあり、サーバ10は、コンテンツDB12bの登録内容と、ユーザの現時点での反応とに基づいて、ユーザに提供すべきコンテンツを適切に選択できる。これにより、コンテンツを視聴するユーザ(車両の乗車者)の反応(感情及び行動)に応じたコンテンツを提供することができる。なお、ユーザの反応は、身体的な反応(ジェスチャー又は行動)であってもよく、精神的な反応(感情)であってもよい。
In the present embodiment, the in-vehicle device 20 detects the reaction of the user during the reproduction of the content provided by the server 10, and the content to be reproduced can be appropriately switched according to the reaction of the user. For example, when the emotion of the user viewing the content changes from relaxed to disgusted, the server 10 stops the transmission of the content being provided to the in-vehicle device 20 and starts the transmission of different content. Further, when the user who views the content feels fear, the server 10 can switch to the content that does not make the passenger feel fear by starting the transmission of different content. The user's reaction suitable for transmitting each content is registered in the server 10 (content DB 12b), and the server 10 is based on the registered content of the content DB 12b and the user's current reaction. You can properly select the content to be provided to the server. Thereby, it is possible to provide the content according to the reaction (emotion and behavior) of the user (vehicle occupant) who views the content. The user's reaction may be a physical reaction (gesture or action) or a mental reaction (emotion).
本実施形態では、画像、音声、光(照明光)、振動、芳香又は空調等によるコンテンツを車載装置20にて出力(再生)することにより、車両内の乗車者を楽しませ、また、怒りや興奮等のネガティブな感情の平常化を促すことが期待できる。即ち、コンテンツによって、車両内の乗車者の感情に変化を起こさせることが可能となる。本実施形態では、各コンテンツの再生中又は再生終了時に、ユーザの反応(感情及び行動等)をユーザ毎にサーバ10(ユーザDB12a)に登録しておく。これにより、次回以降にユーザが車両を利用する際に、ユーザの過去の反応を考慮したコンテンツの提供が可能となる。
In the present embodiment, the vehicle-mounted device 20 outputs (reproduces) content such as image, sound, light (illumination light), vibration, fragrance, or air conditioning to entertain the passengers in the vehicle and to entertain the passengers in the vehicle. It can be expected to promote the normalization of negative emotions such as excitement. That is, the content can change the emotions of the passengers in the vehicle. In the present embodiment, the user's reaction (emotion, action, etc.) is registered in the server 10 (user DB 12a) for each user during or at the end of playback of each content. This makes it possible to provide content that takes into account the user's past reactions when the user uses the vehicle from the next time onward.
本実施形態において、車両で発生したイベントに応じたコンテンツの提供処理は、図7及び図8に示す処理に限定されない。例えば、車載装置20が搭載された車両の車種に応じたコンテンツが提供される構成とすることもできる。この場合、サーバ10の記憶部12は、車種毎のコンテンツDB12を記憶している。なお、図3Bに示すコンテンツDB12bに車種情報(車種ID)列を設け、車種情報(車種ID)に対応付けて、各イベントのコンテンツデータが記憶される構成でもよい。また車載装置20の記憶部22には、車載装置20が搭載されている車両の車種情報(車種ID)が登録(記憶)されている。図11は、コンテンツの提供処理手順の他の例を示すフローチャートである。図11に示す処理は、図7及び図8に示す処理において、ステップS14のYESとステップS15との間にステップS161を追加したものである。なお、図11では、図8中の各ステップの図示を省略する。図11に示す処理では、車載装置20の制御部21は、いずれかのイベントの発生条件を満たすと判断した場合(S14:YES)、記憶部22に記憶してある車種情報を読み出す(S161)。そして、制御部21は、乗車者(ユーザ)のユーザID、車載装置20の宛先情報、及び発生したイベントのイベントIDと、車種情報とを対応付けてサーバ10へ送信することにより、イベントの発生をサーバ10に通知する(S15)。サーバ10の制御部11は、車載装置20から受信した車種情報に対応するコンテンツDB12bから、車載装置20から通知されたイベントに対応するコンテンツを読み出し(S16)、車載装置20へ送信する(S17)。図11に示す処理によれば、サーバ10は、車両の車種に応じたコンテンツの提供が可能となる。よって、同じイベントが発生した場合であっても、車種に応じて異なるコンテンツの提供が可能となる。なお、車種情報は、予め記憶部22に記憶されている構成に限定されず、例えば入力部24を介したユーザ操作によって取得されてもよく、車両に搭載された他の車載機器から取得されてもよい。
In the present embodiment, the content providing process according to the event generated in the vehicle is not limited to the process shown in FIGS. 7 and 8. For example, the content may be provided according to the vehicle type of the vehicle on which the in-vehicle device 20 is mounted. In this case, the storage unit 12 of the server 10 stores the content DB 12 for each vehicle type. The content DB 12b shown in FIG. 3B may be provided with a vehicle type information (vehicle type ID) column, and the content data of each event may be stored in association with the vehicle type information (vehicle type ID). Further, the vehicle type information (vehicle type ID) of the vehicle on which the vehicle-mounted device 20 is mounted is registered (stored) in the storage unit 22 of the vehicle-mounted device 20. FIG. 11 is a flowchart showing another example of the content provision processing procedure. The process shown in FIG. 11 is the process shown in FIGS. 7 and 8 in which step S161 is added between YES in step S14 and step S15. In FIG. 11, the illustration of each step in FIG. 8 is omitted. In the process shown in FIG. 11, when the control unit 21 of the in-vehicle device 20 determines that the occurrence condition of any of the events is satisfied (S14: YES), the vehicle type information stored in the storage unit 22 is read out (S161). .. Then, the control unit 21 transmits the user ID of the passenger (user), the destination information of the in-vehicle device 20, the event ID of the event that has occurred, and the vehicle type information to the server 10 to generate the event. Is notified to the server 10 (S15). The control unit 11 of the server 10 reads out the content corresponding to the event notified from the vehicle-mounted device 20 from the content DB 12b corresponding to the vehicle model information received from the vehicle-mounted device 20 (S16), and transmits the content to the vehicle-mounted device 20 (S17). .. According to the process shown in FIG. 11, the server 10 can provide the content according to the vehicle type of the vehicle. Therefore, even if the same event occurs, it is possible to provide different contents depending on the vehicle type. The vehicle type information is not limited to the configuration stored in the storage unit 22 in advance, and may be acquired by a user operation via the input unit 24, for example, or may be acquired from another in-vehicle device mounted on the vehicle. May be good.
本実施形態の車載装置20による車内情報の取得処理において、乗車者の撮影画像、発話音声又はバイタルデータに基づいて乗車者の属性、動作及び感情を検出する処理を、例えば他のサーバで行う構成としてもよい。この場合、車載装置20は、乗車者の撮影画像、発話音声又はバイタルデータを取得する都度、他のサーバへ送信し、他のサーバが乗車者の撮影画像、発話音声又はバイタルデータに基づいて乗車者の属性、動作及び感情を検出する。そして、車載装置20は、他のサーバで検出された乗車者の属性、動作及び感情を取得する。このような構成の場合、車載装置20における処理負担を軽減することができる。
In the process of acquiring in-vehicle information by the in-vehicle device 20 of the present embodiment, a process of detecting the attributes, actions, and emotions of the occupant based on the photographed image, utterance voice, or vital data of the occupant is performed by, for example, another server. May be. In this case, the in-vehicle device 20 transmits to another server each time the photographed image, spoken voice or vital data of the passenger is acquired, and the other server gets on the vehicle based on the photographed image, spoken voice or vital data of the passenger. Detects a person's attributes, actions and emotions. Then, the in-vehicle device 20 acquires the attributes, actions, and emotions of the passenger detected by the other server. With such a configuration, the processing load on the in-vehicle device 20 can be reduced.
本実施形態では、車両に発生したイベントに対応するコンテンツをサーバ10から車載装置20へ提供する構成であるが、この構成に限定されない。例えばイベント毎にコンテンツを分類せずに、複数のコンテンツの中から、車両の乗車者の反応に応じたコンテンツをサーバ10から車載装置20へ提供する構成としてもよい。例えば各コンテンツを提供する際に最適な乗車者の感情毎にコンテンツを用意しておき、車両にいずれのイベントが発生したか否かの判断は行わずに、サーバ10は、車載装置20から通知される乗車者の反応に応じたコンテンツを車載装置20へ提供する。この場合でも、乗車者の反応に応じたコンテンツを適宜切り替えて乗車者に提供できる。
In the present embodiment, the content corresponding to the event generated in the vehicle is provided from the server 10 to the in-vehicle device 20, but the present embodiment is not limited to this configuration. For example, instead of classifying the contents for each event, the server 10 may provide the contents according to the reaction of the passengers of the vehicle from the plurality of contents to the in-vehicle device 20. For example, when providing each content, the content is prepared for each of the optimum emotions of the passenger, and the server 10 notifies from the in-vehicle device 20 without determining which event has occurred in the vehicle. The content according to the reaction of the passenger is provided to the in-vehicle device 20. Even in this case, the content according to the reaction of the passenger can be appropriately switched and provided to the passenger.
(実施形態2)
車両のウィンドウに設けられた表示部25(ディスプレイ)で画像コンテンツを再生する情報処理システムについて説明する。本実施形態の情報処理システムでは、車載装置20の表示部25は、透明なウィンドウにコンテンツを投影するヘッドアップディスプレイ、又は、ウィンドウのガラスと一体に構成されたディスプレイである。よって、本実施形態の車載装置20では、車内の乗車者は、ウィンドウを通して視認できる車外の風景の上に、表示部25に表示される画像コンテンツが重ねて表示された状態を見ることができる。なお、表示部25が設けられるウィンドウは、フロントウィンドウ、リアウィンドウ及びサイドウィンドウのいずれであってもよく、ルーフがガラス又は透明な合成樹脂製の板で構成されている場合、ルーフにも表示部25が設けられていてもよい。
(Embodiment 2)
An information processing system for reproducing image contents on a display unit 25 (display) provided in a vehicle window will be described. In the information processing system of the present embodiment, the display unit 25 of the in-vehicle device 20 is a head-up display that projects content onto a transparent window, or a display that is integrally formed with the glass of the window. Therefore, in the in-vehicle device 20 of the present embodiment, the passenger in the vehicle can see the state in which the image content displayed on the display unit 25 is superimposed on the scenery outside the vehicle that can be visually recognized through the window. The window provided with the display unit 25 may be a front window, a rear window, or a side window, and when the roof is made of glass or a transparent synthetic resin plate, the display unit is also provided on the roof. 25 may be provided.
本実施形態の情報処理システムは、実施形態1の情報処理システムと同様の装置にて実現可能であるので、構成についての説明は省略する。なお、本実施形態のサーバ10の記憶部12に記憶してあるコンテンツDB12bは、実施形態1のコンテンツDB12bの構成と若干異なる。図12は実施形態2のコンテンツDB12bの構成例を示す模式図である。図12に示すコンテンツDB12bは、図3Bに示す実施形態1のコンテンツDB12bの構成に加えて、重ね合わせ条件列を含む。重ね合わせ条件列は、コンテンツIDに対応付けて、各コンテンツを表示部25に表示させて車外の景色に重ね合わせる際の条件に関する情報を記憶し、例えば、コンテンツを重ねて表示させるべき店舗又は建物の情報、景色の情報(山道、海辺、ビル等の街並みの情報)、住所等を記憶する。なお、車外の景色に重ねて表示する必要がないコンテンツについては、重ね合わせ条件は登録されていなくてもよい。重ね合わせ条件は、制御部11が通信部13又は入力部14を介して追加又は変更の指示を取得した場合に、制御部11によって追加又は変更される。本実施形態のコンテンツDB12bの記憶内容は図12に示す例に限定されない。
Since the information processing system of the present embodiment can be realized by the same apparatus as the information processing system of the first embodiment, the description of the configuration will be omitted. The content DB 12b stored in the storage unit 12 of the server 10 of the present embodiment is slightly different from the configuration of the content DB 12b of the first embodiment. FIG. 12 is a schematic diagram showing a configuration example of the content DB 12b of the second embodiment. The content DB 12b shown in FIG. 12 includes a superposition condition sequence in addition to the configuration of the content DB 12b of the first embodiment shown in FIG. 3B. The superimposition condition column stores information on conditions for displaying each content on the display unit 25 and superimposing it on the scenery outside the vehicle in association with the content ID. For example, a store or a building in which the content should be superimposed and displayed. Information, landscape information (information on cityscapes such as mountain roads, beaches, buildings, etc.), addresses, etc. are memorized. For contents that do not need to be superimposed on the scenery outside the vehicle, the overlay condition may not be registered. The superposition condition is added or changed by the control unit 11 when the control unit 11 acquires an instruction for addition or change via the communication unit 13 or the input unit 14. The stored content of the content DB 12b of the present embodiment is not limited to the example shown in FIG.
本実施形態の情報処理システムにおいて、サーバ10及び車載装置20は、図7~10に示す処理と同様の処理を実行する。これにより、車載装置20は、車外情報及び車内情報に基づいてイベント発生の有無を検出し、いずれかのイベントが発生した場合、発生したイベントに応じたコンテンツがサーバ10から車載装置20へ提供され、車載装置20で再生される。本実施形態の情報処理システムでは、画像コンテンツが、ウィンドウから車外を見た景色に重ね合わせて表示されるので、車載装置20は、画像コンテンツを表示部25に表示する際に、画像コンテンツの表示位置を特定する必要がある。
In the information processing system of the present embodiment, the server 10 and the in-vehicle device 20 execute the same processing as those shown in FIGS. 7 to 10. As a result, the in-vehicle device 20 detects the presence or absence of an event based on the information outside the vehicle and the information inside the vehicle, and when any of the events occurs, the content corresponding to the generated event is provided from the server 10 to the in-vehicle device 20. , Reproduced by the in-vehicle device 20. In the information processing system of the present embodiment, the image content is displayed so as to be superimposed on the scenery seen from the outside of the vehicle from the window. Therefore, when the in-vehicle device 20 displays the image content on the display unit 25, the image content is displayed. It is necessary to specify the position.
図13は、画像コンテンツの表示処理手順の一例を示すフローチャート、図14は画像コンテンツの表示例を示す模式図である。図13に示す処理は、車載装置20の制御部21が、例えば図8中のステップS18でサーバ10から受信した画像コンテンツを表示部25に表示させる際に実行するものである。本実施形態の情報処理システムにおいて、車載装置20の制御部21は、サーバ10から画像コンテンツを受信したか否かを判断しており(S61)、受信していないと判断した場合(S61:NO)、受信するまで待機する。なお、制御部21は、画像コンテンツ以外のコンテンツ、例えば音声コンテンツ、光、振動、芳香又は空調によるコンテンツをサーバ10から受信した場合、スピーカ29、照明部30、振動発生部31、芳香発生部32、空調制御部33にてそれぞれコンテンツの再生を行う。
FIG. 13 is a flowchart showing an example of an image content display processing procedure, and FIG. 14 is a schematic diagram showing an image content display example. The process shown in FIG. 13 is executed when the control unit 21 of the in-vehicle device 20 causes the display unit 25 to display the image content received from the server 10 in step S18 in FIG. 8, for example. In the information processing system of the present embodiment, the control unit 21 of the in-vehicle device 20 determines whether or not the image content has been received from the server 10 (S61), and when it is determined that the image content has not been received (S61: NO). ), Wait until it is received. When the control unit 21 receives content other than image content, for example, audio content, light, vibration, fragrance, or air-conditioned content from the server 10, the speaker 29, the lighting unit 30, the vibration generation unit 31, and the fragrance generation unit 32. , The air conditioning control unit 33 reproduces the content, respectively.
制御部21は、画像コンテンツを受信したと判断した場合(S61:YES)、受信した画像コンテンツに重ね合わせ条件が設定されているか否かを判断する(S62)。なお、本実施形態では、サーバ10の制御部11は、イベントに対応するコンテンツ又はユーザの反応に応じたコンテンツを車載装置20へ送信する際に、コンテンツに設定されている重ね合わせ条件をコンテンツと共に送信する。よって、制御部21は、画像コンテンツと共に重ね合わせ条件を受信したか否かに応じて、受信した画像コンテンツに重ね合わせ条件が設定されているか否かを判断できる。重ね合わせ条件が設定されていないと判断した場合(S62:NO)、制御部21は、ステップS68に処理を移行し、受信した画像コンテンツを表示部25に表示する(S68)。このとき制御部21は、表示部25に対してデフォルトで設定されている表示領域に画像コンテンツを表示してもよい。
When the control unit 21 determines that the image content has been received (S61: YES), the control unit 21 determines whether or not the superposition condition is set for the received image content (S62). In the present embodiment, when the control unit 11 of the server 10 transmits the content corresponding to the event or the content corresponding to the user's reaction to the in-vehicle device 20, the superposition condition set for the content is set together with the content. Send. Therefore, the control unit 21 can determine whether or not the superposition condition is set for the received image content according to whether or not the superposition condition is received together with the image content. When it is determined that the superposition condition is not set (S62: NO), the control unit 21 shifts the process to step S68 and displays the received image content on the display unit 25 (S68). At this time, the control unit 21 may display the image content in the display area set by default for the display unit 25.
重ね合わせ条件が設定されていると判断した場合(S62:YES)、制御部21は、車両の現在地の周辺の地図データを地図データ22Dから読み出す(S63)。例えば制御部21は、車両の前方の数10kmの範囲内の地図データを読み出す。そして制御部21は、地図データに含まれる建物、店舗等のオブジェクトに、重ね合わせ条件に合致するオブジェクトが存在するか否かを判断する(S64)。例えば重ね合わせ条件として所定の店舗(例えば所定のコンビニエンスストア)が設定されている場合、制御部21は、地図データに所定の店舗(所定のコンビニエンスストア)が含まれるか否かを判断する。また、重ね合わせ条件として山道、海辺等の所定の景色(風景)が設定されている場合、制御部21は、地図データに所定の景色が含まれるか否かを判断する。重ね合わせ条件に合致するオブジェクトが存在しないと判断した場合(S64:NO)、制御部21は、ステップS61の処理に戻り、サーバ10から順次受信する画像コンテンツに対して、ステップS62~S64の処理を行う。なお、本実施形態では、地図データ中のオブジェクトに重ね合わせ条件に合致するオブジェクトが存在するか否かを判断するが、この構成に限定されない。例えば車載装置20は、カメラ27で車外の景色を撮影した景色画像に基づいて、景色画像中に重ね合わせ条件に合致するオブジェクトが存在するか否かを判断してもよい。具体的には、重ね合わせ条件に合致するオブジェクトが所定のコンビニエンスストアである場合、車載装置20は、カメラ27で撮影した景色画像中に所定のコンビニエンスストアの看板が含まれるか否かを検出し、検出できた場合、景色画像中に重ね合わせ条件に合致するオブジェクトが存在すると判断してもよい。この場合、地図データ中に載っていないオブジェクトについても、重ね合わせ条件に合致するオブジェクトの特定が可能となる。
When it is determined that the superposition condition is set (S62: YES), the control unit 21 reads the map data around the current location of the vehicle from the map data 22D (S63). For example, the control unit 21 reads out map data within a range of several tens of kilometers in front of the vehicle. Then, the control unit 21 determines whether or not there is an object that matches the superposition condition among the objects such as buildings and stores included in the map data (S64). For example, when a predetermined store (for example, a predetermined convenience store) is set as a superposition condition, the control unit 21 determines whether or not the map data includes the predetermined store (predetermined convenience store). Further, when a predetermined landscape (landscape) such as a mountain road or a seaside is set as a superposition condition, the control unit 21 determines whether or not the map data includes the predetermined landscape. When it is determined that there is no object that matches the superposition condition (S64: NO), the control unit 21 returns to the process of step S61, and processes the image contents sequentially received from the server 10 in steps S62 to S64. I do. In the present embodiment, it is determined whether or not there is an object that matches the superposition condition among the objects in the map data, but the present embodiment is not limited to this configuration. For example, the vehicle-mounted device 20 may determine whether or not there is an object that matches the superposition condition in the landscape image based on the landscape image obtained by capturing the landscape outside the vehicle with the camera 27. Specifically, when the object that matches the superposition condition is a predetermined convenience store, the in-vehicle device 20 detects whether or not the signboard of the predetermined convenience store is included in the landscape image taken by the camera 27. If it can be detected, it may be determined that there is an object that matches the overlay condition in the landscape image. In this case, it is possible to identify an object that matches the superposition condition even for an object that is not included in the map data.
重ね合わせ条件に合致するオブジェクトが存在すると判断した場合(S64:YES)、制御部21は、カメラ27にて車外の景色を撮影する(S65)。ここでは、画像コンテンツを表示させる表示部25が設けられたウィンドウを介して車内の乗車者が車外を見た場合の景色と同等の景色を撮影する。具体的には、前部座席(運転席又は助手席)に着座している乗車者がフロントウィンドウを介して車外を見た場合と同等の景色、後部座席に着座している乗車者がサイドウィンドウを介して車外を見た場合と同等の景色等を撮影する。なお、カメラ27は、車内の各座席の乗車者が各ウィンドウを介して車外を見た場合と同等の景色を撮影できる位置にそれぞれ設けられている。
When it is determined that there is an object that matches the superposition condition (S64: YES), the control unit 21 captures the scenery outside the vehicle with the camera 27 (S65). Here, the scenery equivalent to the scenery when the passenger in the car looks at the outside of the car is taken through the window provided with the display unit 25 for displaying the image contents. Specifically, the view is the same as when a passenger seated in the front seat (driver's seat or passenger's seat) looks out of the vehicle through the front window, and the passenger seated in the rear seat has a side window. Take a picture of the same scenery as when looking outside the car through the window. The camera 27 is provided at a position where a passenger in each seat in the vehicle can take a picture equivalent to the case where the passenger looks at the outside of the vehicle through each window.
制御部21は、撮影した車両周辺の景色画像中に含まれるオブジェクトから、重ね合わせ条件に合致するオブジェクトを特定する(S66)。このとき制御部21は、景色画像中の各オブジェクトに対して、地図データ中の各オブジェクトを対応付けることにより、景色画像中の重ね合わせ条件に合致するオブジェクトを特定する。なお、景色画像中の各オブジェクトに対して、地図データ中の各オブジェクトを対応付ける場合、制御部21は、例えば景色画像中に、地図データ中の各オブジェクトを示す情報(例えば所定の店舗の看板)を検出し、検出した情報に対して地図データ中の各オブジェクトを対応付ける。制御部21は、特定した重ね合わせ条件に合致するオブジェクトの景色画像中の位置に基づいて、表示部25の表示領域に対して画像コンテンツを表示すべき位置を特定する(S67)。ここでは制御部21は、それぞれのウィンドウを介して車外を見た場合と同等の景色画像に対して画像コンテンツを重ねて表示すべき位置を特定する。そして制御部21は、重ね合わせ条件に合致するオブジェクトが景色画像に含まれるウィンドウに設けられた表示部25に対して、特定した表示位置に画像コンテンツを表示する(S68)。
The control unit 21 identifies an object that matches the superposition condition from the objects included in the captured landscape image around the vehicle (S66). At this time, the control unit 21 identifies an object that matches the superposition condition in the landscape image by associating each object in the map data with each object in the landscape image. When associating each object in the map data with each object in the landscape image, the control unit 21 may, for example, include information indicating each object in the map data (for example, a signboard of a predetermined store) in the landscape image. Is detected, and each object in the map data is associated with the detected information. The control unit 21 specifies a position where the image content should be displayed with respect to the display area of the display unit 25 based on the position in the landscape image of the object that matches the specified superposition condition (S67). Here, the control unit 21 specifies a position where the image content should be superimposed and displayed on a landscape image equivalent to that when the outside of the vehicle is viewed through each window. Then, the control unit 21 displays the image content at the specified display position with respect to the display unit 25 provided in the window in which the object matching the superposition condition is included in the landscape image (S68).
図14Aは前部座席からフロントウィンドウ越しに車外を見た場合の景色を示し、図14Bは図14Aの景色に3つの画像コンテンツCが重ねて表示された状態を示す。図14Bに示す例は、所定の店舗で販売されている商品(浮輪又はビーチサンダル)を示す画像コンテンツCに対して、重ね合わせ条件として所定の店舗が設定されている場合の表示例である。この場合、前部座席からフロントウィンドウ越しに車外を見た場合の景色に対して、景色中の所定の店舗に重なる位置に、商品(浮輪又はビーチサンダル)を示す画像コンテンツCが表示されている。また、図14Bに示す例では、「海水浴グッズを買って行きませんか?」のメッセージを表示するための画像コンテンツCに対して重ね合わせ条件が設定されていない場合の表示例であり、このメッセージの画像コンテンツは適宜位置に表示される。図14Bでは表示領域の左上の位置に表示されているが、表示位置はこれに限定されない。このようにウィンドウ越しに視認できる景色に対して画像コンテンツCを重ねて表示させることにより、景色中の各オブジェクトに関する情報を画像コンテンツCによって乗車者に提供することが可能となる。
FIG. 14A shows a view when the outside of the vehicle is viewed from the front seat through the front window, and FIG. 14B shows a state in which three image contents C are superimposed on the view of FIG. 14A. The example shown in FIG. 14B is a display example in which a predetermined store is set as a superposition condition for the image content C indicating a product (buoy or beach sandals) sold at the predetermined store. In this case, the image content C showing the product (buoy or beach sandals) is displayed at a position overlapping the predetermined store in the view with respect to the view when the outside of the vehicle is viewed from the front seat through the front window. .. Further, the example shown in FIG. 14B is a display example in which the superposition condition is not set for the image content C for displaying the message "Would you like to buy sea bathing goods?". The image content of the message is displayed at an appropriate position. Although it is displayed at the upper left position of the display area in FIG. 14B, the display position is not limited to this. By superimposing the image content C on the scenery that can be visually recognized through the window in this way, it is possible to provide the passenger with information about each object in the scenery by the image content C.
制御部21は、サーバ10から画像コンテンツを受信する都度、上述した処理を行い、表示部25の適宜位置に画像コンテンツを表示させる。上述した処理により、車載装置20は、車両のウィンドウに設けられた表示部25に画像コンテンツを表示させることができ、その際に、ウィンドウ越しに見える景色に重ねて適切な位置に画像コンテンツを表示させることができる。よって、乗車者は、ウィンドウ越しに景色を確認すると共に、景色中の各オブジェクトに関する情報を画像コンテンツにて提供を受けることができる。また、本実施形態では、目的地に所定場所が設定されたというイベント発生条件に対応付けて、所定場所に関するコンテンツを登録しておいた場合、目的地に所定場所が設定されたときに、目的地に到着するまでの間、所定場所に関するコンテンツを車載装置20に再生させることができる。このとき、車載装置20は、ウィンドウ越しに見える景色において、車両から所定場所を結ぶ方向に対応する位置に画像コンテンツを表示させてもよい。この場合、乗車者は目的地の方向を認識しつつ車両での移動を楽しむことが可能となる。なお、本実施形態においても、車両に発生したイベントに応じたコンテンツがサーバ10から車載装置20へ提供され、車載装置20で再生される。また、車内で再生されるコンテンツに対する乗車者の反応に応じて、サーバ10から提供されるコンテンツが適宜変更されるので、乗車者の反応に適したコンテンツの提供が可能となる。なお、車両のウィンドウに設けられた表示部25に画像コンテンツを表示させる場合、ウィンドウ越しに視認できる景色に重ねて表示する必要はない。例えば車両の運転の邪魔にならない領域に画像コンテンツを表示させればよく、画像コンテンツを表示させる領域が予め設定されていてもよい。
Each time the control unit 21 receives the image content from the server 10, the control unit 21 performs the above-mentioned processing and displays the image content at an appropriate position of the display unit 25. By the process described above, the in-vehicle device 20 can display the image content on the display unit 25 provided in the window of the vehicle, and at that time, the image content is displayed at an appropriate position by superimposing the image content on the scenery seen through the window. Can be made to. Therefore, the passenger can check the scenery through the window and receive information about each object in the scenery as image contents. Further, in the present embodiment, when the content related to the predetermined place is registered in association with the event occurrence condition that the predetermined place is set in the destination, the purpose is when the predetermined place is set in the destination. Until it arrives at the ground, the in-vehicle device 20 can reproduce the content related to the predetermined place. At this time, the vehicle-mounted device 20 may display the image content at a position corresponding to the direction connecting the predetermined place from the vehicle in the scenery seen through the window. In this case, the passenger can enjoy traveling by vehicle while recognizing the direction of the destination. Also in this embodiment, the content corresponding to the event generated in the vehicle is provided from the server 10 to the in-vehicle device 20 and reproduced by the in-vehicle device 20. Further, since the content provided from the server 10 is appropriately changed according to the reaction of the passenger to the content reproduced in the vehicle, it is possible to provide the content suitable for the reaction of the passenger. When displaying the image content on the display unit 25 provided in the window of the vehicle, it is not necessary to superimpose the image content on the scenery that can be visually recognized through the window. For example, the image content may be displayed in an area that does not interfere with the driving of the vehicle, and an area for displaying the image content may be set in advance.
本実施形態においても実施形態1と同様の効果が得られる。また本実施形態では、車両のウィンドウに設けられた表示部25に画像コンテンツを表示する際に、ウィンドウ越しに視認される景色中の各オブジェクトに対応付けて表示することが可能である。よって、乗車者はウィンドウ越しに景色を視認すると共に、景色中の各オブジェクトに関する情報を画像コンテンツにて得ることが可能となる。また、本実施形態の情報処理システムにおいても、実施形態1で適宜説明した変形例の適用が可能である。なお、本実施形態において、車載装置20は、車両のウィンドウに設けられた表示部25に画像コンテンツを表示する際に、画像コンテンツの透過性(透過率)を上昇させて表示するように構成されていてもよく、画像コンテンツを間欠的に表示するように構成されていてもよい。このような構成とした場合、特にフロントウィンドウに設けられた表示部25に画像コンテンツを表示する場合であっても、画像コンテンツが車両の運転の妨げとならないように表示することが可能となる。例えば、車載装置20は、画像コンテンツの透過率を所定値(例えば50%)以上に設定して表示する構成であってもよく、数十秒毎に数秒間だけ画像コンテンツを表示する構成であってもよい。また、車両のそれぞれのウィンドウに設けられた表示部25に対して、画像コンテンツが表示される表示領域が固定されていてもよく、ウィンドウに対する画像コンテンツの表示領域の割合が所定値以下に制限されていてもよい。
Also in this embodiment, the same effect as that of the first embodiment can be obtained. Further, in the present embodiment, when displaying the image content on the display unit 25 provided in the window of the vehicle, it is possible to display the image content in association with each object in the scenery visually recognized through the window. Therefore, the passenger can visually recognize the scenery through the window and obtain information about each object in the scenery from the image contents. Further, also in the information processing system of the present embodiment, the modification described as appropriate in the first embodiment can be applied. In the present embodiment, the in-vehicle device 20 is configured to increase the transparency (transmittance) of the image content when displaying the image content on the display unit 25 provided in the window of the vehicle. It may be configured to display the image content intermittently. With such a configuration, even when the image content is displayed on the display unit 25 provided on the front window, the image content can be displayed so as not to interfere with the driving of the vehicle. For example, the in-vehicle device 20 may be configured to set the transmittance of the image content to a predetermined value (for example, 50%) or more and display the image content every several tens of seconds for only a few seconds. You may. Further, the display area in which the image content is displayed may be fixed to the display unit 25 provided in each window of the vehicle, and the ratio of the display area of the image content to the window is limited to a predetermined value or less. You may be.
(実施形態3)
車両のフロントウィンドウ、リアウィンドウ、左右のサイドウィンドウ、及びルーフに表示部25(ディスプレイ)が設けられている情報処理システムについて説明する。本実施形態においても、車内の乗車者は、ウィンドウを通して視認できる車外の風景の上に、表示部25に表示される画像コンテンツが重ねて表示された状態を見る。本実施形態の情報処理システムは、実施形態2の情報処理システムと同様の装置にて実現可能であるので、構成についての詳細な説明は省略する。
(Embodiment 3)
An information processing system in which a display unit 25 (display) is provided on a front window, a rear window, left and right side windows, and a roof of a vehicle will be described. Also in the present embodiment, the passenger in the vehicle sees a state in which the image content displayed on the display unit 25 is superimposed on the scenery outside the vehicle that can be visually recognized through the window. Since the information processing system of the present embodiment can be realized by the same apparatus as the information processing system of the second embodiment, detailed description of the configuration will be omitted.
図15は実施形態3の車載装置20の構成例を示すブロック図である。本実施形態の車載装置20は、図4に示す実施形態1の車載装置20と同様の構成を有している。本実施形態の車載装置20において、表示部25は、フロントウィンドウに設けられたフロントディスプレイ25a、リアウィンドウに設けられたリアディスプレイ25b、左サイドウィンドウに設けられた左サイドディスプレイ25c、右サイドウィンドウに設けられた右サイドディスプレイ25d、及びルーフに設けられたルーフディスプレイ25eを含む。
FIG. 15 is a block diagram showing a configuration example of the in-vehicle device 20 of the third embodiment. The vehicle-mounted device 20 of the present embodiment has the same configuration as the vehicle-mounted device 20 of the first embodiment shown in FIG. In the in-vehicle device 20 of the present embodiment, the display unit 25 is provided on the front display 25a provided on the front window, the rear display 25b provided on the rear window, the left side display 25c provided on the left side window, and the right side window. The right side display 25d provided and the roof display 25e provided on the roof are included.
また、本実施形態の車載装置20において、カメラ27は、車内の乗車者を撮影するための車内用カメラ27aと、車両の周囲(車外)の景色を撮影するための車外用カメラ27bとを含む。車内用カメラ27aは、それぞれの座席に着座している乗車者を撮影できる位置にそれぞれ設けられていてもよく、複数の座席に着座している複数の乗車者を1つのカメラで撮影するように構成されていてもよい。車外用カメラ27bは、車両の前後、左右及び上方の全方向を撮影できるカメラであり、例えば車両の前方を撮影するための前方カメラ、車両の後方を撮影するための後方カメラ、車両の左側を撮影するための左側カメラ、車両の右側を撮影するための右側カメラ、車両の上方を撮影するための上方カメラを有していてもよい。また、車外用カメラ27bは、全方位カメラ(360度カメラ)で構成されていてもよく、全方位カメラは例えば車両の屋根の上に設けられていてもよい。
Further, in the in-vehicle device 20 of the present embodiment, the camera 27 includes an in-vehicle camera 27a for photographing a passenger in the vehicle and an external camera 27b for photographing the scenery around the vehicle (outside the vehicle). .. The in-vehicle camera 27a may be provided at a position where the passengers seated in the respective seats can be photographed, and a plurality of passengers seated in the plurality of seats may be photographed by one camera. It may be configured. The external camera 27b is a camera capable of photographing all directions of the front and rear, left and right, and above of the vehicle. For example, a front camera for photographing the front of the vehicle, a rear camera for photographing the rear of the vehicle, and the left side of the vehicle. It may have a left-hand camera for taking a picture, a right-hand camera for taking a picture of the right side of the vehicle, and an upper camera for taking a picture of the upper part of the vehicle. Further, the external camera 27b may be composed of an omnidirectional camera (360 degree camera), and the omnidirectional camera may be provided on the roof of the vehicle, for example.
本実施形態の情報処理システムにおいて、サーバ10及び車載装置20は、図7~10に示す処理と同様の処理を実行する。これにより、車載装置20は、車外情報及び車内情報に基づいてイベント発生の有無を検出し、いずれかのイベントが発生した場合、発生したイベントに応じたコンテンツがサーバ10から車載装置20へ提供され、車載装置20で再生される。なお、本実施形態の情報処理システムでは、画像コンテンツは、フロントディスプレイ25a、リアディスプレイ25b、サイドディスプレイ25c,25d又はルーフディスプレイ25eのいずれか又は複数に表示され、それぞれのウィンドウから車外を見た景色に重ね合わせて画像コンテンツが表示される。本実施形態において、画像コンテンツの表示処理は、図13で示す実施形態2とは異なるので、異なる箇所のみ説明する。
In the information processing system of the present embodiment, the server 10 and the in-vehicle device 20 execute the same processing as the processing shown in FIGS. 7 to 10. As a result, the in-vehicle device 20 detects the presence or absence of an event based on the information outside the vehicle and the information inside the vehicle, and when any of the events occurs, the content corresponding to the generated event is provided from the server 10 to the in-vehicle device 20. , Reproduced by the in-vehicle device 20. In the information processing system of the present embodiment, the image contents are displayed on one or more of the front display 25a, the rear display 25b, the side displays 25c, 25d, and the roof display 25e, and the scenery seen from the outside of the vehicle from each window. The image content is displayed superimposed on. In the present embodiment, the display processing of the image content is different from the second embodiment shown in FIG. 13, so only the different parts will be described.
図16は実施形態3の画像コンテンツの表示処理手順の一例を示すフローチャート、図17は画像コンテンツの表示例を示す模式図である。図16に示す処理は、図13に示す処理において、ステップS65~S67の代わりにステップS71~S75を追加したものである。また、図16に示す処理も、車載装置20の制御部21が、例えば図8中のステップS18でサーバ10から受信した画像コンテンツを表示部25で再生する際に実行するものである。
FIG. 16 is a flowchart showing an example of the image content display processing procedure of the third embodiment, and FIG. 17 is a schematic diagram showing a display example of the image content. The process shown in FIG. 16 is the process shown in FIG. 13 in which steps S71 to S75 are added instead of steps S65 to S67. Further, the process shown in FIG. 16 is also executed when the control unit 21 of the in-vehicle device 20 reproduces the image content received from the server 10 in step S18 in FIG. 8 on the display unit 25, for example.
本実施形態の情報処理システムにおいて、車載装置20の制御部21は、図13に示したステップS61~S64の処理を行う。これにより、制御部21は、サーバ10から画像コンテンツを受信した場合に、画像コンテンツに重ね合わせ条件が設定されていなければ、画像コンテンツを所定の表示領域に表示する(S68)。なお、所定の表示領域は、例えばフロントディスプレイ25aの助手席側の領域であってもよく、その他のディスプレイ25b~25eの適宜の領域であってもよい。一方、画像コンテンツに重ね合わせ条件が設定されていれば、制御部21は、車両周辺の地図データ中に、重ね合わせ条件に合致するオブジェクトが存在するか否かを判断する。
In the information processing system of the present embodiment, the control unit 21 of the in-vehicle device 20 performs the processes of steps S61 to S64 shown in FIG. As a result, when the image content is received from the server 10, the control unit 21 displays the image content in a predetermined display area if the overlay condition is not set for the image content (S68). The predetermined display area may be, for example, an area on the passenger side of the front display 25a, or may be an appropriate area of the other displays 25b to 25e. On the other hand, if the superposition condition is set for the image content, the control unit 21 determines whether or not there is an object that matches the superposition condition in the map data around the vehicle.
地図データ中に重ね合わせ条件に合致するオブジェクトが存在すると判断した場合(S64:YES)、制御部21は、カメラ27にて車両周囲の景色を撮影する(S71)。ここでは、制御部21は、車両の前後及び左右の全方位の景色を撮影する。そして制御部21は、撮影した車両周囲の全方位の景色画像中に含まれるオブジェクトから、重ね合わせ条件に合致するオブジェクト(合致オブジェクト)を特定する(S72)。このとき制御部21は、景色画像中の各オブジェクトに対して、地図データ中の各オブジェクトを対応付けることにより、景色画像中の合致オブジェクトを特定する。なお、景色画像中の各オブジェクトに対して、地図データ中の各オブジェクトを対応付ける場合、制御部21は、例えば景色画像中に、地図データ中の各オブジェクトを示す情報(例えば所定の店舗の看板)を検出し、検出した情報に対して地図データ中の各オブジェクトを対応付ける。次に制御部21は、特定した合致オブジェクトの景色画像中の位置に基づいて、画像コンテンツを表示すべきディスプレイ25a~25eを特定する(S73)。例えば制御部21は、特定した合致オブジェクトが車両の前方を撮影した前方画像に含まれる場合、画像コンテンツを表示すべきディスプレイとしてフロントディスプレイ25aを特定する。なお、カメラ27が車両の全方位を撮影する全方位カメラである場合、制御部21は、例えば車両内の所定位置(例えば運転席)と景色画像中の合致オブジェクトとを結んだ場合に介在するウィンドウを特定し、特定したウィンドウに設けられているディスプレイを、表示対象のディスプレイに特定する。
When it is determined that there is an object that matches the superposition condition in the map data (S64: YES), the control unit 21 captures the scenery around the vehicle with the camera 27 (S71). Here, the control unit 21 captures the front-back and left-right omnidirectional views of the vehicle. Then, the control unit 21 identifies an object (matching object) that matches the superposition condition from the objects included in the captured omnidirectional landscape image around the vehicle (S72). At this time, the control unit 21 identifies the matching object in the landscape image by associating each object in the map data with each object in the landscape image. When associating each object in the map data with each object in the landscape image, the control unit 21 may, for example, include information indicating each object in the map data (for example, a signboard of a predetermined store) in the landscape image. Is detected, and each object in the map data is associated with the detected information. Next, the control unit 21 identifies the displays 25a to 25e on which the image content should be displayed based on the position of the specified matching object in the landscape image (S73). For example, when the specified matching object is included in the front image of the front of the vehicle, the control unit 21 specifies the front display 25a as a display to display the image content. When the camera 27 is an omnidirectional camera that captures all directions of the vehicle, the control unit 21 intervenes when, for example, a predetermined position in the vehicle (for example, the driver's seat) and a matching object in the landscape image are connected. The window is specified, and the display provided in the specified window is specified as the display to be displayed.
制御部21は、特定したディスプレイの表示領域に対して画像コンテンツを表示すべき位置を特定する(S74)。ここでは制御部21は、特定したディスプレイの表示領域において、合致オブジェクトを視認できるウィンドウを介して車外を見た場合と同等の景色画像に対して画像コンテンツを重ねて表示すべき位置を特定する。そして制御部21は、特定したディスプレイ(表示部25)に対して、特定した表示位置に画像コンテンツを表示する(S75)。図17Aの上側は車内からフロントディスプレイ25a越しに車外を見た状態を示しており、下側は車内から左サイドディスプレイ25c越しに車外を見た状態を示している。図17Aに示す例では、車両の前方に画像コンテンツを重ねて表示すべきオブジェクトが存在しており、2つのオブジェクト(建物、店舗)に画像コンテンツCが重なるように表示されている。一方、車両の左側には画像コンテンツを重ねて表示すべきオブジェクトは存在しないので、左サイドディスプレイ25cには画像コンテンツは表示されていない。
The control unit 21 specifies a position where the image content should be displayed with respect to the display area of the specified display (S74). Here, the control unit 21 specifies a position in the display area of the specified display on which the image content should be superimposed and displayed on a landscape image equivalent to that when the outside of the vehicle is viewed through a window in which the matching object can be visually recognized. Then, the control unit 21 displays the image content at the specified display position on the specified display (display unit 25) (S75). The upper side of FIG. 17A shows the state of looking at the outside of the vehicle from the inside of the vehicle through the front display 25a, and the lower side shows the state of looking at the outside of the vehicle from the inside of the vehicle through the left side display 25c. In the example shown in FIG. 17A, there is an object to be displayed in which the image content is superimposed in front of the vehicle, and the image content C is displayed so as to overlap the two objects (building, store). On the other hand, since there is no object on the left side of the vehicle on which the image content should be superimposed and displayed, the image content is not displayed on the left side display 25c.
ステップS75の処理後、制御部21は、ステップS71の処理に戻り、ステップS71~S75の処理を繰り返す。具体的には、制御部21は、車両周囲の景色を撮影し、景色画像中に、重ね合わせ条件に合致するオブジェクトを特定し、特定したオブジェクトに画像コンテンツを重ねて表示できるディスプレイ(ウィンドウ)及び表示位置を特定し、特定したディスプレイ及び表示位置に画像コンテンツを表示する。図17Bの上側は車内からフロントディスプレイ25a越しに車外を見た状態を示しており、下側は車内から左サイドディスプレイ25c越しに車外を見た状態を示している。図17Bに示す例は、図17Aの状態から車両が前進することにより周囲の景色が変わった状態を示している。図17Bに示す例では、車両の前方には画像コンテンツを重ねて表示すべきオブジェクトは存在しないので、フロントディスプレイ25aには画像コンテンツは表示されていない。一方、車両の左側には画像コンテンツを重ねて表示すべきオブジェクトが存在しており、2つのオブジェクト(建物、店舗)に画像コンテンツCが重なるように表示されている。
After the processing of step S75, the control unit 21 returns to the processing of step S71 and repeats the processing of steps S71 to S75. Specifically, the control unit 21 captures the scenery around the vehicle, identifies an object that matches the superposition condition in the scenery image, and displays a display (window) capable of superimposing the image content on the specified object. The display position is specified, and the image content is displayed on the specified display and display position. The upper side of FIG. 17B shows the state of looking at the outside of the vehicle from the inside of the vehicle through the front display 25a, and the lower side shows the state of looking at the outside of the vehicle from the inside of the vehicle through the left side display 25c. The example shown in FIG. 17B shows a state in which the surrounding landscape changes as the vehicle moves forward from the state shown in FIG. 17A. In the example shown in FIG. 17B, since there is no object to be displayed on top of the image content in front of the vehicle, the image content is not displayed on the front display 25a. On the other hand, on the left side of the vehicle, there is an object to be displayed with the image content superimposed, and the image content C is displayed so as to overlap the two objects (building, store).
制御部21は、ステップS72で、景色画像中に、重ね合わせ条件に合致するオブジェクトを特定できなくなるまで、上述した処理を繰り返す。これにより、サーバ10から受信した画像コンテンツを、ディスプレイ(ウィンドウ)越しに視認できる景色に重ねて表示させることができ、景色中の各オブジェクトに関する情報を画像コンテンツCによって乗車者に提供することができる。制御部21は、サーバ10から画像コンテンツを受信する都度、上述した処理を行い、いずれかのディスプレイ25a~25eの適宜位置に画像コンテンツを表示させる。
In step S72, the control unit 21 repeats the above-described processing until it becomes impossible to identify an object that matches the superposition condition in the landscape image. As a result, the image content received from the server 10 can be superimposed on the scenery that can be visually recognized through the display (window), and information about each object in the scenery can be provided to the passenger by the image content C. .. Each time the control unit 21 receives the image content from the server 10, the control unit 21 performs the above-mentioned processing and displays the image content at an appropriate position on any of the displays 25a to 25e.
本実施形態においても上述した各実施形態と同様の効果が得られる。また本実施形態では、サーバ10から受信した画像コンテンツが、この画像コンテンツを重ねて表示すべきオブジェクト(建物、店舗等)に対応するディスプレイ(ウィンドウ)及び位置に表示される。よって、乗車者は、ディスプレイ(ウィンドウ)越しに視認できる景色中のオブジェクトに関する情報を画像コンテンツにて提供を受けることができる。本実施形態においても、車両に発生したイベントに応じたコンテンツがサーバ10から車載装置20へ提供され、車載装置20で再生される。また、車内で再生されるコンテンツに対する乗車者の反応に応じて、サーバ10から提供されるコンテンツが適宜変更されるので、乗車者の反応に適したコンテンツの提供が可能となる。また、本実施形態の情報処理システムにおいても、上述した各実施形態で適宜説明した変形例の適用が可能である。
Also in this embodiment, the same effect as that of each of the above-described embodiments can be obtained. Further, in the present embodiment, the image content received from the server 10 is displayed on the display (window) and the position corresponding to the object (building, store, etc.) to be displayed by superimposing the image content. Therefore, the passenger can receive information about the object in the scenery that can be visually recognized through the display (window) in the image content. Also in this embodiment, the content corresponding to the event generated in the vehicle is provided from the server 10 to the in-vehicle device 20 and reproduced by the in-vehicle device 20. Further, since the content provided from the server 10 is appropriately changed according to the reaction of the passenger to the content reproduced in the vehicle, it is possible to provide the content suitable for the reaction of the passenger. Further, also in the information processing system of the present embodiment, it is possible to apply the modification described as appropriate in each of the above-described embodiments.
上述した実施形態2,3のように車両の複数ウィンドウに表示部25(ディスプレイ)が設けられている構成において、走行中、停車中又は駐車中等の車両の走行状態、車両の走行速度、自動走行が可能な車両の場合には自動運転機能による自動走行中(自動運転中)であるか否かに応じて、画像コンテンツを表示するディスプレイを切り替えるように構成されていてもよい。例えば車両が走行中である場合にはサイドウィンドウに設けられたディスプレイのみを画像コンテンツの表示対象とし、車両が駐車中である場合には全てのウィンドウに設けられたディスプレイを表示対象とするように、表示対象のディスプレイを切り替えてもよい。このような構成とした場合、車両走行時には運転者の運転を阻害せずに画像コンテンツを表示させることができ、駐車時には全てのディスプレイを用いた画像コンテンツの再生が可能となる。
In the configuration in which the display unit 25 (display) is provided in a plurality of windows of the vehicle as in the above-described embodiments 2 and 3, the running state of the vehicle such as running, stopped or parked, the running speed of the vehicle, and automatic running In the case of a vehicle capable of the above, the display for displaying the image content may be switched depending on whether or not the vehicle is in automatic driving (automatic driving) by the automatic driving function. For example, when the vehicle is running, only the display provided in the side window is targeted for displaying the image content, and when the vehicle is parked, the displays provided in all windows are targeted for display. , The display to be displayed may be switched. With such a configuration, the image content can be displayed without disturbing the driver's driving when the vehicle is running, and the image content can be reproduced using all the displays when parking.
今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
The embodiments disclosed this time should be considered to be exemplary in all respects and not restrictive. The scope of the present invention is indicated by the scope of claims, not the above-mentioned meaning, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.