[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2022187788A - Virtual environment providing system and virtual environment providing method - Google Patents

Virtual environment providing system and virtual environment providing method Download PDF

Info

Publication number
JP2022187788A
JP2022187788A JP2021095966A JP2021095966A JP2022187788A JP 2022187788 A JP2022187788 A JP 2022187788A JP 2021095966 A JP2021095966 A JP 2021095966A JP 2021095966 A JP2021095966 A JP 2021095966A JP 2022187788 A JP2022187788 A JP 2022187788A
Authority
JP
Japan
Prior art keywords
virtual environment
behavior
moving object
video
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021095966A
Other languages
Japanese (ja)
Inventor
勇人 前原
Isato Maehara
晋介 青木
Shinsuke Aoki
英恵 一藤
Hanae Ichifuji
純一 秀平
Junichi Hidehira
祥吾 岡田
Shogo Okada
佑季子 市原
Yukiko Ichihara
くる美 相澤
Kurumi Aizawa
玲央 伊藤
Reo Ito
悠平 山本
Yuhei Yamamoto
悠樹 白鳥
Yuki Shiratori
遼司 小川
Ryoji Ogawa
友紀恵 大前
Yukie Omae
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2021095966A priority Critical patent/JP2022187788A/en
Publication of JP2022187788A publication Critical patent/JP2022187788A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a virtual environment providing system and a virtual environment providing method capable of setting virtual environment that is capable of giving a passenger of a mobile object a high sense of immersion.SOLUTION: A virtual environment providing system 10 that displays a virtual environment video representing virtual environment different from real environment in which a mobile object 1 is moving on a display apparatus 70 used by a passenger of the mobile object 1, comprises: a mobile object behavior recognition unit 24 that recognizes behavior of the mobile object 1; a virtual environment video generation unit 23 that generates a virtual environment video based on the behavior of the mobile object 1; and a video reproduction control unit 25 that reproduces the virtual environment video and displaying it on the display apparatus 70.SELECTED DRAWING: Figure 2

Description

本発明は、仮想環境提供システム、及び仮想環境提供方法に関する。 The present invention relates to a virtual environment providing system and a virtual environment providing method.

従来、車両の搭乗者が選択した仮想テーマに合わせた経路を選択し、選択された経路を車両が走行する際に、実際の道路の状況(カーブ、上り坂及び下り坂)に合わせて、仮想環境を走行する画像を、搭乗者が装着した仮想現実眼鏡に表示するシステムが提案されている(例えば、特許文献1参照)。
また、自律走行車の搭乗者のプロファイル及び車両情報(速度と移動方向、位置と経路情報、地図とポイントオブインタレスト、リアルタイム交通情報)に基づいて選択したコンテンツアイテムを画像に拡張させて、車内の表示装置に表示するシステムが提案されている(例えば、特許文献2参照)。
Conventionally, when a vehicle occupant selects a route that matches a virtual theme, and the vehicle travels along the selected route, the virtual route is adjusted according to the actual road conditions (curves, uphills and downhills). A system has been proposed that displays an image of a vehicle traveling in an environment on virtual reality glasses worn by a passenger (see, for example, Patent Document 1).
In addition, content items selected based on the autonomous vehicle passenger profile and vehicle information (speed and direction of travel, location and route information, maps and points of interest, real-time traffic information) are augmented into images, and A system for displaying images on a display device has been proposed (see Patent Document 2, for example).

特表2020-537258号公報Japanese Patent Publication No. 2020-537258 特開2017-204261号公報JP 2017-204261 A

上記従来のシステムのように、車両等の移動体において、実際に移動している環境と異なる仮想環境の映像を表示することにより、移動中の搭乗者に対して、疑似的な感覚による楽しみを与えることができる。そして、仮想環境への搭乗者の没入感を高めることにより、搭乗者が感じる楽しみがより大きくなると想定される。
本発明はかかる背景に鑑みてなされたものであり、移動体の搭乗者に対して、高い没入感を与えることができる仮想環境を設定することができる仮想環境提供システム、及び仮想環境提供方法を提供することを目的とする。
As in the above-mentioned conventional system, by displaying images of a virtual environment different from the environment in which the vehicle is actually moving in a moving object such as a vehicle, passengers can enjoy a simulated sensation while moving. can give. And it is assumed that by increasing the sense of immersion of the passenger in the virtual environment, the enjoyment felt by the passenger will be increased.
The present invention has been made in view of such a background, and provides a virtual environment providing system and a virtual environment providing method that can set a virtual environment that can give a high sense of immersion to a passenger of a mobile object. intended to provide

上記目的を達成するための第1態様として、移動体の搭乗者により使用される表示装置に、前記移動体が移動している実環境と異なる仮想環境を表現する仮想環境映像を表示する仮想環境提供システムであって、前記移動体の挙動を認識する移動体挙動認識部と、前記移動体の挙動に基づいて、前記仮想環境映像を生成する仮想環境映像生成部と、前記仮想環境映像を再生して前記表示装置に表示させる映像再生制御部と、を備える仮想環境提供システムが挙げられる。 As a first aspect for achieving the above object, a virtual environment for displaying a virtual environment image representing a virtual environment different from the real environment in which the moving object is moving on a display device used by a passenger of the moving object. A provision system, comprising: a moving object behavior recognition unit that recognizes behavior of the moving object; a virtual environment image generation unit that generates the virtual environment image based on the behavior of the moving object; and reproduces the virtual environment image. and a video playback control unit for causing the display device to display the virtual environment providing system.

上記仮想環境提供システムにおいて、前記移動体の出発位置から目的位置までの予定経路を認識する予定経路認識部を備え、前記仮想環境映像生成部は、前記移動体の挙動及び前記予定経路に基づいて、前記仮想環境映像を生成する構成としてもよい。 The virtual environment providing system includes a planned route recognition unit that recognizes a planned route from the starting position of the moving object to the destination position, and the virtual environment image generating unit generates a virtual environment based on the behavior of the moving object and the planned route , the virtual environment image may be generated.

上記仮想環境提供システムにおいて、前記移動体が前記予定経路を移動する際に前記移動体が示すと想定される所定挙動の発生位置と、前記所定挙動の発生とを推定する移動体挙動推定部と、前記移動体の位置を認識する移動体位置認識部と、を備え、前記仮想環境映像生成部は、前記移動体挙動推定部により推定された前記所定挙動の態様に応じた所定挙動映像を含む、前記仮想環境映像を予め生成し、前記映像再生制御部は、前記移動体位置認識部により認識される前記移動体の位置と、前記移動体挙動推定部により推定された前記所定挙動の発生位置との距離が、所定距離以下になったときに、前記所定挙動映像を再生して前記表示装置に表示させる構成としてもよい。 In the virtual environment providing system, a moving body behavior estimating unit for estimating a position where a predetermined behavior assumed to be exhibited by the moving body when the moving body moves along the planned route and the occurrence of the predetermined behavior. and a moving object position recognizing unit that recognizes the position of the moving object, and the virtual environment image generating unit includes a predetermined behavior image according to the aspect of the predetermined behavior estimated by the moving object behavior estimating unit. , the virtual environment image is generated in advance, and the image reproduction control unit detects the position of the moving object recognized by the moving object position recognition unit and the occurrence position of the predetermined behavior estimated by the moving object behavior estimation unit. The predetermined behavior video may be played back and displayed on the display device when the distance from the player becomes equal to or less than a predetermined distance.

上記仮想環境提供システムにおいて、前記映像再生制御部は、移動中の前記移動体で前記仮想環境映像を再生しているときに、前記移動体が移動を停止したときには前記仮想環境映像の再生を中断し、前記移動体が停止した時点から所定時間が経過する前に前記移動体が移動を開始したときは、前記仮想環境映像を前記中断した箇所から再生する構成としてもよい。 In the above virtual environment providing system, the video playback control unit suspends playback of the virtual environment video when the moving body stops moving while the moving body is playing back the virtual environment video. Further, when the moving object starts to move before a predetermined time elapses after the moving object stops, the virtual environment image may be reproduced from the interrupted point.

上記仮想環境提供システムにおいて、前記仮想環境映像生成部は、所定のゲームコンテンツに含まれるステージ又はプレイモードに基づく複数のゲーム対応映像を、前記移動体挙動認識部により認識される前記移動体の挙動に応じて切り替えることにより、前記仮想環境映像を生成する構成としてもよい。 In the virtual environment providing system described above, the virtual environment image generation unit generates a plurality of game-compatible images based on a stage or a play mode included in predetermined game content. The virtual environment image may be generated by switching according to the above.

上記仮想環境提供システムにおいて、前記移動体挙動認識部は、前記移動体の挙動として、前記移動体の横加速度又は縦加速度を認識する構成としてもよい。 In the virtual environment providing system, the moving body behavior recognition unit may recognize lateral acceleration or vertical acceleration of the moving body as the behavior of the moving body.

上記目的を達成するための第2態様として、移動体の搭乗者により使用される表示装置に対して、前記移動体が移動している実環境と異なる仮想環境を表現する仮想環境映像を表示するために、コンピュータにより実行される仮想環境提供方法であって、前記移動体の挙動を認識する移動体挙動認識ステップと、前記移動体の挙動に基づいて、前記仮想環境映像を生成する仮想環境映像生成ステップと、前記仮想環境映像を再生して前記表示装置に表示させる映像表示制御ステップと、を含む仮想環境提供方法が挙げられる。 As a second aspect for achieving the above object, a virtual environment image expressing a virtual environment different from the real environment in which the mobile body is moving is displayed on a display device used by a passenger of the mobile body. a computer-executed virtual environment providing method, comprising: a moving object behavior recognition step of recognizing the behavior of the moving object; and a virtual environment image of generating the virtual environment image based on the behavior of the moving object. and a video display control step of reproducing the virtual environment video and displaying it on the display device.

上記仮想環境提供システムによれば、移動体の挙動に基づいて仮想環境映像を生成することにより、移動体の搭乗者に対して、高い没入感を与えることができる仮想環境を設定することができる。 According to the above-described virtual environment providing system, by generating a virtual environment image based on the behavior of the mobile object, it is possible to set a virtual environment that can give a high sense of immersion to the passengers of the mobile object. .

図1は、仮想環境提供システムが搭載された車両の構成の説明図である。FIG. 1 is an explanatory diagram of the configuration of a vehicle equipped with a virtual environment providing system. 図2は、仮想環境提供システムの構成図である。FIG. 2 is a configuration diagram of the virtual environment providing system. 図3は、車両の予定経路のエリアとゲームコンテンツのステージとの対応を示した説明図である。FIG. 3 is an explanatory diagram showing the correspondence between the areas of the planned route of the vehicle and the stages of the game content. 図4は、仮想環境映像を生成する処理のフローチャートである。FIG. 4 is a flowchart of processing for generating a virtual environment video. 図5は、仮想環境映像を再生する処理のフローチャートである。FIG. 5 is a flowchart of processing for reproducing a virtual environment video.

[1.仮想環境映像の視聴態様]
図1を参照して、車両1の搭乗者U1、U2、U3が仮想環境映像を視聴する態様について説明する。車両1は自律走行が可能であり、搭乗者U1、U2、U3はそれぞれ、ヘッドホン付きのヘッドマウントディスプレイ70a、70b、70cを装着している。なお、運転席に乗車している搭乗者U1は、車両1の運転操作を行うときには、ヘッドマウントディスプレイ70aを外す。
[1. Viewing Mode of Virtual Environment Video]
A manner in which passengers U1, U2, and U3 of vehicle 1 view virtual environment images will be described with reference to FIG. The vehicle 1 can travel autonomously, and passengers U1, U2, and U3 are wearing head-mounted displays 70a, 70b, and 70c with headphones, respectively. Passenger U1 in the driver's seat removes head-mounted display 70a when operating vehicle 1. FIG.

車両1は、車両1の周辺を撮影するカメラとして、前方カメラ59a、右側方カメラ59b、左側方カメラ59c、及び後方カメラ59dを備えている。また、車両1は、通信ユニット50、ディスプレイ51、スピーカー52a,52b、マイク53、及び車両1の周辺に存在する対象物を検出するレーダー60を備えている。以下では、ヘッドマウントディスプレイ70a,70b,70cをまとめてヘッドマウントディスプレイ70とも称し、また、前方カメラ59a,右側方カメラ59b,左側方カメラ59c,後方カメラ59dをまとめてカメラ59とも称する。また、搭乗者U1,U2,U3をまとめて搭乗者Uとも称する。 The vehicle 1 includes a front camera 59a, a right side camera 59b, a left side camera 59c, and a rear camera 59d as cameras for capturing images of the surroundings of the vehicle 1. The vehicle 1 also includes a communication unit 50 , a display 51 , speakers 52 a and 52 b , a microphone 53 , and a radar 60 that detects objects existing around the vehicle 1 . Hereinafter, the head mounted displays 70a, 70b, and 70c are also collectively referred to as the head mounted display 70, and the front camera 59a, the right side camera 59b, the left side camera 59c, and the rear camera 59d are also collectively referred to as the camera 59. Passengers U1, U2, and U3 are also collectively referred to as passenger U.

通信ユニット50は、ヘッドマウントディスプレイ70a,70b,70cと無線通信を行う。また、通信ユニット50は、通信ネットワーク200を介して、情報提供サーバー210との間で通信を行う。情報提供サーバー210は、図示しないプロセッサ、メモリ等により構成されたコンピュータシステムである。さらに、通信ユニット50は、搭乗者U1,U2,U3のいずれかにより使用される通信端末100との間で、直接或いは通信ネットワーク200を介して通信を行う。 The communication unit 50 wirelessly communicates with the head mounted displays 70a, 70b and 70c. Also, the communication unit 50 communicates with the information providing server 210 via the communication network 200 . The information providing server 210 is a computer system configured by a processor, memory, etc. (not shown). Furthermore, the communication unit 50 communicates directly or via the communication network 200 with the communication terminal 100 used by any of the passengers U1, U2, U3.

仮想環境提供システム10は、カメラ59a~59dによる撮影画像、レーダー60により検出される対象物の位置、後述するセンサ類の検出情報に基づいて認識される車両1の挙動等に基づいて、車両1が移動する実環境と異なる仮想環境を表現する仮想環境映像を生成する。そして、仮想環境提供システム10は、仮想環境映像を再生して、仮想環境映像の再生データをヘッドマウントディスプレイ70a,70b,70cに送信することにより、ヘッドマウントディスプレイ70a,70b,70cに仮想環境映像を表示させる。 The virtual environment providing system 10 is based on images captured by the cameras 59a to 59d, the positions of objects detected by the radar 60, the behavior of the vehicle 1 recognized based on detection information from sensors described later, and the like. generates a virtual environment video that expresses a virtual environment different from the real environment in which the is moving. Then, the virtual environment providing system 10 reproduces the virtual environment video and transmits the reproduction data of the virtual environment video to the head mounted displays 70a, 70b, and 70c, thereby providing the virtual environment video to the head mounted displays 70a, 70b, and 70c. display.

これにより、搭乗者U1,U2,U3は、仮想環境映像を視聴しながら目的地までの移動を楽しむことができる。本実施形態では、仮想環境提供システム10は、カーレースのゲームコンテンツを使用して、カーレースの世界観を表現する仮想環境映像90を生成して再生する。搭乗者U1,U2,U3は、あたかもカーレースに参加しているかのような没入感に浸ることができる。 This allows the passengers U1, U2, and U3 to enjoy traveling to their destination while viewing the virtual environment video. In this embodiment, the virtual environment providing system 10 uses car racing game content to generate and reproduce a virtual environment video 90 that expresses the world view of car racing. Passengers U1, U2, and U3 can be immersed in a feeling as if they were participating in a car race.

なお、ヘッドマウントディスプレイ70a,70b,70cに表示させる仮想環境映像は同一であってもよく、個別に異ならせてもよい。また、音声操作或いはスイッチ操作等により、搭乗者U1,U2,U3がゲームに参加できるようにし、操作に応じて仮想環境映像を変化させるようにしてもよい。 The virtual environment images displayed on the head-mounted displays 70a, 70b, and 70c may be the same, or may be individually different. Passengers U1, U2, and U3 may be allowed to participate in the game by voice operation, switch operation, or the like, and the virtual environment image may be changed according to the operation.

また、ヘッドマウントディスプレイ70a,70b,70cではなく、車両1のディスプレイ51に仮想環境映像を再生させ、スピーカー52a,52bから再生音声を出力するようにしてもよい。或いは、例えばHUD(Head-Up Display)により、フロントガラス(図示しない)に仮想環境映像を表示させるようにしてもよい。また、フロントガラスと他の複数のウインドウ(サイドウインドウ、リヤウインドウ、サンルーフ等)に仮想環境映像を表示することにより、車室内全体に仮想環境映像が表示される構成としてもよい。 Also, instead of the head-mounted displays 70a, 70b, 70c, the display 51 of the vehicle 1 may reproduce the virtual environment image, and the reproduced sound may be output from the speakers 52a, 52b. Alternatively, for example, a HUD (Head-Up Display) may be used to display a virtual environment image on a windshield (not shown). Also, the virtual environment image may be displayed on the entire vehicle interior by displaying the virtual environment image on the windshield and a plurality of other windows (side window, rear window, sunroof, etc.).

[2.仮想環境提供システムの構成]
図2,図3を参照して、仮想環境提供システム10の構成について説明する。仮想環境提供システム10は、プロセッサ20、メモリ30、図示しないインターフェース回路等により構成された制御ユニットである。
[2. Configuration of virtual environment provision system]
The configuration of the virtual environment providing system 10 will be described with reference to FIGS. 2 and 3. FIG. The virtual environment providing system 10 is a control unit composed of a processor 20, a memory 30, an interface circuit (not shown), and the like.

仮想環境提供システム10は、CAN(Controller Area Network)等の通信仕様による通信バス5により、車両1に備えられた、通信ユニット50、ディスプレイ51、スピーカー52a,52b、マイク53、速度センサ54,縦加速度センサ55,横加速度センサ56、ヨーレートセンサ57、雨滴センサ58、カメラ59(前方カメラ59a、右側方カメラ59b、左側方カメラ59c、後方カメラ59d)、レーダー60、及びカーナビ40と接続されている。カーナビ40は、車両1の現在位置を検出するGNSS(Global Navigation Satellite System)センサ41と、地図データ42を備え、車両1の出発地点(出発位置)から目的地点(目的位置)までの経路案内等を実行する。 The virtual environment providing system 10 includes a communication unit 50, a display 51, speakers 52a and 52b, a microphone 53, a speed sensor 54, a vertical communication unit 50, a display 51, speakers 52a and 52b, a microphone 53, and a vertical communication bus 5 according to communication specifications such as CAN (Controller Area Network). Acceleration sensor 55, lateral acceleration sensor 56, yaw rate sensor 57, raindrop sensor 58, cameras 59 (front camera 59a, right side camera 59b, left side camera 59c, rear camera 59d), radar 60, and car navigation system 40 are connected. . A car navigation system 40 includes a GNSS (Global Navigation Satellite System) sensor 41 for detecting the current position of the vehicle 1 and map data 42, and provides route guidance from a departure point (departure position) of the vehicle 1 to a destination point (destination position). to run.

仮想環境提供システム10のプロセッサ20は、メモリ30に保存された制御プログラム31を読み込んで実行することにより、予定経路認識部21、移動体挙動推定部22、仮想環境映像生成部23、移動体挙動認識部24、及び映像再生制御部25として機能する。 The processor 20 of the virtual environment providing system 10 reads and executes the control program 31 stored in the memory 30 to obtain a planned route recognition unit 21, a moving body behavior estimation unit 22, a virtual environment video generation unit 23, a moving body behavior It functions as a recognition unit 24 and a video reproduction control unit 25 .

仮想環境映像生成部23により実行される処理は、本開示の仮想環境提供方法における仮想環境映像生成ステップに相当し、移動体挙動認識部24により実行される処理は、本開示の仮想環境提供方法における移動体挙動認識ステップに相当する。映像再生制御部25により実行される処理は、本開示の仮想環境提供方法における映像再生制御ステップに相当する。 The processing executed by the virtual environment image generation unit 23 corresponds to the virtual environment image generation step in the virtual environment provision method of the present disclosure, and the processing executed by the moving object behavior recognition unit 24 corresponds to the virtual environment provision method of the present disclosure. corresponds to the mobile body behavior recognition step in . The processing executed by the video reproduction control unit 25 corresponds to the video reproduction control step in the virtual environment providing method of the present disclosure.

予定経路認識部21は、カーナビ40により設定されている出発地点から目的地点までの予定経路を認識する。なお、通信端末100にインストールされているカーナビのアプリ(アプリケーション)によって出発地点から目的地点までの予定経路が設定されている場合は、通信端末100との通信によって予定経路を認識してもよい。 The scheduled route recognition unit 21 recognizes the scheduled route from the departure point to the destination point set by the car navigation system 40 . Note that when a scheduled route from a departure point to a destination point is set by a car navigation application installed in the communication terminal 100, the scheduled route may be recognized through communication with the communication terminal 100.

ここで、図3の500は、車両1の現在位置(出発地点)Psから目的地点Pdまでの予定経路を例示した実環境のマップである。実環境のマップ500における予定経路は、未舗装の第1エリア501、山道の第2エリア502、高速道路の第3エリア503、及び市街地の第4エリア504を順に走行する経路となっている。 Here, 500 in FIG. 3 is a real environment map showing an example of a planned route from the current position (departure point) Ps of the vehicle 1 to the destination point Pd. The planned route in the map 500 of the real environment is a route in which the vehicle travels through a first unpaved area 501, a second mountain road area 502, a third highway area 503, and a fourth urban area 504 in this order.

移動体挙動推定部22は、地図データ42に基づいて、車両1が予定経路を走行する際に、車両1が示すと想定される所定挙動の発生地点(発生位置)と態様を推定する。例えば、移動体挙動推定部22は、車両1が第2エリア502を走行する際には、連続するコーナーの地点を走行する際に、車両1が高レベルの横加速度(横G)と縦加速度(縦G)を示すと推定する。また、移動体挙動推定部22は、車両1が第3エリア503を走行する際には、高速道路への進入と高速道路からの退出地点で、高レベルの縦加速後を示すと推定する。 Based on the map data 42, the moving object behavior estimation unit 22 estimates the occurrence point (occurrence position) and mode of the predetermined behavior assumed to be exhibited by the vehicle 1 when the vehicle 1 travels along the planned route. For example, when the vehicle 1 travels in the second area 502, the moving object behavior estimation unit 22 determines that the vehicle 1 has a high level of lateral acceleration (lateral G) and longitudinal acceleration when the vehicle 1 travels through successive corners. (Vertical G). Further, the moving body behavior estimation unit 22 estimates that when the vehicle 1 travels in the third area 503, it exhibits a high level of longitudinal acceleration at the point of entry into and exit from the expressway.

仮想環境映像生成部23は、予定経路認識部21により認識された車両1の実環境における予定経路と、移動体挙動推定部22により推定された車両1の挙動に基づいて、予定経路に対応させた仮想環境映像を生成する。ここで、図3の510は、実環境のマップ500における車両1の出発地点Psから目的地点Pdまでの予定経路に対応させた仮想環境映像の生成例を示している。 The virtual environment image generation unit 23 associates the planned route with the planned route in the real environment of the vehicle 1 recognized by the planned route recognition unit 21 and the behavior of the vehicle 1 estimated by the moving body behavior estimation unit 22. generate a virtual environment image. Here, 510 in FIG. 3 indicates an example of generating a virtual environment image corresponding to the scheduled route from the departure point Ps to the destination point Pd of the vehicle 1 on the map 500 of the real environment.

仮想環境映像生成部23は、カーレースのゲームコンテンツを反映させた仮想環境のマップ510により、実環境のマップ500における予定経路に対応させたレースコースを設定することによって、仮想環境映像を生成する。具体的には、仮想環境映像生成部23は、未舗装の第1エリアに対して不整地区間の第1ステージ511を割り当て、山道の第2エリア502に対して山岳区間の第2ステージ512を割り当て、高速道路の第3エリア503に対して高速区間の第3ステージ513を割り当て、市街地の第4エリア504に対して市街地区間の第4ステージ514を割り当てる。 A virtual environment image generation unit 23 generates a virtual environment image by setting a race course corresponding to a planned route in a real environment map 500 using a virtual environment map 510 reflecting car racing game content. . Specifically, the virtual environment image generation unit 23 assigns the first stage 511 between uneven areas to the first unpaved area, and assigns the second stage 512 of the mountain section to the second area 502 of the mountain road. Assignment, assigning the third stage 513 of the high-speed section to the third area 503 of the highway, and assigning the fourth stage 514 between urban districts to the fourth area 504 of the urban area.

そして、仮想環境映像生成部23は、実環境のマップ500における出発地点Psから目的地点Pdまでの予定経路に対応した、仮想環境のマップ510におけるSTARTからGOALまでのレースコースを、レース車両Cが走行する映像を、仮想環境映像として生成する。仮想環境映像生成部23は、生成した仮想環境映像のデータ32をメモリ30に保存する。 Then, the virtual environment image generation unit 23 creates a race course from START to GOAL on the virtual environment map 510 corresponding to the scheduled route from the starting point Ps to the destination point Pd on the real environment map 500. A running image is generated as a virtual environment image. The virtual environment image generator 23 stores the generated virtual environment image data 32 in the memory 30 .

また、仮想環境映像生成部23は、移動体挙動推定部22により推定された所定挙動の発生地点で、所定挙動の態様に応じた所定挙動映像が表示されるように、仮想環境映像を生成する。例えば、仮想環境映像生成部23は、山岳区間の第2ステージ512について、車両1が横加速度を示すと推定される地点で、側壁に車両1が接近する所定挙動映像が表示されるように仮想画像映像を生成する。 In addition, the virtual environment image generation unit 23 generates a virtual environment image so that the predetermined behavior image corresponding to the mode of the predetermined behavior is displayed at the point where the predetermined behavior estimated by the moving object behavior estimation unit 22 occurs. . For example, for the second stage 512 of the mountainous section, the virtual environment image generation unit 23 causes the virtual environment image generation unit 23 to display a predetermined behavior image in which the vehicle 1 approaches the side wall at a point where the vehicle 1 is estimated to exhibit lateral acceleration. Generate an image video.

また、仮想環境映像生成部23は、車両1の走行中に移動体挙動認識部24により認識される車両1の挙動、予定経路の交通状況、気象状況等に応じて、仮想環境映像を変化させるための変化パターン映像を生成し、変化パターン映像を含む仮想画像映像のデータ32をメモリ30に保存する。 In addition, the virtual environment image generation unit 23 changes the virtual environment image according to the behavior of the vehicle 1 recognized by the mobile object behavior recognition unit 24 while the vehicle 1 is traveling, traffic conditions on the planned route, weather conditions, and the like. A variation pattern video for the virtual image is generated, and virtual image video data 32 including the variation pattern video is stored in the memory 30 .

移動体挙動認識部24は、走行中に車両1が示す挙動を、速度センサ54,縦加速度センサ55、横加速度センサ56、及びヨーレートセンサ57による検出情報、カメラ59による撮影画像、レーダー60による対象物の検出状況等に基づいて認識する。映像再生制御部25は、車両1が予定経路を走行する際に、走行地点に対応させた部分の仮想環境映像を再生してヘッドマウントディスプレイ70に表示させる。例えば、図3を参照して、車両1が第2エリア502を走行しているときは、映像再生制御部25は、第2ステージ512の仮想環境映像を再生する。 The mobile object behavior recognition unit 24 recognizes the behavior of the vehicle 1 while traveling based on information detected by the speed sensor 54, longitudinal acceleration sensor 55, lateral acceleration sensor 56, and yaw rate sensor 57, an image captured by the camera 59, and an object detected by the radar 60. Recognize based on the detection status of the object. When the vehicle 1 travels along the planned route, the image reproduction control unit 25 reproduces the virtual environment image of the portion corresponding to the travel point and causes the head mounted display 70 to display the virtual environment image. For example, referring to FIG. 3 , when the vehicle 1 is traveling in the second area 502 , the image reproduction control section 25 reproduces the virtual environment image of the second stage 512 .

また、映像再生制御部25は、車両1の現在位置と、移動体挙動推定部22により推定された所定挙動の発生地点との距離が所定距離以下になったタイミングで、所定挙動映像を再生する。これにより、搭乗者Uが体感している車両1の挙動の変化と、仮想環境画像の変化を同期させることができる。 Further, the image reproduction control unit 25 reproduces the predetermined behavior image at the timing when the distance between the current position of the vehicle 1 and the point where the predetermined behavior occurs estimated by the moving object behavior estimation unit 22 becomes equal to or less than the predetermined distance. . Thereby, the change in the behavior of the vehicle 1 experienced by the passenger U can be synchronized with the change in the virtual environment image.

[3.仮想環境映像の生成処理]
図4に示したフローチャートに従って、仮想環境映像の生成処理の実行手順について説明する。図4のステップS1で、仮想環境映像生成部23は、カーナビ40又は通信端末100により目的地点が設定されたときに、ステップS2に処理を進めて、仮想環境映像の生成処理を開始する。
[3. Generation processing of virtual environment video]
The execution procedure of the virtual environment video generation process will be described according to the flowchart shown in FIG. When the destination point is set by the car navigation system 40 or the communication terminal 100 in step S1 of FIG. 4, the virtual environment image generator 23 advances the process to step S2 to start the virtual environment image generation process.

ステップS2で、予定経路認識部21は、カーナビ40又は通信端末100にインストールされたカーナビアプリにより設定された出発地点から目的地点までの予定経路を認識する。次のステップS3で、仮想環境映像生成部23は、予定経路に適合するゲームコンテンツを抽出する。仮想環境映像生成部23は、予定経路による走行エリアの環境、搭乗者の嗜好性、搭乗者の選択操作等に応じて、抽出するゲームコンテンツを決定する。仮想環境映像生成部23は、ゲームコンテンツのデータを、情報提供サーバー210、通信端末100等からダウンロードして取得する。 In step S<b>2 , the planned route recognition unit 21 recognizes the planned route from the departure point to the destination point set by the car navigation application installed in the car navigation system 40 or the communication terminal 100 . In the next step S3, the virtual environment image generator 23 extracts game content that matches the planned route. The virtual environment image generation unit 23 determines game content to be extracted according to the environment of the travel area along the planned route, the preference of the passenger, the selection operation of the passenger, and the like. The virtual environment video generation unit 23 downloads and acquires game content data from the information providing server 210, the communication terminal 100, and the like.

続くステップS4で、仮想環境映像生成部23は、図3を参照して上述したように、予定経路の各エリアに対応付けるゲームコンテンツのステージを決定し、ゲームコンテンツのデータに基づいて、上述した所定挙動映像を含む仮想環境映像を生成する。次のステップS5で、仮想環境映像生成部23は、予定経路の各エリアについて、車両1が予定経路を走行する際に、移動体挙動認識部24により認識される車両1の挙動、カメラ59の撮影画像或いはレーダー60により認識される周囲の対象物、情報提供サーバー210から提供される交通情報及び気象情報等に応じて、仮想環境映像を変化させるための変化パターン映像を生成する。 In subsequent step S4, the virtual environment image generator 23 determines the stages of the game content to be associated with each area of the planned route, as described above with reference to FIG. Generate a virtual environment video that includes behavior video. In the next step S5, the virtual environment image generation unit 23 detects the behavior of the vehicle 1 recognized by the moving body behavior recognition unit 24 and the behavior of the camera 59 when the vehicle 1 travels along the scheduled route for each area of the scheduled route. A change pattern image for changing the virtual environment image is generated according to the captured image or surrounding objects recognized by the radar 60, traffic information and weather information provided from the information providing server 210, and the like.

次のステップS6で、仮想環境映像生成部23は、ステップS5で生成した変化パターン映像を含めた仮想環境映像を生成し、仮想環境映像のデータ32をメモリ30に保存する。 In the next step S6, the virtual environment image generator 23 generates a virtual environment image including the change pattern image generated in step S5, and stores the data 32 of the virtual environment image in the memory 30. FIG.

[4.仮想環境映像の再生処理]
図4、図5に示したフローチャートに従って、仮想環境映像の再生処理の実行手順について説明する。図4のステップS7で、映像再生制御部25は、GNSSセンサ41により検出される車両1の現在位置の変化により、車両1が走行を開始したことを認識したときに、図5のステップS8に処理を進めて仮想環境映像の再生処理を開始する。
[4. Playback processing of virtual environment video]
The execution procedure of the virtual environment video reproduction process will be described according to the flowcharts shown in FIGS. 4 and 5. FIG. In step S7 of FIG. 4, when the video reproduction control unit 25 recognizes that the vehicle 1 has started traveling due to a change in the current position of the vehicle 1 detected by the GNSS sensor 41, the process proceeds to step S8 of FIG. The process proceeds to start playing back the virtual environment video.

図5のステップS8で、映像再生制御部25は、GNSSセンサ41による検出信号に基づいて車両1の現在位置を認識する。続くステップS9で、映像再生制御部25は、車両1の現在位置が属するエリアに対応付けられたゲームコンテンツのステージを表現する仮想環境映像を再生する。例えば、図3の例では、車両1の現在位置が第3エリア503の高速道路であるときには、映像再生制御部25は、ゲームコンテンツの第3ステージの高速区間を表現した仮想環境映像を再生する。これにより、搭乗者Uが体感している速度感にマッチした仮想環境映像がヘッドマウントディスプレイ70に表示され、搭乗者Uが抱いているカーレースの仮想世界への没入感が高まることが期待できる。 At step S<b>8 in FIG. 5 , the video reproduction control unit 25 recognizes the current position of the vehicle 1 based on the detection signal from the GNSS sensor 41 . In subsequent step S9, the video reproduction control unit 25 reproduces the virtual environment video representing the stage of the game content associated with the area to which the current position of the vehicle 1 belongs. For example, in the example of FIG. 3, when the current position of the vehicle 1 is the highway in the third area 503, the video reproduction control unit 25 reproduces the virtual environment video representing the high-speed section of the third stage of the game content. . As a result, a virtual environment image that matches the sense of speed experienced by the passenger U is displayed on the head-mounted display 70, and it is expected that the passenger U will feel more immersed in the virtual world of the car race. .

また、映像再生制御部25は、ステップS9で、上述したように、車両1の現在位置と、移動体挙動推定部22により推定された所定挙動の発生地点との距離が所定距離以下になったときに、所定挙動に対応した所定挙動映像を再生する。 Further, in step S9, the video reproduction control unit 25 determines that the distance between the current position of the vehicle 1 and the point where the predetermined behavior occurs estimated by the moving object behavior estimation unit 22 is equal to or less than the predetermined distance. Sometimes, a predetermined behavior video corresponding to the predetermined behavior is reproduced.

次のステップS10で、映像再生制御部25は、移動体挙動認識部24により認識される車両1の挙動、レーダー60により検出される車両1の周囲の対象物、周囲カメラ59の撮影画像から認識される車両1の周囲の対象物の種別、情報提供サーバー210から提供される道路交通情報(渋滞情報、事故情報、通行規制情報等)、情報提供サーバー210から提供される気象情報、雨滴センサ58により検出される降雨情報等を認識する。 In the next step S10, the video reproduction control unit 25 recognizes from the behavior of the vehicle 1 recognized by the moving body behavior recognition unit 24, the objects around the vehicle 1 detected by the radar 60, and the images captured by the surrounding camera 59. types of objects around the vehicle 1, road traffic information (congestion information, accident information, traffic regulation information, etc.) provided by the information providing server 210, weather information provided by the information providing server 210, raindrop sensor 58 Recognize rainfall information and the like detected by

続くステップS11で、映像再生制御部25は、車両1の挙動、車両1の周囲の対象物とその種別、道路交通情報、気象情報、降雨情報に基づいて、再生する仮想環境画像の変化パターン映像を以下のように変更する。
(1)車両1の挙動に応じた変更。
映像再生制御部25は、例えば、車両1が所定レベル以上の横加速度を示した場合に、画面が横方向に急激にシフトする変化パターン映像を再生する。また、映像再生制御部25は、車両1が所定レベル以上の前方への縦加速度を示した場合に、レース車両Cがジェットコースターのように急激に下降する変化パターン映像を再生する。
In the following step S11, the video reproduction control unit 25 generates a change pattern video of the virtual environment image to be reproduced based on the behavior of the vehicle 1, objects and their types around the vehicle 1, road traffic information, weather information, and rainfall information. to:
(1) Change according to the behavior of the vehicle 1 .
For example, when the vehicle 1 exhibits a lateral acceleration of a predetermined level or more, the image reproduction control unit 25 reproduces a change pattern image in which the screen sharply shifts in the horizontal direction. Further, the image reproduction control unit 25 reproduces a change pattern image in which the racing vehicle C descends rapidly like a roller coaster when the vehicle 1 exhibits a forward longitudinal acceleration of a predetermined level or more.

(2)周囲の対象物とその種別に応じた変更。
映像再生制御部25は、例えば、車両1の周囲を走行する他車両が認識されているときは、カーレースに参加している他車両の画像を表示する変化パターン映像を再生する。また、映像再生制御部25は、車両1が信号で停止している場合に、レース車両Cがピットインして、給油、タイヤ交換等のピット作業を行う変化パターン映像を再生する。
(2) Changes according to surrounding objects and their types.
For example, when other vehicles traveling around the vehicle 1 are recognized, the image reproduction control unit 25 reproduces a change pattern image displaying images of other vehicles participating in the car race. Further, the image reproduction control unit 25 reproduces a change pattern image in which, when the vehicle 1 is stopped at a signal, the race vehicle C enters the pit and performs pit work such as refueling and tire replacement.

(3)道路交通情報に応じた変更。
映像再生制御部25は、例えば、渋滞を認識したときには、レース中の事故により、セーフティカーに先導されたスロー走行となっている変化パターン映像を再生する。また、映像再生制御部25は、車両1が道路工事箇所を迂回して走行する際に、道路工事箇所を障害物の疑似画像として表示する変化パターン映像を再生する。
(3) Changes according to road traffic information.
For example, when recognizing a traffic jam, the image reproduction control unit 25 reproduces a change pattern image in which the vehicle is running slowly led by the safety car due to an accident during the race. Further, the video reproduction control unit 25 reproduces a change pattern video that displays the road construction site as a pseudo image of an obstacle when the vehicle 1 travels around the road construction site.

(4)気象情報に応じた仮想画像映像の変更。
映像再生制御部25は、例えば、強風が吹いている場合は、レース車両Cが左右に振られる変化パターン映像を再生する。また、映像再生制御部25は、雨天である場合は、水溜まりでレース車両Cがスリップしながら走行する変化パターン映像を再生する。
(4) Change of virtual image video according to weather information.
For example, when a strong wind is blowing, the image reproduction control unit 25 reproduces a change pattern image in which the racing car C swings left and right. In addition, when it is raining, the image reproduction control unit 25 reproduces a change pattern image in which the racing vehicle C runs while slipping in a puddle.

ステップS12で、映像再生制御部25は、GNSSセンサ41により検出される車両1の現在位置の変化に基づいて、車両1が停止したか否かを判断する。そして、映像再生制御部25は、車両1が停止したときはステップS13に処理を進める。一方、車両1が停止していないときには、映像再生制御部25は、ステップS8に処理を進めてステップS8~S11の処理を再び実行する。 In step S<b>12 , the video reproduction control unit 25 determines whether the vehicle 1 has stopped based on the change in the current position of the vehicle 1 detected by the GNSS sensor 41 . Then, when the vehicle 1 has stopped, the video reproduction control unit 25 advances the process to step S13. On the other hand, when the vehicle 1 is not stopped, the video reproduction control section 25 advances the process to step S8 and executes the processes of steps S8 to S11 again.

ステップS13で、映像再生制御部25は仮想環境映像の再生を中断する。次のステップS14で、映像再生制御部25は、GNSSセンサ41により検出される車両1の現在位置から、車両1が目的地点Pdに到着したか否かを判断する。そして、映像再生制御部25は、車両1が目的地点Pdに到着したときはステップS15に処理を進めて、仮想画像映像の再生を終了する。 In step S13, the video reproduction control unit 25 suspends reproduction of the virtual environment video. In the next step S14, the video reproduction control unit 25 determines whether or not the vehicle 1 has arrived at the destination point Pd from the current position of the vehicle 1 detected by the GNSS sensor 41. Then, when the vehicle 1 has arrived at the destination point Pd, the video reproduction control unit 25 advances the processing to step S15 and ends the reproduction of the virtual image video.

一方、車両1が目的地点Pdに到着していないときには、映像再生制御部25は、ステップS20に処理を進めて停止時間タイマーをスタートさせる。停止時間タイマーの設定時間は、例えば数時間に設定される。続くステップS21とS30のループ処理により、映像再生制御部25は、ステップS30で停止時間タイマーがタイムアップするまで、ステップS21で、GNSSセンサ41により検出される車両1の現在位置の変化により、車両1が走行を再開したか否かを判断する。 On the other hand, when the vehicle 1 has not arrived at the destination point Pd, the video reproduction control unit 25 advances the process to step S20 and starts the stop time timer. The set time of the stop time timer is set to several hours, for example. Through the loop processing of subsequent steps S21 and S30, the video reproduction control unit 25 controls the vehicle 1 according to the change in the current position of the vehicle 1 detected by the GNSS sensor 41 in step S21 until the stop time timer expires in step S30. 1 determines whether or not it has resumed running.

そして、映像再生制御部25は、車両1が走行を再開したときは、ステップS21からステップS22に処理を進めて、中断した箇所から仮想環境映像の再生を再開し、ステップS8に処理を進める。これにより、例えば、車両1がパーキングエリアに1時間程度駐車して、搭乗者Uが休憩したような場合には、仮想環境映像が中断箇所から再生され、搭乗者Uは仮想環境映像によるゲームコンテンツの世界を継続的に楽しむことができる。 Then, when the vehicle 1 resumes running, the image reproduction control unit 25 advances the process from step S21 to step S22, resumes reproduction of the virtual environment image from the interrupted point, and advances the process to step S8. As a result, for example, when the vehicle 1 is parked in the parking area for about an hour and the passenger U takes a break, the virtual environment video is reproduced from the interrupted point, and the passenger U can enjoy the game content based on the virtual environment video. You can continue to enjoy the world of

一方、ステップS30で停止時間タイマーがタイムアップしたときには、映像再生制御部25は、ステップS15に処理を進めて、仮想環境映像の再生を終了する。これにより、例えば、搭乗者Uが目的地点Pdに向かう予定経路の途中地点にある宿泊施設に1泊した場合には、翌日に車両1が走行を開始した時から、新たなコースによる仮想環境映像の再生が開始され、搭乗者Uは新たなコースによるカーレースの仮想世界を楽しむことができる。 On the other hand, when the stop time timer times out in step S30, the video reproduction control unit 25 advances the process to step S15 to end the reproduction of the virtual environment video. As a result, for example, when the passenger U stays for one night at an accommodation facility on the way to the destination point Pd, the vehicle 1 starts running on the next day, and the virtual environment image of the new course is displayed. is started, and the passenger U can enjoy the virtual world of the car race on the new course.

[5.他の実施形態]
上記実施形態では、本開示の移動体として地表を走行する車両1を例示したが、本開示の移動体は飛行体、船舶等の他の種類の移動体であってもよい。
[5. Other embodiments]
In the above-described embodiment, the vehicle 1 traveling on the ground surface is illustrated as the mobile object of the present disclosure, but the mobile object of the present disclosure may be another type of mobile object such as an aircraft or a ship.

上記実施形態では、仮想環境映像生成部23は、カーレースのゲームコンテンツの仮想環境を表現する仮想環境映像を生成したが、ロールプレイング等の他のジャンルのゲームコンテンツの仮想環境を表現する仮想環境映像を生成するようにしてもよい。また、上記実施形態では、実環境のエリアとゲームのステージを対応させたが、実環境とゲームのプレイモードを対応付けてもよい。例えば、車両1の周辺に他車両が存在しない場合は、単独走行のプレイモードとし、車両1の周辺に他車両が存在する場合は、レース走行のプレイモードとしてもよい。また、ゲームコンテンツ以外に、映画、TVドラマ等の画像コンテンツに応じた仮想環境を表現する仮想環境映像を生成するようにしてもよい。 In the above embodiment, the virtual environment image generation unit 23 generates a virtual environment image that expresses the virtual environment of car racing game content. An image may be generated. Further, in the above-described embodiment, the areas of the real environment and the stages of the game are associated, but the real environment and the play mode of the game may be associated with each other. For example, when there are no other vehicles in the vicinity of the vehicle 1, the play mode may be for solo driving, and when there are other vehicles in the vicinity of the vehicle 1, the play mode may be for racing. In addition to game content, a virtual environment video representing a virtual environment corresponding to image content such as movies and TV dramas may be generated.

また、車両1が走行する実環境とは異なる他の地域の実際の映像に基づいて、仮想環境映像を生成してもよい。例えば、車両1が山道を走行しているときに、他の地域に存在する景観のよい山岳地帯の映像を用いた仮想環境映像を生成してもよい。また、車両1が走行している実環境の画像に、アニメーション画像等を重畳させて仮想環境映像を生成してもよい。 Also, a virtual environment image may be generated based on an actual image of another area different from the actual environment in which the vehicle 1 travels. For example, while the vehicle 1 is traveling on a mountain road, a virtual environment image may be generated using an image of a scenic mountainous area existing in another area. Also, an animation image or the like may be superimposed on an image of the real environment in which the vehicle 1 is traveling to generate a virtual environment image.

上記実施形態では、仮想環境映像生成部23は、車両1の出発地点Psから目的地点Pdまでの予定経路に対応させて、仮想映像画像を予め生成した。他の実施形態として、予定経路に依らずに、移動体挙動認識部24により認識される車両1の挙動に応じて、リアルタイムに仮想映像画像を生成してもよい。例えば、車両1が高レベルの縦加速度を示して速度が急激に増加したときに、仮想環境映像生成部23が、カーレースのゲームコンテンツに含まれる高速走行ステージに基づくゲーム対応映像に切り替えることにより、仮想環境映像を生成してもよい。 In the above-described embodiment, the virtual environment image generator 23 generated the virtual image in advance in correspondence with the scheduled route from the departure point Ps of the vehicle 1 to the destination point Pd. As another embodiment, the virtual video image may be generated in real time according to the behavior of the vehicle 1 recognized by the mobile body behavior recognition unit 24, regardless of the planned route. For example, when the vehicle 1 shows a high level of longitudinal acceleration and the speed suddenly increases, the virtual environment image generation unit 23 switches to a game compatible image based on a high-speed running stage included in car racing game content. , may generate a virtual environment image.

上記実施形態では、移動体挙動推定部22を備えて、予定経路を走行する際の車両1の予測挙動に基づいて仮想環境映像を生成したが、移動体挙動推定部22を省略した構成としてもよい。 In the above-described embodiment, the moving object behavior estimation unit 22 is provided to generate a virtual environment image based on the predicted behavior of the vehicle 1 when traveling on the planned route. good.

上記実施形態では、仮想環境提供システム10を車両1に搭載した構成を示したが、仮想環境提供システム10の構成の一部又は全部を、情報提供サーバー210等の車両1の外部のシステムにより構成してもよい。例えば、仮想環境映像生成部23を情報提供サーバー210に備えて、仮想環境映像生成部23により生成された仮想環境映像のデータを、情報提供サーバー210から車両1に送信し、車両1に備えられた映像再生制御部25が、仮想環境映像を再生する構成としてもよい。 In the above embodiment, the configuration in which the virtual environment providing system 10 is installed in the vehicle 1 is shown, but part or all of the configuration of the virtual environment providing system 10 is configured by a system outside the vehicle 1 such as the information providing server 210. You may For example, the information providing server 210 is provided with the virtual environment image generation unit 23, and the virtual environment image data generated by the virtual environment image generation unit 23 is transmitted from the information providing server 210 to the vehicle 1. The image reproduction control unit 25 may be configured to reproduce the virtual environment image.

なお、図1、図2は、本願発明の理解を容易にするために、車両1と仮想環境提供システム10の構成を、主な処理内容により区分して示した概略図であり、車両1と仮想環境提供システム10を、他の区分によって構成してもよい。また、各構成要素の処理は、1つのハードウェアユニットにより実行されてもよいし、複数のハードウェアユニットにより実行されてもよい。また、図4~図5に示した各構成要素による処理は、1つのプログラムにより実行されてもよいし、複数のプログラムにより実行されてもよい。 1 and 2 are schematic diagrams showing the configurations of the vehicle 1 and the virtual environment providing system 10, divided according to main processing contents, in order to facilitate understanding of the present invention. The virtual environment providing system 10 may be configured with other divisions. Also, the processing of each component may be executed by one hardware unit or may be executed by a plurality of hardware units. Also, the processing by each component shown in FIGS. 4 and 5 may be executed by one program or may be executed by a plurality of programs.

[6.上記実施形態によりサポートされる構成]
上記実施形態は、以下の構成の具体例である。
[6. Configuration supported by the above embodiment]
The above embodiment is a specific example of the following configuration.

(構成1)移動体の搭乗者により使用される表示装置に、前記移動体が移動している実環境と異なる仮想環境を表現する仮想環境映像を表示する仮想環境提供システムであって、前記移動体の挙動を認識する移動体挙動認識部と、前記移動体の挙動に基づいて、前記仮想環境映像を生成する仮想環境映像生成部と、前記仮想環境映像を再生して前記表示装置に表示させる映像再生制御部と、を備える仮想環境提供システム。
構成1の仮想環境提供システムによれば、移動体の挙動に基づいて仮想環境映像を生成することにより、移動体の搭乗者に対して、高い没入感を与えることができる仮想環境を設定することができる。
(Configuration 1) A virtual environment providing system for displaying, on a display device used by a passenger of a mobile object, a virtual environment image representing a virtual environment different from the real environment in which the mobile object is moving, A moving object behavior recognition unit that recognizes behavior of a body, a virtual environment image generation unit that generates the virtual environment image based on the behavior of the moving object, and reproduces the virtual environment image and displays it on the display device. A virtual environment providing system comprising a video playback control unit.
According to the virtual environment providing system of configuration 1, by generating a virtual environment image based on the behavior of the moving object, a virtual environment that can give a high sense of immersion to the passengers of the moving object is set. can be done.

(構成2)前記移動体の出発位置から目的位置までの予定経路を認識する予定経路認識部を備え、前記仮想環境映像生成部は、前記移動体の挙動及び前記予定経路に基づいて、前記仮想環境映像を生成する構成1に記載の仮想環境提供システム。
構成2の仮想環境提供システムによれば、移動体が実際に移動する経路に基づいて仮想環境映像を生成することにより、搭乗者が移動中に感じると想定される実環境の状況に応じた仮想環境映像を生成することができる。
(Arrangement 2) A planned route recognition unit for recognizing a planned route from the starting position of the moving body to the destination position is provided, and the virtual environment image generating unit generates the virtual environment based on the behavior of the moving body and the planned route. The virtual environment providing system according to Configuration 1, which generates an environment image.
According to the virtual environment providing system of Configuration 2, by generating a virtual environment image based on the route actually traveled by the moving body, a virtual environment image corresponding to the situation of the real environment assumed to be felt by the passenger during movement is generated. Environmental images can be generated.

(構成3)前記移動体が前記予定経路を移動する際に前記移動体が示すと想定される所定挙動の発生位置と、前記所定挙動の態様とを推定する移動体挙動推定部と、前記移動体の位置を認識する移動体位置認識部と、を備え、前記仮想環境映像生成部は、前記移動体挙動推定部により推定された前記所定挙動の態様に応じた所定挙動映像を含む、前記仮想環境映像を予め生成し、前記映像再生制御部は、前記移動体位置認識部により認識される前記移動体の位置と、前記移動体挙動推定部により推定された前記所定挙動の発生位置との距離が、所定距離以下になったときに、前記所定挙動映像を再生して前記表示装置に表示させる構成2に記載の仮想環境提供システム。
構成3の仮想環境提供システムによれば、予定経路を移動する際に移動体が示すと想定される所定挙動の態様に基づいて生成された所定挙動映像が、移動体が所定挙動の発生地点に接近した時点で再生される。これにより、搭乗者に対して、移動体の挙動を反映した仮想環境を感じさせて、仮想環境への没入感を高めることができる。
(Configuration 3) A moving body behavior estimating unit for estimating a position of occurrence of a predetermined behavior assumed to be exhibited by the moving body when the moving body moves along the planned route and a mode of the predetermined behavior; a moving object position recognition unit that recognizes a position of a body, wherein the virtual environment image generating unit includes a predetermined behavior image according to the mode of the predetermined behavior estimated by the moving object behavior estimation unit; An environment image is generated in advance, and the image reproduction control unit determines the distance between the position of the moving object recognized by the moving object position recognition unit and the position of occurrence of the predetermined behavior estimated by the moving object behavior estimation unit. The virtual environment providing system according to configuration 2, in which the predetermined behavior image is played back and displayed on the display device when the distance becomes equal to or less than the predetermined distance.
According to the virtual environment providing system of configuration 3, the predetermined behavior video generated based on the aspect of the predetermined behavior assumed to be exhibited by the mobile body when moving along the planned route is displayed at the point where the mobile body exhibits the predetermined behavior. Plays when approached. This makes it possible for the passenger to feel a virtual environment that reflects the behavior of the moving body, thereby enhancing the sense of immersion in the virtual environment.

(構成4)前記映像再生制御部は、移動中の前記移動体で前記仮想環境映像を再生しているときに、前記移動体が移動を停止したときには前記仮想環境映像の再生を中断し、前記移動体が停止した時点から所定時間が経過する前に前記移動体が移動を開始したときは、前記仮想環境映像を前記中断した箇所から再生する構成1から構成3のうちいずれか一つの構成に記載の仮想環境提供システム。
構成4の仮想環境提供システムによれば、移動体の停止時間が短時間であったときに、中断箇所から仮想環境映像を再生することにより、仮想環境での移動感覚を搭乗者に継続して生じさせることができる。
(Configuration 4) The video playback control unit interrupts playback of the virtual environment video when the moving body stops moving while the moving body is playing back the virtual environment video, and any one configuration from configuration 1 to configuration 3, wherein when the moving object starts moving before a predetermined time elapses after the moving object stops, the virtual environment image is reproduced from the interrupted point. The described virtual environment providing system.
According to the virtual environment providing system of Configuration 4, when the moving object is stopped only for a short time, the virtual environment video is reproduced from the interrupted point, thereby continuing the sense of movement in the virtual environment to the passenger. can be generated.

(構成5)前記仮想環境映像生成部は、所定のゲームコンテンツに含まれるステージ又はプレイモードに基づく複数のゲーム対応映像を、前記移動体挙動認識部により認識される前記移動体の挙動に応じて切り替えることにより、前記仮想環境映像を生成する構成1から構成4のうちいずれか1項に記載の仮想環境提供システム。
構成5の仮想環境提供システムによれば、搭乗者に対して、ゲームコンテンツの仮想世界を移動している感覚を生じさせて、搭乗者の仮想環境への没入感を高めることができる。
(Arrangement 5) The virtual environment image generation unit generates a plurality of game-compatible images based on a stage or a play mode included in predetermined game content, according to the behavior of the moving object recognized by the moving object behavior recognition unit. The virtual environment providing system according to any one of configurations 1 to 4, wherein the virtual environment video is generated by switching.
According to the virtual environment providing system of configuration 5, it is possible to make the passenger feel as if he or she is moving in the virtual world of the game content, thereby increasing the passenger's sense of immersion in the virtual environment.

(構成6)前記移動体挙動認識部は、前記移動体の挙動として、前記移動体の横加速度又は縦加速度を認識する構成1から構成5のうちいずれか一つの構成に記載の仮想環境提供システム。
構成6の仮想環境提供システムによれば、移動体の挙動の中で、搭乗者が体感し易いと想定される移動体の横加速度又は縦加速度を認識することにより、搭乗者が体感している移動体の挙動に適合した仮想環境映像を生成することができる。
(Configuration 6) The virtual environment providing system according to any one of Configurations 1 to 5, wherein the mobile body behavior recognition unit recognizes lateral acceleration or vertical acceleration of the mobile body as the behavior of the mobile body. .
According to the virtual environment providing system of configuration 6, the passenger can feel the lateral acceleration or the longitudinal acceleration of the mobile body, which is assumed to be easily felt by the passenger, among the behavior of the mobile body. It is possible to generate a virtual environment image that matches the behavior of the moving object.

(構成7)移動体の搭乗者により使用される表示装置に対して、前記移動体が移動している実環境と異なる仮想環境を表現する仮想環境映像を表示するために、コンピュータにより実行される仮想環境提供方法であって、前記移動体の挙動を認識する移動体挙動認識ステップと、前記移動体の挙動に基づいて、前記仮想環境映像を生成する仮想環境映像生成ステップと、前記仮想環境映像を再生して前記表示装置に表示させる映像表示制御ステップと、を含む仮想環境提供方法。
構成7の仮想環境提供方法をコンピュータにより実行することによって、構成1の仮想環境提供システムと同様の作用効果を得ることができる。
(Configuration 7) Executed by a computer to display a virtual environment image representing a virtual environment different from the real environment in which the mobile body is moving on a display device used by a passenger of the mobile body A virtual environment providing method, comprising a moving object behavior recognition step for recognizing behavior of the moving object, a virtual environment image generating step for generating the virtual environment image based on the behavior of the moving object, and the virtual environment image. and a video display control step of reproducing and displaying on the display device.
By executing the virtual environment providing method of configuration 7 by a computer, the same effects as those of the virtual environment providing system of configuration 1 can be obtained.

1…車両(移動体)、10…仮想環境提供システム、20…プロセッサ、21…予定経路認識部、22…移動体挙動推定部、23…仮想環境映像生成部、24…移動体挙動認識部、25…映像再生制御部、30…メモリ、31…制御プログラム、40…カーナビ、50…通信ユニット、51…ディスプレイ、52a,52b…スピーカー、53…マイク、54…速度センサ、55…縦加速度センサ、56…横加速度センサ、57…ヨーレートセンサ、58…雨滴センサ、59…周囲カメラ、60…レーダー、70…ヘッドマウントディスプレイ、100…通信端末、200…通信ネットワーク、210…情報提供サーバー。
REFERENCE SIGNS LIST 1 vehicle (moving object), 10 virtual environment providing system, 20 processor, 21 planned route recognition unit, 22 moving object behavior estimating unit, 23 virtual environment image generating unit, 24 moving object behavior recognizing unit, 25 Video playback control unit 30 Memory 31 Control program 40 Car navigation system 50 Communication unit 51 Display 52a, 52b Speaker 53 Microphone 54 Speed sensor 55 Longitudinal acceleration sensor 56... Lateral acceleration sensor, 57... Yaw rate sensor, 58... Raindrop sensor, 59... Surrounding camera, 60... Radar, 70... Head mounted display, 100... Communication terminal, 200... Communication network, 210... Information providing server.

Claims (7)

移動体の搭乗者により使用される表示装置に、前記移動体が移動している実環境と異なる仮想環境を表現する仮想環境映像を表示する仮想環境提供システムであって、
前記移動体の挙動を認識する移動体挙動認識部と、
前記移動体の挙動に基づいて、前記仮想環境映像を生成する仮想環境映像生成部と、
前記仮想環境映像を再生して前記表示装置に表示させる映像再生制御部と、
を備える仮想環境提供システム。
A virtual environment providing system for displaying, on a display device used by a passenger of a mobile object, a virtual environment image representing a virtual environment different from the real environment in which the mobile object is moving,
a moving object behavior recognition unit that recognizes the behavior of the moving object;
a virtual environment image generation unit that generates the virtual environment image based on the behavior of the moving object;
a video reproduction control unit that reproduces the virtual environment video and displays it on the display device;
A virtual environment providing system.
前記移動体の出発位置から目的位置までの予定経路を認識する予定経路認識部を備え、
前記仮想環境映像生成部は、前記移動体の挙動及び前記予定経路に基づいて、前記仮想環境映像を生成する
請求項1に記載の仮想環境提供システム。
a planned route recognition unit for recognizing a planned route from the starting position of the moving body to the destination position;
2. The virtual environment providing system according to claim 1, wherein the virtual environment image generation unit generates the virtual environment image based on the behavior of the moving object and the planned route.
前記移動体が前記予定経路を移動する際に前記移動体が示すと想定される所定挙動の発生位置と、前記所定挙動の態様とを推定する移動体挙動推定部と、
前記移動体の位置を認識する移動体位置認識部と、
を備え、
前記仮想環境映像生成部は、前記移動体挙動推定部により推定された前記所定挙動の態様に応じた所定挙動映像を含む、前記仮想環境映像を予め生成し、
前記映像再生制御部は、前記移動体位置認識部により認識される前記移動体の位置と、前記移動体挙動推定部により推定された前記所定挙動の発生位置との距離が、所定距離以下になったときに、前記所定挙動映像を再生して前記表示装置に表示させる
請求項2に記載の仮想環境提供システム。
a moving body behavior estimation unit that estimates a position where a predetermined behavior assumed to be exhibited by the moving body when the moving body moves along the planned route and a mode of the predetermined behavior;
a moving body position recognition unit that recognizes the position of the moving body;
with
The virtual environment image generation unit generates in advance the virtual environment image including the predetermined behavior image corresponding to the mode of the predetermined behavior estimated by the moving object behavior estimation unit,
The video reproduction control unit is configured such that the distance between the position of the moving object recognized by the moving object position recognition unit and the position of occurrence of the predetermined behavior estimated by the moving object behavior estimation unit is equal to or less than a predetermined distance. 3. The virtual environment providing system according to claim 2, wherein the predetermined behavior video is reproduced and displayed on the display device when the virtual environment is activated.
前記映像再生制御部は、移動中の前記移動体で前記仮想環境映像を再生しているときに、前記移動体が移動を停止したときには前記仮想環境映像の再生を中断し、前記移動体が停止した時点から所定時間が経過する前に前記移動体が移動を開始したときは、前記仮想環境映像を前記中断した箇所から再生する
請求項1から請求項3のうちいずれか1項に記載の仮想環境提供システム。
When the moving object stops moving while the moving object is reproducing the virtual environment image, the video reproduction control unit interrupts the reproduction of the virtual environment image, and the moving object stops. 4. The virtual environment image according to any one of claims 1 to 3, wherein when the moving object starts to move before a predetermined time elapses from the point in time when the virtual environment video image was Environment provision system.
前記仮想環境映像生成部は、所定のゲームコンテンツに含まれるステージ又はプレイモードに基づく複数のゲーム対応映像を、前記移動体挙動認識部により認識される前記移動体の挙動に応じて切り替えることにより、前記仮想環境映像を生成する
請求項1から請求項4のうちいずれか1項に記載の仮想環境提供システム。
The virtual environment image generation unit switches a plurality of game-compatible images based on the stage or play mode included in predetermined game content according to the behavior of the moving object recognized by the moving object behavior recognition unit, 5. The virtual environment providing system according to any one of claims 1 to 4, wherein said virtual environment image is generated.
前記移動体挙動認識部は、前記移動体の挙動として、前記移動体の横加速度又は縦加速度を認識する
請求項1から請求項5のうちいずれか1項に記載の仮想環境提供システム。
6. The virtual environment providing system according to any one of claims 1 to 5, wherein the mobile body behavior recognition unit recognizes lateral acceleration or vertical acceleration of the mobile body as the behavior of the mobile body.
移動体の搭乗者により使用される表示装置に対して、前記移動体が移動している実環境と異なる仮想環境を表現する仮想環境映像を表示するために、コンピュータにより実行される仮想環境提供方法であって、
前記移動体の挙動を認識する移動体挙動認識ステップと、
前記移動体の挙動に基づいて、前記仮想環境映像を生成する仮想環境映像生成ステップと、
前記仮想環境映像を再生して前記表示装置に表示させる映像表示制御ステップと、
を含む仮想環境提供方法。
A virtual environment providing method executed by a computer for displaying, on a display device used by a passenger of a mobile object, a virtual environment image expressing a virtual environment different from the real environment in which the mobile object is moving and
a moving object behavior recognition step for recognizing the behavior of the moving object;
a virtual environment image generation step of generating the virtual environment image based on the behavior of the moving object;
a video display control step of reproducing the virtual environment video and displaying it on the display device;
virtual environment provision method including
JP2021095966A 2021-06-08 2021-06-08 Virtual environment providing system and virtual environment providing method Pending JP2022187788A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021095966A JP2022187788A (en) 2021-06-08 2021-06-08 Virtual environment providing system and virtual environment providing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021095966A JP2022187788A (en) 2021-06-08 2021-06-08 Virtual environment providing system and virtual environment providing method

Publications (1)

Publication Number Publication Date
JP2022187788A true JP2022187788A (en) 2022-12-20

Family

ID=84532025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021095966A Pending JP2022187788A (en) 2021-06-08 2021-06-08 Virtual environment providing system and virtual environment providing method

Country Status (1)

Country Link
JP (1) JP2022187788A (en)

Similar Documents

Publication Publication Date Title
JP7571829B2 (en) Information processing device, information processing method, program, and mobile object
US10585471B2 (en) Systems and methods to provide an interactive space based on predicted events
US11494950B2 (en) Experience providing system, experience providing method, and experience providing program
WO2006001295A1 (en) On-vehicle image display unit
KR102442811B1 (en) Method and system for operating at least one pair of virtual reality glasses in a car
CN113544757B (en) Information processing apparatus, information processing method, and mobile device
JP2021525370A (en) Enhanced navigation instructions with landmarks under difficult driving conditions
CN111016820A (en) Agent system, agent control method, and storage medium
JP7437630B2 (en) Display device, display method, and vehicle
US20180182261A1 (en) Real Time Car Driving Simulator
JPWO2018066024A1 (en) Vehicle control device
CN112470212A (en) Information processing apparatus, information processing method, program, and moving object
US20230017486A1 (en) Display device, display method, and vehicle
US20210247200A1 (en) Virtual-space-image providing device and program for providing virtual space image
WO2021172492A1 (en) Image processing device, display system, image processing method, and recording medium
JP2022187788A (en) Virtual environment providing system and virtual environment providing method
CN115534850B (en) Interface display method, electronic device, vehicle and computer program product
JP7575638B2 (en) Method and vehicle for providing media content adapted to vehicle movements
JP7586165B2 (en) IMAGE PROCESSING APPARATUS, DISPLAY SYSTEM, IMAGE PROCESSING METHOD, AND RECORDING MEDIUM
WO2023127510A1 (en) Information processing device, information processing method, program, and mobile body
JP2024097450A (en) Information processing device and information processing method
JP2021154951A (en) Evaluation device, evaluation method and evaluation program
CN118414532A (en) Method, apparatus and computer program product for selecting content for display during travel to alleviate motion sickness
CN116278743A (en) Control system and server for vehicle with automatic driving function
JPH08313288A (en) Apparatus for guiding route

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210618

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240830