[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7277451B2 - レーシングシミュレーション - Google Patents

レーシングシミュレーション Download PDF

Info

Publication number
JP7277451B2
JP7277451B2 JP2020521855A JP2020521855A JP7277451B2 JP 7277451 B2 JP7277451 B2 JP 7277451B2 JP 2020521855 A JP2020521855 A JP 2020521855A JP 2020521855 A JP2020521855 A JP 2020521855A JP 7277451 B2 JP7277451 B2 JP 7277451B2
Authority
JP
Japan
Prior art keywords
virtual
vehicle
viewpoint
physical
aspects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020521855A
Other languages
English (en)
Other versions
JP2020527432A (ja
JP2020527432A5 (ja
Inventor
デイル イー., セカンド バクストン
ロンゴ アレジャンドロ アガグ
Original Assignee
バクストン グローバル エンタープライゼス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by バクストン グローバル エンタープライゼス インコーポレイテッド filed Critical バクストン グローバル エンタープライゼス インコーポレイテッド
Publication of JP2020527432A publication Critical patent/JP2020527432A/ja
Publication of JP2020527432A5 publication Critical patent/JP2020527432A5/ja
Priority to JP2023076449A priority Critical patent/JP2023113618A/ja
Application granted granted Critical
Publication of JP7277451B2 publication Critical patent/JP7277451B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • G09B9/05Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles the view from a vehicle being simulated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

関連出願の相互参照
本出願は、「Racing Simulation」という名称の、2017年7月7日に出願された米国仮特許出願第62/530037号の恩典を主張する、2017年11月15日に出願された米国非仮特許出願第15/813662号の恩典を主張するものであり、各出願はその全体が参照により本明細書に組み入れられる。
分野
本開示は、概して、車両シミュレーションに関し、より具体的には、現実世界と仮想世界の自動車レースを組み合わせることに関する。
背景
ほとんどすべての自動車にレース競技がある。メディアは、レース場でのカーレースやバイクレースやトラックレースであふれている。各レースはチャンピオンを生み出し、レースシリーズはシーズンチャンピオンを生み出す。
自動車レースは現実世界に限定されない。近年、仮想自動車レースが人気を集めている。仮想レースのチャンピオンは、レースごとに数十万ドルも獲得することができる。シーズン仮想チャンピオンは数百万ドルも獲得することができる。
概要
いくつかの態様では、仮想車両を表示するための方法は、レース場における物理車両の位置を識別する工程、レース場における視点の位置を識別する工程、および表示システムに、レース場における視点の位置に基づいて仮想世界内で計算された視点の仮想位置から見える仮想車両の部分を提供する工程を含む。例示的な利点として、本明細書に記載される態様は、物理車両操作者が仮想車両操作者と競争することを可能にし得る。さらに、視点の仮想位置から見える仮想車両の部分の表現を表示することによって、物理車両操作者と仮想車両操作者との間の競争がよりリアルに表現され得る。
いくつかの態様では、視点の仮想位置から見える仮想車両の部分は、視点の仮想位置から見て、仮想世界内の物理車両の仮想位置における物理車両の表現によって隠されていない仮想車両の部分を含む。
いくつかの態様では、本方法は、シミュレーションシステムが、仮想世界における仮想車両と物理車両の表現との間の相互作用をシミュレートする工程をさらに含み、視点の仮想位置から見える仮想車両の部分は相互作用に基づいて計算される。
いくつかの態様では、レース場における視点の位置は物理車両の操作者の視点を含み、レース場における視点の位置を識別する工程は、センサで、物理車両の操作者の視点を検出することを含み、本方法は、物理オブジェクトの位置を識別する工程、仮想車両の運動学情報を受け取る工程、表示システムで、物理オブジェクトの位置に基づく仮想車両の表現、レース場における視点の位置、および運動学情報を生成する工程、ならびに仮想車両の表現を、レース場における視点の位置から見て仮想車両が物理オブジェクトと揃うように表示する工程、をさらに含む。
いくつかの態様では、本方法は、表示システムで、視点の仮想位置から見える仮想車両の部分の表現を生成する工程をさらに含む。
いくつかの態様では、本方法は、表示システムが、レース場での仮想車両の軌跡をシミュレートするためにある期間にわたる仮想車両の一連の表現を表示する工程をさらに含み、一連の表現は視点の仮想位置から見える仮想車両の部分の表現を含む。いくつかの態様では、仮想車両の予測される軌跡が表示される。予測は、現在の軌跡、加速度、現在の車両パラメータなどに基づくものであり得る。これは仮想車両が物理車両を追い越す可能性が高いかどうかをオーディエンスメンバが予想することを可能にし得る。予測される軌跡は、黄色い線などの線として提示され得る。「追い越しそうだ!」や「衝突しそうだ!」などの他の表示も含まれ得る。
いくつかの態様では、本方法は、表示システムが、一連の表現から各表現を生成するために使用される仮想車両のデジタル3Dモデルを格納する工程をさらに含み、各表現はデジタル3Dモデルに基づいて表示システムによって生成される。
いくつかの態様では、本方法は、一連の表現から各表現を生成するために使用される仮想車両のデジタル3Dモデルを受け取る工程をさらに含み、各表現はデジタル3Dモデルに基づいて表示システムによって生成される。
いくつかの態様では、運動学情報は、仮想車両の運動の1つもしくは複数のベクトル、運動の1つもしくは複数のスカラー、位置ベクトル、GPS位置、速度、加速度、向き、またはそれらの組み合わせを含む。
いくつかの態様では、物理車両の位置を識別する工程は、仮想車両の運動の1つもしくは複数のベクトル、運動の1つもしくは複数のスカラー、位置ベクトル、GPS位置、速度、加速度、向き、またはそれらの組み合わせを検出することを含む。
いくつかの態様では、レース場における視点の位置を識別する工程は、物理車両の操作者の頭部の空間位置を検出することを含む。
いくつかの態様では、本方法は、物理車両に結合された遠隔計測システムが、空間位置をシミュレータシステムに送る工程、遠隔計測システムで、視点の仮想位置から見える仮想車両の部分に関連した情報を受け取る工程、および物理車両の操作者に、情報に基づいて仮想車両の部分の表現を表示する工程をさらに含む。
いくつかの態様では、本方法は、仮想車両の部分の表現を表示する工程が情報をグラフィック要素のセットに変換することを含むこと、部分の表現を表示する工程がグラフィック要素のセットを表示すること、をさらに含む。いくつかの態様では、本方法は、シミュレーションシステムで、視点の仮想位置から見える部分に関連した情報を計算する工程をさらに含む。
いくつかの態様では、仮想車両の一連の表現を表示する工程は、物理車両のディスプレイに一連の表現を表示することを含み、ディスプレイは、光を透明有機発光ダイオード(T-OLED)に通して操作者に視野を表示するT-OLEDディスプレイである。
いくつかの態様では、仮想車両の一連の表現を表示する工程は、物理車両のディスプレイに一連の表現を表示することを含み、ディスプレイはLCDディスプレイであり、本方法は、物理車両に結合されたカメラが、物理車両内のディスプレイで操作者に見える物理世界の視野を表す画像を取り込む工程、および操作者に視野を表示するためにLCDディスプレイの一面に画像を出力する工程をさらに含み、一連の表現はLCDディスプレイによって表示された画像上にオーバーレイされる。
いくつかの態様では、仮想車両の一連の表現を表示する工程は、物理車両のディスプレイに一連の表現を表示することを含み、ディスプレイは、物理車両のフロントガラス、物理車両の1つもしくは複数のサイドウインドウ、物理車両のリヤウインドウ、1つもしくは複数のサイドミラー、バックミラー、またはそれらの組み合わせを含む。
いくつかの態様では、仮想車両の一連の表現を表示する工程は、操作者によって装着されたヘッドセットのディスプレイに一連の表現を表示することを含む。いくつかの態様では、ヘッドセットはヘルメットである。
いくつかの態様では、レース場における視点の位置を識別する工程は、ユーザの眼の空間位置、ユーザの眼の注視方向、またはユーザの眼の焦点のうちの1つまたは複数を検出することを含む。
いくつかの態様では、本方法は、シミュレーションシステムに、レース場における物理車両の位置と視点の位置とを提供する工程、シミュレーションシステムが、仮想車両と物理車両の表現とを含む仮想世界を計算する工程、シミュレーションシステムが、レース場における視点の位置に基づいて仮想世界内の視点の仮想位置を計算する工程、およびシミュレーションシステムが、視点の仮想位置から見える仮想車両の部分を計算する工程をさらに含み、表示システムに、視点の仮想位置から見える仮想車両の部分を提供する工程は、シミュレーションシステムが、視点の仮想位置から見える仮想車両の部分を出力することを含む。
いくつかの態様では、物理車両の位置を識別する工程は、車両の2つの部分の各々の位置を受け取ることを含む。
いくつかの態様では、物理車両の位置を識別する工程は、車両の1つの部分の位置と車両の向きとを受け取ることを含む。いくつかの態様では、車両の向きを受け取る工程は、ジャイロスコープデータを受け取ることを含む。
いくつかの態様では、レース場における視点の位置は、レース場における物理車両の操作者の視点の位置を含む。いくつかの態様では、レース場における視点の位置は、レース場に存在しレース場での物理車両を見ているオーディエンスメンバの視点の位置を含む。
いくつかの態様では、レース場における視点の位置は、レース場に存在しレース場での物理車両を画像化しているカメラの位置を含む。いくつかの態様では、カメラは、物理車両が競走しているレース場の部分を画像化する。物理車両がカメラによって取り込まれているレース場の部分を横切って走行しているとき、カメラはそのビデオフィードに物理車両を取り込み得る。物理車両がカメラによって取り込まれているレース場の部分を横切って走行していないとき、カメラはレース場の部分を依然として取り込み得る。
いくつかの態様では、レース場における視点の位置を識別する工程は、眼の注視点を測定すること、眼球運動を追跡すること、頭部位置を追跡すること、片眼もしくは両眼から物理車両上の固定点へのベクトルを識別すること、頭部上の点から物理車両上の固定点へのベクトルを識別すること、眼鏡類上の点から物理車両上の固定点へのベクトルを識別すること、ヘッドギア上の点から物理車両上の固定点へのベクトルを識別すること、片眼もしくは両眼から会場内の固定点へのベクトルを識別すること、頭部上の点から会場内の固定点へのベクトルを識別すること、眼鏡類上の点から会場内の固定点へのベクトルを識別すること、またはヘッドギア上の点から会場内の固定点へのベクトルを識別することのうちの少なくとも1つを含む。いくつかの態様では、レース場における視点の位置を識別する工程は、眼の注視点を測定することを含み、測定することは、眼からの光の反射または屈折を測定することを含む。
いくつかの態様では、レース場における物理車両の位置と視点の位置とを提供する工程は、少なくとも1つの位置を無線送信することを含む。
いくつかの態様では、仮想世界を計算する工程は、物理車両の物理座標を仮想世界の座標に変換することを含み、物理車両の仮想位置は仮想座標を含む。
いくつかの態様では、視点の仮想位置から見える仮想車両の部分を計算する工程は、仮想世界における物理車両の表現を計算すること、仮想世界内の視点と仮想車両との間の仮想世界内の物理オブジェクトの表現を計算すること、および視点の仮想位置から見て、物理車両の表現と物理オブジェクトの表現とによって隠されていない仮想車両の部分を抽出すること、を含む。いくつかの態様では、視点の仮想位置から見える仮想世界内の仮想車両の部分は、隠されていない部分を含む。
いくつかの態様では、仮想車両の部分を抽出する工程は、どの画素が他の表現によって遮られるかを判断し、他の表現によって遮られない画素のみを表示することを含み得る。いくつかの態様では、仮想車両の部分を抽出する工程は、他の表現によって遮られるすべての画素に(RGBA空間における)ゼロパーセントのピクセルアルファ値を設定することを含み得る。例えば、仮想車両の部分は、別の仮想車両などの他の仮想表現、または物理車両内のオブジェクトや物理車両自体などの物理オブジェクトの表現によって遮られ得る。視点の仮想位置から見える仮想車両の部分を提供するために任意の(視点の仮想位置から)見える画素値を使用することができる。いくつかの態様では、仮想車両の隠されていない見える部分の画素について各々、それらの隠されていない画素が見えており、表示されるべきであることを指示するために、(RGBA空間における)ゼロパーセントより大きいアルファ値を含むように設定することができる。これに対して、ゼロパーセントのアルファ値に設定された画素は、それらの画素が完全に透明である、すなわち、眼に見えず、表示されないはずであることを指示する。
いくつかの態様では、視点の仮想位置と物理車両の表現との間の物理オブジェクトの表現を計算する工程は、物理オブジェクトの仮想位置を取得するために表現のデータベースにアクセスすることを含む。
いくつかの態様では、視点の仮想位置から見える仮想車両の部分は、仮想世界内の他の表現によって隠されていない仮想車両の部分からなる。
いくつかの態様では、視点の仮想位置から見える仮想車両の部分は、仮想世界における仮想の影を含む。いくつかの態様では、仮想の影は、仮想車両によって投影された影と仮想車両上に投影された影の少なくとも一方である。いくつかの態様では、視点の仮想位置から見える仮想車両の部分は、仮想反射を含む。いくつかの態様では、仮想反射は、仮想車両の反射と仮想車両上の反射の少なくとも一方である。
いくつかの態様では、シミュレーションシステムが、視点の仮想位置から見える仮想世界内の仮想車両の部分を計算する工程は、視点の仮想位置からの視野を計算することを含み、表示システムに、視点の仮想位置から見える仮想車両の部分を提供する工程は、視野内の仮想車両の部分を表示することを含む。
いくつかの態様では、シミュレーションシステムが、仮想視点の位置から見える仮想世界内の仮想車両の部分を計算する工程は、視点の仮想位置からの視野を計算することを含み、表示システムに、視点の仮想位置から見える仮想車両の部分を提供する工程は、視野内で見える仮想車両の部分を表示することからなる。
いくつかの態様では、仮想車両を表示するための方法は、レース場における物理車両の位置を識別する手段、レース場における視点の位置を識別する手段、および表示システムに、レース場における視点の位置に基づいて仮想世界内で計算された視点の仮想位置から見える仮想車両の部分を提供する手段を含む。例示的な利点として、本明細書に記載される態様は、物理車両操作者が仮想車両操作者と競争することを可能にし得る。さらに、視点の仮想位置から見える仮想車両の部分の表現を表示することによって、物理車両操作者と仮想車両操作者との間の競争がよりリアルに表現され得る。
いくつかの態様では、視点の仮想位置から見える仮想車両の部分は、視点の仮想位置から見て、仮想世界内の物理車両の仮想位置における物理車両の表現によって隠されていない仮想車両の部分を含む。いくつかの態様では、本方法は、シミュレーションシステムが、仮想世界における仮想車両と物理車両の表現との間の相互作用をシミュレートする手段をさらに含み、視点の仮想位置から見える仮想車両の部分は相互作用に基づいて計算される。
いくつかの態様では、レース場における視点の位置は物理車両の操作者の視点を含み、レース場における視点の位置を識別する手段は、センサで、物理車両の操作者の視点を検出する手段を含み、本方法は、物理オブジェクトの位置を識別する手段、仮想車両の運動学情報を受け取る手段、表示システムで、物理オブジェクトの位置に基づく仮想車両の表現、レース場における視点の位置、および運動学情報を生成する手段、ならびに仮想車両の表現を、レース場における視点の位置から見て仮想車両が物理オブジェクトと揃うように表示する手段、をさらに含む。
いくつかの態様では、本方法は、表示システムで、視点の仮想位置から見える仮想車両の部分の表現を生成する手段をさらに含む。
いくつかの態様では、本方法は、表示システムが、レース場での仮想車両の軌跡をシミュレートするためにある期間にわたる仮想車両の一連の表現を表示する手段をさらに含み、一連の表現は視点の仮想位置から見える仮想車両の部分の表現を含む。いくつかの態様では、仮想車両の予測される軌跡が表示される。予測は、現在の軌跡、加速度、現在の車両パラメータなどに基づくものであり得る。これは仮想車両が物理車両を追い越す可能性が高いかどうかをオーディエンスメンバが予想することを可能にし得る。予測される軌跡は、黄色い線などの線として提示され得る。「追い越しそうだ!」や「衝突しそうだ!」などの他の表示も含まれ得る。
いくつかの態様では、本方法は、表示システムが、一連の表現から各表現を生成するために使用される仮想車両のデジタル3Dモデルを格納する手段をさらに含み、各表現はデジタル3Dモデルに基づいて表示システムによって生成される。
いくつかの態様では、本方法は、一連の表現から各表現を生成するために使用される仮想車両のデジタル3Dモデルを受け取る手段をさらに含み、各表現はデジタル3Dモデルに基づいて表示システムによって生成される。
いくつかの態様では、運動学情報は、仮想車両の運動の1つもしくは複数のベクトル、運動の1つもしくは複数のスカラー、位置ベクトル、GPS位置、速度、加速度、向き、またはそれらの組み合わせを含む。
いくつかの態様では、物理車両の位置を識別する手段は、仮想車両の運動の1つもしくは複数のベクトル、運動の1つもしくは複数のスカラー、位置ベクトル、GPS位置、速度、加速度、向き、またはそれらの組み合わせを検出する手段を含む。
いくつかの態様では、レース場における視点の位置を識別する手段は、物理車両の操作者の頭部の空間位置を検出する手段を含む。いくつかの態様では、本方法は、物理車両に結合された遠隔計測システムが、空間位置をシミュレータシステムに送る手段、遠隔計測システムで、視点の仮想位置から見える仮想車両の部分に関連した情報を受け取る手段、および物理車両の操作者に、その情報に基づいて仮想車両の部分の表現を表示する手段をさらに含む。
いくつかの態様では、本方法は、仮想車両の部分の表現を表示する手段が、情報をグラフィック要素のセットに変換する手段、を含み、部分の表現を表示する手段が、グラフィック要素のセットを表示する手段を含む、ことをさらに含む。いくつかの態様では、本方法は、シミュレーションシステムで、視点の仮想位置から見える部分に関連した情報を計算する手段をさらに含む。
いくつかの態様では、仮想車両の一連の表現を表示する手段は、物理車両のディスプレイに一連の表現を表示する手段を含み、ディスプレイは、光を透明有機発光ダイオード(T-OLED)に通して操作者に視野を表示するT-OLEDディスプレイである。
いくつかの態様では、仮想車両の一連の表現を表示する手段は、物理車両のディスプレイに一連の表現を表示する手段を含み、ディスプレイはLCDディスプレイであり、本方法は、物理車両に結合されたカメラが、物理車両内のディスプレイで操作者に見える物理世界の視野を表す画像を取り込む手段、および操作者に視野を表示するためにLCDディスプレイの一面に画像を出力する手段をさらに含み、一連の表現はLCDディスプレイによって表示された画像上にオーバーレイされる。
いくつかの態様では、仮想車両の一連の表現を表示する手段は、物理車両のディスプレイに一連の表現を表示する手段を含み、ディスプレイは、物理車両のフロントガラス、物理車両の1つもしくは複数のサイドウインドウ、物理車両のリヤウインドウ、1つもしくは複数のサイドミラー、バックミラー、またはそれらの組み合わせを含む。
いくつかの態様では、仮想車両の一連の表現を表示する手段は、操作者によって装着されたヘッドセットのディスプレイに一連の表現を表示する手段を含む。いくつかの態様では、ヘッドセットはヘルメットである。
いくつかの態様では、レース場における視点の位置を識別する手段は、ユーザの眼の空間位置、ユーザの眼の注視方向、またはユーザの眼の焦点のうちの1つまたは複数を検出する手段を含む。
いくつかの態様では、本方法は、シミュレーションシステムに、レース場における物理車両の位置と視点の位置とを提供する手段、シミュレーションシステムが、仮想車両と物理車両の表現とを含む仮想世界を計算する手段、シミュレーションシステムが、レース場における視点の位置に基づいて仮想世界内の視点の仮想位置を計算する手段、およびシミュレーションシステムが、視点の仮想位置から見える仮想車両の部分を計算する手段をさらに含み、表示システムに、視点の仮想位置から見える仮想車両の部分を提供する手段は、シミュレーションシステムが、視点の仮想位置から見える仮想車両の部分を出力する手段を含む。
いくつかの態様では、物理車両の位置を識別する手段は、車両の2つの部分の各々の位置を受け取る手段を含む。
いくつかの態様では、物理車両の位置を識別する手段は、車両の1つの部分の位置と車両の向きとを受け取る手段を含む。いくつかの態様では、車両の向きを受け取る手段は、ジャイロスコープデータを受け取る手段を含む。
いくつかの態様では、レース場における視点の位置は、レース場における物理車両の操作者の視点の位置を含む。いくつかの態様では、レース場における視点の位置は、レース場に存在しレース場での物理車両を見ているオーディエンスメンバの視点の位置を含む。いくつかの態様では、レース場における視点の位置は、レース場に存在するカメラの位置を含み、本方法は、レース場での物理車両を画像化する手段をさらに含む。いくつかの態様では、カメラは、物理車両が競走しているレース場の部分を画像化する。物理車両がカメラによって取り込まれているレース場の部分を横切って走行しているとき、カメラはそのビデオフィードに物理車両を取り込み得る。物理車両がカメラによって取り込まれているレース場の部分を横切って走行していないとき、カメラはレース場の部分を依然として取り込み得る。
いくつかの態様では、レース場における視点の位置を識別する手段は、眼の注視点を測定する手段、眼球運動を追跡する手段、頭部位置を追跡する手段、片眼もしくは両眼から物理車両上の固定点へのベクトルを識別する手段、頭部上の点から物理車両上の固定点へのベクトルを識別する手段、眼鏡類上の点から物理車両上の固定点へのベクトルを識別する手段、ヘッドギア上の点から物理車両上の固定点へのベクトルを識別する手段、片眼もしくは両眼から会場内の固定点へのベクトルを識別する手段、頭部上の点から会場内の固定点へのベクトルを識別する手段、眼鏡類上の点から会場内の固定点へのベクトルを識別する手段、またはヘッドギア上の点から会場内の固定点へのベクトルを識別する手段のうちの少なくとも1つを含む。いくつかの態様では、レース場における視点の位置を識別する手段は、眼の注視点を測定する手段を含み、測定する手段は、眼からの光の反射または屈折を測定する手段を含む。
いくつかの態様では、レース場における物理車両の位置と視点の位置とを提供する手段は、少なくとも1つの位置を無線送信する手段を含む。
いくつかの態様では、仮想世界を計算する手段は、物理車両の物理座標を仮想世界の座標に変換する手段を含み、物理車両の仮想位置は仮想座標を含む。
いくつかの態様では、視点の仮想位置から見える仮想車両の部分を計算する手段は、仮想世界における物理車両の表現を計算する手段、仮想世界内の視点と仮想車両との間の仮想世界内の物理オブジェクトの表現を計算する手段、および視点の仮想位置から見て、物理車両の表現と物理オブジェクトの表現とによって隠されていない仮想車両の部分を抽出する手段、を含む。いくつかの態様では、視点の仮想位置から見える仮想世界内の仮想車両の部分は、隠されていない部分を含む。
いくつかの態様では、仮想車両の部分を抽出する手段は、どの画素が他の表現によって遮られるかを判断して、他の表現によって遮られない画素のみを表示する手段を含み得る。いくつかの態様では、仮想車両の部分を抽出する手段は、他の表現によって遮られるすべての画素に(RGBA空間における)ゼロパーセントのピクセルアルファ値を設定する手段を含み得る。例えば、仮想車両の部分は、別の仮想車両などの他の仮想表現、または物理車両内のオブジェクトや物理車両自体などの物理オブジェクトの表現によって遮られ得る。視点の仮想位置から見える仮想車両の部分を提供するために任意の(視点の仮想位置から)見える画素値を使用することができる。いくつかの態様では、仮想車両の隠されていない見える部分の画素について各々、それらの隠されていない画素が見えており、表示されるべきであることを指示するために、(RGBA空間における)ゼロパーセントより大きいアルファ値を含むように設定することができる。これに対して、ゼロパーセントのアルファ値に設定された画素は、それらの画素が完全に透明である、すなわち、眼に見えず、表示されないはずであることを指示する。
いくつかの態様では、視点の仮想位置と物理車両の表現との間の物理オブジェクトの表現を計算する手段は、物理オブジェクトの仮想位置を取得するために表現のデータベースにアクセスする手段を含む。
いくつかの態様では、視点の仮想位置から見える仮想車両の部分は、仮想世界内の他の表現によって隠されていない仮想車両の部分からなる。
いくつかの態様では、視点の仮想位置から見える仮想車両の部分は、仮想世界における仮想の影を含む。いくつかの態様では、仮想の影は、仮想車両によって投影された影と仮想車両上に投影された影の少なくとも一方である。いくつかの態様では、視点の仮想位置から見える仮想車両の部分は、仮想反射を含む。いくつかの態様では、仮想反射は、仮想車両の反射と仮想車両上の反射の少なくとも一方である。
いくつかの態様では、シミュレーションシステムが、視点の仮想位置から見える仮想世界内の仮想車両の部分を計算する手段は、視点の仮想位置からの視野を計算する手段を含み、表示システムに、視点の仮想位置から見える仮想車両の部分を提供する手段は、視野内の仮想車両の部分を表示することを含む。
いくつかの態様では、シミュレーションシステムが、仮想視点の位置から見える仮想世界内の仮想車両の部分を計算する手段は、視点の仮想位置からの視野を計算する手段を含み、表示システムに、視点の仮想位置から見える仮想車両の部分を提供する手段は、視野内で見える仮想車両の部分を表示する手段からなる。
いくつかの態様では、仮想車両を表示するためのシステムは、レース場における物理車両の位置を検出する第1のセンサと、レース場における視点の位置を検出する第2のセンサと、視点の仮想位置から見える仮想車両の部分を出力するシミュレーションシステムとを含む。例示的な利点として、本明細書に記載される態様は、物理車両操作者が仮想車両操作者と競争することを可能にし得る。さらに、レース場における視点の位置から見える仮想車両の部分を表示することによって、物理車両操作者と仮想車両操作者との間の競争がよりリアルに表現され得る。
いくつかの態様では、視点の仮想位置から見える仮想車両の部分は、視点の仮想位置から見て、仮想世界内の物理車両の仮想位置における物理車両の表現によって隠されていない仮想車両の部分を含む。
いくつかの態様では、本システムは、仮想世界における仮想車両と物理車両の表現との間の相互作用をシミュレートするように構成されたシミュレーションシステムをさらに含み、視点の仮想位置から見える仮想車両の部分は相互作用に基づいて計算される。
いくつかの態様では、本システムは、第1のセンサが物理車両に結合されること、第2のセンサが物理車両の操作者の眼の位置を検出するように構成されること、および表示システムが物理車両に結合され、かつ仮想車両の運動学情報を受け取り、操作者の視野における物理オブジェクトの位置を識別して、物理オブジェクトの位置と視点と運動学情報とに基づいて仮想車両の表現を生成し、仮想車両の表現を、仮想車両が視点から見て物理オブジェクトと揃うように表示する、ように構成されること、をさらに含む。
いくつかの態様では、本システムは、視点の仮想位置から見える仮想車両の部分の表現を生成するように構成された表示システムをさらに含む。
いくつかの態様では、仮想車両の表現を表示することは、表示画面上に物理車両の表現を表示することを含み、表示システムは、表示画面に、レース場での仮想車両の軌跡をシミュレートするためにある期間にわたる仮想車両の一連の表現を表示する、ようにさらに構成され、一連の表現は視点の仮想位置から見える仮想車両の部分の表現を含む。いくつかの態様では、仮想車両の予測される軌跡が表示される。予測は、現在の軌跡、加速度、現在の車両パラメータなどに基づくものであり得る。これは仮想車両が物理車両を追い越す可能性が高いかどうかをオーディエンスメンバが予想することを可能にし得る。予測される軌跡は、黄色い線などの線として提示され得る。「追い越しそうだ!」や「衝突しそうだ!」などの他の表示も含まれ得る。
いくつかの態様では、仮想車両の一連の表現を表示することは、物理車両のディスプレイに一連の表現を表示することを含み、表示システムは、一連の表現から各表現を生成するために使用される仮想車両のデジタル3Dモデルを格納する、ようにさらに構成され、各表現はデジタル3Dモデルに基づいて表示システムによって生成される。
いくつかの態様では、表示システムは、一連の表現から各表現を生成するために使用される仮想車両のデジタル3Dモデルを受け取る、ようにさらに構成され、各表現はデジタル3Dモデルに基づいて表示システムによって生成される。
いくつかの態様では、運動学情報は、仮想車両の運動の1つもしくは複数のベクトル、運動の1つもしくは複数のスカラー、位置ベクトル、GPS位置、速度、加速度、向き、またはそれらの組み合わせを含む。
いくつかの態様では、第1のセンサは、仮想車両の運動の1つもしくは複数のベクトル、運動の1つもしくは複数のスカラー、位置ベクトル、GPS位置、速度、加速度、向き、またはそれらの組み合わせを検出することによって物理車両の位置を検出するように構成される。
いくつかの態様では、第1のセンサは、操作者の頭部の空間位置を検出することによって操作者の視点を検出するように構成される。
いくつかの態様では、表示システムは、空間位置をシミュレーションシステムに送り、視点の仮想位置から見える仮想車両の部分に関連した情報を受け取り、物理車両の操作者に、仮想車両の部分を表示する、ようにさらに構成される。
いくつかの態様では、表示システムは、情報をグラフィック要素のセットに変換すること、によって仮想車両の一連の表現を表示するようにさらに構成され、部分の表現を表示することは、グラフィック要素のセットを表示することを含む。いくつかの態様では、視点の仮想位置から見える部分に関連した情報は、シミュレーションシステムで計算される。
いくつかの態様では、本システムは、光を透明有機発光ダイオード(T-OLED)に通して操作者に視野を表示するT-OLEDディスプレイ、をさらに含み、表示システムは、仮想車両の表現を表示するためにT-OLEDディスプレイに一連の表現を表示するように構成される。
いくつかの態様では、本システムは、LCDディスプレイと、物理車両に結合され、物理車両内のLCDディスプレイで操作者に見える物理世界の視野を表す画像を取り込むように構成されたカメラとをさらに含み、表示システムは、操作者に視野を表示するためにLCDディスプレイの一面に画像を出力し、LCDディスプレイによって表示された画像上に一連の表現をオーバーレイする、ように構成される。
いくつかの態様では、本システムは、物理車両のフロントガラス、物理車両の1つもしくは複数のサイドウインドウ、物理車両のリヤウインドウ、またはそれらの組み合わせを含むディスプレイをさらに含み、表示システムは、ディスプレイに仮想車両の表現を表示するように構成される。
いくつかの態様では、本システムは、操作者によって装着されるヘッドセットを含み、ヘッドセットはディスプレイを含み、表示システムは、ディスプレイに仮想車両の一連の表現を表示するように構成される。いくつかの態様では、ヘッドセットはヘルメットである。
いくつかの態様では、第2のセンサは、ユーザの眼の空間位置、ユーザの眼の注視方向、またはユーザの眼の焦点のうちの1つまたは複数を検出する。
いくつかの態様では、本システムは、レース場における物理車両の位置と視点の位置とを受け取り、仮想車両と物理車両の表現とを含む仮想世界を計算し、レース場における視点の位置に基づいて仮想世界内の視点の仮想位置を計算し、視点の仮想位置から見える仮想車両の部分を計算し、表示システムに、視点の仮想位置から見える仮想車両の部分を出力する、ように構成されたシミュレーションシステムを含む。
いくつかの態様では、第1のセンサは、車両の2つの部分の各々の位置を受け取る。
いくつかの態様では、第1のセンサは、車両の1つの部分の位置と、車両の向きとを受け取る。いくつかの態様では、車両の向きを受け取ることは、ジャイロスコープデータを受け取ることを含む。
いくつかの態様では、レース場における視点の位置は、レース場における物理車両の操作者の視点の位置を含む。いくつかの態様では、レース場における視点の位置は、レース場に存在しレース場での物理車両を見ているオーディエンスメンバの視点の位置を含む。
いくつかの態様では、レース場における視点の位置は、レース場に存在しレース場での物理車両を画像化しているカメラの位置を含む。いくつかの態様では、カメラは、物理車両が競走しているレース場の部分を画像化する。物理車両がカメラによって取り込まれているレース場の部分を横切って走行しているとき、カメラはそのビデオフィードに物理車両を取り込み得る。物理車両がカメラによって取り込まれているレース場の部分を横切って走行していないとき、カメラはレース場の部分を依然として取り込み得る。
いくつかの態様では、第2のセンサは、眼の注視点を測定すること、眼球運動を追跡すること、頭部位置を追跡すること、片眼もしくは両眼から物理車両上の固定点へのベクトルを識別すること、頭部上の点から物理車両上の固定点へのベクトルを識別すること、眼鏡類上の点から物理車両上の固定点へのベクトルを識別すること、ヘッドギア上の点から物理車両上の固定点へのベクトルを識別すること、片眼もしくは両眼から会場内の固定点へのベクトルを識別すること、頭部上の点から会場内の固定点へのベクトルを識別すること、または眼鏡類上の点から会場内の固定点へのベクトルを識別すること、ヘッドギア上の点から会場内の固定点へのベクトルを識別することのうちの少なくとも1つによってレース場における視点の位置を検出するように構成される。いくつかの態様では、レース場における視点の位置を識別することは、眼の注視点を測定することを含み、測定することは、眼からの光の反射または屈折を測定することを含む。
いくつかの態様では、レース場における物理車両の位置と視点の位置とを受け取ることは、少なくとも1つの位置を無線受信することを含む。
いくつかの態様では、仮想世界を計算することは、物理車両の物理座標を仮想世界の座標に変換することを含み、物理車両の仮想位置は仮想座標を含む。
いくつかの態様では、視点の仮想位置から見える仮想車両の部分を計算することは、仮想世界における物理車両の表現を計算すること、仮想世界内の視点と仮想車両との間の仮想世界内の物理オブジェクトの表現を計算すること、および視点の仮想位置から見て、物理車両の表現と物理オブジェクトの表現とによって隠されていない仮想車両の部分を抽出すること、を含む。いくつかの態様では、視点の仮想位置から見える仮想世界内の仮想車両の部分は、隠されていない部分を含む。
いくつかの態様では、仮想車両の部分を抽出することは、どの画素が他の表現によって遮られるかを判断し、他の表現によって遮られない画素のみを表示することを含み得る。いくつかの態様では、仮想車両の部分を抽出することは、他の表現によって遮られるすべての画素に(RGBA空間における)ゼロパーセントのピクセルアルファ値を設定することを含み得る。例えば、仮想車両の部分は、別の仮想車両などの他の仮想表現、または物理車両内のオブジェクトや物理車両自体などの物理オブジェクトの表現によって遮られ得る。視点の仮想位置から見える仮想車両の部分を提供するために任意の(視点の仮想位置から)見える画素値を使用することができる。いくつかの態様では、仮想車両の隠されていない見える部分の画素について各々、それらの隠されていない画素が見えており、表示されるべきであることを指示するために、(RGBA空間における)ゼロパーセントより大きいアルファ値を含むように設定することができる。これに対して、ゼロパーセントのアルファ値に設定された画素は、それらの画素が完全に透明である、すなわち、眼に見えず、表示されないはずであることを指示する。
いくつかの態様では、視点の仮想位置と物理車両の表現との間の物理オブジェクトの表現を計算することは、物理オブジェクトの仮想位置を取得するために表現のデータベースにアクセスすることを含む。
いくつかの態様では、視点の仮想位置から見える仮想車両の部分は、仮想世界内の他の表現によって隠されていない仮想車両の部分からなる。
いくつかの態様では、視点の仮想位置から見える仮想車両の部分は、仮想世界における仮想の影を含む。いくつかの態様では、仮想の影は、仮想車両によって投影された影と仮想車両上に投影された影の少なくとも一方である。いくつかの態様では、レース場における視点の位置から見える仮想車両の部分は、仮想反射を含む。いくつかの態様では、仮想反射は、仮想車両の反射と仮想車両上の反射の少なくとも一方である。
いくつかの態様では、本システムは、視点の仮想位置からの視野を計算することによって視点の仮想位置から見える仮想車両の部分を計算するように構成されたシミュレーションシステムをさらに含み、表示システムに、視点の仮想位置から見える仮想車両の部分を提供することは、視野内の仮想車両の部分を表示することを含む。
いくつかの態様では、本システムは、視点の仮想位置からの視野を計算することによって視点の仮想位置から見える仮想車両の部分を計算するように構成されたシミュレーションシステムをさらに含み、表示システムに、視点の仮想位置から見える仮想車両の部分を提供することは、視野内で見える仮想車両の部分を表示することからなる。
[本発明1001]
仮想車両を表示するための方法であって、以下の工程を含む、方法:
レース場における物理車両の位置を識別する工程;
前記レース場における視点の位置を識別する工程;
シミュレーションシステムに、前記レース場における前記物理車両の前記位置と前記視点の前記位置とを提供する工程;
前記シミュレーションシステムが、前記仮想車両と、仮想位置における前記物理車両の表現とを含む仮想世界を計算する工程;
前記シミュレーションシステムが、前記レース場における前記視点の前記位置に基づいて前記仮想世界内の前記視点の仮想位置を計算する工程;
前記シミュレーションシステムが、前記視点の前記仮想位置から見える前記仮想世界内の前記仮想車両の部分を計算する工程であって、前記視点の前記仮想位置から見える前記仮想車両の前記部分が、前記視点の前記仮想位置から見て、前記物理車両の前記仮想位置における前記物理車両の前記表現によって隠されていない前記仮想車両の部分を含む、工程;
前記シミュレーションシステムが、前記視点の前記仮想位置から見える前記仮想車両の前記部分を出力する工程;
表示システムに、前記視点の前記仮想位置から見える前記仮想車両の前記部分を提供する工程;
前記表示システムで、前記視点の前記仮想位置から見える前記仮想車両の前記部分の表現を生成する工程;および
前記レース場での前記仮想車両の軌跡をシミュレートするためにある期間にわたる前記仮想車両の一連の表現を表示する工程であって、前記一連の表現が前記視点の前記仮想位置から見える前記仮想車両の前記部分の前記表現を含む、工程。
[本発明1002]
前記レース場における前記視点の前記位置を識別する工程が、ユーザの眼の空間位置、前記ユーザの眼の注視方向、または前記ユーザの眼の焦点を検出する工程、を含む、本発明1001の方法。
[本発明1003]
前記レース場における前記視点の前記位置が、前記レース場における前記物理車両の操作者の視点の位置を含む、本発明1001の方法。
[本発明1004]
前記レース場における前記視点の前記位置が、レース場に存在し前記レース場での前記物理車両を見ているオーディエンスメンバの視点の位置を含む、本発明1001の方法。
[本発明1005]
前記レース場における前記視点の前記位置が、レース場に存在し前記レース場での前記物理車両を画像化しているカメラの位置を含む、本発明1001の方法。
[本発明1006]
前記仮想世界を計算する工程が、前記物理車両の物理座標を前記仮想世界の仮想座標に変換することを含み、前記物理車両の前記仮想位置が前記仮想座標を含む、本発明1001の方法。
[本発明1007]
前記仮想世界内の前記視点の前記仮想位置と前記仮想車両との間の前記仮想世界内の物理オブジェクトの表現を計算する工程
をさらに含み、
前記視点の前記仮想位置から見える前記仮想世界内の前記仮想車両の前記部分が、前記視点の前記仮想位置から見て、前記物理車両の表現と前記物理オブジェクトの前記表現とによって隠されていない前記仮想車両の部分を含む、
本発明1001の方法。
[本発明1008]
前記視点の前記仮想位置から見える前記仮想車両の前記部分が、前記仮想世界内の他の表現によって前記視点の前記仮想位置から見て隠されていない前記仮想車両の部分からなる、本発明1001の方法。
[本発明1009]
前記シミュレーションシステムが、前記視点の前記仮想位置から見える前記仮想世界内の前記仮想車両の前記部分を計算する工程が、前記視点の前記仮想位置からの視野を計算することを含み、
前記表示システムに、前記視点の前記仮想位置から見える前記仮想車両の前記部分を提供する工程が、前記視野内の前記仮想車両の前記部分を提供することを含む、
本発明1001の方法。
[本発明1010]
前記シミュレーションシステムが、前記仮想世界における前記仮想車両と前記物理車両の前記表現との間の相互作用をシミュレートする工程であって、前記視点の前記仮想位置から見える前記仮想車両の前記部分が前記相互作用に基づいて計算される、工程、
をさらに含む、本発明1001の方法。
[本発明1011]
前記仮想世界が仮想オブジェクトを含み、前記方法が、
前記シミュレーションシステムが、前記仮想世界における前記仮想オブジェクトと前記物理車両の前記表現との間の接触を判断する工程
をさらに含む、本発明1001の方法。
[本発明1012]
前記仮想オブジェクトが、シミュレートされた障害物、煙、壁、爆発、または破片を含む、本発明1011の方法。
[本発明1013]
前記シミュレーションシステムが、前記視点の前記仮想位置から見える前記仮想世界内の前記仮想オブジェクトの部分を計算する工程であって、前記視点の前記仮想位置から見える前記仮想オブジェクトの前記部分が、前記視点の前記仮想位置から見て、前記物理車両の前記仮想位置における前記物理車両の前記表現によって隠されていない前記仮想オブジェクトの部分を含む、工程;
前記シミュレーションシステムが、前記視点の前記仮想位置から見える前記仮想オブジェクトの前記部分を出力する工程;
前記表示システムに、前記視点の前記仮想位置から見える前記仮想オブジェクトの前記部分を提供する工程;
前記表示システムで、前記視点の前記仮想位置から見える前記仮想オブジェクトの前記部分の表現を生成する工程;および
前記視点の前記仮想位置から見える前記仮想オブジェクトの前記部分の前記表現を表示する工程
をさらに含む、本発明1011の方法。
[本発明1014]
前記視点の前記仮想位置から見える前記仮想世界内の前記仮想オブジェクトの前記部分を計算する工程が、
生物または無生物オブジェクトのモデルを含む3Dモデルにアクセスすること
を含む、本発明1013の方法。
[本発明1015]
前記仮想オブジェクトが前記仮想世界でシミュレートされ、前記レース場に物理的に存在しない、本発明1011の方法。
[本発明1016]
前記シミュレーションシステムが、前記判断された接触に基づいてオーディオ情報を生成する工程;
前記物理車両内のスピーカに、前記オーディオ情報を提供する工程;および
前記スピーカを使用して前記オーディオ情報を再生する工程
をさらに含む、本発明1011の方法。
[本発明1017]
前記シミュレーションシステムが、前記判断された接触に基づいて力情報を生成する工程;
前記物理車両の力コントローラに、前記力情報を提供する工程;および
前記力コントローラが、前記力情報に基づいて前記物理車両の機械的または電気的構成要素を制御する工程
をさらに含む、本発明1011の方法。
[本発明1018]
前記物理車両の操作者の入力と関連付けられた情報を受け取る工程
をさらに含み、
前記力情報が、前記入力と関連付けられた前記情報を受け取ったことに応答して前記力コントローラに提供される、
本発明1017の方法。
[本発明1019]
前記入力と関連付けられた前記情報が前記操作者から受け取られる、本発明1018の方法。
[本発明1020]
前記物理車両の前記機械的または電気的構成要素を制御する工程が、
前記物理車両のブレーキまたはステアリングコラムを制御すること
を含む、本発明1017の方法。
[本発明1021]
前記物理車両の前記機械的または電気的構成要素を制御する工程が、
前記物理車両の車輪または車軸を制御するモータに提供される電力を制御すること
を含む、本発明1017の方法。
[本発明1022]
前記物理車両の前記機械的または電気的構成要素を制御する工程が、
前記物理車両の速度に影響を及ぼすために前記物理車両に供給される電力を低減させるように前記機械的または電気的構成要素を制御すること
を含む、本発明1017の方法。
[本発明1023]
前記物理車両の前記機械的または電気的構成要素を制御する工程が、
前記物理車両の速度に影響を及ぼすために前記物理車両に供給される電力を増加させるように前記機械的または電気的構成要素を制御すること
を含む、本発明1017の方法。
[本発明1024]
前記物理車両の入力と関連付けられた情報を受け取る工程
をさらに含み、
前記力情報が、前記入力と関連付けられた前記情報を受け取ったことに応答して前記力コントローラに提供される、
本発明1017の方法。
[本発明1025]
前記シミュレーションシステムが、前記判断された接触に基づいて力情報を生成する工程;
前記物理車両の操作者の入力と関連付けられた情報を受け取る工程;
前記入力と関連付けられた前記情報を受け取ったことに応答して、前記力情報を別の車両の力コントローラに提供する工程;および
前記力コントローラが、前記力情報に基づいて前記別の車両の機械的または電気的構成要素を制御する工程
をさらに含む、本発明1011の方法。
[本発明1026]
前記入力と関連付けられた前記情報が前記操作者から受け取られる、本発明1025の方法。
[本発明1027]
前記別の車両の前記機械的または電気的構成要素を制御する工程が、
前記別の車両のブレーキまたはステアリングコラムを制御すること
を含む、本発明1025の方法。
[本発明1028]
前記別の車両の前記機械的または電気的構成要素を制御する工程が、
前記別の車両の車輪または車軸を制御するモータに提供される電力を制御すること
を含む、本発明1025の方法。
[本発明1029]
前記別の車両の前記機械的または電気的構成要素を制御する工程が、
前記別の車両の速度に影響を及ぼすために前記別の車両に供給される電力を低減させるように前記機械的または電気的構成要素を制御すること
を含む、本発明1025の方法。
[本発明1030]
前記別の車両の前記機械的または電気的構成要素を制御する工程が、
前記別の車両の速度に影響を及ぼすために前記別の車両に供給される電力を増加させるように前記機械的または電気的構成要素を制御すること
を含む、本発明1025の方法。
[本発明1031]
以下を含む、仮想車両を表示するためのシステム:
レース場における物理車両の位置を検出する第1のセンサと;
前記レース場における視点の位置を検出する第2のセンサと;
シミュレーションシステムであって、
前記第1のセンサからの前記物理車両の前記位置と前記第2のセンサからの前記レース場における前記視点の前記位置とを受け取り、
仮想車両と、仮想位置における前記物理車両の表現とを含む仮想世界を計算し、
前記レース場における前記視点の前記位置に基づいて前記仮想世界内の前記視点の仮想位置を計算し、
前記視点の前記仮想位置から見える前記仮想世界内の前記仮想車両の部分を計算し、前記視点の前記仮想位置から見える前記仮想車両の前記部分が、前記視点の前記仮想位置から見て、前記物理車両の前記仮想位置における前記物理車両の前記表現によって隠されていない前記仮想車両の部分を含み、
前記視点の前記仮想位置から見える前記仮想車両の前記部分を出力する、
シミュレーションシステムと;
表示システムであって、
前記シミュレーションシステムから、前記視点の前記仮想位置から見える前記仮想車両の前記部分を受け取り、
前記視点の前記仮想位置から見える前記仮想車両の前記部分の表現を生成し、
前記レース場での前記仮想車両の軌跡をシミュレートするためにある期間にわたる前記仮想車両の一連の表現を表示し、前記一連の表現が前記視点の前記仮想位置から見える前記仮想車両の前記部分の前記表現を含む、
表示システム。
[本発明1032]
前記第2のセンサが、前記レース場における前記視点の前記位置を、ユーザの眼の空間位置、前記ユーザの眼の注視方向、または前記ユーザの眼の焦点を検出することによって検出する、本発明1031のシステム。
[本発明1033]
前記レース場における前記視点の前記位置が、前記レース場における前記物理車両の操作者の視点の位置を含む、本発明1031のシステム。
[本発明1034]
前記レース場における前記視点の前記位置が、レース場に存在し前記レース場での前記物理車両を見ているオーディエンスメンバの視点の位置を含む、本発明1031のシステム。
[本発明1035]
前記レース場における前記視点の前記位置が、レース場に存在し前記レース場での前記物理車両を画像化しているカメラの位置を含む、本発明1031のシステム。
[本発明1036]
前記仮想世界を計算することが、前記物理車両の物理座標を前記仮想世界の座標に変換することを含み、前記物理車両の前記仮想位置が前記仮想座標を含む、本発明1031のシステム。
[本発明1037]
前記シミュレーションシステムが、
前記仮想世界内の前記視点の前記仮想位置と前記仮想車両との間の前記仮想世界内の物理オブジェクトの表現を計算する
ように構成され、
前記視点の前記仮想位置から見える前記仮想世界内の前記仮想車両の前記部分が、前記視点の前記仮想位置から見て、前記物理車両の表現と前記物理オブジェクトの前記表現とによって隠されていない前記仮想車両の部分を含む、本発明1031のシステム。
[本発明1038]
前記視点の前記仮想位置から見える前記仮想車両の前記部分が、前記仮想世界内の他の表現によって前記視点の前記仮想位置から見て隠されていない前記仮想車両の部分からなる、本発明1031のシステム。
[本発明1039]
前記視点の前記仮想位置から見える前記仮想世界内の前記仮想車両の前記部分を計算することが、前記視点の前記仮想位置からの視野を計算することを含み、
前記視点の前記仮想位置から見える前記仮想車両の前記部分を出力することが、前記視野内の前記仮想車両の前記仮想部分を出力することを含む、
本発明1031のシステム。
[本発明1040]
前記シミュレーションシステムが、前記仮想世界における前記仮想車両と前記物理車両の前記表現との間の相互作用をシミュレートし、前記視点の前記仮想位置から見える前記仮想車両の前記部分が前記相互作用に基づいて計算される、本発明1031のシステム。
[本発明1041]
前記仮想世界が仮想オブジェクトを含み、前記シミュレーションシステムが、前記仮想世界における前記仮想オブジェクトと前記物理車両の前記表現との間の接触を判断する、本発明1031のシステム。
[本発明1042]
前記仮想オブジェクトが、シミュレートされた障害物、煙、壁、爆発、または破片を含む、本発明1041のシステム。
[本発明1043]
前記シミュレーションシステムが、
前記視点の前記仮想位置から見える前記仮想世界内の前記仮想オブジェクトの部分を計算し、前記視点の前記仮想位置から見える前記仮想オブジェクトの前記部分が、前記視点の前記仮想位置から見て、前記物理車両の前記仮想位置における前記物理車両の前記表現によって隠されていない前記仮想オブジェクトの部分を含み、
前記視点の前記仮想位置から見える前記仮想オブジェクトの前記部分を出力し、
前記表示システムが、
前記視点の前記仮想位置から見える前記仮想オブジェクトの前記部分を提供し、
前記視点の前記仮想位置から見える前記仮想オブジェクトの前記部分の表現を生成し、
前記視点の前記仮想位置から見える前記仮想オブジェクトの前記部分の前記表現を表示する、
本発明1041のシステム。
[本発明1044]
前記視点の前記仮想位置から見える前記仮想世界内の前記仮想オブジェクトの前記部分を計算することが、
生物または無生物オブジェクトのモデルを含む3Dモデルにアクセスすること
を含む、本発明1043のシステム。
[本発明1045]
前記仮想オブジェクトが前記仮想世界でシミュレートされ、前記レース場に物理的に存在しない、本発明1041のシステム。
[本発明1046]
前記シミュレーションシステムが、
前記判断された接触に基づいてオーディオ情報を生成し、
前記物理車両に、前記オーディオ情報を提供する、
本発明1041のシステム。
[本発明1047]
前記シミュレーションシステムが、
前記判断された接触に基づいて力情報を生成し、
前記物理車両の力コントローラに、前記力情報を提供する、
本発明1041のシステム。
[本発明1048]
前記力情報が、前記物理車両の操作者の入力と関連付けられた情報を受け取ったことに応答して前記力コントローラに提供される、本発明1047のシステム。
[本発明1049]
前記入力と関連付けられた前記情報が前記操作者から受け取られる、本発明1048のシステム。
[本発明1050]
前記物理車両の前記機械的または電気的構成要素を制御することが、
前記物理車両のブレーキまたはステアリングコラムを制御すること
を含む、本発明1047のシステム。
[本発明1051]
前記物理車両の前記機械的または電気的構成要素を制御することが、
前記物理車両の車輪または車軸を制御するモータに提供される電力を制御すること
を含む、本発明1047のシステム。
[本発明1052]
前記物理車両の前記機械的または電気的構成要素を制御することが、
前記物理車両の速度に影響を及ぼすために前記物理車両に供給される電力を低減させるように前記機械的または電気的構成要素を制御すること
を含む、本発明1047のシステム。
[本発明1053]
前記物理車両の前記機械的または電気的構成要素を制御することが、
前記物理車両の速度に影響を及ぼすために前記物理車両に供給される電力を増加させるように前記機械的または電気的構成要素を制御すること
を含む、本発明1047のシステム。
[本発明1054]
前記力情報が、前記物理車両の入力と関連付けられた情報を受け取ったことに応答して前記力コントローラに提供される、本発明1047のシステム。
[本発明1055]
前記シミュレーションシステムが、
前記判断された接触に基づいて力情報を生成し、
前記物理車両の操作者の入力と関連付けられた情報を受け取り、
前記入力と関連付けられた前記情報を受け取ったことに応答して、前記力情報を別の車両の力コントローラに提供する、
本発明1041のシステム。
[本発明1056]
前記入力と関連付けられた前記情報が前記操作者から受け取られる、本発明1055のシステム。
[本発明1057]
前記別の車両の前記機械的または電気的構成要素を制御することが、
前記別の車両のブレーキまたはステアリングコラムを制御すること
を含む、本発明1055のシステム。
[本発明1058]
前記別の車両の前記機械的または電気的構成要素を制御することが、
前記別の車両の車輪または車軸を制御するモータに提供される電力を制御すること
を含む、本発明1055のシステム。
[本発明1059]
前記別の車両の前記機械的または電気的構成要素を制御することが、
前記別の車両の速度に影響を及ぼすために前記別の車両に供給される電力を低減させるように前記機械的または電気的構成要素を制御すること
を含む、本発明1055のシステム。
[本発明1060]
前記別の車両の前記機械的または電気的構成要素を制御することが、
前記別の車両の速度に影響を及ぼすために前記別の車両に供給される電力を増加させるように前記機械的または電気的構成要素を制御すること
を含む、本発明1055のシステム。
いくつかの態様による、物理車両の図である。 図2A~Cは、いくつかの態様による、1台または複数の仮想車両が1つまたは複数のディスプレイにどのように表示されるかを示す図である。 図3A~Dは、いくつかの態様による、仮想車両の可視部分がディスプレイにどのように表示されるかを示す図である。 図4A~Dは、いくつかの態様による、仮想車両の可視部分がディスプレイにどのように表示されるかを示す図である。 いくつかの態様による、ライブシステムとシミュレートされたシステムとの間の仮想レースをシミュレートするためのシステムの図である。 いくつかの態様による、ディスプレイに仮想車両を表示するための方法を示す流れ図である。 いくつかの態様による、物理車両の操作者に仮想車両と物理車両との間の双方向相互作用を提供するための方法を示す流れ図である。 いくつかの態様による、双方向相互作用を提供するために仮想車両と物理車両との間のレースをシミュレートするための方法を示す流れ図である。 いくつかの態様による、仮想車両の表示を可能にするためにシミュレーションシステムによって行われる方法を示す流れ図である。 いくつかの態様による、仮想車両の表示を可能にする方法を示す流れ図である。 いくつかの態様によるコンピュータの機能ブロック図である。
詳細な説明
本明細書に記載される態様は、現実世界と仮想世界のレース競技を統合する。例えば、現実世界のレースチャンピオンと仮想世界のレースチャンピオンが総合チャンピオンを決定するために競争することができる。有利には、各チャンピオンは、それぞれの「世界」内に留まったままで別の「世界」からのチャンピオンと競争することができる。事実上、本明細書に記載される態様は、ライブ参加者が仮想参加者と競争することを可能にする。
「物理的」という用語と「現実世界」という用語は、本明細書では「仮想世界」と対比して、区別なく使用される。例えば、「物理車両」や「現実世界の車両」は、レース場上またはレース場に物理的に存在することができる。「仮想車両」は、同じレース場に物理的に存在することができない。例えば、「仮想車両」は、ディスプレイ上に示されるグラフィックで生成された車両であり得る。いくつかの態様では、「仮想車両」は、ソフトウェアベースの環境における表現である。
いくつかの態様では、仮想車両を表示するための方法は、レース場における物理車両の位置を識別する工程、レース場における視点の位置を識別する工程、および表示システムに、視点の仮想位置から見える仮想車両の部分を提供する工程を含む。本明細書で開示される態様によって解決される問題には、従来のソリューションのユーザが体験した臨場感の欠如の克服を含めることができる。本明細書のいくつかの態様では、ユーザに仮想車両の可視部分を提供することにより、ユーザが体験する臨場感が高まる。高い臨場感により、仮想車両を含む現実世界のレースを提供することによって信頼性が高く再現性のあるユーザ体験が提供される。
いくつかの態様では、仮想車両の可視部分は、仮想世界における物理車両の仮想位置と、仮想世界における視点の仮想位置と、仮想世界における仮想車両の仮想位置とに基づいて計算される。本明細書で開示される態様によって解決される問題には、仮想車両の可視部分をどのように提供するかを含めることができる。本明細書のいくつかの態様では、仮想車両の可視部分を可視部分の仮想計算によって提供することにより、可視部分決定の正確さが高まる。正確さが高くなると、仮想車両を含む現実世界のレースを提供することによって信頼性が高く再現性のあるユーザ体験が提供される。本明細書のいくつかの態様では、可視部分を仮想計算によって提供することにより計算の効率が高まる。高い効率により、電力使用量が削減され、表現速度が上がってよりシームレスなユーザ体験が得られる。
いくつかの態様では、視点の仮想位置から見える仮想車両の部分は、視点の仮想位置から見て、仮想世界内の物理車両の仮想位置における物理車両の表現によって隠されていない仮想車両の部分を含む。
いくつかの態様では、本方法は、シミュレーションシステムが、仮想世界における仮想車両と物理車両の表現との間の相互作用をシミュレートする工程をさらに含み、視点の仮想位置から見える仮想車両の部分は相互作用に基づいて計算される。
いくつかの態様では、レース場における視点の位置は物理車両の操作者の視点を含み、レース場における視点の位置を識別する工程は、センサで、物理車両の操作者の視点を検出することを含み、本方法は、物理オブジェクトの位置を識別する工程、仮想車両の運動学情報を受け取る工程、表示システムで、物理オブジェクトの位置に基づく仮想車両の表現、レース場における視点の位置、および運動学情報を生成する工程、ならびに仮想車両の表現を、レース場における視点の位置から見て仮想車両が物理オブジェクトと揃うように表示する工程、をさらに含む。
いくつかの態様では、本方法は、表示システムで、視点の仮想位置から見える仮想車両の部分の表現を生成する工程をさらに含む。
いくつかの態様では、本方法は、表示システムが、レース場での仮想車両の軌跡をシミュレートするためにある期間にわたる仮想車両の一連の表現を表示する工程をさらに含み、一連の表現は視点の仮想位置から見える仮想車両の部分の表現を含む。いくつかの態様では、仮想車両の予測される軌跡が表示される。予測は、現在の軌跡、加速度、現在の車両パラメータなどに基づくものであり得る。これは仮想車両が物理車両を追い越す可能性が高いかどうかをオーディエンスメンバが予想することを可能にし得る。予測される軌跡は、黄色い線などの線として提示され得る。「追い越しそうだ!」や「衝突しそうだ!」などの他の表示も含まれ得る。
いくつかの態様では、本方法は、表示システムが、一連の表現から各表現を生成するために使用される仮想車両のデジタル3Dモデルを格納する工程をさらに含み、各表現はデジタル3Dモデルに基づいて表示システムによって生成される。
いくつかの態様では、本方法は、一連の表現から各表現を生成するために使用される仮想車両のデジタル3Dモデルを受け取る工程をさらに含み、各表現はデジタル3Dモデルに基づいて表示システムによって生成される。
いくつかの態様では、運動学情報は、仮想車両の運動の1つもしくは複数のベクトル、運動の1つもしくは複数のスカラー、位置ベクトル、GPS位置、速度、加速度、向き、またはそれらの組み合わせを含む。
いくつかの態様では、物理車両の位置を識別する工程は、仮想車両の運動の1つもしくは複数のベクトル、運動の1つもしくは複数のスカラー、位置ベクトル、GPS位置、速度、加速度、向き、またはそれらの組み合わせを検出することを含む。
いくつかの態様では、レース場における視点の位置を識別する工程は、物理車両の操作者の頭部の空間位置を検出することを含む。いくつかの態様では、本方法は、物理車両に結合された遠隔計測システムが、空間位置をシミュレータシステムに送る工程、遠隔計測システムで、視点の仮想位置から見える仮想車両の部分に関連した情報を受け取る工程、および物理車両の操作者に、情報に基づいて仮想車両の部分の表現を表示する工程をさらに含む。
いくつかの態様では、本方法は、仮想車両の部分の表現を表示する工程が情報をグラフィック要素のセットに変換することを含むこと、部分の表現を表示する工程がグラフィック要素のセットを表示すること、をさらに含む。いくつかの態様では、本方法は、シミュレーションシステムで、視点の仮想位置から見える部分に関連した情報を計算する工程をさらに含む。
いくつかの態様では、仮想車両の一連の表現を表示する工程は、物理車両のディスプレイに一連の表現を表示することを含み、ディスプレイは、光を透明有機発光ダイオード(T-OLED)に通して操作者に視野を表示するT-OLEDディスプレイである。
いくつかの態様では、仮想車両の一連の表現を表示する工程は、物理車両のディスプレイに一連の表現を表示することを含み、ディスプレイはLCDディスプレイであり、本方法は、物理車両に結合されたカメラが、物理車両内のディスプレイで操作者に見える物理世界の視野を表す画像を取り込む工程、および操作者に視野を表示するためにLCDディスプレイの一面に画像を出力する工程をさらに含み、一連の表現はLCDディスプレイによって表示された画像上にオーバーレイされる。
いくつかの態様では、仮想車両の一連の表現を表示する工程は、物理車両のディスプレイに一連の表現を表示することを含み、ディスプレイは、物理車両のフロントガラス、物理車両の1つもしくは複数のサイドウインドウ、物理車両のリヤウインドウ、1つもしくは複数のサイドミラー、バックミラー、またはそれらの組み合わせを含む。
いくつかの態様では、仮想車両の一連の表現を表示する工程は、操作者によって装着されたヘッドセットのディスプレイに一連の表現を表示することを含む。いくつかの態様では、ヘッドセットはヘルメットである。
いくつかの態様では、レース場における視点の位置を識別する工程は、ユーザの眼の空間位置、ユーザの眼の注視方向、またはユーザの眼の焦点のうちの1つまたは複数を検出することを含む。
いくつかの態様では、本方法は、シミュレーションシステムに、レース場における物理車両の位置と視点の位置とを提供する工程、シミュレーションシステムが、仮想車両と物理車両の表現とを含む仮想世界を計算する工程、シミュレーションシステムが、レース場における視点の位置に基づいて仮想世界内の視点の仮想位置を計算する工程、およびシミュレーションシステムが、視点の仮想位置から見える仮想車両の部分を計算する工程をさらに含み、表示システムに、視点の仮想位置から見える仮想車両の部分を提供する工程は、シミュレーションシステムが、視点の仮想位置から見える仮想車両の部分を出力することを含む。本明細書で開示される態様によって解決される問題には、仮想車両の可視部分をどのように計算するかを含めることができる。本明細書のいくつかの態様では、仮想世界における仮想車両の可視部分を計算する工程により、可視部分決定の正確さが高まる。正確さが高くなると、仮想車両を含む現実世界のレースを提供することによって信頼性が高く再現性のあるユーザ体験が提供される。本明細書のいくつかの態様では、可視部分を仮想計算によって提供することにより計算の効率が高まる。高い効率により、電力使用量が削減され、表現速度が上がってよりシームレスなユーザ体験が得られる。
いくつかの態様では、物理車両の位置を識別する工程は、車両の2つの部分の各々の位置を受け取ることを含む。いくつかの態様では、物理車両の位置を識別する工程は、車両の1つの部分の位置と車両の向きとを受け取ることを含む。いくつかの態様では、車両の向きを受け取る工程は、ジャイロスコープデータを受け取ることを含む。本明細書で開示される態様によって解決される問題には、仮想車両の可視部分を決定するために仮想世界において物理車両をどのようにして正しく位置決めするかを含めることができる。本明細書のいくつかの態様では、向きの尺度を使用することにより、仮想世界における物理車両の正確な配置が提供される。正確さが高くなると、車両の可視部分のより信頼できる表示が提供されて、ユーザ体験が向上する。
いくつかの態様では、レース場における視点の位置は、レース場における物理車両の操作者の視点の位置を含む。いくつかの態様では、レース場における視点の位置は、レース場に存在しレース場での物理車両を見ているオーディエンスメンバの視点の位置を含む。いくつかの態様では、レース場における視点の位置は、レース場に存在しレース場での物理車両を画像化しているカメラの位置を含む。いくつかの態様では、カメラは、物理車両が競走しているレース場の部分を画像化する。物理車両がカメラによって取り込まれているレース場の部分を横切って走行しているとき、カメラはそのビデオフィードに物理車両を取り込み得る。物理車両がカメラによって取り込まれているレース場の部分を横切って走行していないとき、カメラはレース場の部分を依然として取り込み得る。
いくつかの態様では、レース場における視点の位置を識別する工程は、眼の注視点を測定すること、眼球運動を追跡すること、頭部位置を追跡すること、片眼もしくは両眼から物理車両上の固定点へのベクトルを識別すること、頭部上の点から物理車両上の固定点へのベクトルを識別すること、眼鏡類上の点から物理車両上の固定点へのベクトルを識別すること、ヘッドギア上の点から物理車両上の固定点へのベクトルを識別すること、片眼もしくは両眼から会場内の固定点へのベクトルを識別すること、頭部上の点から会場内の固定点へのベクトルを識別すること、眼鏡類上の点から会場内の固定点へのベクトルを識別すること、またはヘッドギア上の点から会場内の固定点へのベクトルを識別することのうちの少なくとも1つを含む。いくつかの態様では、レース場における視点の位置を識別する工程は、眼の注視点を測定することを含み、測定することは、眼からの光の反射または屈折を測定することを含む。
いくつかの態様では、レース場における物理車両の位置と視点の位置とを提供する工程は、少なくとも1つの位置を無線送信することを含む。
いくつかの態様では、仮想世界を計算する工程は、物理車両の物理座標を仮想世界の座標に変換することを含み、物理車両の仮想位置は仮想座標を含む。
いくつかの態様では、視点の仮想位置から見える仮想車両の部分を計算する工程は、仮想世界における物理車両の表現を計算すること、仮想世界内の視点と仮想車両との間の仮想世界内の物理オブジェクトの表現を計算すること、および視点の仮想位置から見て、物理車両の表現と物理オブジェクトの表現とによって隠されていない仮想車両の部分を抽出すること、を含む。いくつかの態様では、視点の仮想位置から見える仮想世界内の仮想車両の部分は、隠されていない部分を含む。本明細書で開示される態様によって解決される問題には、物理車両によって隠されていない部分だけでなくそれ以上を含む、仮想車両の可視部分をどのようにして計算するかを含めることができる。本明細書のいくつかの態様では、現実世界の物理オブジェクトを含む仮想世界における可視部分を計算する工程により、可視部分決定の正確さが高まる。正確さが高くなると、仮想車両を含む現実世界のレースを提供することによって信頼性が高く再現性のあるユーザ体験が提供される。本明細書のいくつかの態様では、可視部分を仮想計算によって提供することにより計算の効率が高まる。高い効率により、電力使用量が削減され、表現速度が上がってよりシームレスなユーザ体験が得られる。
いくつかの態様では、仮想車両の部分を抽出する工程は、どの画素が他の表現によって遮られるかを判断し、他の表現によって遮られない画素のみを表示することを含み得る。いくつかの態様では、仮想車両の部分を抽出する工程は、他の表現によって遮られるすべての画素に(RGBA空間における)ゼロパーセントのピクセルアルファ値を設定することを含み得る。例えば、仮想車両の部分は、別の仮想車両などの他の仮想表現、または物理車両内のオブジェクトや物理車両自体などの物理オブジェクトの表現によって遮られ得る。視点の仮想位置から見える仮想車両の部分を提供するために任意の(視点の仮想位置から)見える画素値を使用することができる。いくつかの態様では、仮想車両の隠されていない見える部分の画素について各々、それらの隠されていない画素が見えており、表示されるべきであることを指示するために、(RGBA空間における)ゼロパーセントより大きいアルファ値を含むように設定することができる。これに対して、ゼロパーセントのアルファ値に設定された画素は、それらの画素が完全に透明である、すなわち、眼に見えず、表示されないはずであることを指示する。
いくつかの態様では、視点の仮想位置と物理車両の表現との間の物理オブジェクトの表現を計算する工程は、物理オブジェクトの仮想位置を取得するために表現のデータベースにアクセスすることを含む。
いくつかの態様では、視点の仮想位置から見える仮想車両の部分は、仮想世界内の他の表現によって隠されていない仮想車両の部分からなる。
いくつかの態様では、視点の仮想位置から見える仮想車両の部分は、仮想世界における仮想の影を含む。いくつかの態様では、仮想の影は、仮想車両によって投影された影と仮想車両上に投影された影の少なくとも一方である。いくつかの態様では、視点の仮想位置から見える仮想車両の部分は、仮想反射を含む。いくつかの態様では、仮想反射は、仮想車両の反射と仮想車両上の反射の少なくとも一方である。
いくつかの態様では、シミュレーションシステムが、視点の仮想位置から見える仮想世界内の仮想車両の部分を計算する工程は、視点の仮想位置からの視野を計算することを含み、表示システムに、視点の仮想位置から見える仮想車両の部分を提供する工程は、視野内の仮想車両の部分を表示することを含む。
いくつかの態様では、シミュレーションシステムが、仮想視点の位置から見える仮想世界内の仮想車両の部分を計算する工程は、視点の仮想位置からの視野を計算することを含み、表示システムに、視点の仮想位置から見える仮想車両の部分を提供する工程は、視野内で見える仮想車両の部分を表示することからなる。
いくつかの態様では、本方法は、物理的なレース場での2台の仮想車両間の競争を容易にし得る。2台の仮想車両が物理車両なしで物理的なレース場で競争するシナリオでは、その場合、「物理車両の位置を識別する工程」は不要になる。本方法は、レース場における視点の位置を識別する工程、および表示システムに、レース場における視点の位置から見える仮想車両の部分を提供する工程を含むことができるはずである。そのような態様では物理車両の位置に関係しない前述の方法のすべての局面を適用できるはずである。いくつかの態様では、仮想車両は特別な属性およびビデオゲーム外観を与えられる。いくつかの態様では、ビデオゲーム属性(すなわち、仮想オブジェクト)を、それらのビデオゲーム属性を物理車両上にオーバーレイすることによって、物理車両に同様に適用することができる。例えば、車に、ブースト(boost)、機関銃、ミサイル(現実世界のビューに付加された他のグラフィック仮想オブジェクト)、仮想ジャンプなどを与えることができる。レース場と在宅の見物人は、物理的なレース場での仮想の競争相手をあたかも現実世界で競争しているかのように見ることができるはずである。
いくつかの態様では、仮想車両を表示するための方法は、レース場における物理車両の位置を識別する手段、レース場における視点の位置を識別する手段、および表示システムに、レース場における視点の位置に基づいて仮想世界内で計算された視点の仮想位置から見える仮想車両の部分を提供する手段を含む。本明細書で開示される態様によって解決される問題には、従来のソリューションのユーザが体験した臨場感の欠如の克服を含めることができる。本明細書のいくつかの態様では、ユーザに仮想車両の可視部分を提供することにより、ユーザが体験する臨場感が高まる。高い臨場感により、仮想車両を含む現実世界のレースを提供することによって信頼性が高く再現性のあるユーザ体験が提供される。
いくつかの態様では、視点の仮想位置から見える仮想車両の部分は、視点の仮想位置から見て、仮想世界内の物理車両の仮想位置における物理車両の表現によって隠されていない仮想車両の部分を含む。本明細書で開示される態様によって解決される問題には、仮想車両の可視部分をどのように提供するかを含めることができる。本明細書のいくつかの態様では、仮想車両の可視部分を可視部分の仮想計算によって提供することにより、可視部分決定の正確さが高まる。正確さが高くなると、仮想車両を含む現実世界のレースを提供することによって信頼性が高く再現性のあるユーザ体験が提供される。本明細書のいくつかの態様では、可視部分を仮想計算によって提供することにより計算の効率が高まる。高い効率により、電力使用量が削減され、表現速度が上がってよりシームレスなユーザ体験が得られる。
いくつかの態様では、本方法は、シミュレーションシステムが、仮想世界における仮想車両と物理車両の表現との間の相互作用をシミュレートする手段をさらに含み、視点の仮想位置から見える仮想車両の部分は相互作用に基づいて計算される。
いくつかの態様では、レース場における視点の位置は物理車両の操作者の視点を含み、レース場における視点の位置を識別する手段は、センサで、物理車両の操作者の視点を検出する手段を含み、本方法は、物理オブジェクトの位置を識別する手段、仮想車両の運動学情報を受け取る手段、表示システムで、物理オブジェクトの位置に基づく仮想車両の表現、レース場における視点の位置、および運動学情報を生成する手段、ならびに仮想車両の表現を、レース場における視点の位置から見て仮想車両が物理オブジェクトと揃うように表示する手段、をさらに含む。本明細書で開示される態様によって解決される問題には、仮想車両の可視部分をどのように計算するかを含めることができる。本明細書のいくつかの態様では、仮想世界における仮想車両の可視部分を計算する工程により、可視部分決定の正確さが高まる。正確さが高くなると、仮想車両を含む現実世界のレースを提供することによって信頼性が高く再現性のあるユーザ体験が提供される。本明細書のいくつかの態様では、可視部分を仮想計算によって提供することにより計算の効率が高まる。高い効率により、電力使用量が削減され、表現速度が上がってよりシームレスなユーザ体験が得られる。
いくつかの態様では、本方法は、表示システムで、視点の仮想位置から見える仮想車両の部分の表現を生成する手段をさらに含む。
いくつかの態様では、本方法は、表示システムが、レース場での仮想車両の軌跡をシミュレートするためにある期間にわたる仮想車両の一連の表現を表示する手段をさらに含み、一連の表現は視点の仮想位置から見える仮想車両の部分の表現を含む。いくつかの態様では、仮想車両の予測される軌跡が表示される。予測は、現在の軌跡、加速度、現在の車両パラメータなどに基づくものであり得る。これは仮想車両が物理車両を追い越す可能性が高いかどうかをオーディエンスメンバが予想することを可能にし得る。予測される軌跡は、黄色い線などの線として提示され得る。「追い越しそうだ!」や「衝突しそうだ!」などの他の表示も含まれ得る。
いくつかの態様では、本方法は、表示システムが、一連の表現から各表現を生成するために使用される仮想車両のデジタル3Dモデルを格納する手段をさらに含み、各表現はデジタル3Dモデルに基づいて表示システムによって生成される。
いくつかの態様では、本方法は、一連の表現から各表現を生成するために使用される仮想車両のデジタル3Dモデルを受け取る手段をさらに含み、各表現はデジタル3Dモデルに基づいて表示システムによって生成される。
いくつかの態様では、運動学情報は、仮想車両の運動の1つもしくは複数のベクトル、運動の1つもしくは複数のスカラー、位置ベクトル、GPS位置、速度、加速度、向き、またはそれらの組み合わせを含む。
いくつかの態様では、物理車両の位置を識別する手段は、仮想車両の運動の1つもしくは複数のベクトル、運動の1つもしくは複数のスカラー、位置ベクトル、GPS位置、速度、加速度、向き、またはそれらの組み合わせを検出する手段を含む。
いくつかの態様では、レース場における視点の位置を識別する手段は、物理車両の操作者の頭部の空間位置を検出する手段を含む。いくつかの態様では、本方法は、物理車両に結合された遠隔計測システムが、空間位置をシミュレータシステムに送る手段、遠隔計測システムで、視点の仮想位置から見える仮想車両の部分に関連した情報を受け取る手段、および物理車両の操作者に、その情報に基づいて仮想車両の部分の表現を表示する手段をさらに含む。
いくつかの態様では、本方法は、仮想車両の部分の表現を表示する手段が、情報をグラフィック要素のセットに変換する手段、を含み、部分の表現を表示する手段が、グラフィック要素のセットを表示する手段を含む、ことをさらに含む。いくつかの態様では、本方法は、シミュレーションシステムで、視点の仮想位置から見える部分に関連した情報を計算する手段をさらに含む。
いくつかの態様では、仮想車両の一連の表現を表示する手段は、物理車両のディスプレイに一連の表現を表示する手段を含み、ディスプレイは、光を透明有機発光ダイオード(T-OLED)に通して操作者に視野を表示するT-OLEDディスプレイである。
いくつかの態様では、仮想車両の一連の表現を表示する手段は、物理車両のディスプレイに一連の表現を表示する手段を含み、ディスプレイはLCDディスプレイであり、本方法は、物理車両に結合されたカメラが、物理車両内のディスプレイで操作者に見える物理世界の視野を表す画像を取り込む手段、および操作者に視野を表示するためにLCDディスプレイの一面に画像を出力する手段をさらに含み、一連の表現はLCDディスプレイによって表示された画像上にオーバーレイされる。
いくつかの態様では、仮想車両の一連の表現を表示する手段は、物理車両のディスプレイに一連の表現を表示する手段を含み、ディスプレイは、物理車両のフロントガラス、物理車両の1つもしくは複数のサイドウインドウ、物理車両のリヤウインドウ、1つもしくは複数のサイドミラー、バックミラー、またはそれらの組み合わせを含む。
いくつかの態様では、仮想車両の一連の表現を表示する手段は、操作者によって装着されたヘッドセットのディスプレイに一連の表現を表示する手段を含む。いくつかの態様では、ヘッドセットはヘルメットである。
いくつかの態様では、レース場における視点の位置を識別する手段は、ユーザの眼の空間位置、ユーザの眼の注視方向、またはユーザの眼の焦点のうちの1つまたは複数を検出する手段を含む。
いくつかの態様では、本方法は、シミュレーションシステムに、レース場における物理車両の位置と視点の位置とを提供する手段、シミュレーションシステムが、仮想車両と物理車両の表現とを含む仮想世界を計算する手段、シミュレーションシステムが、レース場における視点の位置に基づいて仮想世界内の視点の仮想位置を計算する手段、およびシミュレーションシステムが、視点の仮想位置から見える仮想車両の部分を計算する手段をさらに含み、表示システムに、視点の仮想位置から見える仮想車両の部分を提供する手段は、シミュレーションシステムが、視点の仮想位置から見える仮想車両の部分を出力する手段を含む。
いくつかの態様では、物理車両の位置を識別する手段は、車両の2つの部分の各々の位置を受け取る手段を含む。
いくつかの態様では、物理車両の位置を識別する手段は、車両の1つの部分の位置と車両の向きとを受け取る手段を含む。いくつかの態様では、車両の向きを受け取る手段は、ジャイロスコープデータを受け取る手段を含む。本明細書で開示される態様によって解決される問題には、仮想車両の可視部分を決定するために仮想世界において物理車両をどのようにして正しく位置決めするかを含めることができる。本明細書のいくつかの態様では、向きの尺度を使用することにより、仮想世界における物理車両の正確な配置が提供される。正確さが高くなると、車両の可視部分のより信頼できる表示が提供されて、ユーザ体験が向上する。
いくつかの態様では、レース場における視点の位置は、レース場における物理車両の操作者の視点の位置を含む。いくつかの態様では、レース場における視点の位置は、レース場に存在しレース場での物理車両を見ているオーディエンスメンバの視点の位置を含む。いくつかの態様では、レース場における視点の位置は、レース場に存在するカメラの位置を含み、本方法は、レース場での物理車両を画像化する手段をさらに含む。いくつかの態様では、カメラは、物理車両が競走しているレース場の部分を画像化する。物理車両がカメラによって取り込まれているレース場の部分を横切って走行しているとき、カメラはそのビデオフィードに物理車両を取り込み得る。物理車両がカメラによって取り込まれているレース場の部分を横切って走行していないとき、カメラはレース場の部分を依然として取り込み得る。
いくつかの態様では、レース場における視点の位置を識別する手段は、眼の注視点を測定する手段、眼球運動を追跡する手段、頭部位置を追跡する手段、片眼もしくは両眼から物理車両上の固定点へのベクトルを識別する手段、頭部上の点から物理車両上の固定点へのベクトルを識別する手段、眼鏡類上の点から物理車両上の固定点へのベクトルを識別する手段、ヘッドギア上の点から物理車両上の固定点へのベクトルを識別する手段、片眼もしくは両眼から会場内の固定点へのベクトルを識別する手段、頭部上の点から会場内の固定点へのベクトルを識別する手段、眼鏡類上の点から会場内の固定点へのベクトルを識別する手段、またはヘッドギア上の点から会場内の固定点へのベクトルを識別する手段のうちの少なくとも1つを含む。いくつかの態様では、レース場における視点の位置を識別する手段は、眼の注視点を測定する手段を含み、測定する手段は、眼からの光の反射または屈折を測定する手段を含む。
いくつかの態様では、レース場における物理車両の位置と視点の位置とを提供する手段は、少なくとも1つの位置を無線送信する手段を含む。
いくつかの態様では、仮想世界を計算する手段は、物理車両の物理座標を仮想世界の座標に変換する手段を含み、物理車両の仮想位置は仮想座標を含む。
いくつかの態様では、視点の仮想位置から見える仮想車両の部分を計算する手段は、仮想世界における物理車両の表現を計算する手段、仮想世界内の視点と仮想車両との間の仮想世界内の物理オブジェクトの表現を計算する手段、および視点の仮想位置から見て、物理車両の表現と物理オブジェクトの表現とによって隠されていない仮想車両の部分を抽出する手段、を含む。いくつかの態様では、視点の仮想位置から見える仮想世界内の仮想車両の部分は、隠されていない部分を含む。本明細書で開示される態様によって解決される問題には、物理車両によって隠されていない部分だけでなくそれ以上を含む、仮想車両の可視部分をどのようにして計算するかを含めることができる。本明細書のいくつかの態様では、現実世界の物理オブジェクトを含む仮想世界における可視部分を計算する工程により、可視部分決定の正確さが高まる。正確さが高くなると、仮想車両を含む現実世界のレースを提供することによって信頼性が高く再現性のあるユーザ体験が提供される。本明細書のいくつかの態様では、可視部分を仮想計算によって提供することにより計算の効率が高まる。高い効率により、電力使用量が削減され、表現速度が上がってよりシームレスなユーザ体験が得られる。
いくつかの態様では、仮想車両の部分を抽出する手段は、どの画素が他の表現によって遮られるかを判断して、他の表現によって遮られない画素のみを表示する手段を含み得る。いくつかの態様では、仮想車両の部分を抽出する手段は、他の表現によって遮られるすべての画素に(RGBA空間における)ゼロパーセントのピクセルアルファ値を設定する手段を含み得る。例えば、仮想車両の部分は、別の仮想車両などの他の仮想表現、または物理車両内のオブジェクトや物理車両自体などの物理オブジェクトの表現によって遮られ得る。視点の仮想位置から見える仮想車両の部分を提供するために任意の(視点の仮想位置から)見える画素値を使用することができる。いくつかの態様では、仮想車両の隠されていない見える部分の画素について各々、それらの隠されていない画素が見えており、表示されるべきであることを指示するために、(RGBA空間における)ゼロパーセントより大きいアルファ値を含むように設定することができる。これに対して、ゼロパーセントのアルファ値に設定された画素は、それらの画素が完全に透明である、すなわち、眼に見えず、表示されないはずであることを指示する。
いくつかの態様では、視点の仮想位置と物理車両の表現との間の物理オブジェクトの表現を計算する手段は、物理オブジェクトの仮想位置を取得するために表現のデータベースにアクセスする手段を含む。
いくつかの態様では、視点の仮想位置から見える仮想車両の部分は、仮想世界内の他の表現によって隠されていない仮想車両の部分からなる。
いくつかの態様では、視点の仮想位置から見える仮想車両の部分は、仮想世界における仮想の影を含む。いくつかの態様では、仮想の影は、仮想車両によって投影された影と仮想車両上に投影された影の少なくとも一方である。いくつかの態様では、レース場における視点の位置から見える仮想車両の部分は、仮想反射を含む。いくつかの態様では、仮想反射は、仮想車両の反射と仮想車両上の反射の少なくとも一方である。
いくつかの態様では、シミュレーションシステムが、視点の仮想位置から見える仮想世界内の仮想車両の部分を計算する手段は、視点の仮想位置からの視野を計算する手段を含み、表示システムに、視点の仮想位置から見える仮想車両の部分を提供する手段は、視野内の仮想車両の部分を表示することを含む。
いくつかの態様では、シミュレーションシステムが、仮想視点の位置から見える仮想世界内の仮想車両の部分を計算する手段は、視点の仮想位置からの視野を計算する手段を含み、表示システムに、視点の仮想位置から見える仮想車両の部分を提供する手段は、視野内の仮想車両の部分を表示する手段からなる。
いくつかの態様では、仮想車両を表示するためのシステムは、レース場における物理車両の位置を検出する第1のセンサと、レース場における視点の位置を検出する第2のセンサと、視点の仮想位置から見える仮想車両の部分を出力するシミュレーションシステムとを含む。本明細書で開示される態様によって解決される問題には、従来のソリューションのユーザが体験した臨場感の欠如の克服を含めることができる。本明細書のいくつかの態様では、ユーザに仮想車両の可視部分を提供することにより、ユーザが体験する臨場感が高まる。高い臨場感により、仮想車両を含む現実世界のレースを提供することによって信頼性が高く再現性のあるユーザ体験が提供される。
いくつかの態様では、シミュレーションシステムは、仮想車両の可視部分を、仮想世界における物理車両の仮想位置と、仮想世界における視点の仮想位置と、仮想世界における仮想車両の仮想位置とに基づいて決定する。本明細書で開示される態様によって解決される問題には、仮想車両の可視部分をどのように提供するかを含めることができる。本明細書のいくつかの態様では、仮想車両の可視部分を可視部分の仮想計算によって提供することにより、可視部分決定の正確さが高まる。正確さが高くなると、仮想車両を含む現実世界のレースを提供することによって信頼性が高く再現性のあるユーザ体験が提供される。本明細書のいくつかの態様では、可視部分を仮想計算によって提供することにより計算の効率が高まる。高い効率により、電力使用量が削減され、表現速度が上がってよりシームレスなユーザ体験が得られる。
いくつかの態様では、視点の仮想位置から見える仮想車両の部分は、視点の仮想位置から見て、物理車両の仮想位置における物理車両の表現によって隠されていない仮想車両の部分を含む。
いくつかの態様では、本システムは、仮想世界における仮想車両と物理車両の表現との間の相互作用をシミュレートするように構成されたシミュレーションシステムをさらに含み、視点の仮想位置から見える仮想車両の部分は相互作用に基づいて計算される。
いくつかの態様では、本システムは、レース場における物理車両の位置と視点の位置とを受け取り、仮想車両と物理車両の表現とを含む仮想世界を計算し、レース場における視点の位置に基づいて仮想世界内の視点の仮想位置を計算し、視点の仮想位置から見える仮想車両の部分を計算し、表示システムに、視点の仮想位置から見える仮想車両の部分を出力する、ように構成されたシミュレーションシステムを含む。本明細書で開示される態様によって解決される問題には、仮想車両の可視部分をどのように計算するかを含めることができる。本明細書のいくつかの態様では、仮想世界における仮想車両の可視部分を計算することにより、可視部分決定の正確さが高まる。正確さが高くなると、仮想車両を含む現実世界のレースを提供することによって信頼性が高く再現性のあるユーザ体験が提供される。本明細書のいくつかの態様では、可視部分を仮想計算によって提供することにより計算の効率が高まる。高い効率により、電力使用量が削減され、表現速度が上がってよりシームレスなユーザ体験が得られる。
いくつかの態様では、第1のセンサは、車両の2つの部分の各々の位置を受け取る。いくつかの態様では、第1のセンサは、車両の1つの部分の位置と、車両の向きとを受け取る。いくつかの態様では、車両の向きを受け取ることは、ジャイロスコープデータを受け取ることを含む。本明細書で開示される態様によって解決される問題には、仮想車両の可視部分を決定するために仮想世界において物理車両をどのようにして正しく位置決めするかを含めることができる。本明細書のいくつかの態様では、向きの尺度を使用することにより、仮想世界における物理車両の正確な配置が提供される。正確さが高くなると、車両の可視部分のより信頼できる表示が提供されて、ユーザ体験が向上する。
いくつかの態様では、レース場における視点の位置は、レース場における物理車両の操作者の視点の位置を含む。いくつかの態様では、レース場における視点の位置は、レース場に存在しレース場での物理車両を見ているオーディエンスメンバの視点の位置を含む。
いくつかの態様では、レース場における視点の位置は、レース場に存在しレース場での物理車両を画像化しているカメラの位置を含む。いくつかの態様では、カメラは、物理車両が競走しているレース場の部分を画像化する。物理車両がカメラによって取り込まれているレース場の部分を横切って走行しているとき、カメラはそのビデオフィードに物理車両を取り込み得る。物理車両がカメラによって取り込まれているレース場の部分を横切って走行していないとき、カメラはレース場の部分を依然として取り込み得る。
いくつかの態様では、第2のセンサは、眼の注視点を測定すること、眼球運動を追跡すること、頭部位置を追跡すること、片眼もしくは両眼から物理車両上の固定点へのベクトルを識別すること、頭部上の点から物理車両上の固定点へのベクトルを識別すること、眼鏡類上の点から物理車両上の固定点へのベクトルを識別すること、ヘッドギア上の点から物理車両上の固定点へのベクトルを識別すること、片眼もしくは両眼から会場内の固定点へのベクトルを識別すること、頭部上の点から会場内の固定点へのベクトルを識別すること、眼鏡類上の点から会場内の固定点へのベクトルを識別すること、またはヘッドギア上の点から会場内の固定点へのベクトルを識別することのうちの少なくとも1つによってレース場における視点の位置を検出するように構成される。いくつかの態様では、第2のセンサは、レース場における視点の位置を、眼からの光の反射または屈折を測定することによって検出するように構成される。
いくつかの態様では、レース場における物理車両の位置と視点の位置とを受け取ることは、少なくとも1つの位置を無線受信することを含む。
いくつかの態様では、仮想世界を計算することは、物理車両の物理座標を仮想世界の座標に変換することを含み、物理車両の仮想位置は仮想座標を含む。
いくつかの態様では、レース場における視点の位置から見える仮想車両の部分を計算することは、仮想世界における物理車両の表現を計算すること、仮想世界内の視点と仮想車両との間の仮想世界内の物理オブジェクトの表現を計算すること、および視点の仮想位置から見て、物理車両の表現と物理オブジェクトの表現とによって隠されていない仮想車両の部分を抽出すること、を含む。いくつかの態様では、視点の仮想位置から見える仮想世界内の仮想車両の部分は、隠されていない部分を含む。本明細書で開示される態様によって解決される問題には、物理車両によって隠されていない部分だけでなくそれ以上を含む、仮想車両の可視部分をどのようにして計算するかを含めることができる。本明細書のいくつかの態様では、現実世界の物理オブジェクトを含む仮想世界における可視部分を計算することにより、可視部分決定の正確さが高まる。正確さが高くなると、仮想車両を含む現実世界のレースを提供することによって信頼性が高く再現性のあるユーザ体験が提供される。本明細書のいくつかの態様では、可視部分を仮想計算によって提供することにより計算の効率が高まる。高い効率により、電力使用量が削減され、表現速度が上がってよりシームレスなユーザ体験が得られる。
いくつかの態様では、仮想車両の部分を抽出することは、どの画素が他の表現によって遮られるかを判断し、他の表現によって遮られない画素のみを表示することを含み得る。いくつかの態様では、仮想車両の部分を抽出する工程は、他の表現によって遮られるすべての画素に(RGBA空間における)ゼロパーセントのピクセルアルファ値を設定することを含み得る。例えば、仮想車両の部分は、別の仮想車両などの他の仮想表現、または物理車両内のオブジェクトや物理車両自体などの物理オブジェクトの表現によって遮られ得る。視点の仮想位置から見える仮想車両の部分を提供するために任意の(視点の仮想位置から)見える画素値を使用することができる。いくつかの態様では、仮想車両の隠されていない見える部分の画素について各々、それらの隠されていない画素が見えており、表示されるべきであることを指示するために、(RGBA空間における)ゼロパーセントより大きいアルファ値を含むように設定することができる。これに対して、ゼロパーセントのアルファ値に設定された画素は、それらの画素が完全に透明である、すなわち、眼に見えず、表示されないはずであることを指示する。
いくつかの態様では、視点の仮想位置と物理車両の表現との間の物理オブジェクトの表現を計算することは、物理オブジェクトの仮想位置を取得するために表現のデータベースにアクセスすることを含む。
いくつかの態様では、視点の仮想位置から見える仮想車両の部分は、仮想世界内の他の表現によって隠されていない仮想車両の部分からなる。
いくつかの態様では、視点の仮想位置から見える仮想車両の部分は、仮想世界における仮想の影を含む。いくつかの態様では、仮想の影は、仮想車両によって投影された影と仮想車両上に投影された影の少なくとも一方である。いくつかの態様では、視点の仮想位置から見える仮想車両の部分は、仮想反射を含む。いくつかの態様では、仮想反射は、仮想車両の反射と仮想車両上の反射の少なくとも一方である。
いくつかの態様では、視点の仮想位置から見える仮想世界内の仮想車両の部分を計算することは、視点の仮想位置からの視野を計算することを含み、表示システムに、視点の仮想位置から見える仮想車両の部分を提供することは、視野内の仮想車両の部分を表示することを含む。
いくつかの態様では、レース場における視点の位置から見える仮想世界内の仮想車両の部分を計算することは、視点の仮想位置からの視野を計算することを含み、表示システムに、視点の仮想位置から見える仮想車両の部分を提供することは、視野内で見える仮想車両の部分を表示することからなる。
いくつかの態様では、本システムは、物理的なレース場での2台の仮想車両間の競争を容易にし得る。2台の仮想車両が物理車両なしで物理的なレース場で競争するシナリオでは、その場合、第1のセンサが物理車両の位置を検出することは不要になる。そのような態様におけるシステムは、レース場における視点の位置を検出するセンサと、レース場における視点の位置から見える仮想車両の部分を提供する表示システムとを含むことができる。そのような態様では物理車両の位置に関係しない前述のシステムのすべての局面を適用できるはずである。いくつかの態様では、仮想車両は特別な属性およびビデオゲーム外観を与えられる。例えば、車に、ブースト(boost)、機関銃、ミサイル(現実世界のビューに付加された他のグラフィック仮想オブジェクト)、仮想ジャンプなどを与えることができる。いくつかの態様では、物理車両に同様のビデオゲーム属性を与えることができる。例えば、機関銃やミサイルなどのグラフィック仮想オブジェクトが、ディスプレイ上で見えるようにレンダリングされ、物理車両にオーバーレイされ得る。レース場と在宅の見物人は、物理的なレース場での仮想の競争相手をあたかも現実世界で競争しているかのように見ることができるはずである。
本明細書で使用される場合、「視点」とは、そこから仮想車両が見られることになる現実世界の位置であると理解することができる。例えば、自分の周囲環境を見ている物理車両の操作者(例えば、物理車両内の運転者)。ディスプレイは、仮想車両をビューに導入することによって操作者のビューを拡張するために使用され得る。仮想車両は現実世界の視点に付加されるので、表示システムが提供されないか、または切断されれば、現実世界の視点からは仮想車両が見えなくなる。
図1は、いくつかの態様による、物理車両101の図100である。図1は、物理車両101の操作者(例えば運転者)の視点の一例を示している。よって、操作者の視点の位置は、操作者の眼の位置および方向(注視)(または操作者の眼の位置および方向の何らかの近く)である。図1は物理車両の操作者の視点に関連して示されているが、これらの教示は、物理車両が走行しているレース場のオーディエンスメンバやレース場のカメラなど、他の視点にも等しく適用される。
物理車両101は、表示システム102(レンダリング構成要素107を含む)と、シミュレーション構成要素106と、遠隔計測システム104(センサ108を含む)と、RF回路105と、力コントローラ112とを含む。物理車両101はまた、眼球位置検出器110と、フロントガラス120と、バックミラー122と、リヤウインドウ124と、サイドウインドウ126Aおよび126Bと、サイドミラー128Aおよび128Bと、シートおよびヘッドブレース130と、スピーカ132と、ブレーキ134も含む。図1はまた、車両操作者114も含んでいる。図1では、車両操作者114は、ヘルメット116と、眼117を覆うバイザと、触覚スーツ118を装着して示されている。いくつかの態様では、眼117を覆うように装着されたバイザはヘルメット116の構成要素である。
図1に示されるように、物理車両101は自動車である。いくつかの態様では、物理車両101内のデバイスがシミュレーションシステム140と通信して、車両操作者114の視野内の1台または複数の仮想車両をシミュレートする。シミュレーションシステム140は、物理車両101に搭載され得る。いくつかの態様では、図100に示されるように、シミュレーションシステム140は、物理車両101から遠隔であってもよく、これについては別記する。いくつかの態様では、シミュレーションシステム140によって行われる機能は、物理車両101に搭載されたシステムと物理車両101から遠隔のシステムの両方にまたがって分散され得る。いくつかの態様では、シミュレーションシステム140は、1人または複数のライブ参加者(すなわち、物理車両101を操作している車両操作者114)と1人または複数の遠隔参加者(図示されない)との間のレーシングシミュレーション141を生成し、維持する。
仮想車両をリアルタイムでシミュレートすることにより、車両操作者114のレース体験が強化される。物理車両101内でシミュレーション能力を実行することにより、ライブ参加者である車両操作者114が、レーシングシミュレーション141内で仮想車両を操作している遠隔参加者と競争することが可能になる。車両操作者114の視野は仮想車両で拡張された車両操作者114に見える観察可能な世界である。いくつかの態様では、拡張を、ディスプレイ、例えば、フロントガラス120、バックミラー122、リヤウインドウ124、サイドウインドウ126Aおよび126B、ならびにサイドミラー128Aおよび128Bのうちの1つまたは複数に収容されるか、またはこれらと組み合わされたディスプレイによって提供することができる。
いくつかの態様では、拡張を、ホログラムデバイスまたは3D表示システムによって提供することができる。これらの態様では、フロントガラス120、バックミラー122、リヤウインドウ124、サイドウインドウ126Aおよび126B、またはサイドミラー128Aおよび128Bは、3D画像が表示されることを可能にし、カメラを利用して、非透明ディスプレイ上にオーバーレイされた3D画像と共に表示される周囲環境を取り込むT-OLEDディスプレイとすることができる。
いくつかの態様では、拡張を、車両操作者114によって眼117を覆うように装着されたヘッドマウントディスプレイ(HMD)によって提供することができる。HMDはヘルメット116の一部として装着され得る。いくつかの態様では、HMDは、バイザ、眼鏡、ゴーグル、または車両操作者114の眼の前方に装着される他のデバイスに組み込まれる。上述したディスプレイと同様に、HMDは、HMD内の1つまたは複数のディスプレイに1台または複数の仮想車両をレンダリングすることによって車両操作者114の視野を拡張するように動作し得る。
他の態様では、HMDは、1台または複数の仮想車両をシミュレートするために網膜投射技術を実施する。例えば、HMDは、車両操作者114の左眼と右眼とに画像を投射して、車両操作者114の視野内に1台または複数の仮想車両の3次元(3D)画像を作り出す仮想網膜ディスプレイ(VRD)を含み得る。
いくつかの態様では、拡張を、上述した物理車両101に収容された1つまたは複数のディスプレイ(例えば、フロントガラス120やバックミラー122)、上述した車両操作者114によって装着されたディスプレイ(例えばHMD)、上述したホログラムデバイス、またはそれらの組み合わせによって提供することができる。複数のタイプのディスプレイ上で(例えば、物理車両101に収容されたディスプレイや車両操作者114によって装着されたHMD上で)仮想車両をシミュレートすることの利点は、車両操作者114がHMDを外したときに拡張現実体験を維持できることである。加えて、物理車両101内の複数の参加者は、各参加者がHMDを装着しているかどうかにかかわらず、拡張現実体験を共有することができる。
いくつかの態様では、車両操作者114のために複数の仮想車両がシミュレートされる。例えば、複数の仮想車両が操作者の前方および/または後方および/または横に表示される。例えば、1台または複数の仮想車両がフロントガラス120(ディスプレイの例)に表示され、1台または複数の仮想車両がバックミラー122(ディスプレイの例)に表示され得る。加えて、1台または複数の仮想車両がHMDにも表示され得る。同様に、物理車両101は、互いに近接した複数の物理車両のうちの1台であり得る。いくつかの態様では、車両操作者114のためにシミュレートされている仮想車両は、車両操作者114により走行しているのと異なる物理的な場所にある物理的なレース場で走行している別の物理車両であり得る。例えば、ある運転者はモナコのレース場で車両を操作することができ、別の運転者はロサンゼルスのレプリカのレース場で車両を操作することができる。本明細書の態様では、モナコとロサンゼルスの運転者の一方または両方に相手の運転者を表す仮想車両を提示することを企図している。
シミュレーションシステム140に戻って、上述したように、シミュレーションシステム140はレーシングシミュレーション141を含むことができ、レーシングシミュレーション141は、仮想レース場での物理車両101と1台または複数の仮想車両との間の競争をシミュレートする。いくつかの態様では、仮想レース場は、車両操作者114が物理車両101を操作している、例えば運転している物理的なレース場に対応するようにシミュレーションシステム140によって生成および格納される。いくつかの態様では、仮想レース場は、360度レーザスキャンビデオ録画または同様の技術を使用して生成される。したがって、車両操作者114が物理的なレース場でリアルタイムで物理車両101を制御する際に、レーシングシミュレーション141内の物理車両101の仮想軌跡が、物理的なレース場の物理車両101の物理的な現実世界の軌跡を模倣するようにシミュレーションシステム140によってシミュレートされる。
いくつかの態様では、シミュレーションシステム140がレーシングシミュレーション141において仮想レース場の物理車両101をシミュレートすることを可能にするために、物理車両101は遠隔計測システム104を含む。遠隔計測システム104は、物理車両101と関連付けられたデータを検出するセンサ108を含む。センサ108は、物理車両101の運動学情報を検出する1つまたは複数のデバイスを含む。いくつかの態様では、運動学情報は、運動の1つもしくは複数のベクトル、運動の1つもしくは複数のスカラー、向き、全地球測位システム(GPS)位置、またはそれらの組み合わせを含む。例えば、運動のベクトルは、速度、位置ベクトル、または加速度を含み得る。例えば、運動のスカラーは速度を含み得る。したがって、センサ108は、加速度を検出する1つもしくは複数の加速度計、GPS位置を検出する1つもしくは複数のGPS(もしくはGLONASSその他のナビゲーションシステム)受信機、1つもしくは複数の運動センサ、1つもしくは複数の向きセンサ、またはそれらの組み合わせを含み得る。いくつかの態様では、センサ108によって収集されたリアルタイムデータはシミュレーションシステム140に送信される。他のリアルタイムデータには、車、熱、タイヤ温度などの測定値が含まれ得る。いくつかの態様では、運動学情報および車の測定値のうちの1つまたは複数がシミュレーション予測可能性に使用される。例えば、いくつかの態様は、これら他の測定値と速度および加速度情報とに基づいて場面を事前構築する予測シミュレーションエンジンを含み得る。
いくつかの態様では、物理車両101は、シミュレーションシステム140に、データ、例えば、遠隔計測システム104によって生成された遠隔計測情報を送信するための無線周波数(RF)回路105を含む。RF回路105は、電磁信号とも呼ばれるRF信号を受信および送信する。RF回路105は、電気信号を電磁信号に/電磁信号を電気信号に変換し、電磁信号を介して通信ネットワークおよび他の通信装置と通信する。RF回路105は、アンテナシステム、RF送受信機、1つまたは複数の増幅器、チューナ、1つまたは複数の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(SIM)カード、メモリなどを含むがこれに限定されない、これらの機能を行うための周知の回路を含み得る。RF回路105は、無線通信によって、ワールドワイドウェブ(WWW)とも呼ばれるインターネット、イントラネットおよび/または、セルラー電話網、無線ローカル・エリア・ネットワーク(LAN)および/もしくはメトロポリタン・エリア・ネットワーク(MAN)などの無線ネットワークといったネットワーク、ならびに他の装置と通信し得る。無線通信は、グローバル・システム・フォー・モバイル・コミュニケーションズ(Global System for Mobile Communications(GSM))、エンハンストデータGSM環境(Enhanced Data GSM Environment(EDGE))、高速ダウンリンク・パケット・アクセス(high-speed downlink packet access(HSDPA))、高速アップリンク・パケット・アクセス(high-speed uplink packet access(HSUPA))、エボリューション、データオンリー(Evolution, Data-Only(EV-DO))、HSPA、HSPA+、Dual-Cell HSPA(DC-HSPDA)、ロング・ターム・エボリューション(LTE)、近距離無線通信(NFC)、広帯域符号分割多元接続(W-CDMA)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、ブルートゥース、ブルートゥース・ロー・エナジー(BTLE)、ワイヤレスフィデリティ(Wi-Fi)(例えば、IEEE 802.11a、IEEE 802.11b、IEEE 802.11gおよび/もしくはIEEE 802.11n)、Wi-MAX、電子メール用プロトコル(例えば、インターネット・メッセージ・アクセス・プロトコル(IMAP)および/もしくはポスト・オフィス・プロトコル(POP))、インスタントメッセージング(例えば、XMPP(extensible messaging and presence protocol)、SIMPLE(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions)、IMPS(Instant Messaging and Presence Service))、および/またはショート・メッセージ・サービス(SMS)、または任意の他の適切な通信プロトコルを含むがこれに限定されない複数の通信規格、プロトコルおよび技術のうちのいずれかを任意で使用する。
いくつかの態様では、シミュレーションシステム140は、物理車両101からデータを受信するための、RF回路105と同様のRF回路を含む。物理車両101から受信された遠隔計測情報に基づき、シミュレーションシステム140は、レーシングシミュレーション141内のアバターとして物理車両101をシミュレートする。いくつかの態様では、図5を参照してさらに説明するように、シミュレーションシステム140は、レーシングシミュレーション内の1台または複数の仮想車両を制御およびシミュレートするための入力を受け取る。いくつかの態様では、シミュレーションシステム140は、受け取った入力とレーシングシミュレーション141内の仮想レース場の仮想車両の現在の状態とに基づいて仮想車両の運動学情報を計算する。例えば、現在の状態は、仮想レース場でシミュレートされている仮想車両の座標、位置、速さ、速度、加速度、向きなどを指し得る。ライブ参加者すなわち車両操作者114と、車両操作者114の仮想車両を操作している仮想参加者との間の仮想レースを複製するために、シミュレーションシステム140は、仮想車両の運動学情報をRF回路を介して物理車両101内の構成要素(例えば、表示システム102やシミュレーション構成要素106)に送信する。本開示に別記されるように、シミュレートされているコンテキストのタイプに応じて、物理車両101に示されている表示システム102その他の構成要素は、他のタイプのデバイスに収容されてもよいことを理解されたい。
いくつかの態様では、レーシングシミュレーション141でシミュレートされた相互作用を物理車両101を運転している車両操作者114のために再現できる双方向インタラクティブレーシングを可能にするために、シミュレーションシステム140は、レーシングシミュレーション141内の物理車両101のアバターが、レーシングシミュレーション141内でシミュレートされている、仮想車両などの障害物と接触しているかどうかを判断する。接触を判断すると、シミュレーションシステム140は、接触と関連付けられる力情報、オーディオ情報、またはそれらの組み合わせを計算する。いくつかの態様では、シミュレーションシステム140は、力情報またはオーディオ情報を物理車両101に送信し、そこでは力情報またはオーディオ情報は、車両操作者114の仮想現実レース体験を強化するために物理車両101において再現される。
物理車両101に戻って、物理車両101は、RF回路105を介してシミュレーションシステム140から受信された、仮想車両の運動学情報などの情報に基づいて仮想車両の表現を生成するための表示システム102を含む。いくつかの態様では、表示システム102は、シミュレーションシステム140から受信された仮想車両の運動学情報に基づいて仮想車両の仮想表現を生成するシミュレーション構成要素106に結合されている。いくつかの態様では、シミュレーション構成要素106は、運動学情報と車両操作者114の眼117の眼球測定値(例えば空間位置)とに基づいて仮想表現を生成する。仮想表現、すなわち、グラフィックで生成された車両の臨場感をさらに高めるために、シミュレーション構成要素106は、いくつかの態様によれば、運動学情報と、車両操作者114の眼117の空間位置と、眼117の注視方向と、眼117の焦点とに基づいて仮想表現を生成する。本明細書で説明するように、眼球測定値は、眼117の空間位置、眼117の注視方向、眼117の焦点、または左眼、右眼、または左右両眼のそれらの組み合わせを含み得る。
いくつかの態様では、物理車両101は、車両操作者114の眼117の眼球測定値(例えば、眼117の空間位置、注視方向、焦点、またはそれらの組み合わせ)を検出するために、眼球位置検出器110、例えば、カメラや光(例えば赤外線)反射検出器を含む。いくつかの態様では、眼球位置検出器110は、眼117の測定値を推定するために車両操作者114の頭部の空間位置を検出する。例えば、眼球位置検出器110は、眼117の測定値を推定するためにヘルメット116またはヘルメット116のバイザを検出し得る。眼球測定値および/または頭部位置を検出することは、車両操作者114によって装着されたヘルメット116の位置と向きの少なくとも一方を検出することも含み得る。
眼の位置は、(例えば、路側センサなどの固定センサから)直接、または車内のセンサと車の位置との組み合わせに基づいて計算され得る。
いくつかの態様では、眼球位置検出器110は、車両操作者114の顔のリアルタイム・ビデオ・シーケンスを録画するか、または一連の画像を取り込むことができるカメラを含む。次いで眼球位置検出器110は、リアルタイム・ビデオ・シーケンスまたは一連の画像を解析することによって眼117の測定値を追跡および検出し得る。いくつかの態様では、眼球位置検出器110は、眼の追跡、検出、および測定を補助するために、車両操作者114の頭部の運動または向きを追跡するための1つまたは複数のアルゴリズムを実装する。図100に示されるように、眼球位置検出器110は、バックミラー122に結合され得る。しかしながら、眼球位置検出器110が物理車両に近接して実装される限り、眼球位置検出器110を他の場所に、例えば、ダッシュボード上や、物理車両101の内部または外部に配置することができる。いくつかの態様では、検出の精度を高めるために、眼球位置検出器110を、ヘルメット116内や、車両操作者114によって眼117を覆うように装着される、他のヘッドマウントディスプレイ(HMD)、例えばバイザやゴーグル内に実装することができる。
いくつかの態様では、HMD内に実装された眼球位置検出器110は、1つまたは複数の焦点調節可能レンズ、1つまたは複数の機械作動式ディスプレイをさらに含み、眼はユーザが仮想場面内のどこを見るかに基づいて絶えず監視されるので、VR世界における一般的な屈折異常を実際に補正する移動視線追跡技術による再現場面を描くことができる。上記の技術の利点は、車両操作者114が、眼球位置検出器110を埋め込んだHMDを装着している間、コンタクトレンズや矯正眼鏡を装着しなくてもよくなることである。
いくつかの態様では、シミュレーション構成要素106は、仮想車両の3Dモデルに基づいて仮想車両の仮想表現を生成する。例えば、仮想表現は、眼117から見える3Dモデルの眺めを表し得る。いくつかの態様では、その測定値が眼球位置検出器110によって検出または推定される眼117から見た仮想表現を生成することによって、車両操作者114にとって仮想車両に対する競走の迫真性が増すように、仮想表現を正確な寸法および縮尺でシミュレートすることができる。いくつかの態様では、3Dモデルは、シミュレーション構成要素106上に事前格納されるかまたはシミュレーションシステム140から受け取られ得る。
いくつかの態様では、表示システム102内のレンダリング構成要素107が、物理車両101の1つまたは複数のディスプレイ上に生成された仮想表現を表示する。上述したように、仮想表現は、いくつかの態様ではシミュレーション構成要素106によって、いくつかの態様ではシミュレーションシステム140によって生成され得る。1つまたは複数のディスプレイには、物理車両101のウインドウ、例えばフロントガラス120やサイドウインドウ126A~B、または物理車両101のミラー、例えばバックミラー122やサイドミラー128A~Bが含まれ得る。いくつかの態様では、1つまたは複数のディスプレイはヘルメット116内の構成要素であり得る。ヘルメット116は、車両操作者114によって装着されたヘルメット、バイザ、眼鏡、またはゴーグルシステムを含み得る。
いくつかの態様では、1つまたは複数のディスプレイ(例えばフロントガラス120)は、光を透明有機発光ダイオード(T-OLED)に通して車両操作者114に視野を表示するT-OLEDディスプレイであり得る。これらの態様では、レンダリング構成要素107は仮想車両の仮想表現を、1つまたは複数のディスプレイ上の画素の層としてレンダリングする。T-OLEDディスプレイは、車両操作者114が自分の視野内でシミュレートされた仮想車両と物理的なシミュレートされない世界の両方を見ることを可能にし得る。
他の態様では、1つまたは複数のディスプレイ(例えばフロントガラス120)は、非透明液晶ディスプレイ(LCD)であり得る。これらの態様では、T-OLEDディスプレイとは異なり、LCDは、光を通して車両操作者114が自分の視野において物理的なシミュレートされない世界を見られるようにすることができない。代わりに、これらの態様では、LCDに対して外側を向いた、物理車両101に結合されたカメラ(例えばピンホールカメラ)が、LCDが透明(例えば、T-OLEDディスプレイ)であった場合に、車両操作者114の眼117から見えるはずの、物理的なシミュレートされない世界の、物理世界の視野を表すライブ・ビデオ・フィードを録画することができる。次いで、レンダリング構成要素107は、車両操作者114に視野を表示するためにLCDの内側でライブ・ビデオ・フィードを表示し得る。さらに、レンダリング構成要素107は、車両操作者114がシミュレートされた仮想車両を見ることができるようにするために、LCDによって表示されているライブ・ビデオ・フィード上に生成された仮想表現をオーバーレイし得る。
いくつかの態様では、非透明LCDは、それ自体で画像またはライブ・ビデオ・フィードを3Dで表示することができない。したがって、ライブ・ビデオ・フィードを録画するために使用されるカメラは、物理世界をカラーで3Dで録画する立体カメラシステムの一部である1つまたは複数のカメラを含み得る。いくつかの態様では、表示されているライブ・ビデオ・フィードの3D効果をさらに高めるために、非透明LCDは、車両操作者114が自分の頭部を、その結果自分の眼117を動かす際に、車両操作者114に異なる角度からの表示された3Dビデオフィードが見えるようにするマルチビューオートステレオスコピック3Dディスプレイ、すなわち、オートマルチスコピックディスプレイである。
高速レースイベントでは、車両操作者114の頭部はごくわずかしか動かない。したがって、いくつかの態様では、物理車両101で仮想車両をシミュレートする際のいくつかの構成要素および複雑さを低減させるために、車両操作者114の頭部または眼117の位置を追跡するための眼球位置検出器110が物理車両101から省かれ得る。いくつかの態様では、車両操作者114が自分の頭部を自由に動かせるようにするために、車両操作者114の頭部または眼117の位置を追跡する眼球位置検出器110が実装される。ディスプレイが非透明ディスプレイである態様では、1つまたは複数のカメラ、例えば、立体カメラシステム内のカメラの角度を、車両操作者114の頭部または眼117の追跡される位置に対応するように調整することができる。
いくつかの態様では、レーシングシミュレーション141において仮想レース場でシミュレートされた相互作用を、物理車両101を運転している車両操作者114のために複製できる、双方向インタラクティブレーシングを可能にするために、シミュレーション構成要素106は、シミュレーションシステム140から受け取った仮想車両の運動学情報に基づいて仮想車両の物理車両101との近接性を判断する。いくつかの態様では、判断された近接性に基づいて仮想車両と物理車両101との間の接触を判断すると、シミュレーションシステム140は、接触と関連付けられる力情報、オーディオ情報、またはそれらの組み合わせを計算する。次いで、シミュレーション構成要素106は、力情報を力コントローラ112に、かつ/またはオーディオ情報をスピーカ132に送り得る。いくつかの態様では、スピーカ132によってオーディオ情報を再生することにより、エンジン、ブレーキ、タイヤ、および物理車両101とシミュレーションシステム140によってシミュレートされている仮想車両との間の衝突の音が模倣され得る。いくつかの態様では、オーディオ情報は、シミュレートされたレース場での物理車両101と仮想車両との間で計算された距離に基づいて計算された音量を含むことができ、車両操作者114の頭部の方位と耳の向きとを考慮に入れることができる。いくつかの態様では、スピーカ132は、物理車両101に装備されたオーディオデバイス(例えば、スピーカやスピーカシステム)または車両操作者114によって装着されたオーディオデバイス(例えばヘッドフォンやイヤホン)を含み得る。スピーカ132が車両操作者114によって装着される態様では、スピーカ132は、ヘルメット116などのヘッドマウントディスプレイ内に実装され得る。
物理車両内にいない観察者(例えば、レース場や在宅で観戦しているオーディエンスメンバ)のために再現される音については、スピーカを、走路の周りに配置するか、ヘッドギアまたはオーディエンスメンバまたはカメラの視点を介して配置することができる。仮想世界では、マイクロフォン位置を、カメラ位置と全く同様に設定することができる。同様に、音発生位置も設定することができる。いくつかの態様では、音発生位置の仮想車がマイクロフォンから遠ざかると、その車が発する雑音も少なくなる。
いくつかの態様では、力コントローラ112は、シミュレーションシステム140によってシミュレートされた仮想レース場での物理車両101と仮想車両との間でシミュレートされた接触を模倣するために力情報に基づいて1つまたは複数のアクチュエータを制御する。例えば、力コントローラ112は、車両操作者114が、衝突時に、例えば、頭部がぶつかった感覚をどのように感じることになるかを模倣するように、シートおよびヘッドブレース130に組み込まれた1つまたは複数の力アクチュエータを制御し得る。同様に、いくつかの態様では、力コントローラ112は、現実の物理車両に接触する車両操作者114の感覚を模倣するように、車両操作者114によって装着された触覚スーツ118と有線または無線通信を介して通信し得る。力コントローラ112はまた、仮想オブジェクトと接触する物理車両101を模倣するように、物理車両101に組み込まれた1つまたは複数の力アクチュエータを制御し得る。いくつかの態様では、力コントローラ112は、物理車両101の実際の機能に影響を及ぼす1つまたは複数の機械システムを制御する。例えば、力コントローラ112は、仮想車両などの仮想オブジェクトが実際に物理車両101と同じレース場にある物理オブジェクトであった場合に物理車両101と仮想車両または仮想オブジェクトとの間の接触の影響を模倣するように、他の機械システムおよび/または電気システムの中でも特に、物理車両101の1つもしくは複数のブレーキ134、ステアリングコラム、または電力を制御し得る。上述したように、いくつかの態様では、シミュレートされている仮想オブジェクトは、異なる物理的な場所のレース場にある現実世界の物理車両であり得る。したがって、本開示はまた、異なるレース場で走行している2人の車両操作者が、互いに相手の物理車両を仮想車両としてシミュレートすることができるので、あたかも同じレース場で競争しているかのように感じることも可能にする。
電気自動車を含むいくつかの態様では、影響を模倣することは、アクセル(axel)に対する、場合によっては4つの電気モータ(車輪ごとに1つ)を備える車の各特定の車輪に対する発電の制御を含み得る。これは有利には、衝突が、車輪のモータにおける小さいスパイクダウンによってシミュレートされることを可能にし得る。これを衝撃その他の要因の持続時間に基づいて制御することができる。
いくつかの態様では、図5を参照して説明するように、上述したシミュレーション構成要素106の機能の一部または全部が、例えば、シミュレーションシステム140によって遠隔で行われ得る。これらの態様では、表示システム102は、シミュレーションシステム140によって生成された仮想表現を受け取る。関連して、これらの態様では、力コントローラ112とスピーカ132とは、シミュレーションシステム140によって計算される力情報とオーディオ情報とをそれぞれ受け取り得る。
図2A~Cは、それぞれ、いくつかの態様による、複数の仮想車両が1つまたは複数のディスプレイにどのように表示されるかを示す図である。説明を容易にするために、図2A~Cを、図1の要素、例えば表示システム102や車両操作者114を参照して説明する。いくつかの態様によれば、仮想車両を、拡張現実態様またはフルレンダリング態様に従って表示することができ、その各々について以下でさらに説明する。
拡張現実態様では、車両操作者114に図2Bのそれぞれのビュー202Bおよび204Bに示されている仮想車両212および214の部分が見えるようにするために、図2Aのビュー202Aおよび204Aを、図2Cのそれぞれのディスプレイ220および222上に出力されている仮想車両228および230で拡張することができる。いくつかの態様では、ディスプレイ220とディスプレイ222とは、図1を参照して説明したフロントガラス120とバックミラー122とに対応し得る。
図2Aに示されるように、ビュー202Aは、ディスプレイ220および222を介して、物理的なレース場での物理車両206Aが見えている車両操作者114の視野を示している。同様に、ビュー204Aは、ディスプレイ222を介して車両操作者114に見える物理的なレース場には現実の車両がないので、空の空間を示している。
いくつかの態様では、ディスプレイ220および222に表示するための1台または複数の仮想車両をシミュレートするために、表示システム102は、ディスプレイ220および222上の1つまたは複数の位置224および226をそれぞれ識別する。いくつかの態様では、位置224は、車両操作者114の視野内の物理位置208Aに対応し得る。例えば、位置224とディスプレイ220とは、物理的なレース場の部分または(ビュー202Aに位置208Aとして示されている)車両操作者114に見える、シミュレーションシステム140のレーシングシミュレーション141内の仮想レース場においてシミュレートされた建物やランドマークの部分に対応し得る。同様に、位置26も、物理的なレース場の異なる部分または(ビュー202Aに位置210Aとして示されている)車両操作者114に見える建物やランドマークの部分に対応し得る。
いくつかの態様では、図1を参照して説明したように、シミュレーション構成要素106は、第1の仮想車両228を第1の表現として、第2の仮想車両230を第2の表現として生成し得る。いくつかの態様では、シミュレーション構成要素106は、第1の仮想車両228を、位置224と、(眼球位置検出器110に関連して説明した)眼117の測定値と、第1の仮想の競争相手車両の運動学とに基づいて生成し得る。ディスプレイ220に示されるように、レンダリング構成要素107は第1の仮想車両228を位置224と揃うように表示する。同様に、レンダリング構成要素107は、第2の仮想車両230をディスプレイ222上の位置226と揃うように表示し得る。
その結果、車両操作者114には、ビュー202Bおよび204Bに示されるように物理オブジェクトと仮想オブジェクトとが見えることになる。例えば、ビュー202Aと同様に、ビュー202Bは、車両操作者114に物理車両206Bが引き続き見えていることを示している。しかしながら、ビュー202Bは、車両操作者114に、ディスプレイ220上に仮想車両228として表示された仮想車両212などの仮想オブジェクトが見えていることを示している。同様に、ビュー204Bも、車両操作者114に、ディスプレイ222上に仮想車両230として表示された仮想車両214などの仮想オブジェクトが見えていることを示している。さらなる態様については図10を参照して説明する。
フルレンダリング態様では、車両操作者114に仮想車両が物理車両と一緒に見えるようにするために、物理オブジェクトと仮想オブジェクトの両方を表示用にレンダリングするように、ディスプレイ220および222を構成することができる。この態様では、レンダリング構成要素107は、図2Aのビュー202Aおよび204Aに示されるように、道路や物理車両206Aなどの物理オブジェクトをレンダリングおよび表示することができる。拡張現実態様に関連して上述したように、シミュレーション構成要素106は、表示用に第1の仮想車両228を第1の表現として、第2の仮想車両230を第2の表現として生成し得る。フルレンダリング態様では、車両操作者114に見えるビュー202Bおよび204Bに示されるように、仮想車両228および230を、それぞれ、物理オブジェクトと一緒に表示するようにディスプレイ220および222を構成することができる。例えば、ビュー202Bは、道路、物理車両206B、および仮想車両212がレンダリングおよび表示されていることを示している。同様に、ビュー204Bは、仮想車両214がレンダリングおよび表示されていることを示している。いくつかの態様では、フルレンダリング態様では、(ディスプレイ220および/または222に対して)外向きのカメラが、周囲環境のライブ・ビデオ・フィードを取り込むことができる。これらの態様では、ディスプレイ220および222を、ライブ・ビデオ・フィードの各フレームを表示することによって物理オブジェクトを表示するように構成することができる。さらに、ディスプレイ220および222を、表示された各フレームに仮想車両をオーバーレイすることによって仮想オブジェクトを表示するように構成することができる。
図3A~Dは、いくつかの態様による、仮想車両の可視部分322と仮想車両の可視部分324とがディスプレイ320にどのように表示されるかを示す図である。説明を容易にするために、図300を、図1の要素(例えば、表示システム102、車両操作者114、シミュレーションシステム140)を参照して説明する。図3Aに、従来のディスプレイを介して車両操作者114に見える例示的な現実世界のビュー302Aを示す。図3Bに、仮想車両343および344を含む現実世界のビュー302Aの例示的な仮想レンダリング332を示す。図3Cに、仮想車両343および344の可視部分322および324をそれぞれ表示するためのディスプレイ320の例を示す。ディスプレイ320は、物理車両(例えば物理車両101)内に座って運転している操作者(例えば車両操作者114)によって装着されたバイザ、ヘルメット(例えばヘルメット116)、または他のヘッドギア内に実装されたディスプレイに対応し得る。図3Dに、ディスプレイ320を介して車両操作者114に見える例示的な拡張ビュー302Bを示す。
図3Aに示されるように、現実世界のビュー302Aは、仮想車両が表示されなかった場合の、すなわち従来のディスプレイを介した、車両操作者114の視野を示している。現実世界のビュー302Aに示されるように、車両操作者114には、ディスプレイ320を介して、物理的なレース場の物理車両310Aなどの他の物理車両、および物理車両101内の物理オブジェクトが見えている。例えば、そのような物理オブジェクトには、バックミラー304A、車両フレーム306A、フロントガラスワイパ308A、ダッシュボード312Aなどが含まれ得る。いくつかの態様では、物理オブジェクトには、車両操作者114の手や腕が含まれ得る。加えて、現実世界のビュー302Aに示されるように車両操作者114には物理車両310Aの影も見える場合がある。いくつかの態様では、ディスプレイ320が透明または半透明のディスプレイであり得るので、車両操作者114にはディスプレイ320を介して物理車両および物理オブジェクトが見える。
図1に関連して上述したように、物理車両101の運動学情報(例えば位置情報)と操作者の視点の位置とが、仮想車両313および314の可視部分を提供するように構成されたシミュレーションシステム140に送信され得る。いくつかの態様では、運動学情報と操作者の視点の位置とに基づき、シミュレーションシステム140は、操作者114に見える物理的なレース場に対応する仮想レース場で互いに競走している仮想車両と物理車両101の表現とを含む仮想世界を計算することができる。いくつかの態様では、シミュレーションシステム140は、仮想世界内の様々な物理オブジェクトの表現を計算することができる。
いくつかの態様では、シミュレーションシステム140が車両操作者114の手または腕の表現を追跡および計算することができるように、車両操作者114は、シミュレーションシステム140に位置関連測定値を送信する1つまたは複数のセンサ(加速度計、位置センサなど)を組み込んだグローブを装着することができる。センサ測定値、例えば位置情報や加速度情報に基づき、シミュレーションシステム140は、仮想世界における腕または手(図示されない)の対応する表現を計算することができる。
いくつかの態様では、シミュレーションシステム140が車両操作者114の手または腕の表現を追跡および計算することができるように、車両操作者114によって操作されている物理車両に1つまたは複数のカメラを搭載することができる。1つまたは複数のカメラは、車両操作者114によって装着されたグローブまたはトラックスーツに組み込まれるかまたは表示されたマーカに基づいて腕および手の位置を追跡し得る。例えば、マーカは、特定の色、パターン、材料などを含み得る。これらの態様では、1つまたは複数のカメラは、取り込まれた情報を、仮想世界における腕または手(図示されない)の対応する表現を計算するシミュレーションシステム140に送信し得る。
図3Bに示されるように、シミュレーションシステム140は、仮想世界内で、現実世界のビュー302Aの仮想レンダリング332を計算し得る。仮想レンダリング332では、シミュレーションシステム140は、物理車両310Aの表現340と仮想車両343および344とを計算することができる。加えて、シミュレーションシステム140は、対応する物理オブジェクト、すなわち、バックミラー304A、車両フレーム306A、フロントガラスワイパ308A、およびダッシュボード312Aの表現334、336、338、および342を計算することもできる。仮想レンダリング332に示されるように、シミュレーションシステム140は、仮想車両343および344の視野を遮らない物理オブジェクトの表現の計算を除外することができる。例えば、現実世界のビュー302Aで車両操作者114に見える速度計およびハンドルは、仮想レンダリング332においてシミュレーションシステム140によって計算されない場合もある。いくつかの態様では、仮想レンダリング332に示されるように、シミュレーションシステム140は、物理車両340と仮想車両343および344の影を計算することができる。
いくつかの態様では、シミュレーションシステム140は、車両操作者114が現実世界で仮想運転者と競争できるようにするために、図3Cのディスプレイ320に表示すべき仮想車両の部分322および324を計算することができる。いくつかの態様では、車両操作者114の視点の位置からの仮想車両の可視部分は、物理車両101の視点の位置に対応する仮想世界内の仮想位置から仮想世界内のオブジェクトによって遮られない仮想車両の部分である。いくつかの態様では、シミュレーションシステムは、車両操作者114の視点の位置を仮想世界内の仮想座標に変換することができる。例えば、物理車両の操作者の視点から見て、仮想世界内の対応する仮想位置は、仮想世界内の物理車両101の表現の内側になるはずである。仮想世界内の物理的な操作者114の視点の対応する仮想位置から見て、仮想車両のビューは、シミュレートされた物理車両(例えば、車両フレーム306Aやフロントガラスワイパ308Aの表現)、他のシミュレートされた物理車両(例えば、物理車両310Aの表現)、影、シミュレートされた木その他の静止オブジェクト、シミュレートされたレース場(例えば、仮想車両が窪みの中にあり、コース自体によって部分的に遮られる場合など)によって遮られ得る。仮想車両の可視部分はその場合、仮想車両の遮られないビューである。さらなる態様については図6および9を参照して説明する。
例えば、図3Bの仮想レンダリング332に示されるように、仮想車両343のシミュレートされたビューは、仮想車両343の各部分が車両フレーム306Aの表現336によって遮られることを示している。同様に、仮想レンダリング332では、仮想車両343のシミュレートされたビューは、仮想車両344の各部分が、物理車両310Aの表現340とフロントガラスワイパ308Aの表現338とによって遮られることを示している。
いくつかの態様では、シミュレーションシステム140は、仮想世界において車のフレームの表現336によって隠されていない仮想レンダリング332内の仮想車両343の部分になる仮想車両の可視部分322を計算し得る。同様に、シミュレーションシステム140は、物理車両310Aの表現340とフロントガラスワイパ308Aの表現338とによってそれぞれ隠されていない仮想レンダリング332内の仮想車両344の部分になる仮想車両の可視部分324も計算し得る。いくつかの態様では、これらの計算される可視部分322および324に関連した情報を、物理車両101内の構成要素に送信し、ディスプレイ320によって表示することができる。
いくつかの態様では、図3Cに示されるように、表示システム102などの物理車両101内の構成要素は、ディスプレイ320上に、仮想車両343および344の可視部分322および324を、それぞれ、表示することができる。いくつかの態様では、可視部分322および324は、図3Bの仮想レンダリング332で計算され、示される仮想車両343および344の影を含むことができる。いくつかの態様では、現実世界のビュー302Aをディスプレイ320に表示されている可視部分322および324で拡張することによって、表示システム102は、車両操作者114に、現実世界の物理車両と仮想車両の両方が見えるようにする。
いくつかの態様では、図3Dの拡張ビュー302Bは、ディスプレイ320が仮想車両の可視部分322および324を(例えば、表示システム102によってレンダリングされたように)表示した時点で車両操作者114の視野を示す。例えば、ビュー302Aと同様に、車両操作者114には、ディスプレイ320を介して、現実世界のレース場にある様々な物理オブジェクトが依然として見えている。例えば、拡張ビュー302Bに示されるように、車両操作者114には、バックミラー304B、車両フレーム306B、フロントガラスワイパ308B、物理車両310B、およびダッシュボード312Bが依然として見えている。加えて、車両操作者114には表示されている仮想車両313および314も見えている。いくつかの態様では、上述したように、車両操作者114に見える仮想車両313および314は、ディスプレイ320に表示されている仮想車両の可視部分322および324にそれぞれ対応する。いくつかの態様では、図2A~Cを参照して説明した技術を、図3A~Dを参照して説明した技術と組み合わせることができる。
図4A~Dは、いくつかの態様による、仮想車両の可視部分422がディスプレイ420にどのように表示されるかを示す図である。図4Aに、観客に見えるかまたはビデオカメラによって画像化され得る例示的な現実世界のビュー402Aを示す。図4Bに、仮想車両434を含む現実世界のビュー402Aの例示的な仮想レンダリング430を示す。図4Cに、仮想車両434の可視部分422を表示するためのディスプレイ420の例を示す。ディスプレイ420は、物理的なレース場に存在する見物人(例えばオーディエンスメンバ)によって装着されたバイザ、ヘルメット(例えばヘルメット116)、または他のヘッドギアに対応し得る。図4Dに、ディスプレイ420を介してオーディエンスメンバに見えるかまたはビデオカメラによって画像化され得る例示的な拡張ビュー402Bを示す。
図4Aに示されるように、現実世界のビュー402Aは、仮想車両が表示されなかった場合の、すなわち従来のディスプレイを介した、見物人の視野を示している。現実世界のビュー402Aに示されるように、見物人には、ディスプレイ420を介して、現実世界における他の見物人404Aと様々な物理オブジェクトとが見える。例えば、そのような物理オブジェクトには、フェンス406A、場内放送(PA)ホーンスピーカ408A、ならびに物理車両410Aおよび412A、ならびにそれぞれの物理車両410Aおよび412Aの影411Aおよび413Aが含まれ得る。いくつかの態様では、ディスプレイ420が透明または半透明のディスプレイであり得るので、見物人にはディスプレイ420を介して物理車両および物理オブジェクトが見える。
いくつかの態様では、フェンスや壁のような固定オブジェクトに加えて、レース場の見物人の視野を遮り得る上述した物理オブジェクトには、その位置が経時的に変化し得る非静止オブジェクトを含めることができる。例えば、そのような非静止オブジェクトには、オーディエンスメンバが立ったときのオーディエンスメンバの頭部やオーディエンスメンバの身体が含まれ得る。いくつかの態様では、シミュレーションシステム140が固定オブジェクトと非静止オブジェクトの両方の表現を正確に計算できるようにするために、見物人のヘッドセットは、レース場を向いた、レース場の部分を取り込むカメラを含むことができる。1つまたは複数の物理オブジェクトがレース場の見物人の視界を遮っているかどうかを判断するために、レース場のラインおよび境界またはレース場に配置された他のマーカをカメラによって検出することができる。例えば、カメラは、レース場の縁、ライン、またはマーカの欠落部分または切れ目を検出することができる。いくつかの態様では、切れ目または欠落部分に関する情報をシミュレーションシステム140に送信することができる。いくつかの態様では、シミュレーションシステム140は、仮想車両のどの部分が物理オブジェクトによって遮られるかを、1つまたは複数の切れ目のある仮想車両のオーバーラップ部分を判断することによって判断することができる。切れ目は見物人の視界が物理オブジェクトによって妨げられていることを示すので、シミュレーションシステム140は、オーバーラップ部分の画素のアルファ値を(RGBAの)「ゼロパーセント」に設定してこれらのオーバーラップ部分を透明にすることができる。
いくつかの態様では、見物人の視点に関連した情報が、見物人に仮想車両の可視部分422を提供するように構成されたシミュレーションシステム(例えば、シミュレーションシステム140や図5のシミュレーションシステム540)に送信され得る。例えば、そのような情報は、見物人の視点の位置を含み得る。図6を参照して説明するように、シミュレーションシステムは、仮想レース場で互いに競走している仮想車両と物理車両の表現とを含む仮想世界を計算することができる。いくつかの態様では、シミュレーションシステム140は、仮想世界内の様々な物理オブジェクト(例えばPAスピーカ408A)の表現を計算することができる。
図4Bに示されるように、シミュレーションシステムは、仮想世界内で、現実世界のビュー402Aの仮想レンダリング430を計算し得る。仮想レンダリング430において、シミュレーションシステムは、仮想車両434と、物理車両410Aおよび412Aの表現440および432とを計算することができる。いくつかの態様では、シミュレーションシステムによって計算される仮想車両434は、計算された影435を含むことができる。同様に、物理車両410Aおよび412Aの表現440および432を、それぞれの影441および433を含むように計算することもできる。いくつかの態様では、シミュレーションシステムは、仮想世界における影441および433を、現実世界のビュー402Aにおいて見物人に見えるそれぞれの影411Aおよび413Aに対応するように計算する。加えて、シミュレーションシステムは、対応する物理オブジェクト、フェンス406AとPAスピーカ408Aの表現436および438も計算することができる。仮想レンダリング430に示されるように、シミュレーションシステムは、仮想車両のビュー422を遮らない物理オブジェクトの表現の計算を除外することができる。例えば、現実世界のビュー402Aにおけるオーディエンス(例えば見物人404A)は、仮想レンダリング430においてシミュレーションシステムによって計算されない場合もある。
いくつかの態様では、シミュレーションシステムは、見物人に、物理車両410Aおよび412Aと、仮想世界でシミュレートされている仮想車両434などの仮想車両との間のレースが見えるようにするために、図4Cのディスプレイ420に表示すべき仮想車両の部分422を計算することができる。いくつかの態様では、見物人の視点の位置からの仮想車両の可視部分は、見物人の視点の位置に対応する仮想世界内の仮想位置から仮想世界内のオブジェクトによって遮られない仮想車両の部分である。いくつかの態様では、シミュレーションシステムは、見物人の視点の位置を仮想世界内の仮想座標に変換することができる。仮想世界内の見物人の視点の対応する仮想位置から見て、仮想車両のビューは、シミュレートされた物理車両(例えば、物理車両410Aおよび412Aの表現)ならびに他のシミュレートされたオブジェクト(例えばフェンス406Aおよびホーンスピーカ408A)、シミュレートされた木、シミュレートされたレース場(例えば、仮想車両が窪みの中にあり、コース自体によって部分的に遮られる場合など)によって遮られ得る。仮想車両の可視部分はその場合、仮想車両の遮られないビューである。さらなる態様については図6および9を参照して説明する。
例えば、図4Bの仮想レンダリング432に示されるように仮想車両434のシミュレートされたビューは、仮想車両434の各部分が、PAスピーカ408Aの表現438と物理車両412Aの表現432とによって遮られることを示している。
いくつかの態様では、シミュレーションシステムは、仮想レンダリング430においてPAホーンスピーカの表現438によって隠されておらず、かつ仮想世界において物理車両の表現432によって隠されていない仮想車両434の部分になる仮想車両の可視部分422を計算し得る。いくつかの態様では、計算された可視部分422に関連した情報を見物人に送信し、ディスプレイ420によって表示することができる。
いくつかの態様では、図4Cに示されるように、図5の表示システム592など、見物人によって装着された構成要素は、ディスプレイ420に仮想車両434の可視部分422を表示することができる。図4Cに示されるように、可視部分422は、車のフレームおよび詳細部分424と仮想車両434の影426とを含むことができる。いくつかの態様では、可視部分422は、仮想レンダリング430において計算された、仮想車両434に投影されている影428を含むことができる。例えば、影428は、仮想レンダリング430において計算されている物理車両412Aの表現432によって投影された影であり得る。いくつかの態様では、現実世界のビュー402Aをディスプレイ420に表示されている可視部分422で拡張することによって、表示システム(例えば表示システム592)は、見物人に、現実世界の物理車両と仮想車両の両方が見えるようする。
いくつかの態様では、図4Dの拡張ビュー402Bは、ディスプレイ420が仮想車両の可視部分422を(例えば、表示システム592によってレンダリングされたように)表示すると、見物人の視野を示す。例えば、ビュー402Aと同様に、見物人には、ディスプレイ420を介して、現実世界のレース場にある様々な物理オブジェクトが依然として見えている。例えば、拡張ビュー402Bに示されるように、見物人には、他の見物人404B、フェンス406B、場内放送(PA)ホーンスピーカ408B、および物理車両410Bおよび412B、ならびにそれぞれの影411Bおよび413Bが依然として見えている。加えて、見物人には、仮想車両414および表示されている仮想車両414の影415も見えている。いくつかの態様では、上述したように、見物人に見える仮想車両414は、ディスプレイ420に表示されている仮想車両の可視部分422に対応し得る。拡張ビュー402Bの例では、見物人に見える仮想車両414は、PAホーンスピーカ408Bと物理車両412Bとによって遮られる。いくつかの態様では、表示されている仮想車両414を、現実世界のビュー402Aにおいて見物人に見えるように、影413Aの部分にオーバーラップさせることができる。その結果、拡張ビュー402Bで影413Bによって示されるように、影413Aの部分は、仮想車両の可視部分422によって隠されることになり得る。いくつかの態様では、仮想車両の可視部分422は、物理車両412Aの影428を含むことができる。これらの態様では、拡張ビュー402Bに示されるように、見物人は、仮想車両414に投影されている影416を見ることができる。
いくつかの態様では、拡張ビュー402Bを、図2A~Cを参照して説明したフルレンダリング技術に基づいて非透明ディスプレイを介して見物人に提供することができる。これらの態様では、見物人のヘッドセットに結合されたカメラが、現実世界のビュー402Aで見える見物人の視野の1つまたは複数のビデオフレームを取り込むことができる。シミュレーションシステムは仮想レンダリング430内の仮想車両434を同様に計算することができる。しかしながら、これらの態様では、ディスプレイ420に仮想車両の可視部分422のみを表示する代わりに、見物人のヘッドセットに実装されたディスプレイを、仮想車両の可視部分422がオーバーレイされた状態で1つまたは複数の取り込まれたビデオフレームを出力するように構成することができる。いくつかの態様では、物理オブジェクト(例えば、フェンス、はり、インフラストラクチャなど)がレース場の見物人の視界を妨げる場合もある。拡張ビュー402Bはフルレンダリングビューであり得るので、ディスプレイは、大きい物理オブジェクトが長期間にわたってレースの見物人の視界を妨げることのないように、取り込まれたビデオフレームの上に見えている車両と(シミュレーションシステムによって計算された)物理車両の表現の両方をオーバーレイし得る。
いくつかの態様では、図5、6および9を参照してさらに説明するように、現実世界のビュー402Aは、物理的なレース場に設置されたカメラ(例えば、図5のビデオカメラ580)によって取り込まれたライブ・ビデオ・フィードに対応し得る。これらの態様では、カメラの視点に関連した情報がシミュレーションシステムに送信され得る。例えば、そのような情報には、カメラの位置、向き、傾き、または回転度のうちの1つまたは複数が含まれ得る。カメラの視点の情報に基づき、シミュレーションシステムは、図4Bを参照して説明したように、仮想車両、物理車両の表現、および物理オブジェクトの表現を含む仮想レンダリング430を含むように仮想世界を計算し得る。いくつかの態様では、仮想レンダリング430に基づき、シミュレーションシステムは、カメラの視点の位置で見えるはずの仮想車両の可視部分422を計算することができる。図4Cを参照して説明したように、仮想車両の可視部分422は、車のフレームおよび詳細部分424、仮想車両の影426、または仮想レンダリング430において他のオブジェクトによって投影されている影428を含み得る。いくつかの態様では、仮想車両の可視部分422は、拡張ビュー402Bに示されており、図4Dを参照して上述されたように、物理車両と仮想車両との間のレースを表示するために現実世界のビュー402Aのライブ・ビデオ・フィードにオーバーレイされ得る。
図5は、いくつかの態様による、物理車両510とシミュレートされたエンティティ530との間の仮想レースをシミュレートするためのシステム500である。いくつかの態様では、ネットワーク502が、様々な構成要素、すなわち、物理車両510と、シミュレートされたエンティティ530と、シミュレーションシステム540と、閲覧装置560と、コンテンツ配信システム570と、カメラ580と、見物人590とを通信可能に結合する。いくつかの態様では、カメラ580をコンテンツ配信システム570に結合することができる。システム500に示されるように、ネットワーク502は、様々な構成要素間のデータフローのための通路であり得る。ネットワーク502は、ローカル・エリア・ネットワーク(LAN)、広域ネットワーク(WAN)、インターネットなどの任意の組み合わせを含む有線および/または無線ネットワークであり得る。
いくつかの態様では、シミュレーションシステム540は、モデル542と、物理車両510およびシミュレートされたエンティティ530から受け取った情報とに作用して、レーシングシミュレーション550として表された、仮想レースをシミュレートするいくつかのエンジン552を含む。さらに、シミュレーションシステム540はRF回路548を含み、RF回路548は、物理車両510、見物人590、およびシミュレートされたエンティティ530とデータ(例えば、グラフィックスデータ、運動学情報、力情報、オーディオ情報など)をやり取りするための、図1を参照して説明したRF回路105と同様の構成要素を含み得る。
いくつかの態様では、モデル542は、車両モデル544とレース場モデル546とを含む。車両モデル544は、レーシングシミュレーション550の仮想環境内の生物または無生物オブジェクトの3Dモデルを含み得る。例えば、車両モデル544は、物理車両510の3Dモデル、およびシミュレートされたエンティティ530に対応する仮想車両の3Dモデルを含み得る。レース場モデル546は、物理車両510が動作している物理的なレース場の2Dまたは3Dモデルを含み得る。いくつかの態様では、2Dまたは3Dモデルは、地形、境界、またはトポロジー的特徴などに関連した情報を含み得る。レース場モデル546は、レース場および関連した特徴(例えば、地形、材料タイプ、長さなど)、観客席などを含み得る。
いくつかの態様では、レーシングシミュレーション550を生成および維持するために、エンジン552には、物理エンジン554、グラフィックスエンジン556、およびオーディオエンジン558が含まれる。物理エンジン554は、レーシングシミュレーション550内で物理法則を写実的に模倣するためのアルゴリズムを含み得る。特に、物理エンジン554は、構成要素、例えばシミュレートされた物理車両やシミュレートされた仮想車両がレーシングシミュレーション550において互いに、また仮想レース場とどのように相互作用するかを制御するアルゴリズムを含む。いくつかの態様では、別記するように、物理エンジン554は、物理車両510から受け取った運動学情報とシミュレートされたエンティティ530から受け取った入力とに基づいて、レーシングシミュレーション550を生成および維持する。図6および図9を参照してさらに説明するように、いくつかの態様によれば、運動学情報は物理車両510の位置情報を含むことができる。例えば、物理エンジン554は、車両モデル544内の対応するモデルに基づいてレーシングシミュレーション550内の物理車両510のアバターを生成でき、レーシングシミュレーション550内のアバターの位置は受け取った運動学情報に基づいて計算され得る。加えて、物理エンジン554は、シミュレートされたエンティティ530から受け取った入力に基づいてシミュレートされたエンティティ530に対応する仮想車両の運動学情報も生成し得る。生成された運動学情報と車両モデル544とを使用して、物理エンジン554は、レーシングシミュレーション550内の仮想レース場での仮想車両をシミュレートし得る。
いくつかの態様では、物理車両510がディスプレイ512上で1つまたは複数の仮想車両をシミュレートできるようするために、シミュレーションシステム540は、シミュレーション構成要素522または表示システム514に仮想車両の運動学情報を送信する。
いくつかの態様では、図1のシミュレーションシステム140を参照して説明したように、(シミュレーションシステム540内の)物理エンジン554は、レーシングシミュレーション550において物理車両と仮想車両との間でシミュレートされた相互作用に基づいて力情報をさらに計算する。いくつかの態様では、物理エンジン554は、物理車両510の力情報とシミュレートされたエンティティ530の力情報とを計算する。次いで、シミュレーションシステム540は、計算された力情報を、RF回路548を介して物理車両510、シミュレートされたエンティティ530、またはその両方に送信し得る。
いくつかの態様では、物理車両510とシミュレートされたエンティティ530とで体験されるレースの臨場感を高めるために、(シミュレーションシステム内の)オーディオエンジン558は、レーシングシミュレーション550内の音を計算するためのアルゴリズムを含む。オーディオエンジン558は、エンジン、タイヤ、爆発、ならびに車両間の衝突に関連したサウンドファイルを含み得る。いくつかの態様では、オーディオエンジン558は、レーシングシミュレーション550を生成するために物理エンジン554によって計算される車両間の距離に基づいて生成音の音量を計算する。次いで、オーディオエンジン558は、オーディオ情報を、物理車両510、シミュレートされたエンティティ530、またはその両方に送信し得る。
いくつかの態様では、グラフィックスエンジン556は、レーシングシミュレーション550のための3Dアニメーショングラフィックスを生成する。例えば、グラフィックスエンジン556は、車両モデル544と物理エンジン554からの計算とに基づいて車両(例えば、物理車両510のアバターやシミュレートされたエンティティ530に対応する仮想車両)をレンダリングするための専用ハードウェアを使用し得る。さらに、グラフィックスエンジン556は、レース場モデル546に基づいてレーシングシミュレーション550内の仮想レース場をレンダリングし得る。いくつかの態様では、グラフィックスエンジン556によって生成されたグラフィックス情報(例えば車両やレース場)を、RF回路548を介して物理車両510、シミュレートされたエンティティ530、またはその組み合わせに送信することができる。
グラフィックスエンジン556は、3Dアニメーショングラフィックスを生成するためにラスタ化やレイトレーシングなどの技術を利用し得る。いくつかの態様では、グラフィックスエンジン556は、シミュレーションシステム540の1つまたは複数のプロセッサで実行されるようにプログラムおよびコンパイルされたコンピュータ・ソフトウェア・アプリケーションを含む。他の態様では、グラフィックスエンジン556を、Direct3DやOpen GLなどのグラフィックス・アプリケーション・プログラミング・インターフェース(API)で構築することができる。
いくつかの態様では、物理車両510は、図1を参照して説明した物理車両101に対応する。物理車両510において、シミュレートされたエンティティ530に対応する仮想車両をシミュレートするために、物理車両510は、ディスプレイ512、表示システム514、遠隔計測システム520(センサ516を含み得る)、力コントローラ518、およびシミュレーション構成要素522の各構成要素のうちの1つまたは複数を含む。これらの構成要素は、図1を参照して説明した同様の名称の構成要素に対応し得る。一般に、遠隔計測システム520は、データを受信および送信する双方向遠隔計測システムとすることができる。例えば、遠隔計測システム520は、ネットワーク502を介してシミュレーションシステム540にセンサ516によって監視されたデータ、例えば、物理車両510の運動学情報を送信し得る。いくつかの態様では、データは、物理的なレース場での物理車両510の位置を含む。いくつかの態様では、センサ516によって取り込まれたデータは、図6および図9を参照してさらに説明するように、物理車両510の操作者の視点の位置を含み得る。
いくつかの態様では、遠隔計測システム520は、上述したようにシミュレーションシステム540から仮想車両の運動学情報を受信することができる。遠隔計測システム520は、受信された運動学情報を表示システム514に転送し得る。受信された運動学情報に基づき、表示システム514は、ディスプレイ512に表示するために表示システム514によって処理される仮想車両の仮想表現を生成し得る。物理車両510の操作者の視野内の仮想車両をシミュレートすることによって、システム500は、操作者が、あたかもシミュレートされた車両が操作者に物理的に近接しているかのように感じられるようにする。上述したように、仮想車両の仮想表現を生成するための処理は、遠隔で行われてもよく、例えば、シミュレーションシステム540にオフロードされ得る。これらの態様では、仮想表現をシミュレーションシステム540が生成し、表示システム514に送信することができる。表示システム514は次いで、操作者の視野内で仮想車両をシミュレートするためにディスプレイ512に仮想表現を表示し得る。
いくつかの態様では、図6および図9を参照してさらに説明するように、仮想表現の臨場感を高めるために、生成される仮想表現は、操作者の視点の位置から見える仮想車両の部分を含むことができる。いくつかの態様では、シミュレーションシステム540は可視部分を生成することができる。いくつかの態様では、物理車両510に搭載されたシミュレーション構成要素522が可視部分を生成することができる。
いくつかの態様では、物理車両510の操作者によって体験されるレースの臨場感をさらに高めるために、力コントローラ518は、物理車両510内の1つまたは複数の機械要素を制御する力情報を受け取る。いくつかの態様では、上述したように、物理エンジン554によって計算された力情報がシミュレーションシステム540から受け取られる。他の態様では、力計算は物理車両510に搭載されて行われ得る。
いくつかの態様では、見物人590は、物理車両510とシミュレートされたエンティティ530との間のレースを観戦しているオーディエンスメンバに対応し得る。見物人590への表示用の仮想車両をシミュレートするために、見物人590は、ディスプレイ594、表示システム592、遠隔計測システム596(センサ598を含み得る)、およびシミュレーション構成要素599の各構成要素のうちの1つまたは複数を実装した1つまたは複数のデバイスを装着または操作し得る。これらの構成要素は、物理車両510を参照して説明した同様の名称の構成要素に対応し得る。一般に、遠隔計測システム596は、センサ598によって検出された見物人590の限られた運動学情報を送信する。例えば、限られた運動学情報は、見物人590の位置(例えばGPS位置)を含み得る。見物人590は限られた運動と関連付けられる可能性が高いので、いくつかの態様によれば、運動に関連した他のタイプの運動学情報がセンサ598によって取り込まれなくてもよい場合もある。いくつかの態様では、センサ516と同様に、センサ598は、見物人590の視点の位置を取り込むためのカメラを含み得る。いくつかの態様では、ディスプレイ594を、見物人590によって装着される1つまたは複数のデバイスに実装することができる。例えば、ディスプレイ594は、見物人590によって装着されるヘッドセット(例えばヘルメット)やバイザに実装され得る。いくつかの態様では、見物人590は、シミュレーション構成要素599を実装したデバイスを装着または操作し得る。シミュレーション構成要素522の機能と同様に、シミュレーション構成要素599は、シミュレーションシステム540によって行われた計算の一部を処理し得る。
いくつかの態様では、シミュレーションシステム540は、コンテンツ配信システム570と通信して、ライブ参加者とシミュレートされた参加者との間、例えば、物理車両と仮想車両との間の競争を、閲覧装置560を介してオーディエンスに表示する。例えば、仮想車両は、物理的なレース場におけるビデオカメラ580から見た実際のビデオ映像にオーバーレイされ、組み合わされたビデオ映像は、競争している同じレース場での物理車両と仮想車両とがオーディエンスに見えるように、1つまたは複数の閲覧装置560に示され得る。
いくつかの態様では、コンテンツ配信システム570は、ケーブルまたはテレビ網を介してビデオコンテンツをブロードキャストするためのビデオサーバ572と、オンデマンドで、またはインターネットなどのネットワーク502を介してライブストリーミングでビデオコンテンツを送信するためのウェブサーバ574と、を含む。上述したように、ビデオサーバ572は、ビデオカメラ580によって取得されたビデオコンテンツをブロードキャストすることができる。いくつかの態様では、異なる視点からレースのライブビデオ映像を録画するために複数のビデオカメラが、物理的なレース場に存在し得る。これらの態様では、ビデオサーバ572は、複数のビデオカメラの中から1台のビデオカメラ(例えばビデオカメラ580)によって取り込まれたライブビデオ映像を選択することができる。いくつかの態様では、各ビデオカメラが独自の視点を含み、各視点が、各ビデオカメラからのライブ画像フィードと組み合わせるための仮想車両の可視部分を決定するために使用される。
コンテンツ配信システム570によって実装されるものとしてビデオサーバ572とウェブサーバ574とが示されているが、これらのサーバ(例えば、ビデオサーバ572とウェブサーバ574)のうちの1つまたは複数が別々のエンティティによって、またはシミュレーションシステム540によって実装されてもよい。
いくつかの態様では、閲覧装置560は、ビデオデータを提示するためのディスプレイを備えた様々な電子デバイスを含む。例えば、ライブイベント/競技会に参加しているオーディエンスは、テレビ(TV)画面、ジャンボトロンなどを含む閲覧装置560上でその競技を観戦し得る。別の例では、在宅のオーディエンスは、モバイル装置の中でも特に、TV、ラップトップ、タブレット、スマートフォン、デスクトップコンピュータなどの閲覧装置560を操作し得る。さらに、いくつかの態様では、在宅とライブ競技会との両方のオーディエンスが、HMDに組み込まれた、オーディエンスが携帯するポータブルコンピュータやモバイル装置上のプロセッサを使用して場面を正確に再現する、そのオーディエンスメンバが位置する場所の位置ベースの情報、ならびに頭部および眼の空間および方向測定値に基づくそのオーディエンスメンバから見た、またはカメラとオーディエンスメンバの位置が登録されている、オーディエンスメンバのHMDまたはポータブルコンピュータ/モバイル装置に表示情報をストリーミングする遠隔サーバからの、(例えばライブ参加者と仮想参加者を含む)組み合わされた場面を表示することになるHMDやゴーグルなどの閲覧装置560を装着し得る。
いくつかの態様では、シミュレートされたエンティティ530は、仮想レースにおいて仮想車両を制御するためのディスプレイ534と入力コントローラ536とに結合されたシミュレーションデバイス532を含む。いくつかの態様では、シミュレーションデバイス532は、力コントローラ538と表示システム539とを含む。シミュレーションデバイス532は、汎用コンピュータまたはビデオゲームコンソールなどの専用コンピュータであり得る。
いくつかの態様では、入力コントローラ536には、仮想レースにおいて仮想車両を制御するための入力装置の種類の中でも特に、キーボード、ビデオゲームコントローラ、ジョイスティック、ハンドルおよびペダル、フォースパッド、トレッドミル、ハンドルが含まれ得る。
いくつかの態様では、シミュレーションデバイス532は、入力コントローラ536から入力を受け取り、受け取った入力をシミュレーションシステム540に送信する。いくつかの態様では、シミュレーションシステム540は、入力に基づいて仮想レース場での仮想車両をシミュレートする。次いで、シミュレーションシステム540は、仮想レース場の仮想車両の部分に対応する表示情報を送信し得る。シミュレーションデバイス532内の表示システム539は、表示情報を受け取り、仮想レースをディスプレイ534にコンピュータ生成画像(CGI)としてレンダリングし得る。いくつかの態様では、表示システム539は、ディスプレイ534上に仮想レースを投影する。
システム500に示されるように、ディスプレイ534には、テレビ画面、モニタ、プロジェクタ、またはグラフィックスデータを表示するための他のデバイスが含まれ得る。いくつかの態様では、図1のディスプレイを参照して説明したように、ディスプレイ534には、入力コントローラ536のユーザによって装着されたヘッドマウントディスプレイ(HMD)が含まれ得る。例えば、HMDには、バイザ、ヘッドセット(例えばヘルメット)、眼鏡、ゴーグル、またはユーザの眼の前方に装着された他のデバイスが含まれ得る。
他の態様では、HMDは、1台または複数の仮想車両をシミュレートするために網膜投射技術を実施する。例えば、HMDは、車両操作者114の左眼と右眼とに画像を投射して、車両操作者114の視野内に1台または複数の仮想車両の3次元(3D)画像を作り出す仮想網膜ディスプレイ(VRD)を含み得る。
いくつかの態様では、力コントローラ538は、シミュレーションシステム540から力情報を受け取る。力情報は、仮想レース場で仮想車両と物理車両との間でシミュレーションシステム540によってシミュレートされた相互作用、例えば衝突と関連付けられ得る。シミュレートされたエンティティについての仮想レース体験を向上させるために、力コントローラ538は、例えば、入力コントローラ536を振動させることによって入力コントローラ536にフィードバックを提供し得る。いくつかの態様では、入力コントローラ536を操作するユーザは、実際の衝突でユーザによって感じられるはずの物理的感覚を模倣するように力コントローラ538によって制御される1つまたは複数のアクチュエータを含む触覚スーツを装着し得る。
図6は、いくつかの態様による、ディスプレイに仮想車両を表示するための方法600を示す流れ図である。いくつかの態様では、方法600は、物理車両602と、シミュレーションシステム604と、見物人606とで行われる工程を含む。例えば、物理車両602で行われる工程は、図1の物理車両101や図5の物理車両510などの物理車両内の構成要素によって実施され得る。例えば、シミュレーションシステム604で行われる工程は、図1のシミュレーションシステム140や図5のシミュレーションシステム540によって実施され得る。例えば、見物人606で行われる工程は、物理的なレース場での物理車両602と仮想車両との間のレースを観戦しているオーディエンスメンバによって装着されたデバイス(例えば、図5の見物人590に示されている構成要素)によって行われ得る。
工程610で、物理車両602は物理車両602の位置を識別する。いくつかの態様では、物理車両602は、物理車両602の位置を、物理車両602に搭載された1つまたは複数のセンサ(例えば図1のセンサ108や図5のセンサ516)を介して物理車両602の運動学情報を検出することによって識別することができる。いくつかの態様では、物理車両602の位置は、物理車両602の2つの部分の各々についての位置情報を含む。例えば、物理車両602の第1の部分についての位置情報は第1の部分に配置されたGPSセンサによって検出され得る。いくつかの態様では、物理車両602の位置は、物理車両602の1つの部分の位置と物理車両602の向きとを含む。いくつかの態様では、物理車両602の向きは、物理車両602に搭載されたセンサ(例えばジャイロスコープ)によって検出されたジャイロスコープデータを含むことができる。
工程611で、物理車両602は、シミュレーションシステム604に物理車両602の位置を提供する。
工程620で、シミュレーションシステム604は、仮想車両を制御する入力を受け取る。いくつかの態様では、図5を参照して説明したように入力コントローラ536から入力を受け取ることができる。
工程621で、シミュレーションシステム604は、物理車両602からの入力と仮想車両を制御する入力とに基づいて、仮想車両と物理車両との間の仮想レース場でのレースをシミュレートするための仮想世界を計算する。いくつかの態様では、仮想世界をレーシングシミュレーション(例えば、図1のレーシングシミュレーション141や図5のレーシングシミュレーション550)において実施することができる。いくつかの態様では、物理車両602からの入力は、工程611で提供された物理車両602の位置を含むことができる。いくつかの態様では、レーシングシミュレーションを生成するために、シミュレーションシステム604は、工程611で提供された位置に一部基づいて、レーシングシミュレーションにおける仮想レース場に追加すべき物理車両の表現を計算することができる。いくつかの態様では、レーシングシミュレーションを生成するために、シミュレーションシステム604は、工程620の入力に基づいてレーシングシミュレーションにおける仮想レース場に追加すべき仮想車両を計算することができる。いくつかの態様では、シミュレーションシステム604は、入力を使用して、仮想世界において仮想車両と関連付けられる運動学情報を更新することができる。いくつかの態様では、運動学情報は、仮想車両の運動の1つもしくは複数のベクトル、運動の1つもしくは複数のスカラー、位置ベクトル、GPS位置、速度、加速度、向き、またはそれらの組み合わせを含む。いくつかの態様によれば、更新された運動学情報に基づき、シミュレーションシステム604は、仮想世界における仮想車両のシミュレーションを更新することができる。
工程612で、物理車両602は物理車両602の操作者の視点の位置を識別する。いくつかの態様では、操作者の視点の位置を、物理車両602内のセンサ(例えばカメラ)によって検出された操作者の頭部に対して決定することができる。例えば、視点の位置は、操作者の頭部の空間位置を検出することを含み得る。例えば、いくつかの態様では、操作者の視点の位置を、頭部位置を追跡すること、頭部上の点から物理車両上の固定点へのベクトルを識別すること、ヘッドギア上の点から物理車両上の固定点へのベクトルを識別すること、頭部上の点から会場内の固定点へのベクトルを識別すること、またはヘッドギア上の点から会場内の固定点へのベクトルを識別すること、のうちの少なくとも1つによって決定することができる。いくつかの態様では、会場は、物理的なレース場、観客席、または物理的なレース場における他のインフラストラクチャを含み得る。
いくつかの態様では、操作者の視点の位置を、物理車両602内のセンサ(例えばカメラ)によって検出された操作者の眼に対して決定することができる。例えば、視点の位置は、ユーザの眼の空間位置、ユーザの眼の注視方向、またはユーザが操作者である場合のユーザの眼の焦点を検出することを含むことができる。例えば、いくつかの態様では、操作者の視点の位置を、眼の注視点を測定すること、眼球運動を追跡すること、片眼もしくは両眼から物理車両上の固定点へのベクトルを識別すること、眼鏡類(例えばバイザ)上の点から会場内の固定点へのベクトルを識別すること、片眼もしくは両眼からレース場の固定点へのベクトルを識別すること、または片眼もしくは両眼から会場内の固定点へのベクトルを識別すること、のうちの少なくとも1つによって決定することができる。いくつかの態様では、会場は、物理的なレース場、観客席、または物理的なレース場における他のインフラストラクチャを含み得る。いくつかの態様では、操作者の視点の位置を、眼からの光の反射または屈折を測定することによって識別することができる。
工程613で、物理車両602は、操作者の視点の位置をシミュレーションシステム604に提供する。いくつかの態様では、物理車両602は、視点の位置をシミュレーションシステム604に無線送信する。いくつかの態様では、物理車両602に結合された遠隔計測システム(例えば、図1の遠隔計測システム104)が送信を行うことができる。
工程622で、シミュレーションシステム604は、操作者の視点の位置から見える仮想車両の第1の部分を計算する。いくつかの態様では、図9を参照してさらに説明するように、シミュレーションシステム604は第1の部分を、仮想車両のどの部分が(工程621で生成されたレーシングシミュレーション内の仮想位置に対して)物理車両の表現によって隠されていないかを判断することによって計算する。特に、シミュレーションシステム604は仮想位置を、工程613に記載されるように物理車両602によって提供された視点の位置に対応するように決定することができる。いくつかの態様では、シミュレーションシステム604は第1の部分を、仮想車両のどの部分がレーシングシミュレーションにおける物理オブジェクトの表現によって隠されていないかを判断することによって計算する。いくつかの態様では、図3A~Dを参照して説明したように、レーシングシミュレーション内の仮想車両の各部分は、操作者の視点の仮想位置に対して他の物理車両または仮想車両の表現によって遮られる場合がある。例えば、物理オブジェクトの表現は、その物理オブジェクトの表現が視点の仮想位置とその物理オブジェクトの表現の遮られた部分との間の直線上に位置決めされている場合に、視点の仮想位置からの仮想車両の部分を隠し得る。いくつかの態様では、上述したように、シミュレーションシステム604によって計算された第1の部分は、仮想車両の遮られない部分を含むことができる。いくつかの態様では、上述したように、第1の部分は仮想車両の遮られた部分を除外することができる。
いくつかの態様では、仮想車両の第1の部分は、仮想世界内で生成されている1つまたは複数の仮想の影を含むことができる。いくつかの態様では、1つまたは複数の仮想の影は、仮想車両の仮想の影、仮想車両に投影されている仮想の影、または仮想車両の仮想の影と仮想車両に投影されている仮想の影の両方を含むことができる。例えば、仮想車両に投影されている仮想の影は、別の仮想車両の仮想の影、仮想世界における物理車両の表現の仮想の影、または仮想世界で生成されている他の仮想オブジェクトの仮想の影を含み得る。
いくつかの態様では、仮想車両の第1の部分は、シミュレーションシステム604(例えばグラフィックスエンジン556)によって生成される仮想表現を含むことができる。いくつかの態様では、仮想表現はグラフィック要素のセットを含む。いくつかの態様では、仮想表現を、シミュレーションシステム604が、モデル(例えば車両モデル544)のデータベースに格納された仮想車両のデジタル3Dモデルに基づいて生成することができる。
工程623で、シミュレーションシステム604は、物理車両602に工程622で計算された第1の部分を出力する。いくつかの態様では、シミュレーションシステム604は、物理車両602に第1の部分を(例えば図5のRF回路548を介して)無線送信する。
工程614で、物理車両602は、表示システム(例えば、図1の表示システム102や図5の表示システム514)に第1の部分を提供する。いくつかの態様では、シミュレーションシステム604から受信される第1の部分は、シミュレーションシステム604によって計算された運動学情報を含むことができる。いくつかの態様では、シミュレーションシステム604から受信される第1の部分は、グラフィック情報を含むことができる。いくつかの態様では、物理車両602に結合された遠隔計測システム(例えば図1の遠隔計測システム104)は、仮想車両の第1の部分に関連した情報を受信することができる。
工程615で、物理車両602は、仮想車両の第1の部分を、物理車両602に近接したディスプレイ(例えば図5のディスプレイ512)上で表示する。いくつかの態様では、表示システム(例えば図1のレンダリング構成要素107)が、仮想車両の第1の部分をディスプレイにレンダリングする。いくつかの態様では、表示システム内のレンダリング構成要素(例えば図1のレンダリング構成要素107)は、仮想車両の第1の部分をディスプレイに表示するために仮想表現に変換する。いくつかの態様では、仮想表現はグラフィック要素のセットを含む。いくつかの態様では、表示システムは、操作者の視野内のレース場での仮想車両の軌跡をシミュレートするために、方法600の1つまたは複数の工程(例えば、工程610~615および620~623)を繰り返すことによって、ある期間にわたる(各表現が工程623で出力された仮想車両の可視部分を含む)仮想車両の一連の表現を表示する。
いくつかの態様では、表示システムは、仮想表現を生成するシミュレーション構成要素(例えばシミュレーション構成要素106)を含む。いくつかの態様では、仮想表現は仮想車両のデジタル3Dモデルに基づいて生成される。いくつかの態様では、デジタル3Dモデルは、表示システムのメモリに格納される。デジタル3Dモデルは、例えば、シミュレーションシステムから受け取られ得る。
いくつかの態様では、ディスプレイは、物理車両602の1つまたは複数のウインドウを含む。いくつかの態様では、ディスプレイは、図1を参照して説明したように、フロントガラス120、バックミラー122、リヤウインドウ124、サイドウインドウ126Aおよび126B、サイドミラー128Aおよび128Bの各ディスプレイのいずれかなどの、物理車両602の1つまたは複数のウインドウまたはミラーを含むことができる。いくつかの態様では、ディスプレイを、操作者物理車両602によって装着されたバイザまたはヘッドセット(例えば図1のヘルメット116)内に実装することができる。
いくつかの態様では、シミュレーションシステム604は、見物人606などの他の見物人が他の視点から仮想車両を見ることができるようにするために工程622および623と同様の工程を行う。いくつかの態様では、見物人606は、ライブ・レース・イベントで、物理的なレース場の物理車両602と物理的なレース場に物理的に存在しない仮想車両との間のレースを観戦しているオーディエンスメンバであり得る。
1つのシステムに一緒に図示されているが、いくつかの態様では、第1の可視部分と第2の可視部分の一方が他方の部分を計算および出力せずに計算および出力される。
工程630で、見物人606の表示システムは、第2の視点についての選択を受け取る。いくつかの態様では、選択は見物人606の視点であり得る。例えば、見物人606は、物理的なレース場に存在しレース場での物理車両602を見ているオーディエンスメンバであり得る。いくつかの態様では、選択は、物理的なレース場に存在し物理車両602が競走しているレース場の部分を画像化しているビデオカメラの視点であり得る。物理車両602がビデオカメラによって取り込まれているレース場の部分を走行しているとき、ビデオカメラはビデオフィード上で物理車両602を画像化し得る。物理車両がカメラによって取り込まれているレース場の部分を横切って走行していないとき、カメラはレース場の部分を依然として取り込み得る。いくつかの態様では、第2の視点についての選択を、見物人606またはビデオカメラの視点にデフォルト設定することができる。
工程631で、見物人606の表示システムは、第2の視点の位置を識別する。第2の視点が見物人606の視点であるいくつかの態様では、見物人606に近接したセンサ(例えばセンサ598)によって検出された見物人606の頭部に対して第2の視点の位置を決定することができる。例えば、いくつかの態様では、見物人600の頭部位置を追跡すること、頭部上の点から会場内の固定点へのベクトルを識別すること、ヘッドギア上の点から会場内の固定点へのベクトルを識別すること、のうちの少なくとも1つによって、第2の視点の位置を決定することができる。いくつかの態様では、会場は、物理的なレース場、観客席、または物理的なレース場における他のインフラストラクチャを含み得る。
いくつかの態様では第2の視点が見物人606の視点であるいくつかの態様では、見物人606に近接したセンサ(例えばセンサ598)によって検出された見物人606の眼に対して第2の視点の位置を決定することができる。例えば、第2の視点の位置は、ユーザの眼の空間位置、ユーザの眼の注視方向、またはユーザが見物人606である場合のユーザの眼の焦点を検出することを含むことができる。例えば、いくつかの態様では、眼の注視点を測定すること、眼球運動を追跡すること、眼鏡類(例えばバイザ)上の点から会場内の固定点へのベクトルを識別すること、または片眼もしくは両眼から会場内の固定点へのベクトルを識別すること、のうちの少なくとも1つによって、第2の視点の位置を決定することができる。いくつかの態様では、会場は、物理的なレース場、観客席、または物理的なレース場における他のインフラストラクチャを含み得る。いくつかの態様では、第2の視点の位置を、見物人606の眼からの光の反射または屈折を測定することによって識別することができる。
工程632で、見物人606の表示システムはシミュレーションシステム604に第2の視点の位置を提供する。
工程624で、シミュレーションシステム604は、第2の視点の位置から見える仮想車両の第2の部分を計算する。いくつかの態様では、図9を参照してさらに説明するように、シミュレーションシステム604は第2の部分を、仮想車両のどの部分が、工程621で生成されたレーシングシミュレーション内の仮想位置に対して物理車両の表現によって隠されていないかを判断することによって計算する。特に、シミュレーションシステム604は仮想位置を、工程632に記載されるように見物人606の表示システムによって提供された第2の視点の位置に対応するように決定することができる。
工程625で、シミュレーションシステム604は、見物人606の表示システムに工程624で計算された第2の部分を出力する。いくつかの態様では、シミュレーションシステム604は、見物人606の表示システムに(例えば、図5のRF回路548を介して)第2の部分を無線送信する。
工程633で、見物人606に近接した無線インターフェースが見物人606の表示システムに第2の部分を提供する。いくつかの態様では、シミュレーションシステム604から受信される第2の部分は、シミュレーションシステム604によって計算された運動学情報を含むことができる。いくつかの態様では、シミュレーションシステム604から受信される第1の部分は、グラフィック情報を含むことができる。見物人606の表示システムが無線インターフェースを含むいくつかの態様では、見物人606の表示システムは第2の部分を直接受信することができる。
工程634で、見物人606の表示システムは、見物人606に近接したディスプレイに仮想車両の第2の部分を。いくつかの態様では、見物人606の表示システムは、ディスプレイに仮想車両の第2の部分をレンダリングする。いくつかの態様では、見物人606に近接したディスプレイを見物人606によって装着されたバイザまたはヘルメットに実装することができる。
いくつかの態様では、非一時的なコンピュータ可読記憶媒体が、ディスプレイを備えた電子デバイスの1つまたは複数のプロセッサによって実行されるように構成された1つまたは複数のプログラムを格納し、1つまたは複数のプログラムは、図6を参照して上述した工程のいずれかを実施するための命令を含む。いくつかの態様では、非一時的なコンピュータ可読記憶媒体がコンピュータ可読命令を含み、コンピュータ可読命令は、1つまたは複数のプロセッサによって実行されると、1つまたは複数のプロセッサに、図6を参照して説明された工程を行わせる。いくつかの態様では、システムが、前述の非一時的なコンピュータ可読記憶媒体のうちの少なくとも1つと、(1つまたは複数の)非一時的なコンピュータ可読記憶媒体の命令を実行するように構成された1つまたは複数のプロセッサとを含む。いくつかの態様では、デバイスが、図6を参照して上述された工程のいずれかを行うように構成された1つまたは複数のプロセッサを含む。
図7は、いくつかの態様による、物理車両の操作者に仮想車両と物理車両との間の双方向相互作用を提供するための方法700を示す流れ図である。方法700は、例えば、図1の物理車両101などの物理車両内の構成要素によって実装され得る。いくつかの態様では、方法700は、方法600を参照して表示および説明された視覚フィードバックに加えて触覚およびオーディオフィードバックを提供するように方法600を強化する。
工程702で、遠隔計測システム(例えば遠隔計測システム104)は、物理車両(例えば物理車両101)の運動学情報を監視する。いくつかの態様では、遠隔計測システムは、運動学情報を検出する1つまたは複数のセンサを含む。例えば、1つまたは複数のセンサは、センサの種類の中でも特に、GPSセンサ、加速度計、速度計、向きセンサ、ジャイロスコープを含み得る。
工程704で、遠隔計測システムはシミュレーションシステム(例えばシミュレーションシステム140)に運動学情報を送信する。いくつかの態様では、運動学情報はRF回路(例えばRF回路105)を介して送信される。
いくつかの態様では、シミュレーションシステムは、遠隔計測された運動学情報に基づいて仮想世界における仮想車両と物理車両との間の仮想レースをシミュレートする。いくつかの態様では、仮想世界は、仮想車両と物理車両の表現とが仮想レース場でシミュレートされる仮想レース場を含む。いくつかの態様では、シミュレーションシステムは、仮想レース場での仮想車両と物理車両との間の距離を計算する。計算された距離に基づき、シミュレーションシステムは、仮想レース場で仮想車両と物理車両との間に接触(例えば衝突)が存在するかどうかを判断する。次いで、シミュレーションシステムは、判断された接触に対応する力情報を計算する。
いくつかの態様では、シミュレーションシステムは、計算された距離および接触が存在するかどうかに基づいてオーディオ情報を計算する。いくつかの態様では、オーディオ情報は、エンジン、ブレーキ、タイヤ、爆発、または爆発の音のうちの1つまたは複数、ならびに1つまたは複数の音量レベルを含む。例えば、シミュレーションシステムは、1つまたは複数の音の音量を、仮想レース場での仮想車両と物理車両との間の計算された距離に反比例するように計算し得る。
工程706で、力コントローラ(例えば力コントローラ112)は、シミュレーションシステムから力情報を受け取る。例えば、表示システム(例えば表示システム102)が力情報を受け取り、力コントローラに転送する。いくつかの態様では、力情報を計算する機能の一部または全部が、物理車両でシミュレーション構成要素(例えばシミュレーション構成要素106)において行われ得る。これらの態様では、シミュレーション構成要素は、図8の工程816に関連して説明するように、仮想車両または他の仮想オブジェクトの運動学情報を受け取る。次いで、シミュレーション構成要素は、力情報を生成するために力計算を行い得る。
工程708で、ディスプレイ構成要素は、シミュレーションシステムからオーディオ情報を受け取る。いくつかの態様では、オーディオ情報を計算する機能の一部または全部が、物理車両でシミュレーション構成要素において行われ得る。これらの態様では、シミュレーション構成要素は、図8の工程816に関連して説明するように、仮想車両または他の仮想オブジェクトの運動学情報を受け取る。次いで、シミュレーション構成要素は、オーディオ情報を生成するためにオーディオ計算を行い得る。
工程710で、力コントローラは、受け取った力情報に基づいて物理車両に実装された1つまたは複数の機械要素を制御する。いくつかの態様では、力コントローラは、物理車両と仮想車両の仮想表現として表示された別の車両との間に実際の物理的な接触が生じた場合に物理車両の操作者によって感じられるはずの物理的感覚を模倣するために、1つまたは複数の力アクチュエータ(例えば機械要素の例)に命令を送る。いくつかの態様では、1つまたは複数の力アクチュエータは、シートおよびヘッドブレース(例えばシートおよびヘッドブレース130)内または操作者によって装着される触覚スーツ(例えば触覚スーツ118)内に実装され得る。
いくつかの態様では、機械要素には、物理車両の機能に影響を及ぼす部品が含まれ得る。例えば、機械要素には、ステアリング・ホイール・コラム、ブレーキ、エアバッグなどが含まれ得る。受け取った力情報に基づき、力コントローラは、例えば、ブレーキをロックし、エアバッグを展開し、ステアリング・ホイール・コラムを振動させ、車両のセクションにぶつかる力を生じさせ、電力を低減させることによって車を減速し、または物理車両内の他の機械要素および/もしくは電気要素を制御し得る。
工程712で、表示システムは、オーディオ情報を出力するために1台または複数の物理車両のスピーカ(例えばスピーカ132)を制御することができる。いくつかの態様では、表示システムは、オーディオ情報を出力するために操作者によって装着されたヘルメット(例えばヘルメット116)内の1つまたは複数のスピーカを制御することができる。
いくつかの態様では、非一時的なコンピュータ可読記憶媒体が、ディスプレイを備えた電子デバイスの1つまたは複数のプロセッサによって実行されるように構成された1つまたは複数のプログラムを格納し、1つまたは複数のプログラムは、図7を参照して上述した工程のいずれかを実装するための命令を含む。いくつかの態様では、非一時的なコンピュータ可読記憶媒体がコンピュータ可読命令を含み、コンピュータ可読命令は、1つまたは複数のプロセッサによって実行されると、1つまたは複数のプロセッサに、図7を参照して上述した工程を行わせる。いくつかの態様では、システムが、前述の非一時的なコンピュータ可読記憶媒体のうちの少なくとも1つと、(1つまたは複数の)非一時的なコンピュータ可読記憶媒体の命令を実行するように構成された1つまたは複数のプロセッサとを含む。いくつかの態様では、デバイスが、図7を参照して上述された工程のいずれかを行うように構成された1つまたは複数のプロセッサを含む。
図8は、いくつかの態様による、双方向相互作用を提供するために仮想車両と物理車両との間のレースをシミュレートするための方法800を示す流れ図である。方法800は、例えば、図1を参照して説明したシミュレーションシステム140や図5を参照して説明したシミュレーションシステム540などのシミュレーションシステムによって実装され得る。図1および5を参照して説明したように、シミュレーションシステムは、仮想レース場が物理的なレース場に対応するようにシミュレートされた仮想世界内の仮想レース場での仮想車両と物理車両との間の仮想レースをシミュレートする。
工程802で、シミュレーションシステムは、コントローラ(例えば入力コントローラ536)から、仮想レース場での仮想車両を制御する入力を受け取る。いくつかの態様では、コントローラは、入力装置の種類の中でも特に、キーボード、マウス、ビデオゲームコントローラ、ジョイスティック、ハンドルおよびペダル、タッチスクリーン上のジェスチャ、またはそれらの組み合わせであり得る。
工程804で、シミュレーションシステムは、物理車両(例えば、図1の物理車両101)についての運動学情報を受け取る。いくつかの態様では、運動学情報は、図1を参照して説明したように、物理車両から受け取られる。
工程806で、シミュレーションシステムは、仮想レース場での仮想車両と物理車両との間の仮想レースをシミュレートする。いくつかの態様では、シミュレーションシステムは、工程808~812のうちの1つまたは複数に従って仮想レースをシミュレートする。工程808で、シミュレーションシステムは、工程802で受け取った入力に基づいて仮想車両の運動学情報を決定する。例えば、入力は、シミュレーションシステムによって加速度量に変換されたビデオゲームコントローラにかかる力の量を含み得る。工程810で、シミュレーションシステムは、仮想レース場での仮想車両と物理車両との間の相互作用を、仮想車両と物理車両との間で運動学情報を比較することによって決定する。いくつかの態様では、シミュレーションシステムは、接触(例えば衝突)が発生するかどうかを判断するために仮想レース場でシミュレートされた仮想車両と物理車両との間の距離を決定する。工程812で、シミュレーションシステムは、工程810で決定された相互作用に基づいて力情報を生成する。工程813で、シミュレーションシステムは、工程810で決定された相互作用に基づいてオーディオ情報を生成する。
工程816で、シミュレーションシステムは、物理車両に仮想車両の運動学情報を送る。いくつかの態様では、物理車両は、仮想車両の運動学情報を使用して、物理車両のディスプレイ上で仮想車両を生成および表示する。
工程818で、シミュレーションシステムは、図7の工程706を参照して説明したように物理車両に力情報を送る。いくつかの態様では、物理車両は、実際の衝突で物理車両の操作者によって感じられるはずの物理的感覚を模倣するために、力情報に基づいて物理車両の1つまたは複数の機械要素または電気要素を制御する。
工程820で、シミュレーションシステムは、図7の工程708を参照して説明したように物理車両に生成されたオーディオ情報を送る。いくつかの態様では、物理車両は、仮想車両が物理的なレース場に物理的に存在した場合に物理車両の操作者によって感じられるはずの聴覚体験を模倣するために、オーディオ情報に基づいて物理車両の1つまたは複数のスピーカを制御する。例えば、1つまたは複数のスピーカは、車両のスピーカまたは操作者によって装着されたヘッドセット内に実装されたスピーカを含み得る。
工程814で、シミュレーションシステムは、シミュレーションディスプレイ(例えば図5のディスプレイ534)上に仮想レースをレンダリングする。
いくつかの態様では、非一時的なコンピュータ可読記憶媒体が、電子デバイスの1つまたは複数のプロセッサによって実行されるように構成された1つまたは複数のプログラムを格納し、1つまたは複数のプログラムは、図8を参照して上述した工程のいずれかを実施するための命令を含む。いくつかの態様では、非一時的なコンピュータ可読記憶媒体がコンピュータ可読命令を含み、コンピュータ可読命令は、1つまたは複数のプロセッサによって実行されると、1つまたは複数のプロセッサに、図8を参照して上述した工程を行わせる。いくつかの態様では、システムが、前述の非一時的なコンピュータ可読記憶媒体のうちの少なくとも1つと、(1つまたは複数の)非一時的なコンピュータ可読記憶媒体の命令を実行するように構成された1つまたは複数のプロセッサとを含む。いくつかの態様では、デバイスが、図8を参照して上述された工程のいずれかを行うように構成された1つまたは複数のプロセッサを含む。
図9は、いくつかの態様による、仮想車両の表示を可能にするためにシミュレーションシステムによって行われる方法900を示す流れ図である。方法900は、例えば、図1を参照して説明したシミュレーションシステム140や図5を参照して説明したシミュレーションシステム540によって実施され得る。いくつかの態様では、方法900の1つまたは複数の工程は、図6を参照して説明したシミュレーションシステム604によって行われる1つまたは複数の工程に対応し得る。
工程902で、シミュレーションシステムは仮想車両を制御する入力を受け取る。例えば、図5を参照して説明したように入力コントローラ536から入力が受け取られ得る。いくつかの態様では、工程902は図6の工程620に対応する。
工程904で、シミュレーションシステムは物理車両の位置を受け取る。いくつかの態様では、図6の工程611を参照して説明したように、例えば物理車両が物理車両の位置を提供することができる。
工程906で、シミュレーションシステムは、仮想車両と物理車両との間の仮想レース場でのレースをシミュレートするための仮想世界を計算する。いくつかの態様では、仮想世界は、図5に記載されるレーシングシミュレーション550に格納されたレーシングシミュレーションとすることができる。いくつかの態様では、工程906は図6の工程621に対応する。いくつかの態様では、仮想世界を計算するために、方法900は工程908~912を行う。
工程908で、シミュレーションシステムは、工程902で受け取った入力に基づいて仮想世界の仮想レース場で仮想車両をシミュレートする。いくつかの態様では、入力は、仮想車両が仮想世界の仮想レース場でどのように動くかを定義する運動学特性を制御する。
工程910で、シミュレーションシステムは、工程904で受け取った物理車両の部分に基づいて仮想世界における物理車両の表現を計算する。いくつかの態様では、シミュレーションシステムは、物理車両の表現を仮想世界に付加することによって、物理車両と仮想車両との間のレースをシミュレートすることができる。いくつかの態様では、物理車両の表現を計算するために、シミュレーションシステムは、物理車両の部分と関連付けられた物理座標を仮想世界内の仮想座標に変換する。
工程912で、シミュレーションシステムは、仮想世界内の複数のオブジェクトの表現を計算する。いくつかの態様では、(複数の表現からの)オブジェクトの表現は、仮想世界でモデル化されている物理的なレース場に存在する物理オブジェクトに対応する。例えば、仮想世界内の仮想レース場は、木、バナー、ピットストップなどの物理オブジェクトを含み得る物理的なレース場に基づいてシミュレートされ得る。いくつかの態様では、(複数の表現の中の)オブジェクトの表現は、仮想世界でシミュレートされている仮想レース場に存在し物理的なレース場に存在しない仮想オブジェクトに対応する。例えば、仮想オブジェクトには、シミュレートされた障害物、煙、壁、爆発、または仮想世界でシミュレートされている仮想車両と物理車両との間の衝突から生じた破片が含まれ得るが、これに限定されない。
いくつかの態様では、シミュレーションシステムによってシミュレートされた仮想世界は、複数の物理オブジェクトの計算された表現を含むことができる。いくつかの態様では、シミュレーションシステムは、表現のデータベースにアクセスすることによって複数の物理オブジェクトの表現を計算することができる。
工程914で、シミュレーションシステムは、レース場における視点の位置を受け取る。いくつかの態様では、この位置を、図6の工程613を参照して説明したように、物理車両から受け取ることができる。これらの態様では、この位置は、物理車両の操作者の視点の位置を表す。いくつかの態様では、この位置を、図6の工程632を参照して説明したように、見物人から受け取ることができる。これらの態様では、この位置は、見物人によって選択された視点の位置を表す。
工程916で、シミュレーションシステムは、工程914で受け取った視点の位置から見える仮想車両の部分を計算する。いくつかの態様では、工程916は、工程914で受け取った視点の位置の情報源に基づく、図6を参照して説明した工程622または621に対応する。いくつかの態様では、部分を計算する工程は、視点の仮想位置からの視野を計算する工程を含む。これらの態様では、計算された部分は計算された視野内であり得る。いくつかの態様では、視点から見える仮想車両の部分を計算するために、方法900は工程918~926を含む。
工程918で、シミュレーションシステムは、工程914で受け取った視点の位置に基づいて仮想世界内の視点の仮想位置を計算する。いくつかの態様では、仮想位置を計算するために、シミュレーションシステムは、視点の位置の物理座標を仮想世界内の仮想座標に変換する。
工程920で、シミュレーションシステムは、仮想世界で仮想位置と仮想車両との間に1つまたは複数のオブジェクトの表現が存在するかどうかを判断する。いくつかの態様では、1つまたは複数の物理オブジェクトの表現は、工程912で計算された複数の物理オブジェクトの表現の中から選択される。工程912を参照して上述したように、1つまたは複数のオブジェクトの表現は、物理的なレース場に存在する物理オブジェクトの仮想表現を含むことができる。いくつかの態様では、1つまたは複数のオブジェクトの表現は、物理的なレース場に存在しない仮想世界でシミュレートされた仮想オブジェクトを含むことができる。工程922で、1つまたは複数のオブジェクトの表現が存在する場合、方法900は工程926に進む。そうでない場合、方法900は工程924に進む。
工程924で、シミュレーションシステムは、仮想位置から見て、仮想世界において物理車両の表現によって隠されていない仮想車両の部分を抽出する。
工程926で、シミュレーションシステムは、仮想位置から、物理車両の表現と工程920で決定された1つまたは複数のオブジェクトの表現とによって隠されていない仮想車両の部分を抽出する。
工程928で、シミュレーションシステムは、抽出された部分のうちの1つまたは複数を含む視点の仮想位置から見える仮想車両の部分を提供する。いくつかの態様では、出力される部分は抽出された部分のみを含む。いくつかの態様では、上述したように、シミュレーションシステムは視点の仮想位置からの視野を計算することができる。これらの態様では、シミュレーションシステムによって計算される部分は、計算された視野内で見えるその部分の一部を表す非除外部分と、計算された視野内で除外される(見えない)その部分の一部を表す除外部分とを含むことができる。視野がシミュレーションシステムによって計算されるいくつかの態様では、シミュレーションシステムはその部分を、計算された視野内で見える部分の一部を表す非除外部分のみを含むように計算することができる。
いくつかの態様では、シミュレーションシステムは、仮想車両の部分を、工程914を参照して説明したように、視点の位置の元になる情報源に提供する。例えば、工程928は、工程914を参照して説明したように視点の情報源に応じて図6を参照して説明したように工程623または625に対応し得る。本例では、視点の位置が物理車両から受け取られる場合、シミュレーションシステムは、図6の工程623を参照して説明したように、仮想車両の部分を物理車両に提供し得る。
いくつかの態様では、仮想世界は、図5に記載されるレーシングシミュレーション550に格納されたレーシングシミュレーションとすることができる。いくつかの態様では、工程906は図6の工程621に対応する。いくつかの態様では、仮想世界を計算するために、方法600は工程908~912を行う。
いくつかの態様では、非一時的なコンピュータ可読記憶媒体が、電子デバイスの1つまたは複数のプロセッサによって実行されるように構成された1つまたは複数のプログラムを格納し、1つまたは複数のプログラムは、図9を参照して上述した工程のいずれかを実施するための命令を含む。いくつかの態様では、非一時的なコンピュータ可読記憶媒体がコンピュータ可読命令を含み、コンピュータ可読命令は、1つまたは複数のプロセッサによって実行されると、1つまたは複数のプロセッサに、図9を参照して上述した工程を行わせる。いくつかの態様では、システムが、前述の非一時的なコンピュータ可読記憶媒体のうちの少なくとも1つと、(1つまたは複数の)非一時的なコンピュータ可読記憶媒体の命令を実行するように構成された1つまたは複数のプロセッサとを含む。いくつかの態様では、デバイスが、図9を参照して上述された工程のいずれかを行うように構成された1つまたは複数のプロセッサを含む。
図10は、いくつかの態様による、仮想車両の表示を可能にする方法1000を示す流れ図である。方法1000は、例えば、図1の物理車両101や図5の物理車両510などの物理車両内の構成要素によって実装され得る。いくつかの態様では、レース場の物理車両の操作者の視野内の仮想車両をシミュレートすることによって、方法1000は、仮想車両に対して操作者によって体験される物理車両と仮想車両との間の相互作用の臨場感を高める。
工程1002で、物理車両(例えば眼球位置検出器110)内のセンサは、物理システム(例えば物理車両101)の操作者(例えば車両操作者114)の眼球測定値を検出する。いくつかの態様では、センサは、操作者の頭部または操作者の頭部に装着されたデバイス(例えば、ヘルメット116、眼117を覆うバイザ、またはヘッドマウントディスプレイ(HMD))の検出に基づいて眼の眼球測定値を推定する。例えば、センサは、操作者の眼の眼球測定値を、操作者の頭部に装着されたデバイスの位置および/または向きの検出に基づいて推定し得る。
工程1004で、物理車両内の表示システム(例えばレンダリング構成要素107)は、操作者の視野内の物理オブジェクトの位置(例えば図2の位置208A)を識別する。いくつかの態様では、この位置は、物理システムに近接したディスプレイ(例えば図2のディスプレイ220)上の位置に対応する。
工程1006で、表示システムは、物理的にレース場にない競争相手車両を表す仮想車両の運動学情報を受け取る。さらに、表示システムは、物理的にレース場に存在しないレーシングシミュレーション550またはレーシングシミュレーション141内の仮想オブジェクトに関連したシミュレーションシステム(例えばシミュレーションシステム140)からの情報を受け取り得る。いくつかの態様では、図1を参照して説明したように、運動学情報は、仮想車両と関連付けられたGPS座標、空間位置、向き、速度、加速度、またはそれらの組み合わせを含み得る。いくつかの態様では、運動学情報を、シミュレートされたレース場上での物理車両と仮想車両との間のレースをシミュレートするシミュレーションシステム(例えばシミュレーションシステム140)から受け取ることができる。
工程1008で、表示システムは、工程1004で識別された物理オブジェクトの位置と、工程1002で検出された眼球測定値と、工程1006で受け取った運動学情報とに基づいて仮想車両の表現を生成する。いくつかの態様では、表示システムは、この表現を生成するシミュレーション構成要素(例えばシミュレーション構成要素106)を含む。さらに、表示システムが工程1006に記載されるような他の仮想オブジェクトについての情報を受け取る態様では、表示システムは、それらの仮想オブジェクトのグラフィック表現も同様に生成する。例えば、仮想オブジェクトには、壁、仮想車からの破片、またはレーシングシミュレーション550でシミュレートされている仮想レース場のオブジェクトが含まれ得る。いくつかの態様では、仮想表現は仮想車両のデジタル3Dモデルに基づいて生成される。いくつかの態様では、デジタル3Dモデルは、表示システムのメモリに格納される。デジタル3Dモデルは、例えば、シミュレーションシステムから受け取られ得る。
工程1010で、表示システム(例えばレンダリング構成要素107)は、ディスプレイ上の仮想車両の表現を、工程1004の識別された位置で表された物理オブジェクトと揃うように表示する。いくつかの態様では、表示システム内のレンダリング構成要素(図1の例えばレンダリング構成要素107)は、この表現をディスプレイ上に表示するためのグラフィック要素のセットに変換する。いくつかの態様では、表示システムは、操作者の視野内のレース場で仮想車両の軌跡をシミュレートするために、方法1000の1つまたは複数の工程(例えば、工程1002~1010)を繰り返すことによって、ある期間にわたる仮想車両の一連の表現を表示する。
いくつかの態様では、この表現を、例えば、シミュレーションシステムによって遠隔で生成することができる。これらの態様では、表示システムは、シミュレーションシステムによって生成されるような表現に関連した情報を受け取る。さらに、レンダリング構成要素は、この受け取った情報をディスプレイに表示するためにグラフィック要素のセットに変換し得る。
いくつかの態様では、非一時的なコンピュータ可読記憶媒体が、ディスプレイを備えた電子デバイスの1つまたは複数のプロセッサによって実行されるように構成された1つまたは複数のプログラムを格納し、1つまたは複数のプログラムは、図10を参照して上述した工程のいずれかを実施するための命令を含む。いくつかの態様では、非一時的なコンピュータ可読記憶媒体がコンピュータ可読命令を含み、コンピュータ可読命令は、1つまたは複数のプロセッサによって実行されると、1つまたは複数のプロセッサに、図10を参照して上述した工程を行わせる。いくつかの態様では、システムが、前述の非一時的なコンピュータ可読記憶媒体のうちの少なくとも1つと、(1つまたは複数の)非一時的なコンピュータ可読記憶媒体の命令を実行するように構成された1つまたは複数のプロセッサとを含む。いくつかの態様では、デバイスが、図10を参照して上述された工程のいずれかを行うように構成された1つまたは複数のプロセッサを含む。
図11に、一態様によるコンピュータの例を示す。コンピュータ1100は、図1を参照して説明した物理車両101内のデバイスやシミュレーションシステム140などの、上述したシステムおよび方法によるディスプレイ上で仮想車両をシミュレートするためのシステムの構成要素とすることもでき、それ自体でシステム全体を含むこともできる。いくつかの態様では、コンピュータ1100は、それぞれ、図6、7、8、9、および10の方法600、700、800、900、および1000の各々などの、物理車両と仮想車両との間の仮想レースを強化するための方法を実行するように構成される。
コンピュータ1100は、ネットワークに接続されたホストコンピュータとすることができる。コンピュータ1100は、クライアントコンピュータまたはサーバとすることができる。図11に示されるように、コンピュータ1100は、パーソナルコンピュータ、ワークステーション、サーバ、ビデオゲームコンソール、または電話機やタブレットなどのハンドヘルド・コンピューティング・デバイスといった、任意の適切なタイプのマイクロプロセッサベースのデバイスとすることができる。コンピュータは、例えば、プロセッサ1110、入力装置1120、出力装置1130、記憶装置1140、および通信装置1160のうちの1つまたは複数を含むことができる。入力装置1120と出力装置1130とは、一般に上述したものに対応させることができ、コンピュータに接続可能かまたはコンピュータと一体化することができる。
入力装置1120は、タッチスクリーンやモニタ、キーボード、マウス、音声認識装置などの、入力を提供する任意の適切なデバイスとすることができる。出力装置1130は、タッチスクリーン、モニタ、プリンタ、ディスクドライブ、またはスピーカなどの、出力を提供する任意の適切なデバイスとすることができる。
記憶装置1140は、RAM、キャッシュ、ハードドライブ、CD-ROMドライブ、テープドライブ、またはリムーバブル記憶ディスクを含む、電気、磁気、または光学メモリなどの、記憶を提供する任意の適切なデバイスとすることができる。通信装置1160は、ネットワーク・インターフェース・チップやカードなどの、ネットワーク上で信号を送受信することができる任意の適切なデバイスを含むことができる。コンピュータの構成要素を、物理バスを介してや、無線でなど、任意の適切な方法で接続することができる。記憶装置1140は、プロセッサ1110などの1つまたは複数のプロセスによって実行されると、1つまたは複数のプロセッサに、それぞれ、図6、7、8、9、および10の方法600、700、800、900、および1000の各々などの、本明細書に記載される方法を実行させる、1つまたは複数のプログラムを含む非一時的なコンピュータ可読記憶媒体とすることができる。
ソフトウェア1150は、記憶装置1140に格納し、プロセッサ1110によって実行することができるが、例えば、(上述したシステム、コンピュータ、サーバ、および/またはデバイスにおいて具体化される)本開示の機能を具体化するプログラミングを含むことができる。いくつかの態様では、ソフトウェア1150を、アプリケーションサーバやデータベースサーバなどのサーバの組み合わせで実装し、実行することができる。
またソフトウェア1150、またはその一部を、命令実行システム、装置、またはデバイスからソフトウェアと関連付けられた命令をフェッチおよび実行することができる、上述したような命令実行システム、装置、またはデバイスが使用するための、またはそれらと接続された任意のコンピュータ可読記憶媒体内で格納および/または搬送することもできる。本開示の文脈では、コンピュータ可読記憶媒体は、命令実行システム、装置、またはデバイスが使用するための、またはそれらと接続されたプログラミングを含むか格納することができる、記憶装置1140などの任意の媒体とすることができる。
またソフトウェア1150を、命令実行システム、装置、またはデバイスからソフトウェアと関連付けられた命令をフェッチおよび実行することができる、上述したような命令実行システム、装置、またはデバイスが使用するための、またはそれらと接続された任意の搬送媒体内で伝搬することもできる。本開示の文脈では、搬送媒体は、命令実行システム、装置、またはデバイスが使用するための、またはそれらと接続されたプログラミングを伝達、伝搬、または搬送することができる任意の媒体とすることができる。搬送可読媒体には、電子、磁気、光学、電磁、または赤外線の有線または無線伝搬媒体が含まれ得るがこれに限定されない。
コンピュータ1100はネットワークに接続されてもよく、ネットワークは、任意の適切なタイプの相互接続通信システムとすることができる。ネットワークは、任意の適切な通信プロトコルを実装することができ、任意の適切なセキュリティプロトコルによって保護することができる。ネットワークは、無線ネットワーク接続、T1もしくはT3ライン、ケーブルネットワーク、DSL、または電話回線などの、ネットワーク信号の送受信を実施することができる任意の適切な構成のネットワークリンクを含むことができる。
コンピュータ1100は、ネットワークで動作するのに適した任意のオペレーティングシステムを実装することができる。ソフトウェア1150は、C、C++、Java、またはPythonなどの任意の適切なプログラミング言語で記述することができる。様々な態様において、本開示の機能を具体化するアプリケーションソフトウェアを、例えば、クライアント/サーバ構成で、またはWebベースのアプリケーションやWebサービスとしてWebブラウザを介してなど、様々な構成で配置することができる。
前述の説明は、例示的な方法、パラメータなどを示している。しかしながら、そのような説明は、本開示の範囲に対する限定を意図されたものではなく、例示的な態様の説明として提供されていることを理解されたい。上述した例示的な態様は、網羅的であることも、本開示を開示通りの形態に限定することも意図されていない。上記の教示を考慮して多くの改変および変形が可能である。各態様は、開示の技術の原理およびそれらの実際の応用例を最も良く説明するよう選択され、説明されたものである。これらの態様により当業者は、企図される特定の用途に適する様々な改変を伴ってこれらの技術および様々な対応を最適に利用することができる。
本開示および例は添付の図を参照して十分に説明されているが、当業者には様々な変更および改変が明らかになることに留意されたい。そのような変更および改変は、特許請求の範囲によって定義される本開示および例の範囲内に含まれると理解されるべきである。本開示および態様の前述の説明では、添付の図面が参照されており、図面には、例示として、実施できる特定の態様が示されている。他の態様および例を実施することもでき、本開示の範囲から逸脱することなく変更が加えられ得ることを理解されたい。
前述の説明では、様々な要素を説明するために第1、第2などの用語を使用しているが、これらの要素はこれらの用語によって限定されるべきではない。これらの用語は、ある要素を別の要素と区別するために使用されているにすぎない。例えば、様々な前述した態様の範囲から逸脱することなく、第1の仮想車両を第2の仮想車両と呼ぶこともでき、同様に、第2の仮想車両を第1のタッチと呼ぶこともできる。
加えて、前述の説明で使用されている単数形の「1つの(a)」、「1つの(an)」、および「その(the)」は、文脈上そうではないことが明らかでない限り、複数名も含むことが意図されていることも理解されたい。本明細書で使用されている「および/または(and/or)」という用語は、関連付けられた記載項目のうちの1つまたは複数のありとあらゆる可能な組み合わせを指し、それらを包含することも理解されたい。「含む(includes)」、「含む(including)」、「含む(comprises)」、および/または「含む(comprising)」という用語は、本明細書で使用される場合、記述された特徴、整数、工程、動作、要素、構成要素、および/またはユニットの存在を指定するが、1つまたは複数の他の特徴、整数、工程、動作、要素、構成要素、ユニット、および/またはそれらのグループの存在または追加を除外するものではないこともさらに理解されたい。
「if(の場合)」という用語は、文脈に応じて、「when(のとき)」または「upon(し次第)」または「in response to determining(と決定したことに応答して)」または「in response to detecting(を検出したことに応答して)」を意味するものと解釈され得る。同様に、「if it is determined(と判断された場合)」または「if [a stated condition or event] is detected([記述された条件もしくは事象]が検出された場合)」という句も、文脈に応じて、「upon determining(と決定し次第)」または「in response to determining(と決定したことに応答して)」または「upon detecting[the stated condition or event]([記述された条件もしくは事象]を検出し次第)」または「in response to detecting[the stated condition or event]([記述された条件もしくは事象]を検出したことに応答して)」を意味するものと解釈され得る。
いくつかの態様では、非一時的なコンピュータ可読記憶媒体が、ディスプレイを備えた電子デバイスの1つまたは複数のプロセッサによって実行されるように構成された1つまたは複数のプログラムを格納し、1つまたは複数のプログラムは、説明した、または本明細書で特許請求される工程のいずれかを実施するための命令を含む。本開示はまた、本明細書の動作を行うためにデバイスにも関する。このデバイスは、必要な目的のために特に構築されてもよく、またはコンピュータに格納されたコンピュータプログラムによって選択的に作動もしくは再構成される汎用コンピュータを含んでいてもよい。そのようなコンピュータプログラムは、これに限定されないが、任意のタイプのフロッピーディスク、光ディスク、CD-ROM、光磁気ディスクを含むディスク、読取り専用メモリ(ROM)、ランダム・アクセス・メモリ(RAM)、EPROM、EEPROM、磁気もしくは光カード、特定用途向け集積回路(ASIC)、または電子命令を格納するのに適し、各々がコンピュータ・システム・バスに結合された任意のタイプの媒体などの非一時的なコンピュータ可読記憶媒体に格納され得る。さらに、本開示で言及されるコンピュータは、単一のプロセッサを含んでいてもよく、またはより高いコンピューティング能力得るための複数プロセッサ設計を用いたアーキテクチャであってもよい。
本明細書に記載される方法、デバイス、およびシステムは、特定のコンピュータその他の装置に本質的に関連したものではない。様々な汎用システムが本明細書の教示に従ったプログラムと共に使用されてもよく、または必要な方法工程を行うより特化された装置を構築することが好都合だと判明する場合もある。様々なこれらのシステムに必要な構造は以下の説明から明らかになるであろう。加えて、本開示は、特定のプログラミング言語に言及して説明されていない。様々なプログラミング言語が本明細書に記載される本開示の教示を実装するために使用され得ることが理解されるであろう。

Claims (22)

  1. レース場における視点の位置を提供する工程;
    仮想車両と、仮想位置における物理オブジェクトの表現とを含む仮想世界を計算する工程であって、前記物理オブジェクトが前記レース場に位置する、工程;
    前記レース場における前記視点の前記位置に基づいて前記仮想世界内の前記視点の仮想位置を計算する工程;
    前記視点の前記仮想位置から見える前記仮想世界内の前記仮想車両の部分を計算する工程であって、前記視点の前記仮想位置から見える前記仮想車両の前記部分が、前記視点の前記仮想位置から見て、前記物理オブジェクトの前記仮想位置における前記物理オブジェクトの前記表現によって隠されていない前記仮想車両の部分を含む、工程;および 表示システムに、前記視点の前記仮想位置から見える前記仮想車両の前記部分を提供する工程
    を含む、仮想車両を表示するための方法。
  2. 視点の位置を提供する工程が、前記視点の注視方向、または前記視点の焦点のうちの少なくとも1つを提供することを含む、請求項1記載の方法。
  3. 前記視点が、物理車両の操作者の視点、前記レース場に存在し前記物理オブジェクトを見ているオーディエンスメンバの視点、または、前記レース場に存在し前記物理オブジェクトを画像化しているカメラの視点を含む、請求項1記載の方法。
  4. 前記物理オブジェクトは、前記レース場での物理車両である、請求項1記載の方法。
  5. 前記表示システムで、前記視点の前記仮想位置から見える前記仮想車両の前記部分の表現を生成する工程;および
    前記レース場での前記仮想車両の軌跡をシミュレートするためにある期間にわたる前記仮想車両の一連の表現を表示する工程であって、前記一連の表現が前記視点の前記仮想位置から見える前記仮想車両の前記部分の前記表現を含む、工程
    をさらに含む、請求項1記載の方法。
  6. 前記仮想世界を計算する工程が、前記物理オブジェクトの物理座標を前記仮想世界の仮想座標に変換することを含み、前記物理オブジェクトの仮想位置が前記仮想座標を含む、請求項1記載の方法。
  7. 前記仮想世界内の前記仮想車両の部分を計算する工程は、シミュレーションシステムで前記仮想世界内の前記仮想車両の部分を計算することを含み、前記シミュレーションシステムは、前記レース場のコンピュータシステムおよび前記レース場から遠隔のコンピュータシステムのうちの少なくとも1つを含む、請求項1記載の方法。
  8. レース場における視点の位置を提供する工程は、前記レース場での複数の視点のそれぞれの位置を提供することを含み、
    前記仮想世界内の前記視点の仮想位置を計算する工程は、前記レース場での前記視点の前記それぞれの位置に基づいて、前記仮想世界内の前記視点のそれぞれの仮想位置を計算することを含み、
    前記視点の前記仮想位置から見える前記仮想世界内の前記仮想車両の部分を計算する工程は、前記視点の対応する仮想位置から見える前記仮想世界内の前記仮想車両のそれぞれの部分を計算することを含み、前記視点の前記対応する仮想位置から見える前記仮想世界内の前記仮想車両の前記それぞれの部分は、前記それぞれの仮想位置から見て前記物理オブジェクトの表現によって隠されていない、前記仮想車両のそれぞれの部分を含み、
    前記表示システムに、前記視点の前記仮想位置から見える前記仮想車両の前記部分を提供する工程は、前記視点の前記仮想位置から見える前記仮想車両の前記それぞれの部分を提供することを含む、請求項1記載の方法。
  9. 前記視点の前記仮想位置から見える前記仮想世界内の前記仮想車両の部分を計算する工程が、前記視点の前記仮想位置からの視野を計算することを含み、
    前記表示システムに、前記視点の前記仮想位置から見える前記仮想車両の前記部分を提供する工程が、前記視野内の前記仮想車両の前記部分を提供することを含む、
    請求項1記載の方法。
  10. 前記表示システムは、前記仮想車両のそれぞれの部分をそれぞれ表示する、複数のディスプレイスクリーンを含む、請求項8記載の方法。
  11. 前記物理オブジェクトは、各視点に対する別々の物理オブジェクトを含む、請求項8記載の方法。
  12. 電子デバイスのプロセッサによって実行されるように構成されたプログラムを格納した、非一時的コンピュータ可読記憶媒体であって、前記プログラムは、以下の工程を実施するための命令を含む、前記非一時的コンピュータ可読記憶媒体:
    センサからのレース場における視点の位置を受け取る工程、
    仮想車両と、仮想位置における物理オブジェクトの表現とを含む仮想世界を計算する工程であって、前記物理オブジェクトが前記レース場に位置する、工程、
    前記レース場における前記視点の前記位置に基づいて前記仮想世界内の前記視点の仮想位置を計算する工程、
    前記視点の前記仮想位置から見える前記仮想世界内の前記仮想車両の部分を計算する工程であって、前記視点の前記仮想位置から見える前記仮想車両の前記部分が、前記視点の前記仮想位置から見て、前記物理オブジェクトの前記仮想位置における前記物理オブジェクトの前記表現によって隠されていない前記仮想車両の部分を含む、工程、
    表示システムに、前記視点の前記仮想位置から見える前記仮想車両の前記部分を提供する工程。
  13. 前記レース場における視点の位置を提供する工程は、前記視点の注視方向、または前記視点の焦点のうちの少なくとも1つを提供することを含む、請求項12記載の非一時的コンピュータ可読記憶媒体。
  14. 前記視点が、前記レース場における物理車両の操作者の視点、レース場に存在し前記レース場での前記物理オブジェクトを見ているオーディエンスメンバの視点、または、レース場に存在し前記レース場での前記物理オブジェクトを画像化しているカメラの視点を含む、請求項12記載の非一時的コンピュータ可読記憶媒体。
  15. 前記物理オブジェクトは、前記レース場での物理車両である、請求項12記載の非一時的コンピュータ可読記憶媒体。
  16. 前記プログラムは、以下の工程を実施するための命令をさらに含む、請求項12記載の非一時的コンピュータ可読記憶媒体:
    前記視点の前記仮想位置から見える前記仮想車両の前記部分の表現を生成する工程、および
    前記レース場での前記仮想車両の軌跡をシミュレートするためにある期間にわたる前記仮想車両の一連の表現を表示する工程であって、前記一連の表現が前記視点の前記仮想位置から見える前記仮想車両の前記部分の前記表現を含む、工程。
  17. 前記仮想世界を計算する工程が、前記物理オブジェクトの物理座標を前記仮想世界の仮想座標に変換することを含み、前記物理オブジェクトの仮想位置が前記仮想座標を含む、請求項12記載の非一時的コンピュータ可読記憶媒体。
  18. 前記仮想世界内の前記仮想車両の部分を計算する工程は、シミュレーションシステムで前記仮想世界内の前記仮想車両の部分を計算することを含み、前記シミュレーションシステムは、前記レース場のコンピュータシステムおよび前記レース場から遠隔のコンピュータシステムのうちの少なくとも1つを含む、請求項12記載の非一時的コンピュータ可読記憶媒体。
  19. レース場における視点の位置を提供する工程は、前記レース場での複数の視点のそれぞれの位置を提供することを含み、 前記仮想世界内の前記視点の仮想位置を計算する工程は、前記レース場での前記視点の前記それぞれの位置に基づいて、前記仮想世界内の前記視点のそれぞれの仮想位置を計算することを含み、 前記視点の前記仮想位置から見える前記仮想世界内の前記仮想車両の部分を計算する工程は、前記視点の対応する仮想位置から見える前記仮想世界内の前記仮想車両のそれぞれの部分を計算することを含み、前記視点の前記対応する仮想位置から見える前記仮想世界内の前記仮想車両の前記それぞれの部分は、前記それぞれの仮想位置から見て前記物理オブジェクトの表現によって隠されていない、前記仮想車両のそれぞれの部分を含み、
    前記表示システムに、前記視点の前記仮想位置から見える前記仮想車両の前記部分を提供する工程は、前記視点の前記仮想位置から見える前記仮想車両の前記それぞれの部分を提供することを含む、請求項12記載の非一時的コンピュータ可読記憶媒体。
  20. 前記視点の前記仮想位置から見える前記仮想世界内の前記仮想車両の前記部分を計算する工程が、前記視点の前記仮想位置からの視野を計算することを含み、
    前記表示システムに、前記視点の前記仮想位置から見える前記仮想車両の前記部分を提供する工程が、前記視野内の前記仮想車両の前記部分を提供することを含む、
    請求項12記載の非一時的コンピュータ可読記憶媒体。
  21. 前記表示システムは、前記仮想車両のそれぞれの部分をそれぞれ表示する、複数のディスプレイスクリーンを含む、請求項19記載の非一時的コンピュータ可読記憶媒体。
  22. 前記物理オブジェクトは、各視点に対する別々の物理オブジェクトを含む、請求項12記載の非一時的コンピュータ可読記憶媒体。
JP2020521855A 2017-07-07 2018-07-06 レーシングシミュレーション Active JP7277451B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023076449A JP2023113618A (ja) 2017-07-07 2023-05-08 レーシングシミュレーション

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762530037P 2017-07-07 2017-07-07
US62/530,037 2017-07-07
US15/813,662 US10357715B2 (en) 2017-07-07 2017-11-15 Racing simulation
US15/813,662 2017-11-15
PCT/US2018/041082 WO2019010411A1 (en) 2017-07-07 2018-07-06 RACE SIMULATION

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023076449A Division JP2023113618A (ja) 2017-07-07 2023-05-08 レーシングシミュレーション

Publications (3)

Publication Number Publication Date
JP2020527432A JP2020527432A (ja) 2020-09-10
JP2020527432A5 JP2020527432A5 (ja) 2021-08-12
JP7277451B2 true JP7277451B2 (ja) 2023-05-19

Family

ID=64903893

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020521855A Active JP7277451B2 (ja) 2017-07-07 2018-07-06 レーシングシミュレーション
JP2023076449A Pending JP2023113618A (ja) 2017-07-07 2023-05-08 レーシングシミュレーション

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023076449A Pending JP2023113618A (ja) 2017-07-07 2023-05-08 レーシングシミュレーション

Country Status (8)

Country Link
US (4) US10357715B2 (ja)
EP (1) EP3648857A1 (ja)
JP (2) JP7277451B2 (ja)
KR (2) KR102615214B1 (ja)
CN (3) CN117442977A (ja)
SA (1) SA520410968B1 (ja)
SG (1) SG11201913314TA (ja)
WO (1) WO2019010411A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10357715B2 (en) * 2017-07-07 2019-07-23 Buxton Global Enterprises, Inc. Racing simulation
US20190061617A1 (en) * 2017-08-29 2019-02-28 GM Global Technology Operations LLC Audio Control Systems And Methods Based On Driver Helmet Use
US20190105572A1 (en) * 2017-10-11 2019-04-11 Actev Motors Drivable vehicle augmented reality game
KR102029906B1 (ko) * 2017-11-10 2019-11-08 전자부품연구원 이동수단의 가상현실 콘텐츠 제공 장치 및 방법
EP3495220B1 (en) * 2017-12-11 2024-04-03 Volvo Car Corporation Path prediction for a vehicle
US11340609B2 (en) * 2018-05-03 2022-05-24 Formula Square Holdings Ltd Systems and methods for providing driving guidance
JP7208356B2 (ja) * 2018-09-26 2023-01-18 コーヒレント・ロジックス・インコーポレーテッド 任意の世界ビューの生成
US11087049B2 (en) * 2018-11-27 2021-08-10 Hitachi, Ltd. Online self-driving car virtual test and development system
JP2020144332A (ja) * 2019-03-08 2020-09-10 トヨタ自動車株式会社 仮想現実システムおよび仮想現実方法
US11176844B2 (en) * 2019-04-12 2021-11-16 Curtis D. Platt Immersive multimodal motion simulator
CN110170169B (zh) * 2019-06-05 2021-03-26 腾讯科技(深圳)有限公司 信息的展示方法和装置、存储介质、电子装置
FR3099065B1 (fr) 2019-07-24 2022-06-17 Sodikart système et procédé de contrôle d’une pluralité de karts mettant en œuvre au moins deux réseaux de communication.
FR3106502B1 (fr) * 2020-01-27 2021-12-24 Esp Consulting Dispositif et procédé de sport électronique
JP7484210B2 (ja) * 2020-02-17 2024-05-16 株式会社セガ ゲームシステム
US11305195B2 (en) * 2020-05-08 2022-04-19 T-Mobile Usa, Inc. Extended environmental using real-world environment data
CN111803941B (zh) * 2020-07-17 2024-02-09 网易(杭州)网络有限公司 游戏中显示控制方法、装置及电子设备
DE102020126953B3 (de) * 2020-10-14 2021-12-30 Bayerische Motoren Werke Aktiengesellschaft System und Verfahren zum Erfassen einer räumlichen Orientierung einer tragbaren Vorrichtung
JP7212721B2 (ja) * 2020-11-18 2023-01-25 株式会社コロプラ プログラム、情報処理方法、情報処理装置、及びシステム
JP7389275B2 (ja) * 2021-04-16 2023-11-29 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 仮想と現実とを組み合わせたマルチユーザ体験システム、方法、装置及びコンピュータプログラム
US12008681B2 (en) * 2022-04-07 2024-06-11 Gm Technology Operations Llc Systems and methods for testing vehicle systems
US20240104788A1 (en) * 2022-09-27 2024-03-28 Toyota Connected North America, Inc. Systems and methods for dynamically generating artwork based on vehicle sensor data
US20240208407A1 (en) * 2022-12-22 2024-06-27 Robert Linton Dynamic Combustion Engine Sound Broadcasting Device And Method Of Use
CN116212389B (zh) * 2023-05-09 2023-07-07 深圳市卡妙思电子科技有限公司 一种基于vr技术的电竞赛车竞赛系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100271367A1 (en) 2009-04-22 2010-10-28 Sony Computer Entertainment America Inc. Method and apparatus for combining a real world event and a computer simulation
JP2012058968A (ja) 2010-09-08 2012-03-22 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
US20120206452A1 (en) 2010-10-15 2012-08-16 Geisner Kevin A Realistic occlusion for a head mounted augmented reality display

Family Cites Families (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3017628A (en) * 1956-06-04 1962-01-16 Gilfillan Bros Inc Method of and apparatus for identifying aircraft during ground controlled approach
JPH06176131A (ja) * 1992-12-03 1994-06-24 Namco Ltd 画像合成装置及びこれを用いた仮想体験装置
FR2732792B1 (fr) 1995-04-06 1997-06-06 Benkel Gerard Systeme electronique de competition et procede de mise en oeuvre
JPH09167253A (ja) * 1995-12-14 1997-06-24 Olympus Optical Co Ltd 映像表示装置
US5921780A (en) * 1996-06-28 1999-07-13 Myers; Nicole J. Racecar simulator and driver training system and method
US5919045A (en) * 1996-11-18 1999-07-06 Mariah Vision3 Entertainment Llc Interactive race car simulator system
US6080063A (en) 1997-01-06 2000-06-27 Khosla; Vinod Simulated real time game play with live event
US6020851A (en) * 1997-10-06 2000-02-01 Busack; Andrew J. Auto race monitoring system
US6697869B1 (en) * 1998-08-24 2004-02-24 Koninklijke Philips Electronics N.V. Emulation of streaming over the internet in a broadcast application
US7211000B2 (en) * 1998-12-22 2007-05-01 Intel Corporation Gaming utilizing actual telemetry data
US8160994B2 (en) 1999-07-21 2012-04-17 Iopener Media Gmbh System for simulating events in a real environment
NL1012666C2 (nl) 1999-07-21 2001-01-29 Thian Liang Ong Stelsel voor het stimuleren van gebeurtenissen in een werkelijke omgeving.
US20020191004A1 (en) 2000-08-09 2002-12-19 Ebersole John Franklin Method for visualization of hazards utilizing computer-generated three-dimensional representations
US20040135677A1 (en) * 2000-06-26 2004-07-15 Robert Asam Use of the data stored by a racing car positioning system for supporting computer-based simulation games
EP1307269A1 (en) 2000-08-02 2003-05-07 Timothy James Ball Simulation system
DE10049124A1 (de) * 2000-10-02 2002-04-18 Manfred Goettling Verfahren zum Betrieb eines Rennsimulators und eine zugeordnete Vorrichtung
US6999083B2 (en) 2001-08-22 2006-02-14 Microsoft Corporation System and method to provide a spectator experience for networked gaming
US7265663B2 (en) 2001-11-28 2007-09-04 Trivinci Systems, Llc Multimedia racing experience system
US8784171B2 (en) * 2002-12-23 2014-07-22 Nintendo Co., Ltd. Method and apparatus for modeling a track in video games using arcs and splines that enables efficient collision detection
US20050148388A1 (en) 2003-07-17 2005-07-07 Fabricio Vayra Method and system for interaction with real-time events from a remote location, through use of a computer, game console or other module
JP4169682B2 (ja) * 2003-11-04 2008-10-22 任天堂株式会社 レースゲームプログラムおよびゲーム装置
JP4316397B2 (ja) 2004-02-09 2009-08-19 パイオニア株式会社 擬似音発生装置、車両、擬似音発生方法および擬似音発生プログラム
US7394459B2 (en) * 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
SG175723A1 (en) 2004-05-25 2011-12-29 Tyco Healthcare Vascular stenting for aneurysms
JP3827692B2 (ja) * 2004-09-22 2006-09-27 株式会社コナミデジタルエンタテインメント 操作入力装置、操作評価方法、ならびに、プログラム
US8585476B2 (en) 2004-11-16 2013-11-19 Jeffrey D Mullen Location-based games and augmented reality systems
US20060223637A1 (en) 2005-03-31 2006-10-05 Outland Research, Llc Video game system combining gaming simulation with remote robot control and remote robot feedback
DE102005035903A1 (de) 2005-07-28 2007-02-08 X-Aitment Gmbh Generische KI-Architektur für ein Multiagenten-System
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
US7892078B2 (en) * 2005-12-30 2011-02-22 Microsoft Corporation Racing line optimization
US7785178B2 (en) * 2005-12-30 2010-08-31 Microsoft Corporation Computing a target speed in a virtual racing environment
US9240029B2 (en) * 2007-04-30 2016-01-19 Here Global B.V. Street level video simulation display system and method
EP2025373B1 (en) 2007-08-17 2010-05-12 X-Aitment GmbH Balancing tool
AU2008339124B2 (en) 2007-12-19 2014-07-03 Auguste Holdings Limited Vehicle competition implementation system
US8090561B1 (en) * 2008-08-14 2012-01-03 Jai Shin System and method for in situ display of a virtual wheel on a wheeled vehicle
CN102238985A (zh) 2008-09-24 2011-11-09 埃欧彭纳媒体有限责任公司 用于模拟真实环境中的事件的系统和方法
US8092287B2 (en) * 2008-12-04 2012-01-10 Disney Enterprises, Inc. System and method for providing a real-time interactive surface
US8882560B2 (en) 2009-05-28 2014-11-11 Anki, Inc. Integration of a robotic system with one or more mobile computing devices
WO2011148470A1 (ja) 2010-05-26 2011-12-01 三菱電機株式会社 擬似音制御装置およびそれを備えた電動移動体
US20120269494A1 (en) 2011-04-22 2012-10-25 Qualcomm Incorporated Augmented reality for live events
WO2013024364A2 (en) 2011-08-17 2013-02-21 Iopener Media Gmbh Systems and methods for virtual viewing of physical events
US20130083061A1 (en) 2011-09-30 2013-04-04 GM Global Technology Operations LLC Front- and rear- seat augmented reality vehicle game system to entertain & educate passengers
CA3207408A1 (en) * 2011-10-28 2013-06-13 Magic Leap, Inc. System and method for augmented and virtual reality
WO2013086249A2 (en) * 2011-12-09 2013-06-13 Magna Electronics, Inc. Vehicle vision system with customized display
US9128354B2 (en) * 2012-11-29 2015-09-08 Bendix Commercial Vehicle Systems Llc Driver view adapter for forward looking camera
US9233309B2 (en) * 2012-12-27 2016-01-12 Sony Computer Entertainment America Llc Systems and methods for enabling shadow play for video games based on prior user plays
US20140274304A1 (en) * 2013-03-13 2014-09-18 Ignite Game Technologies, Inc. Method and apparatus for evaluation of skill level progression and matching of participants in a multi-media interactive environment
US20140278847A1 (en) 2013-03-14 2014-09-18 Fabio Gallo Systems and methods for virtualized advertising
US9639964B2 (en) * 2013-03-15 2017-05-02 Elwha Llc Dynamically preserving scene elements in augmented reality systems
US9563105B1 (en) * 2013-04-10 2017-02-07 Ic Real Tech Inc. Screw coupler enabling direct secure fastening between communicating electronic components
EP2835284A1 (en) 2013-08-08 2015-02-11 Thomas Bleiner Sound generator for electric vehicles
US10186087B2 (en) * 2013-12-06 2019-01-22 Hewlett-Packard Development Company, L. P. Occluding augmented reality objects
CN105344101B (zh) * 2015-11-19 2016-08-31 广州玖的数码科技有限公司 一种画面与机械运动同步的模拟赛车装置及模拟方法
US9610476B1 (en) 2016-05-02 2017-04-04 Bao Tran Smart sport device
US9597567B1 (en) 2016-05-02 2017-03-21 Bao Tran Smart sport device
WO2017209313A1 (ko) * 2016-05-30 2017-12-07 엘지전자 주식회사 차량용 디스플레이 장치 및 차량
GB2553143A (en) * 2016-08-26 2018-02-28 Jaguar Land Rover Ltd A Vehicle camera system
US10520782B2 (en) * 2017-02-02 2019-12-31 James David Busch Display devices, systems and methods capable of single-sided, dual-sided, and transparent mixed reality applications
US10357715B2 (en) * 2017-07-07 2019-07-23 Buxton Global Enterprises, Inc. Racing simulation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100271367A1 (en) 2009-04-22 2010-10-28 Sony Computer Entertainment America Inc. Method and apparatus for combining a real world event and a computer simulation
JP2012058968A (ja) 2010-09-08 2012-03-22 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
US20120206452A1 (en) 2010-10-15 2012-08-16 Geisner Kevin A Realistic occlusion for a head mounted augmented reality display

Also Published As

Publication number Publication date
US20210205703A1 (en) 2021-07-08
US10953330B2 (en) 2021-03-23
US12076640B2 (en) 2024-09-03
CN111107911A (zh) 2020-05-05
CN117442977A (zh) 2024-01-26
SA520410968B1 (ar) 2023-11-15
JP2020527432A (ja) 2020-09-10
CN117547833A (zh) 2024-02-13
US20200171386A1 (en) 2020-06-04
KR20230173227A (ko) 2023-12-26
KR20200049762A (ko) 2020-05-08
KR102615214B1 (ko) 2023-12-18
CN111107911B (zh) 2023-10-27
WO2019010411A1 (en) 2019-01-10
US11484790B2 (en) 2022-11-01
EP3648857A1 (en) 2020-05-13
SG11201913314TA (en) 2020-01-30
US20230226445A1 (en) 2023-07-20
US10357715B2 (en) 2019-07-23
US20190009175A1 (en) 2019-01-10
JP2023113618A (ja) 2023-08-16

Similar Documents

Publication Publication Date Title
JP7277451B2 (ja) レーシングシミュレーション
TWI786701B (zh) 用於在hmd環境中利用傳至gpu之預測及後期更新的眼睛追蹤進行快速注視點渲染的方法及系統以及非暫時性電腦可讀媒體
CN110199325B (zh) 仿真系统、处理方法以及信息存储介质
AU2017204739B2 (en) Massive simultaneous remote digital presence world
US10410562B2 (en) Image generating device and image generating method
JP2022530012A (ja) パススルー画像処理によるヘッドマウントディスプレイ
KR20160108017A (ko) 가상 여행 체험 장치 및 그 방법
JP2019175323A (ja) シミュレーションシステム及びプログラム
EP3264228A1 (en) Mediated reality
CN110809751B (zh) 用于实现介导现实虚拟内容消耗的方法、装置、系统、计算机程序
JP2016192029A (ja) 画像生成システム及びプログラム
US12063344B2 (en) Reproduction device, reproduction method, and recording medium
JP2019175322A (ja) シミュレーションシステム及びプログラム
KR102131614B1 (ko) 대체현실 제공 시스템 및 그 방법
US20240331317A1 (en) Information processing device, information processing system and method
EP3422150A1 (en) Methods, apparatus, systems, computer programs for enabling consumption of virtual content for mediated reality

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200330

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210705

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230308

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230508

R150 Certificate of patent or registration of utility model

Ref document number: 7277451

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150