[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6487231B2 - 着目場所の拡張視界の生成 - Google Patents

着目場所の拡張視界の生成 Download PDF

Info

Publication number
JP6487231B2
JP6487231B2 JP2015023924A JP2015023924A JP6487231B2 JP 6487231 B2 JP6487231 B2 JP 6487231B2 JP 2015023924 A JP2015023924 A JP 2015023924A JP 2015023924 A JP2015023924 A JP 2015023924A JP 6487231 B2 JP6487231 B2 JP 6487231B2
Authority
JP
Japan
Prior art keywords
image
user
location
interest
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015023924A
Other languages
English (en)
Other versions
JP2015153426A (ja
Inventor
マン キム ソン
マン キム ソン
カンデルワル ラジェッシュ
カンデルワル ラジェッシュ
バッツ ドナルド
バッツ ドナルド
Original Assignee
ハーマン インターナショナル インダストリーズ インコーポレイテッド
ハーマン インターナショナル インダストリーズ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ハーマン インターナショナル インダストリーズ インコーポレイテッド, ハーマン インターナショナル インダストリーズ インコーポレイテッド filed Critical ハーマン インターナショナル インダストリーズ インコーポレイテッド
Publication of JP2015153426A publication Critical patent/JP2015153426A/ja
Application granted granted Critical
Publication of JP6487231B2 publication Critical patent/JP6487231B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Description

本発明の実施形態は、概して、拡張現実に関し、より詳細には、ユーザのために着目する場所の拡張された視界を生成することに関する。
ナビゲーションシステムは、ユーザの位置を判定するため、ならびに方向を提供して、ユーザが特定の目的地まで進めるようにするために、様々な用途で広く用いられている。ナビゲーションシステムは、典型的には、全地球測位システム(GPS)衛星、無線アクセスポイント、ジャイロスコープ、慣性センサ、コンパスなどを含む1つまたは2つ以上の供給源から信号(例えば、地理位置情報信号)を受信する位置受信機を含む。位置受信機から受信される位置信号に基づいて、ナビゲーション情報がユーザに提供される。
ユーザに特定の目的地までの道順を提供することに加えて、現在のナビゲーションシステムは、しばしば、ユーザがナビゲーション経路および/または目的地の画像を見ることができるようにする。例えば、一部のナビゲーションシステムは、ユーザが、自身の走行することになる街路のデータベース画像を見ることによって、ナビゲーション経路を予め見ることができるようにする。このようにして、ユーザは、自身が走行することになる環境についてよく理解することができる。しかしながら、一旦ユーザが旅を始めてしまうと、ナビゲーション経路のデータベース画像を見ることは実際的ではない。例えば、目的地に向けて歩行または運転しながらスマートフォンなどのモバイル機器を介してデータベース画像を見ようとすることは、ユーザの気を散らし、自身のいる環境内を安全に進むユーザの能力を妨げる。そのため、ユーザが迷った場合や、ナビゲーション経路または目的地の画像を見たいと思う場合、ユーザは、自身のモバイル機器を操作するために、歩みまたは運転を止めなければならない場合もある。
これらの欠点に対処するために、一部のナビゲーションシステムは、ユーザの視野に重ねられるヘッドアップ表示装置(HUD)などの拡張現実機構を実装する。例えば、ターンバイターン方式の指示、通りの名前、および目的地までの残りの距離などの情報は、ユーザの視野に表示され得て、ユーザが、ナビゲーション情報を見ることと、自身の周辺に注意を払うこととを同時にできるようにする。加えて、一部のナビゲーションシステムは、通りの名前、番地、および/または特定の建物に関する商号を重ねることなどによって、周辺領域における物体に関する関連情報を重ねようと試みている。しかしながら、現在の拡張現実システムによって生成されるオーバレイは、建物または自動車などの環境内の障害物が、ユーザの視野を遮っている場合、ユーザに関連情報を提供することができない。例えば、ユーザの目的地の視界が、周辺領域にある建物または自動車によって遮られている場合、ユーザは、ユーザが目的地に到着するまで拡張現実情報を見ることができない場合もある。
上述のように、ユーザに関連ナビゲーション情報を提供するための改良された技法は有用である。
本発明の一実施形態は、ユーザのために着目する場所の拡張された視界を生成するための方法を説明する。本方法は、着目する場所に基づいて画像撮像位置を判定するステップと、画像撮像位置に基づいて画像撮像方向を判定するステップとを含む。本方法は、画像撮像位置および画像撮像方向に関連付けられた画像を受信するステップをさらに含む。本方法は、処理画像を生成するために、ユーザの位置に関連付けられた見通し線に基づいて画像を処理するステップと、処理画像をユーザに表示するステップとをさらに含む。
さらなる実施形態は、その他の事柄の中でも、システムと、上記方法ステップを実行するように構成される非一時的コンピュータ可読媒体とを提供する。
有利なことに、開示される技法は、ユーザが、周辺環境内の障害物を透かして、着目する場所を見ることができるようにする。加えて、開示される技法は、ユーザが、着目する場所を見ると同時に、自身のリアルタイムの周辺に注意を払い続けることができるようにする。したがって、着目する場所の画像をユーザのリアルタイムの視野に重ねることによって、ナビゲーションの有効性およびユーザの安全性が高まる。
上述した本発明の特徴が詳細に理解され得るように、上に簡単に要約された本発明のより詳細な説明は、添付の図面にその一部が示される実施形態を参照することにより理解され得る。しかしながら、添付の図面は、本発明の典型的な実施形態のみを示しており、したがって、本発明はその他の等しく効果的な実施形態を認めることから、本発明の範囲を限定しているものとみなされるべきではないことに注意されたい。
本願発明は、例えば以下の項目を提供する。
(項目1)
ユーザのために着目する場所の拡張された視界を生成するためのコンピュータ利用の方法であって、上記方法が、
上記着目する場所に基づいて画像撮像位置を判定することと、
上記画像撮像位置に基づいて画像撮像方向を判定することと、
上記画像撮像位置および上記画像撮像方向に関連付けられた画像を受信することと、
処理された画像を生成するために、上記ユーザの位置に関連付けられた見通し線に基づいて上記画像を処理することと、
上記処理された画像を上記ユーザに表示することと
を備える、ユーザのために着目場所の拡張視界を生成するためのコンピュータ利用の方法。
(項目2)
上記画像を処理することが、
変換を決定するために、上記見通し線をディスプレイの表面を通して投影することと、
上記変換を上記画像に施すことと
を備える、上記項目に記載の方法。
(項目3)
自動車の窓が、上記ディスプレイの上記表面を備える、上記項目のいずれか一項に記載の方法。
(項目4)
上記見通し線に関連付けられたリアルタイムの視界の画像を受信することをさらに備え、
上記画像を処理することが、
上記画像を上記リアルタイムの視界の上記画像と比較することと、
上記画像の少なくとも一部分を上記リアルタイムの視界の上記画像の少なくとも一部分と整合することと
を備える、上記項目のいずれか一項に記載の方法。
(項目5)
上記リアルタイムの視界の上記画像が、上記着目する場所の遮蔽状態の視界を備え、上記画像が、上記着目する場所の実質的に未遮蔽の視界を備える、上記項目のいずれか一項に記載の方法。
(項目6)
上記画像を処理することが、上記画像を上記リアルタイムの視界の上記画像と合成することをさらに備える、上記項目のいずれか一項に記載の方法。
(項目7)
ズーム値を上記ユーザから受信することをさらに備え、上記画像撮像位置を判定することが、上記ズーム値にさらに基づく、上記項目のいずれか一項に記載の方法。
(項目8)
データベースから上記着目する場所を定義する座標を受信することをさらに備え、上記ユーザの上記位置が、1つまたは2つ以上の地理位置情報信号から送られる、上記項目のいずれか一項に記載の方法。
(項目9)
上記ユーザの視線の方向を判定することと、
上記ユーザの上記位置および上記視線の方向に基づいて上記着目する場所を選択することと
をさらに備える、上記項目のいずれか一項に記載の方法。
(項目10)
ユーザのために着目する場所の拡張された視界を生成するためのシステムであって、
処理装置であって、
上記ユーザの位置および上記着目する場所に基づいて第1の画像撮像位置を判定し、
上記第1の画像撮像位置で取得された第1の画像を受信し、
処理された画像を生成するために、上記ユーザの上記位置に関連付けられた見通し線に基づいて上記第1の画像を処理する
ように構成される処理装置と、
上記処理された画像を上記ユーザに表示するように構成されるディスプレイと
を備える、ユーザのために着目する場所の拡張された視界を生成するためのシステム。
(項目11)
上記処理装置が、上記第1の画像撮像位置および上記着目する場所に基づいて画像撮像方向を判定するようにさらに構成され、上記第1の画像が、上記画像撮像方向に関連付けられる、上記項目に記載のシステム。
(項目12)
上記処理装置が、上記見通し線を上記ディスプレイの表面を通して投影して、変換を決定し、かつ上記変換を上記第1の画像に施すことによって、上記第1の画像を処理するように構成される、上記項目のいずれか一項に記載のシステム。
(項目13)
上記ディスプレイが、自動車の窓に配置される、上記項目のいずれか一項に記載のシステム。
(項目14)
上記処理装置が、上記見通し線に関連付けられたリアルタイムの視界の画像を受信するようにさらに構成され、上記第1の画像を上記リアルタイムの視界の上記画像と比較して変換を判定し、かつ上記変換を上記第1の画像に施して上記第1の画像の少なくとも一部分を上記リアルタイムの視界の上記画像の少なくとも一部分と整合することによって、上記処理装置が上記第1の画像を処理するように構成される、上記項目のいずれか一項に記載のシステム。
(項目15)
上記リアルタイムの視界の上記画像が、上記着目する場所の遮蔽状態の視界を備え、上記第1の画像が、上記着目する場所の実質的に未遮蔽の視界を備える、上記項目のいずれか一項に記載のシステム。
(項目16)
上記処理装置が、上記見通し線に関連付けられたリアルタイムの視界の画像を受信するようにさらに構成され、上記第1の画像の少なくとも一部分を上記リアルタイムの視界の上記画像の少なくとも一部分と整合し、かつ上記第1の画像を上記リアルタイムの視界の上記画像と合成することによって、上記処理装置が上記第1の画像を処理するように構成される、上記項目のいずれか一項に記載のシステム。
(項目17)
上記処理装置が、上記ユーザの上記位置および上記着目する場所に基づいて第2の画像撮像位置を判定し、かつ上記第2の画像撮像位置で取得された第2の画像を受信するようにさらに構成され、上記処理装置が、上記第1の画像を上記第2の画像と組み合わせることによって、上記第1の画像を処理するように構成される、上記項目のいずれか一項に記載のシステム。
(項目18)
上記第1の画像が、上記着目する場所の第1の視点に関連付けられ、上記第2の画像が、上記着目する場所の第2の視点に関連付けられる、上記項目のいずれか一項に記載のシステム。
(項目19)
上記ユーザの視線の方向を判定するように構成される追跡装置をさらに備え、上記処理装置が、上記視線の方向を受信し、かつ上記ユーザの上記位置および上記視線の方向に基づいて上記着目する場所を選択するようにさらに構成される、上記項目のいずれか一項に記載のシステム。
(項目20)
処理装置によって実行されると上記処理装置にユーザのために着目する場所の拡張された視界を生成させる命令を含む、非一時的コンピュータ可読記憶媒体であって、
上記ユーザの位置および上記着目する場所に基づいて画像撮像位置を判定するステップと、
上記画像撮像位置に基づいて画像撮像方向を判定するステップと、
上記画像撮像位置および上記画像撮像方向に関連付けられた画像を受信するステップと、
上記画像を上記ユーザに表示するステップと
を実行することによって、上記処理装置にユーザのために着目する場所の拡張された視界を生成させる命令を含む、非一時的コンピュータ可読記憶媒体。
(摘要)
本発明の一実施形態は、ユーザが着目する場所の拡張された視界を生成するための技法を説明する。本技法は、着目する場所に基づいて画像撮像位置を判定するステップと、画像撮像位置に基づいて画像撮像方向を判定するステップとを含む。本技法は、画像撮像位置および画像撮像方向に関連付けられた画像を受信するステップをさらに含む。本技法は、処理画像を生成するために、ユーザの位置に関連付けられた見通し線に基づいて画像を処理するステップと、処理画像をユーザに表示するステップとをさらに含む。有利なことに、開示される技法は、ユーザが、周辺環境内の障害物を透かして、着目する場所を見ることができるようにする。
本発明の様々な実施形態による、着目する場所の未遮蔽画像をリアルタイムの視界に合成して、着目する場所の拡張された視界を生成するための技法を示す概念図である。 本発明の様々な実施形態による、着目する場所の未遮蔽画像をリアルタイムの視界に合成して、着目する場所の拡張された視界を生成するための技法を示す概念図である。 本発明の様々な実施形態による、着目する場所の未遮蔽画像をリアルタイムの視界に合成して、着目する場所の拡張された視界を生成するための技法を示す概念図である。 本発明の様々な実施形態による、着目する場所の拡張された視界を生成する際に、画像撮像位置および画像撮像方向を判定するための技法を示す概念図である。 本発明の様々な実施形態による、曲がり角によって遮られている着目する場所の拡張された視界を生成するための技法を示す概念図である。 本発明の様々な実施形態による、曲がり角によって遮られている着目する場所の拡張された視界を生成するための技法を示す概念図である。 本発明の様々な実施形態による、曲がり角によって遮られている着目する場所の拡張された視界を生成する際に、画像撮像位置(複数可)および画像撮像方向(複数可)を判定するための技法を示す概念図である。 本発明の様々な実施形態による、ユーザのために着目する場所の拡張された視界を生成するための方法ステップを示す流れ図である。 本発明の様々な実施形態による、着目する場所の拡大された視界を生成するための技法を示す概念図である。 本発明の様々な実施形態による、着目する場所の拡大された視界を生成するための技法を示す概念図である。 本発明の様々な実施形態による、着目する場所の拡大された視界を生成する際に、ズームレベルに基づいて画像撮像位置を判定するための技法を示す概念図である。 本発明の様々な実施形態による、ユーザのために着目する場所110の拡大された視界を生成するための方法ステップを示す流れ図である。 本発明の1つまたは2つ以上の態様を実装するように構成されるコンピューティング装置を示すブロック図である。
以下の説明では、本発明の実施形態がより充分に理解されるように、多数の具体的な細部が説明される。しかしながら、これらの具体的な細部のうちの1つまたは2つ以上がなくとも本発明の実施形態が実施され得ることは、当業者には明らかであろう。
図1A〜図1Cは、本発明の様々な実施形態による、着目する場所110の未遮蔽画像112をリアルタイムの視界116に合成して、着目する場所110について拡張された視界を生成するための技法を示す概念図である。図1Aに示されるように、ユーザが走行している最中、周辺環境にある物体は、ユーザの視界を遮り、標識、道路、建物、ランドマークなどの着目する場所110を見るユーザの能力を妨げる。例えば、図1Aでは、障害物114が、ユーザが向かっている着目する場所110(例えば、建物)についてのユーザの視界を遮っている。その結果、ユーザは、車線変更する、および/または適切な道へと曲がるのに適したタイミングで着目する場所110を見ることができない場合がある。さらに、ユーザは、障害物114によって遮られている着目する場所110を目で確認しようとして注意力を不必要に消耗し、周辺環境にいる歩行者およびその他の車両に注意を払うユーザの能力を低下させる場合もある。
ユーザが障害物114の背後にある着目する場所110を見ることができるようにするために、着目する場所110の画像112が、データベースおよび/または周辺環境に配置されたカメラから取得され得る。次いで、着目する場所110の画像112は、ユーザの視野に表示され得て、ユーザが、自身のリアルタイムの周辺を同時に見ながら、着目する場所110を見ることができるようにする。様々な実施形態では、着目する場所110の画像112は、ユーザにディスプレイ120上で示され得る。ディスプレイ120は、窓(例えば、側窓、風防、後窓など)、鏡(例えば、バックミラー、サイドミラーなど)、および/またはディスプレイスクリーンを含む、ユーザの車両の任意の表面上に配置および/または投影され得る。一部の実施形態では、ディスプレイ120は、実質的に透明であるヘッドアップ表示装置(HUD)であり、ユーザが、自身のリアルタイムの周辺を同様に見ながら、着目する場所110を見ることができるようにする。その他の事柄の中でも、画像112を透明なディスプレイ120上に表示することにより、着目する場所110は、ユーザのリアルタイムの視界116に合成され得て、図1Bに示されるように、実質的に連続な周辺環境の視界を生成する。図1Cに示されるように、画像112を透明なディスプレイ120上に表示することにより、画像112の不透明度が変更されて、ユーザが、ディスプレイ120の着目する場所110の画像112が表示されている領域と同じ領域に、障害物114(例えば、バス)を見ることができるようにする。さらに、着目する場所110の画像112の不透明度は、ユーザの見通し線におけるリアルタイム画像を撮像し、リアルタイム画像を着目する場所110の画像112と合成し、合成された画像をディスプレイ120上に表示することによって、ユーザのリアルタイムの視界116に対して変化させ得る。このような技法は、図2と併せてさらに詳しく後述される。
図2は、本発明の様々な実施形態による、ユーザに着目する場所110について拡張された視界を表示するためのナビゲーションシステム200の概念図である。図示のように、ナビゲーションシステム200は、ディスプレイ120と、カメラ210と、および追跡装置220とを含み得る。カメラ210は、上述のリアルタイムの視界116などのユーザの周辺の画像を撮像するように構成され得る。カメラ210は、ユーザの視点からの画像を撮像できるような位置に配置され得る。例えば、カメラ210は、ユーザの見通し線の上方、下方、または脇に配置され得る。一部の実施形態では、カメラ210は、ユーザが乗る車両上および/またはユーザ自身に取り付けられ得る。
動作時、ナビゲーションシステム200は、着目する場所110を受信する。着目する場所110は、ユーザによって入力される、ナビゲーションシステム200によって判定される、および/または補助装置から受信され得る。着目する場所110は、街路の場所、番地、名称、市、州、座標、ならびに/またはナビゲーションシステム200が着目する場所110の素性および/もしくは位置を判定できるようにする任意のその他の情報を含み得る。ナビゲーションシステム200は、着目する場所110に対するユーザの位置をさらに判定し得る。ユーザの位置は、全地球測位システム(GPS)、無線通信装置、飛行時間型装置、無線周波数(RF)装置、光学装置などを含む、任意のタイプの地理位置情報装置を用いて判定され得る。
着目する場所110を受信した後、ナビゲーションシステム200は、着目する場所110に関連付けられた画像112をデータベースまたは周辺領域に配置されているカメラから受信する。一部の実施形態では、カメラは、着目する場所110の最も近くにあって、カメラが着目する場所110の未遮蔽画像112を撮像して、画像をナビゲーションシステム200に送信し得るようにする。データベースは、複数の位置および複数の方向から撮像された様々な街路および経路の画像を含む、Google(登録商標)Street Viewなどのナビゲーションデータベースであり得る。
データベースから受信された、および/またはカメラによって撮像された着目する場所110の画像112は、画像撮像位置に関連付けられる。画像撮像位置は、適切な視点(例えば、ユーザの視点に近い)であり、周辺環境にある物体によって比較的遮られていない、着目する場所110の画像112をユーザに提供するために選択され得る。様々な実施形態では、画像撮像位置は、着目する場所110およびユーザの位置の一方または両方に基づいて判定され得る。例えば、着目する場所110が、ユーザが歩行または運転する路上にある事業所である場合、画像撮像位置は、ユーザと着目する場所110との間、例えば、ユーザと着目する場所110との間の見通し線内に配置され得る。したがって、ユーザが着目する場所110に南から接近している場合、画像撮像位置は、適切な視点を有する画像112を提供するために、ユーザの位置と着目する場所110との間において、着目する場所110の南に配置され得る。
データベースから受信された、および/またはカメラによって撮像された着目する場所110の画像112はまた、画像撮像方向に関連付けられ得る。画像撮像位置に関して上述したように、画像撮像方向は、適切な視点(例えば、ユーザの視点に近い)である、着目する場所110の画像112をユーザに提供するために選択され得る。画像撮像方向は、着目する場所110、ユーザの位置、および画像撮像位置のうちの1つまたは2つ以上に基づいて判定され得る。例えば、画像撮像位置がユーザと着目する場所110との間に配置されている場合、画像撮像方向は、ユーザから着目する場所110への見通し線の方向と実質的に一致するように選択され得る。したがって、ユーザが着目する場所110に南から接近している場合、画像撮像方向は、適切な視点を有する画像112を提供するために、実質的に北向きにされ得る。あるいは、画像撮像位置が実質的にユーザと着目する場所110との間の見通し線に沿って配置されていない場合、例えば、上述の画像撮像位置に関連付けられた画像112が得られない場合、画像撮像方向は、画像撮像位置とユーザの位置との間の視点の差を補償するように選択され得る。加えて、さらに詳しく後述するように、画像112自体が(例えば、変換を介して)処理されて、画像撮像位置とユーザの位置との間の視点の差を補償し得る。
様々な実施形態では、画像撮像位置および/または画像撮像方向は、データベースに記憶された、または周辺領域にある1つまたは2つ以上のカメラによって撮像された着目する場所110の1つまたは2つ以上の画像112を、ユーザのリアルタイムの視界116と比較することによって判定され得る。例えば、ナビゲーションシステム200は、1つまたは2つ以上の画像撮像位置および/または画像撮像方向で撮像された、着目する場所110の画像112の1つまたは2つ以上の関連部分を、カメラ210によって撮像されたリアルタイムの視界116の画像の対応部分と比較し得る。次いで、ナビゲーションシステム200は、どの画像(複数可)がリアルタイムの視界116に最もよく一致するかを判定し得る。次いで、画像(複数可)112は、変換を施し、画像(複数可)112をリアルタイムの視界116と合成するなどによって、処理され、かつユーザにディスプレイ120上で表示され得る。
着目する場所110の画像112をユーザにディスプレイ120上で表示する前に、画像112が処理されてもよい。処理は、例えば、画像112に変換を施すこと、画像112の大きさを変更すること、画像112をクロッピングすること、および/または複数の画像112を単一の画像112に合成して、画像112がユーザに表示される時に画像112およびリアルタイムの視界116が実質的に連続になるようにすることを含み得る。加えて、画像112の不透明度は修正されて、画像112をリアルタイムの視界116により効果的に混ぜる、および/またはユーザが、画像112およびリアルタイムの視界116(例えば、障害物114)の対応する部分(複数可)の両方を同時に見ることができるようにし得る。さらに、一部の実施形態では、着目する場所110の画像112がリアルタイムの視界116の画像と合成され得て、結果として得られる合成された画像(複数可)がユーザにディスプレイ120上で表示され得る。着目する場所110の画像112をリアルタイムの視界116の画像と合成することは、ディスプレイ120がユーザと着目する場所110との間の見通し線にない場合、有用であり得る。その他の実施形態では、リアルタイムの視界116の画像を除く、着目する場所110の画像112(例えば、処理画像112)のみが車両の窓(例えば、風防)などのディスプレイ120上に表示される。
追跡装置220は、限定するものではないが、ユーザの位置および/または視線の方向223(例えば、水平角および/または鉛直角)を判定するように構成される1つまたは2つ以上のカメラおよび/またはセンサを含み得る。カメラ(複数可)および/またはセンサ(複数可)によって取得された画像は、追跡装置220に含まれる、および/またはナビゲーションシステム200に関連付けられたコンピューティング装置によって解析され得る。例えば、図2に示されるように、カメラは、ユーザの目または顔の画像を取得するように構成され得る。次いで、画像は、ディスプレイ120に対するユーザの位置および/またはユーザが見ている方向を判定するように解析され得る。
ユーザの位置および/または視線の方向223は、着目する場所110、画像撮像位置、および/または画像撮像方向を判定するために用いられ得る。例えば、ユーザは、ナビゲーション装置200の拡張視界機能を起動し、次いで着目する場所110の方向を見つめ得る。それに応じて、追跡装置220は、ユーザの視線の方向223を検出し、視線の方向223をナビゲーションシステム200に関連付けられたコンピューティング装置に送信し得る。次いで、コンピューティング装置は、視線の方向223を用いて、ユーザが見つめている着目する場所110を判定し、適切な画像撮像位置および/または画像撮像方向を選択する。その次に、画像撮像位置および/または画像撮像方向に関連付けられた画像112は、ユーザに表示され得る。さらに、ディスプレイ120に対するユーザの位置(例えば、車両内のユーザの位置)は、画像撮像位置および/または画像撮像方向を判定および/または改善するために用いられ得る。例えば、ユーザが車両内で左または右に移動した場合、画像撮像位置および/または画像撮像方向は修正されて、ユーザに表示された着目する場所110の画像112が、より正確にユーザの視点を反映するようにする。また、ディスプレイ120に対するユーザの位置は、画像112をユーザに表示する前に、どのように画像112を処理するか(例えば、変換、拡大、クロッピングなどを介して)を決定するために用いられ得る。
ナビゲーションシステム200が着目する場所110の画像112を受信すると、画像112は、画像112が撮像された高さとユーザの見通し線の高さとの差を補償するために処理され得る。例えば、画像112がGoogle(登録商標)Street Viewなどのデータベースから取得される場合、画像112は、ユーザの見通し線よりも高い高さで撮像された可能性がある。したがって、ユーザの見通し線とカメラ(例えば、Google(登録商標)Street Viewカメラ)の見通し線との間の角度222を補償するために、画像112に変換が施され得る。
一部の実施形態では、ナビゲーション装置200は、ユーザによって装着される。例えば、ナビゲーション装置200は、ユーザによって装着されるヘッドセットまたはメガネであり得る。このような実施形態では、カメラ210、追跡装置220、および/またはディスプレイ120は、視線の方向223を判定し、ユーザに着目する場所110の画像112を提供するために、ユーザの目の近くにあるナビゲーション装置200に配置され得る。例えば、1つまたは2つ以上のカメラが、ユーザの目の近くにあるヘッドセットまたはメガネに配置され得る。
特定の状況下では、ナビゲーション装置200のユーザは、曲がり角の向こう側にある着目する場所110を見ることを希望する場合がある。例えば、ユーザが進む際、ユーザは、特定の街路に曲がって入るかどうかを決めるために、その街路に至る前に、その街路に何があるかを見ることを希望する場合がある。したがって、建物および/または角を曲がった所にあるその他の着目する場所110の画像112をユーザに提供するために、上述の技法の一部が適用されてもよい。このような実施形態は、図3A〜図5と併せて以下に説明される。
図3Aおよび図3Bは、本発明の様々な実施形態による、曲がり角によって遮られている着目する場所110について拡張された視界を生成するための技法を示す概念図である。図示のように、曲がり角に近づく場合、ユーザは、曲がり角に遮られている建物、ランドマーク、標識などを見ることを希望する場合がある。そこで、ユーザは、ナビゲーション装置200の拡張視界機能を起動し、関連する着目する場所110を入力し得る(例えば、キーボード、音声コマンド、視線の方向223などを介して)。それに応じて、ナビゲーションシステム200は、図4と併せてさらに詳しく後述するように、着目する場所110に対するユーザの位置に基づいて、画像撮像位置および/または画像撮像方向を判定し得る。次いで、ナビゲーションシステム200は、画像撮像位置および/または画像撮像方向に基づいて着目する場所110の画像112を受信し、また画像112に対してオプションの処理を実行し得る。次いで、画像112は、ユーザにディスプレイ120上で表示される。例えば、図3Bに示されるように、曲がり角の向こう側にある着目する場所110の画像112は、車の窓などの透明ディスプレイ120上でユーザに表示され得て、ユーザが、画像112と併せてリアルタイムの視界116を見ることができるようにする。
図4は、本発明の様々な実施形態による、曲がり角によって遮られている着目する場所110について拡張された視界を生成する際に、画像撮像位置(複数可)415および画像撮像方向(複数可)を判定するための技法を示す概念図である。図示のように、1つまたは2つ以上の画像112は、それぞれが異なる画像撮像位置415および/または画像撮像方向に関連付けられているが、データベースおよび/または着目する場所110の近くにあるカメラから取得され得る。複数の画像112が取得された場合、画像112は組み合わせられて、ユーザに表示される単一の連続画像112を形成し得る。加えて、画像(複数可)112は、ユーザのリアルタイムの視界116と組み合わせられ得る。例えば、図示のように、ユーザ410の位置に関連付けられたリアルタイムの視界116−1およびリアルタイムの視界116−2の画像は、画像撮像位置415−1で撮像された画像112−1および画像撮像位置415−2で撮像された画像112−2と組み合わされて、ユーザに表示される連続画像を形成し得る。その他の実施形態では、連続画像は、画像112−1および画像112−2だけを組み合わせることによって生成され得る。次いで、結果として得られた画像112は、処理され(例えば、ユーザの視点にしたがって)、ユーザの視野の適切な位置に表示されて、画像112がリアルタイムの視界116−1およびリアルタイムの視界116−2と実質的に連続に見えるようにする。
リアルタイムの視界(複数可)116を着目する場所110の画像112と合成することに加えて、リアルタイムの視界(複数可)116は、どの画像撮像位置(複数可)および/または画像撮像方向(複数可)が、ユーザ410の位置に関連付けられたリアルタイムの視界116に最もよく一致するかを判定するために用いられ得る。例えば、ナビゲーションシステム200に関連付けられたコンピューティング装置は、リアルタイムの視界116(例えば、リアルタイムの視界116−1および116−2)の1つまたは2つ以上の部分を、データベースまたはカメラから取得された画像112の1つまたは2つ以上の対応する部分と比較して、どの画像(複数可)112がユーザの視点に最もよく一致するかを判定し得る。次いで、リアルタイムの視界116と適切な水準の連続性を提供する画像112が処理され、ユーザに表示され得る。
図5は、本発明の様々な実施形態による、ユーザのために着目する場所の拡張された視界を生成するための方法ステップの流れ図である。本方法ステップは図1〜図4のシステムと併せて説明されているが、当業者であれば、本方法ステップを実行するように構成される任意のシステムが、いかなる順番であっても、本発明の範囲内に属することを理解するであろう。
図示のように、方法500はステップ510で開始し、そこでは、ナビゲーションシステム200は、着目する場所110を受信する。着目する場所110は、ユーザによって入力される、ナビゲーションシステム200によって判定される、および/または補助装置から受信され得る。ステップ515において、ナビゲーションシステム200は、ユーザの位置を判定する。ユーザの位置は、全地球測位システム(GPS)、無線通信装置、飛行時間型装置、無線周波数(RF)装置、光学装置などを含む、任意のタイプの地理位置情報装置を用いて判定され得る。
次に、ステップ520において、ナビゲーションシステム200は、着目する場所110およびユーザの位置に基づいて画像撮像位置を判定する。ステップ525において、ナビゲーションシステム200は、着目する場所110、ユーザの位置、および/または画像撮像位置に基づいて画像撮像方向を判定し得る。次いで、ステップ530において、ナビゲーションシステム200は、画像撮像位置およびオプションの画像撮像方向に関連付けられた着目する場所110の画像112を受信する。
ステップ540において、ナビゲーションシステム200および/またはナビゲーションシステム200に関連付けられたコンピューティング装置は、画像112を処理し得る。処理は、例えば、画像112に変換を施すこと、画像112の大きさを変更すること、画像112をクロッピングすること、複数の画像112を単一の画像112に合成することなどを含み得る。ステップ550において、処理画像112は、ユーザにディスプレイ120上で表示される。
ステップ560において、ナビゲーションシステム200は、ユーザの位置に変化があったかどうかを判定する。ユーザの位置に変化があった場合、方法500は、ユーザの位置が判定されるステップ515に戻る。ユーザの位置に変化がなかった場合、方法500は、ステップ570に進む。ステップ570において、ナビゲーションシステム200は、着目する場所110に変化があったかどうかを判定する。着目する場所110に変化があった場合、方法500は、様々な着目する場所110が受信されるステップ510に戻る。着目する場所に変化がなかった場合、方法500は終了する。
ユーザのために遮られている着目する場所110について拡張された視界を生成することに加えて、ナビゲーションシステム200は、比較的遮られていないが比較的ユーザから遠い着目する場所110について拡張された視界を生成するように構成され得る。このような実装が図6Aおよび図6Bに示されており、これらは、本発明の様々な実施形態による、着目する場所110について拡大された視界を生成するための技法を示す概念図である。図6Aに示されるように、ユーザが未遮蔽の着目する場所110に近づく場合、ユーザは、着目する場所110に関する細部をもっと容易に見ることを希望する場合がある。したがって、ナビゲーションシステム200は、着目する場所110の画像112を取得して、ユーザが指定する、またはナビゲーションシステム200によって判定されるズームレベルで、画像112をディスプレイ120上に表示し得る。結果として得られる着目する場所110の画像112が、図6Bに示されている。図示のように、着目する場所110について拡大画像を生成することによって、ユーザは、着目する場所110に関する細部をもっと容易に見ることができる。
ユーザに表示される拡大画像112は、上述のように、データベースから、または着目する場所110の近くにあるカメラから取得され得る。このような実装は、図6と併せてさらに詳しく後述される。あるいは、ユーザに表示される拡大画像112は、ナビゲーションシステム200に関連付けられた、および/またはユーザまたはユーザの車両に連結されたカメラ(例えば、カメラ210)によって取得され得る。例えば、ナビゲーションシステム200に関連付けられたカメラ210は、光学ズームまたはデジタルズーム機能を介して、着目する場所110の拡大画像112を提供し得る。その他の実施形態では、カメラ210によって撮像された画像112は、ナビゲーションシステム200に関連付けられたコンピューティング装置によって拡大され得る。次いで、拡大画像112は、ユーザにリアルタイムの視界116に対して適切な位置で表示され得る。
図7は、本発明の様々な実施形態による、着目する場所110について拡大された視界を生成する際に、ズームレベルに基づいて画像撮像位置を判定するための技法を示す概念図である。図示のように、ナビゲーションシステム200によって選択される画像撮像位置415は、ユーザによって指定される、またはナビゲーションシステム200によって選択されるズームレベルに基づき得る。例えば、画像撮像位置415−3は、ユーザがズームレベル2×などの比較的低いズームレベルを入力した場合に、ナビゲーションシステム200によって選択され得、また画像撮像位置415−5は、ユーザがズームレベル24×などの比較的高いズームレベルを入力した場合に、ナビゲーションシステム200によって選択され得る。様々な実施形態では、ユーザは、ナビゲーションシステム200に対して音声コマンドを出すことによって、またはキーボード、スイッチ、ノブ、またはその他の入力装置からズームレベルを入力することによって、着目する場所110が表示されるズームレベルを指定し得る。
ズームレベルに基づいて適切な画像撮像位置を選択することに加えて、一部の実施形態では、画像撮像方向が選択されて、図1A〜図5と併せて上述したように、適切な視点を有する画像112を提供し得る。また、所与のズームレベルに対して取得される画像112は、上述の技法により処理されて、画像撮像位置とユーザ410の位置との間の視点の差を補償し得る。さらに、図6の画像112は、Google(登録商標)Street Viewまたは周辺環境に配置された車両(例えば、車両間通信(V2V)を介する)などの車両によって撮像されるとして示されているが、画像112は、周辺環境にあるその他の物体(例えば、支柱、道路標識、建物などの上の監視カメラ)および位置から撮像され得る。
一部の実施形態では、図1A〜図5と併せて上述した、物体および/または曲がり角によって遮られている着目する場所110を見るための技法は、図6A〜図7と併せて上述した、ユーザに着目する場所110の拡大画像112を表示するための技法と組み合わせられ得る。例えば、着目する場所110の画像112を表示して、ユーザの視点から連続画像を生成する代わりに、画像112は拡大されて、ユーザが、着目する場所110に関する細部をもっと容易に見ることができるようにし得る。上述のように、画像112の倍率は、ユーザによって指定される、および/またはナビゲーションシステムによって選択されて、画像112が実質的にリアルタイムの視界116と連続であるような、ズームなしから、高ズームレベル(例えば、12×、24×、またはそれ以上)までのズームレベルを提供し得る。
図8は、本発明の様々な実施形態による、ユーザのために着目する場所の拡大された視界を生成するための方法ステップの流れ図である。本方法ステップは図1〜図4および図6〜図7のシステムと併せて説明されているが、当業者であれば、本方法ステップを実行するように構成される任意のシステムが、いかなる順番であっても、本発明の範囲内に属することを理解するであろう。
図示のように、方法800はステップ810で開始し、そこでは、ナビゲーションシステム200は、着目する場所110を受信する。ステップ812において、ナビゲーションシステム200は、ユーザの位置を判定する。ステップ814において、ナビゲーションシステム200は、ズームレベルを受信する。ズームレベルは、ナビゲーションシステム200によって(例えば、アルゴリズムに基づいて)選択され得る、あるいは、ユーザが、ナビゲーションシステム200に対して音声コマンドを出すことによって、またはキーボード、スイッチ、ノブ、もしくはその他の入力装置からズームレベルを入力することによって、ズームレベルを指定し得る。
次に、ステップ820において、ナビゲーションシステム200は、着目する場所110、ユーザの位置、および/またはズームレベルに基づいて画像撮像位置およびオプションの画像撮像方向を判定する。ステップ830において、ナビゲーションシステム200は、画像撮像位置およびオプションの画像撮像方向に関連付けられた着目する場所110の画像112を受信する。次いで、ステップ840において、ナビゲーションシステム200および/またはナビゲーションシステム200に関連付けられたコンピューティング装置は、画像112を処理し得る。ステップ850において、処理画像112は、ユーザにディスプレイ120上で表示される。
ステップ860において、ナビゲーションシステム200は、ズームレベルに変化があったかどうかを判定する。ズームレベルに変化があった場合、方法800は、様々なズームレベルが受信されるステップ814に戻る。ズームレベルに変化がなかった場合、方法800は、ステップ870に進む。ステップ870において、ナビゲーションシステム200は、ユーザの位置に変化があったかどうかを判定する。ユーザの位置に変化があった場合、方法800は、ユーザの位置が判定されるステップ812に戻る。ユーザの位置に変化がなかった場合、方法800は、ステップ880に進む。ステップ880において、ナビゲーションシステム200は、着目する場所110に変化があったかどうかを判定する。着目する場所110に変化があった場合、方法800は、様々な着目する場所110が受信されるステップ810に戻る。着目する場所に変化がなかった場合、方法800は終了する。
図9は、本発明の1つまたは2つ以上の態様を実装するように構成されるコンピューティング装置900を示すブロック図である。図示のように、コンピューティング装置900は、処理装置902と、入力/出力(I/O)装置904と、記憶装置910とを含む。記憶装置910は、データベース914と相互作用するように構成されるアプリケーション912を含む。
処理装置902は、中央処理装置(CPU)、デジタル信号処理装置(DSP)などを含み得る。I/O装置904は、入力装置、出力装置、ならびに入力の受信および出力の提供の両方を行い得る装置を含み得る。記憶装置910は、メモリモジュールまたはメモリモジュール群を含み得る。記憶装置910内のソフトウェアアプリケーション912は、処理装置902によって実行されて、コンピューティング装置900の全機能を実装し、ひいては、ナビゲーションシステム200の動作を全体として調整し得る。データベース914は、着目する場所110、画像112、リアルタイムの視界116に関連付けられた画像、GPS座標、物体の位置、物体との距離、ルックアップテーブル、ならびに着目する場所110について拡張された視界を生成するためおよび着目する場所110に関連付けられた情報を取得するためのその他のデータを記憶し得る。
コンピューティング装置900は、カメラ210および追跡装置220に連結され得る。カメラ210は、ユーザのリアルタイムの視界116の画像を撮像するように構成され得る。追跡装置220は、1つまたは2つ以上のカメラおよび/または奥行きセンサなどの1つまたは2つ以上のセンサを含み得る。追跡装置220は、ユーザが属する環境の様々な特性、ならびにユーザに関連付けられた様々な特性(例えば、場所、位置、向き、および視線の方向223)を測定するように構成され得る。追跡装置220は、任意の数のカメラ、奥行きセンサ、光センサ、または任意のその他のタイプのセンサを含み得る。概して、追跡装置220は、環境に関連付けられた知覚データおよびユーザに関連付けられた知覚データを取得し、そのデータをコンピューティング装置900に提供する。
コンピューティング装置900全体としては、マイクロプロセッサ、特定用途向け集積回路(ASIC)、システムオンチップ(SoC)、タブレットコンピュータもしくは携帯電話などのモバイルコンピューティングデバイス、メディアプレーヤなどであり得る。概して、コンピューティング装置900は、ナビゲーションシステム200の全動作を調整するように構成される。ナビゲーションシステム200の機能を実装するように構成される、あらゆる技術的に実現可能なシステムが、本発明の範囲内に属する。
要約すると、ナビゲーションシステムは、着目する場所およびユーザの位置に基づいて、画像撮像位置および画像撮像方向を判定する。次いで、ナビゲーションシステムは、データベースから、および/または着目する場所の近くにあるカメラから、着目する場所の画像を受信する。画像は、画像撮像位置および/または画像撮像方向に基づく。次に、ナビゲーションシステムは、ユーザの位置に基づいて変換を施すことにより画像を処理し得る。次いで、処理画像は、ユーザにディスプレイ上で表示される。
本明細書に開示される技法の1つの有利な点は、ユーザが、周辺環境内の障害物を透かして、着目する場所を見ることができることである。加えて、開示される技法は、ユーザが、着目する場所を見ると同時に、自身のリアルタイムの周辺に注意を払い続けることができるようにする。したがって、着目する場所の画像をユーザのリアルタイムの視野に重ねることによって、ナビゲーションの有効性およびユーザの安全性が高まる。
本発明の一実施形態は、コンピューティングデバイスで用いるためのプログラム製品として実装され得る。プログラム製品のプログラム(複数可)は、(本明細書に説明される方法を含む)実施形態の機能を定義し、様々なコンピュータ可読記憶媒体上に収容され得る。例示的なコンピュータ可読記憶媒体には、限定されるものではないが、(i)情報が永続的に記憶される書き込み不可記憶媒体(例えば、CD−ROMドライブで読み出し可能なコンパクトディスク読み出し専用メモリ(CD−ROM)ディスク、フラッシュメモリ、読み出し専用メモリ(ROM)チップまたは任意のタイプのソリッドステート不揮発性半導体メモリなどのコンピュータ内の読み出し専用メモリ装置)、および(ii)変更可能な情報が記憶される書き込み可能記憶媒体(例えば、ディスケットドライブまたはハードディスクドライブ内のフロッピー(登録商標)ディスクあるいは任意のタイプのソリッドステートランダムアクセス半導体メモリ)が含まれる。
ここまで、本発明は、具体的な実施形態を参照しながら説明されてきた。しかしながら、当業者であれば、添付の特許請求の範囲に説明される本発明の広範な精神および範囲から逸脱することなしに、ここに様々な修正および変更がなされ得ることを理解するであろう。例えば、本明細書の記載の多くがユーザを運転者または車両の乗客としているが、当業者であれば、本明細書に説明されるシステムおよび技法が、着目する場所の拡張された視界を生成することがユーザの体験および/またはユーザの安全を拡張し得るその他の状況(例えば、非車両用)に適用可能であることを理解するはずである。上記の説明および図面は、したがって、限定的な意味ではなく、説明的な意味で考慮されるべきである。
したがって、本発明の実施形態の範囲は、以下の特許請求の範囲に説明される。

Claims (18)

  1. ユーザのために着目する場所の拡張された視界を生成するためのコンピュータ利用の方法であって、前記方法が、
    前記ユーザの視線の方向を検出することと、
    前記視線の方向に基づいて前記ユーザが見つめている障害物の直接の背後にある前記着目する場所を判定することと、
    前記着目する場所に基づいて画像撮像位置を選択することと、
    前記画像撮像位置に基づいて画像撮像方向を選択することと、
    前記画像撮像位置および前記画像撮像方向に関連付けられた画像を受信することと、
    処理された画像を生成するために、前記ユーザの位置に関連付けられた見通し線に基づいて前記画像を処理することと、
    前記処理された画像を前記ユーザに表示することと
    を備える方法。
  2. 前記画像を処理することが、
    前記ユーザの前記位置に関連付けられた前記見通し線と前記画像撮像位置に関連付けられた見通し線との間の角度を補償するために、変換を前記画像に施すことを備える、請求項1に記載の方法。
  3. 前記処理された画像を前記表示することが、自動車の窓に配置されるディスプレイによって実行される、請求項2に記載の方法。
  4. 前記見通し線に関連付けられたリアルタイムの視界の画像を受信することをさらに備え、
    前記画像を処理することが、
    前記画像を前記リアルタイムの視界の前記画像と比較することと、
    前記画像の少なくとも一部分を前記リアルタイムの視界の前記画像の少なくとも一部分と整合することと
    を備える、請求項1に記載の方法。
  5. 前記リアルタイムの視界の前記画像が、前記着目する場所の遮蔽状態の視界を備え、前記画像が、前記着目する場所の実質的に未遮蔽の視界を備える、請求項4に記載の方法。
  6. 前記画像を処理することが、前記画像を前記リアルタイムの視界の前記画像と合成することをさらに備える、請求項4に記載の方法。
  7. ズーム値を前記ユーザから受信することをさらに備え、前記画像撮像位置を選択することが、前記ズーム値にさらに基づく、請求項1に記載の方法。
  8. 記ユーザの前記位置が、1つまたは2つ以上の地理位置情報信号から導出される、請求項1に記載の方法。
  9. ユーザのために着目する場所の拡張された視界を生成するためのシステムであって、前記システムが、処理装置とディスプレイとを備え、
    前記処理装置が
    前記ユーザの視線の方向を受信することと、
    前記視線の方向に基づいて前記ユーザが見つめている障害物の直接の背後にある前記着目する場所を判定することと、
    前記着目する場所に基づいて第1の画像撮像位置を選択することと
    前記第1の画像撮像位置に基づいて画像撮像方向を選択することと、
    前記画像撮像方向に基づいて前記第1の画像撮像位置で取得された第1の画像を受信することと、
    処理された画像を生成するために、前記ユーザの位置に関連付けられた見通し線に基づいて前記第1の画像を処理することと
    を実行するように構成され
    前記ディスプレイは、前記処理された画像を前記ユーザに表示するように構成されるシステム。
  10. 前記処理装置が、前記ユーザの前記位置に関連付けられた前記見通し線と前記第1の画像撮像位置に関連付けられた見通し線との間の角度を補償するために、変換を前記第1の画像に施すことによって、前記第1の画像を処理するように構成される、請求項に記載のシステム。
  11. 前記ディスプレイが、自動車の窓に配置される、請求項10に記載のシステム。
  12. 前記処理装置が、前記見通し線に関連付けられたリアルタイムの視界の画像を受信するようにさらに構成され、前記処理装置が、前記第1の画像を前記リアルタイムの視界の前記画像と比較して変換を判定し、かつ前記変換を前記第1の画像に施して前記第1の画像の少なくとも一部分を前記リアルタイムの視界の前記画像の少なくとも一部分と整合することによって前記第1の画像を処理するように構成される、請求項に記載のシステム。
  13. 前記リアルタイムの視界の前記画像が、前記着目する場所の遮蔽状態の視界を備え、前記第1の画像が、前記着目する場所の実質的に未遮蔽の視界を備える、請求項12に記載のシステム。
  14. 前記処理装置が、前記見通し線に関連付けられたリアルタイムの視界の画像を受信するようにさらに構成され、前記処理装置が、前記第1の画像の少なくとも一部分を前記リアルタイムの視界の前記画像の少なくとも一部分と整合し、かつ前記第1の画像を前記リアルタイムの視界の前記画像と合成することによって前記第1の画像を処理するように構成される、請求項に記載のシステム。
  15. 前記処理装置が、前記ユーザの前記位置および前記着目する場所に基づいて第2の画像撮像位置を選択し、かつ前記第2の画像撮像位置で取得された第2の画像を受信するようにさらに構成され、前記処理装置が、前記第1の画像を前記第2の画像と組み合わせることによって、前記第1の画像を処理するように構成される、請求項に記載のシステム。
  16. 前記第1の画像が、前記着目する場所の第1の視点に関連付けられ、前記第2の画像が、前記着目する場所の第2の視点に関連付けられる、請求項15に記載のシステム。
  17. 前記ユーザの前記視線の方向を判定するように構成される追跡装置をさらに備え、請求項に記載のシステム。
  18. 命令を含む非一時的コンピュータ可読記憶媒体であって、前記命令は、処理装置によって実行されると前記処理装置にユーザのために着目する場所の拡張された視界を
    前記ユーザの視線の方向を検出するステップと、
    前記視線の方向に基づいて前記ユーザが見つめている障害物の直接の背後にある前記着目する場所を判定するステップと、
    前記ユーザの位置および前記着目する場所に基づいて画像撮像位置を選択するステップと、
    前記画像撮像位置に基づいて画像撮像方向を選択するステップと、
    前記画像撮像位置および前記画像撮像方向に関連付けられた画像を受信するステップと、
    処理された画像を生成するために、前記ユーザの位置に関連付けられた見通し線に基づいて前記画像を処理するステップと、
    前記処理された画像を前記ユーザに表示するステップと
    を実行することによって、生成させる、非一時的コンピュータ可読記憶媒体。
JP2015023924A 2014-02-18 2015-02-10 着目場所の拡張視界の生成 Active JP6487231B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/183,364 2014-02-18
US14/183,364 US9639968B2 (en) 2014-02-18 2014-02-18 Generating an augmented view of a location of interest

Publications (2)

Publication Number Publication Date
JP2015153426A JP2015153426A (ja) 2015-08-24
JP6487231B2 true JP6487231B2 (ja) 2019-03-20

Family

ID=52596313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015023924A Active JP6487231B2 (ja) 2014-02-18 2015-02-10 着目場所の拡張視界の生成

Country Status (4)

Country Link
US (1) US9639968B2 (ja)
EP (1) EP2911041B1 (ja)
JP (1) JP6487231B2 (ja)
CN (1) CN104848863B (ja)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD781317S1 (en) 2014-04-22 2017-03-14 Google Inc. Display screen with graphical user interface or portion thereof
USD780777S1 (en) 2014-04-22 2017-03-07 Google Inc. Display screen with graphical user interface or portion thereof
USD781318S1 (en) 2014-04-22 2017-03-14 Google Inc. Display screen with graphical user interface or portion thereof
US9972121B2 (en) * 2014-04-22 2018-05-15 Google Llc Selecting time-distributed panoramic images for display
US9934222B2 (en) 2014-04-22 2018-04-03 Google Llc Providing a thumbnail image that follows a main image
US20170061689A1 (en) * 2015-08-24 2017-03-02 Caterpillar Inc. System for improving operator visibility of machine surroundings
US20170090196A1 (en) * 2015-09-28 2017-03-30 Deere & Company Virtual heads-up display application for a work machine
US10618528B2 (en) * 2015-10-30 2020-04-14 Mitsubishi Electric Corporation Driving assistance apparatus
CN109070799B (zh) 2016-04-14 2021-02-26 日产自动车株式会社 移动体周围显示方法及移动体周围显示装置
WO2017206042A1 (zh) * 2016-05-31 2017-12-07 中国科学院深圳先进技术研究院 基于智能眼镜的遮挡物透视方法及装置
CN109478334B (zh) * 2016-07-20 2021-04-20 富士胶片株式会社 关注位置识别装置、摄像装置、显示装置、关注位置识别方法及非暂时性有形介质
US10838210B2 (en) * 2016-07-25 2020-11-17 Magic Leap, Inc. Imaging modification, display and visualization using augmented and virtual reality eyewear
WO2018020661A1 (ja) * 2016-07-29 2018-02-01 三菱電機株式会社 表示装置、表示制御装置および表示制御方法
JP2018032991A (ja) * 2016-08-24 2018-03-01 富士通株式会社 画像表示装置、画像表示方法及び画像表示用コンピュータプログラム
US10552690B2 (en) * 2016-11-04 2020-02-04 X Development Llc Intuitive occluded object indicator
US10558264B1 (en) 2016-12-21 2020-02-11 X Development Llc Multi-view display with viewer detection
DE102017100004A1 (de) * 2017-01-02 2018-07-05 Connaught Electronics Ltd. Verfahren zum Bereitstellen von zumindest einer Information aus einem Umgebungsbereich eines Kraftfahrzeugs, Anzeigesystem für ein Kraftfahrzeug, Fahrerassistenzsystem für ein Kraftfahrzeug sowie Kraftfahrzeug
CN106973237B (zh) * 2017-05-25 2019-03-01 维沃移动通信有限公司 一种拍摄方法及移动终端
USD844028S1 (en) * 2017-06-04 2019-03-26 Apple Inc. Display screen or portion thereof with graphical user interface
US10885672B2 (en) 2017-06-14 2021-01-05 Behr Process Corporation Systems and methods for analyzing colors from a social media platform
US10349011B2 (en) * 2017-08-14 2019-07-09 GM Global Technology Operations LLC System and method for improved obstacle awareness in using a V2X communications system
CN109427219B (zh) * 2017-08-29 2021-04-27 深圳市掌网科技股份有限公司 基于增强现实教育场景转换模型的防灾学习方法和装置
DE102017129214B4 (de) * 2017-12-08 2024-01-18 Grammer Aktiengesellschaft System und Verfahren zur Verbesserung eines Blickfelds
US10544567B2 (en) 2017-12-22 2020-01-28 Caterpillar Inc. Method and system for monitoring a rotatable implement of a machine
JP7058585B2 (ja) 2017-12-25 2022-04-22 キヤノン株式会社 画像処理装置およびその制御方法
WO2019130827A1 (ja) 2017-12-25 2019-07-04 キヤノン株式会社 画像処理装置およびその制御方法
US10901687B2 (en) 2018-02-27 2021-01-26 Dish Network L.L.C. Apparatus, systems and methods for presenting content reviews in a virtual world
WO2019173697A1 (en) * 2018-03-08 2019-09-12 Bose Corporation Prioritizing delivery of location-based personal audio
AT521130A1 (de) * 2018-04-04 2019-10-15 Peterseil Thomas Verfahren zum Einblenden eines virtuellen Objekts
JP7033029B2 (ja) * 2018-07-30 2022-03-09 本田技研工業株式会社 制御装置及びプログラム
JP7087844B2 (ja) * 2018-08-31 2022-06-21 トヨタ自動車株式会社 画像処理装置、画像処理システム及び車両
US11538045B2 (en) 2018-09-28 2022-12-27 Dish Network L.L.C. Apparatus, systems and methods for determining a commentary rating
JP2020065141A (ja) * 2018-10-16 2020-04-23 現代自動車株式会社Hyundai Motor Company 車両の俯瞰映像生成システム及びその方法
DE102018219481A1 (de) * 2018-11-15 2020-05-20 Robert Bosch Gmbh Baugruppe für einen LiDAR-Sensor und LiDAR-Sensor
WO2020103805A1 (en) * 2018-11-19 2020-05-28 Suteng Innovation Technology Co., Ltd. Lidar signal receiving circuits, lidar signal gain control methods, and lidars using the same
US11016630B2 (en) 2019-01-31 2021-05-25 International Business Machines Corporation Virtual view-window
WO2020250549A1 (ja) * 2019-06-11 2020-12-17 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN111703371B (zh) * 2020-06-16 2023-04-07 阿波罗智联(北京)科技有限公司 交通信息的显示方法、装置、电子设备和存储介质
JP2024049400A (ja) * 2021-01-29 2024-04-10 株式会社Nttドコモ 情報処理システム
EP4364396A1 (en) * 2021-06-30 2024-05-08 Snap Inc. Augmented reality eyewear with x-ray effect
US11635808B2 (en) * 2021-08-12 2023-04-25 International Business Machines Corporation Rendering information in a gaze tracking device on controllable devices in a field of view to remotely control

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6917370B2 (en) * 2002-05-13 2005-07-12 Charles Benton Interacting augmented reality and virtual reality
JP2004234455A (ja) * 2003-01-31 2004-08-19 Canon Inc 情報処理方法および画像再生装置
US7619626B2 (en) * 2003-03-01 2009-11-17 The Boeing Company Mapping images from one or more sources into an image for display
US7148861B2 (en) * 2003-03-01 2006-12-12 The Boeing Company Systems and methods for providing enhanced vision imaging with decreased latency
JP2005311868A (ja) * 2004-04-23 2005-11-04 Auto Network Gijutsu Kenkyusho:Kk 車両周辺視認装置
JP4401890B2 (ja) * 2004-07-29 2010-01-20 本田技研工業株式会社 車両の認知支援装置
US20060210111A1 (en) * 2005-03-16 2006-09-21 Dixon Cleveland Systems and methods for eye-operated three-dimensional object location
JP2007156637A (ja) * 2005-12-01 2007-06-21 Mitsubishi Electric Corp 情報検索装置およびプログラムならびに情報検索システム
JP4752486B2 (ja) 2005-12-15 2011-08-17 株式会社日立製作所 撮像装置、映像信号の選択装置、運転支援装置、自動車
EP2036043A2 (en) * 2006-06-26 2009-03-18 Lockheed Martin Corporation Method and system for providing a perspective view image by intelligent fusion of a plurality of sensor data
JP5053776B2 (ja) 2007-09-14 2012-10-17 株式会社デンソー 車両用視界支援システム、車載装置、及び、情報配信装置
US8237791B2 (en) * 2008-03-19 2012-08-07 Microsoft Corporation Visualizing camera feeds on a map
WO2009119110A1 (ja) * 2008-03-27 2009-10-01 パナソニック株式会社 死角表示装置
KR20100055254A (ko) * 2008-11-17 2010-05-26 엘지전자 주식회사 이동 단말기의 poi 정보 제공 방법 및 그 장치
JP2011152865A (ja) * 2010-01-27 2011-08-11 Kyocera Corp 車載撮像装置
US8436872B2 (en) * 2010-02-03 2013-05-07 Oculus Info Inc. System and method for creating and displaying map projections related to real-time images
EP2372627A3 (en) * 2010-04-01 2011-10-12 Richard E. Rowe Providing city services using mobile devices and a sensor network
WO2011135778A1 (ja) 2010-04-26 2011-11-03 パナソニック株式会社 画像処理装置、カーナビゲーションシステム、及び路上カメラシステム
US20120224060A1 (en) * 2011-02-10 2012-09-06 Integrated Night Vision Systems Inc. Reducing Driver Distraction Using a Heads-Up Display
US9255813B2 (en) * 2011-10-14 2016-02-09 Microsoft Technology Licensing, Llc User controlled real object disappearance in a mixed reality display
RU2014133083A (ru) * 2012-01-16 2016-03-10 ТЕКСО МЕДИКАЛ АпС Устройство для лечения ран
DE102012200731A1 (de) * 2012-01-19 2013-07-25 Robert Bosch Gmbh Verfahren und Vorrichtung zum Visualisieren der Umgebung eines Fahrzeugs
US9092896B2 (en) * 2012-08-07 2015-07-28 Microsoft Technology Licensing, Llc Augmented reality display of scene behind surface

Also Published As

Publication number Publication date
US20150235398A1 (en) 2015-08-20
EP2911041B1 (en) 2020-07-08
JP2015153426A (ja) 2015-08-24
CN104848863B (zh) 2019-08-20
CN104848863A (zh) 2015-08-19
US9639968B2 (en) 2017-05-02
EP2911041A1 (en) 2015-08-26

Similar Documents

Publication Publication Date Title
JP6487231B2 (ja) 着目場所の拡張視界の生成
JP5798392B2 (ja) 駐車支援装置
US8880344B2 (en) Method for displaying images on a display device and driver assistance system
US11511627B2 (en) Display device and computer program
JP5962594B2 (ja) 車載表示装置およびプログラム
WO2019097763A1 (ja) 重畳画像表示装置及びコンピュータプログラム
JP6176541B2 (ja) 情報表示装置、情報表示方法及びプログラム
JPWO2018066711A1 (ja) 走行支援装置及びコンピュータプログラム
CN111273765B (zh) 车辆用显示控制装置、车辆用显示控制方法以及存储介质
US11525694B2 (en) Superimposed-image display device and computer program
JP2014181927A (ja) 情報提供装置、及び情報提供プログラム
JP2005268847A (ja) 画像生成装置、画像生成方法、および画像生成プログラム
US10546422B2 (en) System and method for augmented reality support using a lighting system's sensor data
JP2007198962A (ja) 車両用案内表示装置
JP2010185761A (ja) ナビゲーションシステム、道路地図表示方法
JP2017069852A (ja) 情報表示装置及び情報表示方法
JP4797849B2 (ja) 運転支援画像表示システム及び車載装置
JP2015504815A (ja) 運転者通知方法および運転者通知装置
CN110304057A (zh) 汽车碰撞预警、导航方法、电子设备、系统及汽车
JP2014211431A (ja) ナビゲーション装置、及び、表示制御方法
JPWO2020105685A1 (ja) 表示制御装置、方法、及びコンピュータ・プログラム
JP6555413B2 (ja) 移動体周囲表示方法及び移動体周囲表示装置
JP2008002965A (ja) ナビゲーション装置およびその方法
JP2008139157A (ja) 車載用ナビゲーション装置
JP6956376B2 (ja) 表示制御システム、表示システム、表示制御方法、プログラム、及び移動体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190221

R150 Certificate of patent or registration of utility model

Ref document number: 6487231

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250