[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP3893983B2 - 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム - Google Patents

情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム Download PDF

Info

Publication number
JP3893983B2
JP3893983B2 JP2002009238A JP2002009238A JP3893983B2 JP 3893983 B2 JP3893983 B2 JP 3893983B2 JP 2002009238 A JP2002009238 A JP 2002009238A JP 2002009238 A JP2002009238 A JP 2002009238A JP 3893983 B2 JP3893983 B2 JP 3893983B2
Authority
JP
Japan
Prior art keywords
image
information
additional information
camera
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002009238A
Other languages
English (en)
Other versions
JP2003216982A (ja
Inventor
康紀 大戸
光晴 大木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002009238A priority Critical patent/JP3893983B2/ja
Priority to US10/342,759 priority patent/US7119831B2/en
Publication of JP2003216982A publication Critical patent/JP2003216982A/ja
Application granted granted Critical
Publication of JP3893983B2 publication Critical patent/JP3893983B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Instructional Devices (AREA)
  • Studio Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、カメラなどにより撮影された実画像に関連する情報を提供する情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラムに係り、特に、GPS(Global Positioning System)などにより得られた位置情報と結び付けてカメラにより撮影された実画像を提供する情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラムに関する。
【0002】
さらに詳しくは、本発明は、カメラによる実画像に所定の情報を付加して提供する情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラムに係り、特に、カメラの実画像に対してその位置情報に関連する情報を付加して、撮影された場所と付加された情報の関係がつかみ易い画像情報を提供する情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラムに関する。
【0003】
【従来の技術】
GPS(Global Positioning System)は、地球上での現在位置を算出するために開発されたシステムである。すなわち、地球上を周回する3以上の低軌道衛星から送信される電波を受信することで、現在位置を算出する。通常、地上からは常時4〜12個程度の衛星の電波を受信することができ、これらの位相を計算することで、現在位置を算出できる。1回の測定誤差は30m〜100mとされている。
【0004】
GPSは、そもそも軍事用の車両、船艦、航空機などの位置を測定するために構築されたものであるが、その後民間にも解放され、最近では民間への利用がさかんに進められている。GPSなどを利用した位置測定サービスを他の情報処理サービスや情報提供サービスと結び付けたさまざまなサービスが出現してきている。
【0005】
例えば、GPSなどによる位置測定結果と地図情報システムを組み合わせることで、道路情報などをリアルタイムに表示する車載用ナビゲーション・システムは既に広範に普及している。この種のナビゲーション・システムでは、走行中の車両の位置をGPSなどを利用して検出するとともに、地図データからは該当する区域の道路地図を読み出して、液晶ディスプレイなどの表示画面に車両の位置をこの道路地図に重畳させて表示させるようになっている。
【0006】
さらには、単に車両の位置を示した道路地図を表示するだけでなく、計算機の演算能力を活用して、ドライバに対して注意を促したり付加価値の高い映像表示を行なうナビゲーション・システムについても開発がなされている。
【0007】
例えば、特開平10−7989号公報には、3次元コンピュータ・グラフィックス技術を利用して、道路などの立体的画像を表示して、カーブがあるとか、道路幅が狭くなっていくとか、坂道になっているとか、ドライバが特に注意しなければならない道路をドライバが分かり易く表示することができる前方画像表示装置について開示されている。
【0008】
また、GPSは、車両以外にも、さまざまな情報機器と結び付いて利用されている。例えば、GPSとビデオ・カメラなどの映像情報記録装置と組み合わせることにより、記録映像の撮影場所の通知や撮影画像の管理に利用することができる。
【0009】
例えば、本出願人に既に譲渡されている特開平11−205725号公報には、撮影位置と映像情報の記録位置とを対応付けて記録・再生することができる映像情報記録再生装置について開示されている。このような映像情報記録再生装置によれば、位置情報を映像の管理に利用することができる。すなわち、再生時には撮影された映像と撮影を行った場所を示す地図を同時に表示することによって、映像がどこで撮影されたかを示すことができる。また、地図上で撮影位置を指定することによって、指定された場所で撮影された映像を簡単に取り出すことができる。
【0010】
【発明が解決しようとする課題】
位置情報を利用した情報提供サービスの一例として、携帯電話に対するニュース配信を挙げることができる。すなわち、携帯電話の受信局を同定して、それに応じた情報をニュースとして配信している。
【0011】
しかしながら、現在行われている情報提供サービスで配信される情報の多くは、実際にユーザが見ている周囲の情報とはリンクされていないことから、ある地点で配信される情報が、実際にはどこから提供されているものかを同定することが難しいものとなっている。
【0012】
また、地図情報を用いたナビゲーション・システムでも、情報提供装置に表示される画像情報は、2次元地図あるいは3次元地図に配置された形として提供されたものであるが、 実際のユーザが見ているものとは大いに相違するので、ユーザは提示された画像情報の中から所望の情報オブジェクトを即座に見つけ出すことは難しい。
【0013】
また、たとえ非常にリアルな仮想空間を実現して、情報提供装置で情報を提供しえたとしても、情報提供装置のディスプレイの方向とユーザの視線方向が異なってしまうことから、提供された情報と実画像中の建造物などとの対応関係を取ることは困難である。
【0014】
また、非常にリアルな仮想空間を実現するためには、豊富なテクスチャを用意する必要があり、また、精密なモデリングも必要となる。さらに、仮想空間の更新を頻繁に行わないと、実際に見えている風景との差異が大きくなってしまうなどといった問題がある。
【0015】
本発明は、上述したような技術的課題を鑑みたものであり、その主な目的は、GPSなどにより得られた位置情報と結び付けてカメラにより撮影された実画像を提供することができる、優れた情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラムを提供することにある。
【0016】
本発明のさらなる目的は、カメラによる実画像に所定の情報を付加して提供することができる、優れた情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラムを提供することにある。
【0017】
本発明のさらなる目的は、カメラの実画像に対してその位置情報に関連する情報を付加して、撮影された場所と付加された情報の関係がつかみ易い画像情報を提供することができる、優れた情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラムを提供することにある。
【0018】
【課題を解決するための手段及び作用】
本発明は、上記課題を参酌してなされたものであり、その第1の側面は、位置情報に関連付けられた付加情報を場所との関係を分かり易く提示する情報提供装置又は情報提供方法であって、
実画像を取得する実画像取得手段又はステップと、
実画像が取得された立体位置を取得する立体位置取得手段又はステップと、
該取得された立体位置に基づいて、実画像に含まれる各建物の建物データを取得する建物データ取得手段又はステップと、
該取得された立体位置に基づいて、関連する付加情報を取得する付加情報取得手段又はステップと、
付加情報を実画像中に合成する画像合成手段又はステップと、
該付加情報が合成された実画像から所定の表示ウィンドウで切り出してユーザに提示する表示手段又はステップと、
を具備することを特徴とする情報提供装置又は情報提供方法である。
【0019】
本発明の第1の側面に係る情報提供装置又は情報提供方法によれば、カメラ付き表示装置をユーザの視線方向に挿入して、カメラによって撮像された画像に対して、2次元乃至は3次元のコンピュータ・グラフィックス(CG)・オブジェクトを付加することによって、ユーザに情報提示を行うことができる。
【0020】
ここで言うCGオブジェクトには、建物に取り付ける看板のような広告情報や、道路に貼り付ける道案内情報などを適用することができる。
【0021】
また、カメラの撮影画像ではなく、自動車のフロン・トガラスから見える風景と同じ領域を取得し、車内に設置した情報提供装置によって、同様に付加情報のの表示を行うこともできる。
【0022】
本発明の第1の側面に係る情報提供装置又は情報提供方法によれば、ユーザの視線方向にある景色をそのまま利用し、これに対して情報を付加して提示することができるので、情報とそれが付加された場所との関係がつかみ易くなる。
【0023】
また、本発明の第1の側面に係る情報提供装置又は情報提供方法によれば、付加情報の提示に実画像を積極的に用いていることから、仮想空間による情報提示で問題となるテクスチャやモデルの作成量の多さや即時性を克服することができる。
【0024】
また、本発明の第1の側面に係る情報提供装置又は情報提供方法によれば、情報提示位置が画像とずれないことから、バーチャル・スタジオや現実融合(オーギュメンテッド・リアリティ)などにおいて問題であった、カメラ移動によって生じる現実にある物体と仮想オブジェクト間の相対位置のずれを回避することができる。
【0025】
ここで、前記立体位置取得手段又はステップでは、ジャイロ及びGPSのうち少なくとも1つを用いて、実画像を捕捉するカメラについての大まかな立体位置を取得するようにしてもよい。
【0026】
また、実画像から抽出された特徴点列と建物データとをマッチングして、実画像が取得された大まかな立体位置を修正する立体位置修正手段又はステップをさらに備えていてもよい。
【0027】
また、前記画像取得手段又はステップにより実画像を取得する際に、装置の手ぶれによって画像が流れる場合には、前記表示手段又はステップは、表示ウィンドウを画像のオプティカル・フローから割り出したカメラ方向の移動に合わせて移動するようにしてもよい。これによって、負荷の大きな、カメラの空間位置の補正と付加情報の合成による遅延によって生じる、実写映像と付加情報提示位置との相対距離が変位することを防ぐことができる。
【0028】
また、前記画像取得手段又はステップにより実画像を取得する際に、画像の取得位置が大きく移動して表示ウィンドウの移動が表示フレームの範囲を越える場合には、前記表示手段又はステップは、該移動が充分小さくなるまでの間、既に取得されたいる実画像をそのままユーザに提示し続けるようにしてもよい。カメラの移動に追従して付加情報を合成すると、負荷が高いので処理のリアルタイム性が維持されず表示に遅延を生じてしまうし、付加情報が画角とともに流れていくとユーザには見え辛くて意味がないからである。
【0029】
また、前記付加情報取得手段又はステップは、ユーザに近いものから一定数を選択して取得するようにしてもよい。あるいは、前記付加情報取得手段又はステップは、ユーザからその提示が求められているものを優先的に取得するようにしてもよい。
【0030】
また、本発明の第2の側面は、位置情報に関連付けられた付加情報を場所との関係を分かり易く提示するための処理をコンピュータ・システム上で実行するように記述されたコンピュータ・ソフトウェアをコンピュータ可読形式で物理的に格納した記憶媒体であって、前記コンピュータ・ソフトウェアは、
実画像を取得する実画像取得ステップと、
実画像が取得された立体位置を取得する立体位置取得ステップと、
該取得された立体位置に基づいて、実画像に含まれる各建物の建物データを取得する建物データ取得ステップと、
該取得された立体位置に基づいて、関連する付加情報を取得する付加情報取得ステップと、
付加情報を実画像中に合成する画像合成ステップと、
該付加情報が合成された実画像から所定の表示ウィンドウで切り出してユーザに提示する表示ステップと、
を具備することを特徴とする記憶媒体である。
【0031】
本発明の第2の側面に係る記憶媒体は、例えば、さまざまなプログラム・コードを実行可能な汎用コンピュータ・システムに対して、コンピュータ・ソフトウェアをコンピュータ可読な形式で提供する媒体である。このような媒体は、例えば、DVD(Digital Versatile Disc)、CD(Compact Disc)やFD(Flexible Disk)、MO(Magneto-Optical disc)などの着脱自在で可搬性の記憶媒体である。あるいは、ネットワーク(ネットワークは無線、有線の区別を問わない)などの伝送媒体などを経由してコンピュータ・ソフトウェアを特定のコンピュータ・システムに提供することも技術的に可能である。
【0032】
また、第2の側面に係る記憶媒体は、コンピュータ・システム上で所定のコンピュータ・ソフトウェアの機能を実現するための、コンピュータ・ソフトウェアと記憶媒体との構造上又は機能上の協働的関係を定義したものである。換言すれば、第2の側面に係る記憶媒体を介して所定のコンピュータ・ソフトウェアをコンピュータ・システムにインストールすることによって、コンピュータ・システム上では協働的作用が発揮され、本発明の第1の側面に係る情報提供装置又は情報提供方法と同様の作用効果を得ることができる。
【0033】
また、本発明の第3の側面は、位置情報に関連付けられた付加情報を場所との関係を分かり易く提示するための処理をコンピュータ・システム上で実行するように記述されたコンピュータ・プログラムであって、
実画像を取得する実画像取得ステップと、
実画像が取得された立体位置を取得する立体位置取得ステップと、
該取得された立体位置に基づいて、実画像に含まれる各建物の建物データを取得する建物データ取得ステップと、
該取得された立体位置に基づいて、関連する付加情報を取得する付加情報取得ステップと、
付加情報を実画像中に合成する画像合成ステップと、
該付加情報が合成された実画像から所定の表示ウィンドウで切り出してユーザに提示する表示ステップと、
を具備することを特徴とするコンピュータ・プログラムである。
【0034】
本発明の第3の側面に係るコンピュータ・プログラムは、コンピュータ・システム上で所定の処理を実現するようにコンピュータ可読形式で記述されたコンピュータ・プログラムを定義したものである。換言すれば、本発明の第3の側面に係るコンピュータ・プログラムをコンピュータ・システムにインストールすることによって、コンピュータ・システム上では協働的作用が発揮され、本発明の第1の側面に係る情報提供装置又は情報提供方法と同様の作用効果を得ることができる。
【0035】
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
【0036】
【発明の実施の形態】
以下、図面を参照しながら本発明の実施形態について詳解する。
【0037】
図1には、本発明の実施に供される情報提供装置100のハードウェア構成を模式的に示している。以下、同図を参照しながら各部について説明する。
【0038】
メイン・コントローラであるCPU(Central Processing Unit)101は、オペレーティング・システム(OS)の制御下で、各種のアプリケーションを実行する。CPU101は、例えば、画像処理アプリケーションなどを実行することができる。本実施形態では、画像処理アプリケーションは、カメラによる実画像などユーザの視線方向にある景色に対して情報を付加して情報と場所との関係を理解し易く提示することができるが、その処理の詳細については後述に譲る。
【0039】
図示の通り、CPU101は、バス108によって他の機器類(後述)と相互接続されている。
【0040】
主メモリ102は、CPU101において実行されるプログラム・コードをロードしたり、プログラム実行中の作業データを一時保管するために使用される記憶装置であり、例えばDRAM(Dynamic RAM)のような半導体メモリが使用される。主メモリ102にロードされるプログラムとして、例えば、カメラによる実画像などユーザの視線方向にある景色に対して情報を付加して情報と場所との関係を理解し易く提示する画像処理アプリケーションを挙げることができる。また、主メモリ102に格納される作業データとして、例えば、ジャイロやGPSから得られたカメラの立体位置情報や、ネットワークなどを介して取得された建物データ、建物データ(あるいは立体位置情報)に関連付けられたサービス情報などを挙げることができる。
【0041】
また、ROM(Read Only Memory)103は、データを恒久的に格納する半導体メモリであり、例えば、起動時の自己診断テスト(POST:Power On Self Test)や、ハードウェア入出力操作用のプログラム・コード(BIOS:Basic Input/Output System)などが書き込まれている。
【0042】
ディスプレイ・コントローラ104は、CPU101が発行する描画命令を実際に処理するための専用コントローラである。ディスプレイ・コントローラ103において処理された描画データは、例えばフレーム・バッファ112に一旦書き込まれた後、ディスプレイ111によって画面出力される。
【0043】
ディスプレイ111の表示画面は、一般に、ユーザからの入力内容やその処理結果、あるいはエラーその他のシステム・メッセージをユーザに視覚的にフィードバックする役割を持つ。また、本実施形態においては、ディスプレイ111の表示画面は、位置情報を利用して取得されたサービス情報が画像処理により付加されたカメラの実画像の表示に利用される。
【0044】
入力機器インターフェース105は、キーボード113やマウス114などのユーザ入力機器を情報提供装置100に接続するための装置である。
【0045】
キーボード113やマウス114は、データやコマンドなどのユーザ入力をシステムに取り込む役割を持つ。本実施形態では、カメラによる実画像などユーザの視線方向にある景色に対して情報を付加して情報と場所との関係を理解し易く提示する画像処理アプリケーションの起動、その他のデータやコマンドの入力のために使用される。
【0046】
ネットワーク・インターフェース106は、Ethernet(登録商標)などの所定の通信プロトコルに従って、システム100をLAN(Local Area Network)などの局所的ネットワーク、さらにはインターネットのような広域ネットワークに接続することができる。
【0047】
ネットワーク上では、複数のホスト端末(図示しない)がトランスペアレントな状態で接続され、分散コンピューティング環境が構築されている。ネットワーク上では、ソフトウェア・プログラムやデータ・コンテンツなどの配信サービスを行うことができる。例えば、カメラによる実画像などユーザの視線方向にある景色に対して情報を付加して情報と場所との関係を理解し易く提示する画像処理アプリケーションなどを、ネットワーク経由でダウンロードすることができる。また、建物データ、建物データ(あるいは立体位置情報)に関連付けられたサービス情報、本画像処理アプリケーションにより合成されて撮影された場所と付加情報との関係がつかみ易い画像情報などを、ネットワーク経由で他のホスト装置との間で配信したり配布することができる。
【0048】
外部機器インターフェース107は、ハード・ディスク・ドライブ(HDD)115やメディア・ドライブ116などの外部装置を本情報提供装置100に接続するための装置である。
【0049】
HDD114は、記憶担体としての磁気ディスクを固定的に搭載した外部記憶装置であり(周知)、記憶容量やデータ転送速度などの点で他の外部記憶装置よりも優れている。ソフトウェア・プログラムを実行可能な状態でHDD114上に置くことをプログラムのシステムへの「インストール」と呼ぶ。通常、HDD114には、CPU101が実行すべきオペレーティング・システムのプログラム・コードや、アプリケーション・プログラム、デバイス・ドライバなどが不揮発的に格納されている。例えば、カメラによる実画像などユーザの視線方向にある景色に対して情報を付加して情報と場所との関係を理解し易く提示する画像処理アプリケーションなどを、HDD114上にインストールすることができる。また、ジャイロやGPSから得られたカメラの立体位置情報や、建物データ、建物データ(あるいは立体位置情報)に関連付けられたサービス情報、本画像処理アプリケーションにより合成されて撮影された場所と付加情報との関係がつかみ易い画像情報などをHDD114上に蓄積しておいてもよい。
【0050】
メディア・ドライブ115は、CD(Compact Disc)やMO(Magneto-Optical disc)、DVD(Digital Versatile Disc)などの可搬型メディアを装填して、そのデータ記録面にアクセスするための装置である。
【0051】
可搬型メディアは、主として、ソフトウェア・プログラムやデータ・ファイルなどをコンピュータ可読形式のデータとしてバックアップすることや、これらをシステム間で移動(すなわち販売・流通・配布を含む)する目的で使用される。例えば、カメラによる実画像などユーザの視線方向にある景色に対して情報を付加して情報と場所との関係を理解し易く提示する画像処理アプリケーションなどを、これら可搬型メディアを利用して複数の機器間で物理的に流通・配布することができる。また、建物データ、建物データ(あるいは立体位置情報)に関連付けられたサービス情報、本画像処理アプリケーションにより合成されて撮影された場所と付加情報との関係がつかみ易い画像情報などを他の装置との間で交換するために、可搬型メディアを利用する。
【0052】
ビデオ・キャプチャ・インターフェース121は、カメラにより捕捉された静止画又は動画などの画像データを、所定フォーマットのコンピュータ・データ(例えばカラー表示画像であればRGB形式)として本情報提供装置100内に取り込むためのインターフェース装置である。
【0053】
位置情報取得インターフェース122は、ジャイロによるカメラの角度(姿勢)検出信号やGPSによるカメラの位置測定信号を、コンピュータ・データとして本情報提供装置100内に取り込むためのインターフェース装置である。CPU101では、これらの検出信号を統合して、カメラの本装置100の大まかな立体位置情報を取得することができる。
【0054】
なお、図1に示すような情報提供装置100の一例は、米IBM社のパーソナル・コンピュータ"PC/AT(Personal Computer/Advanced Technology)"の互換機又は後継機である。勿論、他のアーキテクチャを備えたコンピュータを、本実施形態に係る情報提供装置100として適用することも可能である。
【0055】
図2には、情報提供装置100上で、位置情報を利用して目標とする建物が分かり易く表示されるようにカメラの実画像を処理するための処理モジュール構成を模式的に示している。各処理モジュールの実体は、CPU101において実行されるプログラム・コードや、メモリ102に格納されたデータなどである。
【0056】
カメラ立体位置取得部6は、ジャイロ4によるカメラ8の角度(姿勢)検出信号やGPS5によるカメラ8の位置測定信号を統合して、カメラ8の大まかな立体位置情報を取得する。
【0057】
画像フレーム・バッファ7は、カメラ8の撮影動作により取得された実画像を一時的に蓄積する。画像フレーム・バッファ7に蓄積された画像フレームは、手ぶれ補正処理(後述)や、ユーザの視線方向にある景色に対する付加情報の提示に利用される。
【0058】
情報付加対象認識部9は、カメラ立体位置取得部6により取得された大まかな位置情報に対して、同位置(カメラの実画像内)に存在する各建物データを、ネットワーク3経由で地図データベース2を利用して取得する。そして、建物データと画像フレーム・バッファ7に格納されている実画像との間で特徴点のマッチングを行なうことにより、情報を付加しようとしている各対象物を認識する。
【0059】
画像への情報合成部10は、情報を付加しようとしている対象物(すなわちカメラの実画像内の各建物)に対して付加すべきサービス情報1を、ネットワーク3経由で地図データベース2を利用して取得する。そして、画像フレーム・バッファ7に蓄積されている実画像に対してこれらサービス情報を合成して、ユーザの視線方向にある景色をそのまま利用した付加情報をユーザに提示する。
【0060】
本情報提示装置100によれば、ユーザの視線方向にある景色をそのまま利用し、これに対して情報を付加して提示するので、情報とそれが付加された場所との関係がつかみ易くなる。
【0061】
また、付加情報の提示に実画像を積極的に用いていることから、仮想空間による情報提示で問題となるテクスチャやモデルの作成量の多さや即時性を克服することができる。
【0062】
また、情報提示位置が画像とずれないことから、バーチャル・スタジオや現実融合(オーギュメンテッド・リアリティ)などにおいて問題であった、カメラ移動によって生じる現実にある物体と仮想オブジェクト間の相対位置のずれを回避することができる。
【0063】
図3には、本実施形態に係る情報提示装置100による付加情報の提示処理の流れを模式的に示している。
【0064】
カメラ8で撮影された画像は、画像フレーム・バッファ7に保存される。また、その場所に存在する建物の3次元データをネットワーク経由で取得して、画像フレーム内の各対象物との間でマッチングして、位置修正を行う。
【0065】
また、システムは、ネットワーク経由で取得されたサービス情報を、3次元CGデータとして3次元データ内に配置して、画像フレーム・バッファ7に保存されている画像データと合成を行った後、表示フレームに保存する。このとき、建物データは合成しない。
【0066】
そして、表示ウィンドウによってカリングを行った後、サービス情報が付加された実画像をユーザに提示する。
【0067】
なお、カメラ8などの装置の手ぶれによって画像が流れる場合には、表示ウィンドウを画像のオプティカル・フローから割り出したカメラ方向の移動に合わせて移動するようにする。このような操作によって、負荷の大きな、カメラの空間位置の補正と付加情報の合成による遅延によって生じる、実写映像と付加情報提示位置との相対距離が変位することを防ぐことができる。
【0068】
また、パンやチルトなどによりカメラが大きく移動した場合や、表示ウィンドウの移動が表示フレームの範囲を越える場合には、カメラ8の移動が小さくなるまで、画像フレーム・バッファに蓄積されている撮影画像をそのままユーザに提示し続けるようにする。
【0069】
図4には、実画像に対してサービス情報を合成してユーザの視線方向にある景色をそのまま利用した付加情報をユーザに提示するための処理手順をフローチャートの形式で示している。この付加情報の提示処理は、上述したようなカメラの手ぶれ処理や、パンやチルト時の処理を含んでいる。また、この処理手順は、実際には、CPU101が所定のプログラム・コードを実行するという形態で実現される。以下、このフローチャートを参照しながら、付加情報をユーザに提示するための処理手順について説明する。
【0070】
まず、初期設定として、カメラ8が手ぶれやパン/チルトなどによりフレームアウトを生じたか否かを示すフレームアウト・フラグをT(真)に設定する(ステップS1)
【0071】
次いで、カメラ8から撮影画像を取得した後(ステップS2)、フレームアウト・フラグのチェックを行う(ステップS3)。
【0072】
フレームアウト・フラグがTのとき、撮影画像に対する提供情報の合成を行い(ステップS4)、これをディスプレイ111の表示画面上でユーザに提示した後(ステップS10)、ステップS2に戻って、再びカメラ8による画像取得を行なう。
【0073】
提供情報の合成により、ユーザの視線方向にある景色をそのまま利用して情報を付加して提示することができるので、ユーザにとっては情報とそれが付加された場所との関係がつかみ易くなる。但し、実画像に対する提供情報の合成処理の詳細については、後述に譲る。
【0074】
一方、ステップS3においてフレームアウト・フラグがFであったときには、以前取得した画像との差分からオプティカル・フローを取得して(ステップS5)、カメラ8の移動量を計算して(ステップS6)、その移動量が大きいかどうかをチェックする(ステップS7)。
【0075】
カメラ8の移動量が小さいときには、システムはこのカメラ8の移動を「手ぶれ」と判断して、オプティカル・フローに従って表示ウィンドウの位置を移動する(ステップS8)。そして、表示ウィンドウの移動が表示フレームを越えるかどうか判断して(ステップS9)、これを越えない場合には移動した表示ウィンドウを用いて、情報が付加された画像を表示する(ステップS10)。その後、ステップS2に戻って、再びカメラ8による画像取得を行なう。
【0076】
このように、表示ウィンドウを画像のオプティカル・フローから割り出したカメラ方向の移動に合わせて移動することによって、負荷の大きな、カメラの空間位置の補正と付加情報の合成による遅延によって生じる、実写映像と付加情報提示位置との相対距離が変位することを防ぐことができる。
【0077】
一方、ステップS9において表示ウィンドウの移動が表示フレームを越えていると判断された場合には、フレームアウト・フラグをTにした後(ステップS11)、ステップS2に戻って、再びカメラ8による画像取得を行なう。
【0078】
また、ステップS7において、カメラの移動量が大きいと判断された場合には、 システムは「カメラの移動(パン/チルト)」とみなして、提供情報の合成を停止する(ステップS12)。この後、カメラの位置が停止したと判断されるまでの間(ステップS14)、取得した画像をそのままユーザに提示し続ける(ステップS15)。そして、カメラ位置が停止したと判断されたとき(ステップS14)、フレームアウト・フラグをTとして(ステップS11)、ステップS2に戻って、再びカメラ8による画像取得を行なう。
【0079】
また、図5には、図4に示したフローチャート中のステップS4において実行される、情報付加対象を認識して、実画像に情報の付加を行うための詳細な処理手順の詳細をフローチャートの形式で示している。
【0080】
まず、ジャイロ4によるカメラ8の角度(姿勢)検出信号やGPS5によるカメラ8の位置測定信号を統合して、カメラ8の大まかな立体位置情報を取得する(ステップS21)。
【0081】
次いで、ユーザの現在位置の近傍にある建物データ1を、ネットワーク3経由で(あるいはCD−ROMやDVDなどの他の配布媒体を介して)、取得する(ステップS22)。
【0082】
次いで、画像フレーム・バッファ7に格納されている実画像から特徴点列を抽出する(ステップS23)。
【0083】
そして、抽出された特徴点列と、ステップS2で取得された建物データの間でマッチングを行なう(ステップS24)。
【0084】
さらに、マッチング結果を利用して、大まかであったカメラの立体位置を修正しておく(ステップS25)。
【0085】
図6〜8には、実写画像に対して建物情報を合わせることによってカメラ8の空間座標を修正する様子を示している。
【0086】
図6は、カメラ8により取得された実画像から特徴点となる要素を抽出した様子を示している。 本実施形態では、画素情報の空間差分を取り、細線化処理を行ったものに対して、 直方体や円筒形などの建物が多いことを利用して、 異常値を取り除いたものを用いる。
【0087】
また、ステップS21により取得した立体位置にある建物情報がネットワーク3を介して情報提供装置100に送られてくる。このとき、GPSによる位置情報の誤差を考慮して、 その周辺の建物情報も送られてくる。これらの建物情報は3次元データであり、建物の輪郭や色調の異なる部分など、実画像を画像処理することによって得られるであろう特徴量を含んだものとなっている。図7には、ネットワーク3経由で取得された建物情報で構成される3次元画像を示している。この3次元画像は、ジャイロによって検出されたカメラの向きや姿勢(すなわち視線方向)も考慮して構成される。
【0088】
そして、図8に示すように、画像処理で得られた結果と、 ネットワークから送られてきた建物データとをマッチングすることによって、 装置の位置および向きの誤差を修正する。かかる誤差は、特徴点列と建物データに一般的な画像すり合せ(Image Registration)を適用することによって、修正することができる。また、実画像に対して、情報を付加しようとする建物の同定も、この時点で行なう。
【0089】
再び図5に戻って、実画像に情報の付加を行うための処理について説明する。
【0090】
情報を付加すべき建物がフレーム内に含まれている場合には、ネットワーク3を介して、建物への付加情報を取得する(ステップS26)。
【0091】
ここで、実画像に付加すべきサービス情報の一例は、建物に対して付加する看板やその他の広告情報を挙げることができる。また、サービス情報の他の例として、道路に付加する道案内情報を挙げることができる。但し、本発明は、ユーザの視線方向にある景色をそのまま利用して情報を付加して提示することを目的とするものであり、付加すべき情報が何であるか、付加情報の属性については特に限定されない。
【0092】
次いで、建物情報からカメラ8までの距離が求められる。 これに応じて、付加情報を三次元コンピュータ・グラフィックス画像として表現して(ステップS27)、 実画像との合成処理を行なう(ステップS28)。すなわち、実画像に含まれるそれぞれの建物と、建物や道路、その他の実在するオブジェクトに付加される付加情報オブジェクトを順次重ねるようにして陰面処理して、表示フレーム上に投影していく。生成された表示フレームは、画像フレーム・バッファ7に保存される。
【0093】
付加情報が合成された画像は、画像フレーム・バッファ7へ転送されて、手ぶれ処理(前述)が行なわれる(ステップS29)。そして、ディスプレイ111の表示面を介して、ユーザに提示される(ステップS30)。
【0094】
図9には、市街地においてユーザが本情報提供装置100を適用している様子を示している。すなわち、ユーザは、カメラ8を携行して市街地を散策して、目標とする建物を含んだ画角すなわち表示フレームを、カメラ8のファインダ越しに眺めている。
【0095】
また、図10には、図9において本情報提供装置100を使用しているユーザの姿を示している。 ユーザは、情報が欲しいシーンに対して、カメラ8のファインダを視線方向を遮るようにかざすように用いる。
【0096】
本情報提供装置100には、GPSが装備されており、複数のGPS衛星からの電波を用いて本装置の位置を取得することができる(図11を参照のこと)。但し、GPSで取得可能な位置情報の精度は数メートル単位であり、取得された位置情報には一定の誤差が含まれている。 本システムでは、このような誤差を、カメラ8で撮影された実画像から抽出された特徴点列と、ネットワーク3経由で取得された建物データとをマッチングすることによって修正している(図5に示すフローチャートのステップS25を参照のこと)。
【0097】
なお、GPSシステムを利用する以外にも、各建物に、IDを示す標識や、電波あるいは赤外線発信装置などを設置しておき、カメラや信号を受信する装置を介して、情報提供装置100の位置を取得することもできる。
【0098】
また、本情報提供装置100には、ジャイロが装備されており、本装置の姿勢や方向を取得することができる。 ジャイロは、3軸の回転を取得することにより、本情報提供装置100がどの方向を向いているのか(すなわちカメラ8の視線方向)を取得することができる(図12を参照のこと)。
【0099】
なお、本実施形態では、ジャイロで取得したカメラ方向に対しても、カメラ8で撮影された実画像から抽出された特徴点列と、ネットワーク3経由で取得された建物データとをマッチングすることによって、誤差を修正している(図5に示すフローチャートのステップS25を参照のこと)。
【0100】
図13には、図9において本実施形態に係る情報提示装置100が提示する画像情報の例を示している。同図に示す例では、実際に撮影された市街地風景には、3次元コンピュータ・グラフィックス技術を利用して、建物に対して広告看板などのサービス情報が貼り付けられたり、あるいは、道路には道案内用の矢印が付加されて、ユーザに提示されている。
【0101】
また、本実施形態では、カメラの移動量によっては実画像への情報の付加を抑制して、無駄な演算の実行を節約するようにしている。図14〜16には、カメラ移動に対して情報の付加が抑制された結果を示している。
【0102】
図14に示す例では、システムが表示するウィンドウ51の中に、建物情報53や、道案内情報52が付加情報として合成された実画像が表示されている。
【0103】
また、図15に示す例では、参照番号55で表した矢印で示しているように、カメラ8の画角が右下方向へ移動している。このとき、システムが表示するウィンドウ51の中には、システムが付加する情報は提示されていない。カメラ8の移動に追従して付加情報を合成すると、負荷が高いので処理のリアルタイム性が維持されず表示に遅延を生じてしまうし、付加情報が画角とともに流れていくとユーザには見え辛くて意味がないからである。
【0104】
また、図16に示す例では、カメラの移動が休止した状態を示しており、システムが表示するウィンドウ51の中には、建物情報56や、道案内情報52などの付加情報がユーザの視線方向にある景色をそのまま利用して表示されている。
【0105】
ここで、本実施形態では、参照番号53や54で示されていた付加情報は、ウィンドウの位置の移動によってフレームアウトしたと判断されて非表示状態となり、また、参照番号56で示す建物情報がフレームに入ったと判断されて表示状態となっている。
【0106】
なお、本実実施形態における表示情報は、 ユーザに近いものから一定数のものを選択するようにしている。また、道案内情報などのような、 ユーザからその提示が求められているものを優先的に表示するようにしている。
【0107】
[追補]
以上、特定の実施形態を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本発明の要旨を判断するためには、冒頭に記載した特許請求の範囲の欄を参酌すべきである。
【0108】
【発明の効果】
以上詳記したように、本発明によれば、GPSなどにより得られた位置情報と結び付けてカメラにより撮影された実画像を提供することができる、優れた情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラムを提供することができる。
【0109】
また、本発明によれば、カメラによる実画像に所定の情報を付加して提供することができる、優れた情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラムを提供することができる。
【0110】
また、本発明によれば、カメラの実画像に対してその位置情報に関連する情報を付加して、撮影された場所と付加された情報の関係がつかみ易い画像情報を提供することができる、優れた情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラムを提供することができる。
【0111】
本発明によれば、ユーザの視線方向にある景色をそのまま利用し、これに対して情報を付加して提示するので、情報とそれが付加された場所との関係がつかみ易くなる。
【0112】
また、本発明によれば、付加情報の提示に実画像を積極的に用いていることから、仮想空間による情報提示で問題となるテクスチャやモデルの作成量の多さや即時性を克服することができる。
【0113】
また、本発明によれば、情報提示位置が画像とずれないことから、バーチャル・スタジオや現実融合(オーギュメンテッド・リアリティ)などにおいて問題であった、カメラ移動によって生じる現実にある物体と仮想オブジェクト間の相対位置のずれを回避することができる。
【図面の簡単な説明】
【図1】本発明の実施に供される情報提供装置100のハードウェア構成を模式的に示した図である。
【図2】情報提供装置100上で、位置情報を利用して目標とする建物が分かり易く表示されるようにカメラの実画像を処理するための処理モジュール構成を模式的に示した図である。
【図3】本実施形態に係る情報提示装置100による付加情報の提示処理の流れを模式的に示した図である。
【図4】実画像に対してサービス情報を合成してユーザの視線方向にある景色をそのまま利用した付加情報をユーザに提示するための処理手順を示したフローチャートである。
【図5】図4に示したフローチャート中のステップS4において実行される情報付加対象を認識して、実画像に情報の付加を行うための詳細な処理手順の詳細を示したフローチャートである。
【図6】カメラ8により取得された実画像から特徴点となる要素を抽出した様子を示した図である。
【図7】ネットワーク3経由で取得された建物情報で構成される3次元画像を示した図である。
【図8】実写画像に対して建物情報を合わせることによってカメラ8の空間座標を修正する様子を示した図である。
【図9】市街地においてユーザが本情報提供装置100を適用している様子を示した図である。
【図10】図9において本情報提供装置100を使用しているユーザの姿を示した図である。
【図11】GPSを用いて本情報提供装置100の位置を取得する様子を示した図である。
【図12】ジャイロを用いて本情報提供装置100の方向を取得する様子を示した図である。
【図13】図9において本実施形態に係る情報提示装置100が提示する画像情報の例を示した図である。
【図14】カメラ移動に対して情報の付加が抑制された結果を示した図である。
【図15】カメラ移動に対して情報の付加が抑制された結果を示した図である。
【図16】カメラ移動に対して情報の付加が抑制された結果を示した図である。
【符号の説明】
6…カメラ立体位置取得部
7…画像フレーム・バッファ
8…カメラ
9…情報付加対象認識部
10…画像への情報合成部
100…情報提供装置
101…CPU
102…主メモリ,103…ROM
104…ディスプレイ・コントローラ
105…入力機器インターフェース
106…ネットワーク・インターフェース
107…外部機器インターフェース
108…バス
111…ディスプレイ,112…フレーム・バッファ
113…キーボード,114…マウス
115…ハード・ディスク装置
116…メディア・ドライブ
121…ビデオ・キャプチャ・インターフェース
122…位置情報取得インターフェース

Claims (7)

  1. 位置情報に関連付けられた付加情報を場所との関係を分かり易く提示する情報提供装置であって、
    実画像を取得する実画像取得手段と、
    取得した実画像を蓄積する画像フレーム・バッファと、
    実画像が取得された立体位置を取得する立体位置取得手段と、
    該取得された立体位置に基づいて、実画像に含まれる各建物の建物データを取得する建物データ取得手段と、
    該取得された立体位置に基づいて、関連する付加情報をネットワーク経由で外部装置から取得する付加情報取得手段と、
    付加情報を表現する3次元コンピュータ・グラフィックス画像を作成する画像作成手段と、
    3次元コンピュータ・グラフィックス画像として表現された付加情報を前記画像フレーム・バッファに蓄積されている実画像中に合成する画像合成手段と、
    前記画像フレーム・バッファに蓄積されている実画像から所定の表示ウィンドウで切り出してユーザに提示する表示手段と、
    前記画像取得手段により実画像を取得した際に、以前取得した画像との差分に基づいてオプティカル・フローを取得するとともに、実画像を取得するカメラの移動量を算出する手段とを備え、
    カメラの移動による表示ウィンドウの移動が表示フレームを越えるときには、前記画像合成手段が実画像中に付加情報を合成する処理を停止し、前記表示手段は、前記画像フレーム・バッファに蓄積されている実画像をそのままユーザに提示し続ける、
    ことを特徴とする情報提供装置。
  2. 前記立体位置取得手段は、ジャイロ及びGPSのうち少なくとも1つを用いて立体位置を取得する、
    ことを特徴とする請求項1に記載の情報提供装置。
  3. 実画像から抽出された特徴点列と建物データとをマッチングして、実画像が取得された立体位置を修正する立体位置修正手段をさらに備える、
    ことを特徴とする請求項1に記載の情報提供装置。
  4. カメラの移動による表示ウィンドウの移動が表示フレームを越えないときには、前記表示手段は、画像のオプティカル・フローから割り出したカメラ方向の移動に合わせて移動した表示ウィンドウで前記画像フレーム・バッファに蓄積されている実画像を切り出してユーザに提示する、
    ことを特徴とする請求項1に記載の情報提供装置。
  5. 前記付加情報取得手段は、ユーザに近いものから一定数を選択して取得し、又は、ユーザからその提示が求められている種類のものを優先的に取得する、
    ことを特徴とする請求項1に記載の情報提供装置。
  6. コンピュータを用いて構成される情報提供システムにおいて、位置情報に関連付けられた付加情報を場所との関係を分かり易く提示する情報提供方法であって、
    前記コンピュータが備える実画像取得手段が、実画像を取得して前記コンピュータが備える画像フレーム・バッファに蓄積する実画像取得ステップと、
    前記コンピュータが備える立体位置取得手段が、実画像が取得された立体位置を取得する立体位置取得ステップと、
    前記コンピュータが備える建物データ取得手段が、該取得された立体位置に基づいて、実画像に含まれる各建物の建物データを取得する建物データ取得ステップと、
    前記コンピュータが備える付加情報取得手段が、該取得された立体位置に基づいて、関連する付加情報をネットワーク経由で外部装置から取得する付加情報取得ステップと、
    前記コンピュータが備える画像作成手段が、付加情報を表現する3次元コンピュータ・グラフィックス画像を作成する画像作成ステップと、
    前記コンピュータが備える画像合成手段が、3次元コンピュータ・グラフィックス画像として表現された付加情報を前記画像フレーム・バッファに蓄積されている実画像中に合成する画像合成ステップと、
    前記コンピュータが備える表示手段が、前記画像フレーム・バッファに蓄積されている実画像から所定の表示ウィンドウで切り出してユーザに提示する表示ステップと、
    前記コンピュータが備える移動量算出手段が、前記画像取得ステップにおいて実画像を取得した際に、以前取得した画像との差分に基づいてオプティカル・フローを取得するとともに、実画像を取得するカメラの移動量を算出するステップとを備え、
    カメラの移動による表示ウィンドウの移動が表示フレームを越えるときには、前記画像合成ステップにおける実画像中に付加情報を合成する処理を停止し、前記表示ステップでは、前記画像フレーム・バッファに蓄積されている実画像をそのままユーザに提示し続ける、
    することを特徴とする情報提供方法。
  7. 位置情報に関連付けられた付加情報を場所との関係を分かり易く提示するための処理をコンピュータ・システム上で実行するように記述されたコンピュータ・プログラムであって、前記コンピュータ・システムに対し、
    実画像を取得して前記コンピュータ・システムが備える画像フレーム・バッファに蓄積する実画像取得手順と、
    実画像が取得された立体位置を取得する立体位置取得手順と、
    該取得された立体位置に基づいて、実画像に含まれる各建物の建物データを取得する建物データ取得手順と、
    該取得された立体位置に基づいて、関連する付加情報をネットワーク経由で外部装置から取得する付加情報取得手順と、
    付加情報を表現する3次元コンピュータ・グラフィックス画像を作成する画像作成手順と、
    3次元コンピュータ・グラフィックス画像として表現された付加情報を前記画像フレーム・バッファに蓄積されている実画像中に合成する画像合成手順と、
    前記画像フレーム・バッファに蓄積されている実画像から所定の表示ウィンドウで切り出してユーザに提示する表示手順と、
    前記画像取得手順において実画像を取得した際に、以前取得した画像との差分に基づいてオプティカル・フローを取得するとともに、実画像を取得するカメラの移動量を算出する手順とを実行させ、
    カメラの移動による表示ウィンドウの移動が表示フレームを越えるときには、前記画像合成手順による実画像中に付加情報を合成する処理を停止し、前記表示手順により、前記画像フレーム・バッファに蓄積されている実画像をそのままユーザに提示し続ける、
    ことを特徴とするコンピュータ・プログラム。
JP2002009238A 2002-01-17 2002-01-17 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム Expired - Fee Related JP3893983B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002009238A JP3893983B2 (ja) 2002-01-17 2002-01-17 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム
US10/342,759 US7119831B2 (en) 2002-01-17 2003-01-15 Information providing apparatus, information providing method, storage medium, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002009238A JP3893983B2 (ja) 2002-01-17 2002-01-17 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム

Publications (2)

Publication Number Publication Date
JP2003216982A JP2003216982A (ja) 2003-07-31
JP3893983B2 true JP3893983B2 (ja) 2007-03-14

Family

ID=27647290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002009238A Expired - Fee Related JP3893983B2 (ja) 2002-01-17 2002-01-17 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム

Country Status (2)

Country Link
US (1) US7119831B2 (ja)
JP (1) JP3893983B2 (ja)

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7899243B2 (en) 2000-11-06 2011-03-01 Evryx Technologies, Inc. Image capture and identification system and process
US9310892B2 (en) 2000-11-06 2016-04-12 Nant Holdings Ip, Llc Object information derived from object images
US8224078B2 (en) 2000-11-06 2012-07-17 Nant Holdings Ip, Llc Image capture and identification system and process
US7565008B2 (en) 2000-11-06 2009-07-21 Evryx Technologies, Inc. Data capture and identification system and process
US7680324B2 (en) 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
JP2003215494A (ja) * 2002-01-22 2003-07-30 Canon Inc 複合現実感提示装置および画像処理方法
JP3989348B2 (ja) * 2002-09-27 2007-10-10 三洋電機株式会社 複数画像送信方法及び複数画像同時撮影機能付き携帯機器
US8665325B2 (en) 2003-10-08 2014-03-04 Qwest Communications International Inc. Systems and methods for location based image telegraphy
JP2005339127A (ja) * 2004-05-26 2005-12-08 Olympus Corp 画像情報表示装置及び画像情報表示方法
US8195386B2 (en) * 2004-09-28 2012-06-05 National University Corporation Kumamoto University Movable-body navigation information display method and movable-body navigation information display unit
JP2006105640A (ja) * 2004-10-01 2006-04-20 Hitachi Ltd ナビゲーション装置
JP4345651B2 (ja) * 2004-11-29 2009-10-14 セイコーエプソン株式会社 画像情報の評価方法、画像情報の評価プログラム及び画像情報評価装置
JP4632793B2 (ja) * 2005-01-12 2011-02-16 京セラ株式会社 ナビゲーション機能付き携帯型端末機
KR101058032B1 (ko) * 2005-04-01 2011-08-19 삼성전자주식회사 입체영상장치
DE202005021607U1 (de) 2005-06-06 2008-11-20 Tomtom International B.V. Navigationsvorrichtung mit Kamerainformation
US8423292B2 (en) 2008-08-19 2013-04-16 Tomtom International B.V. Navigation device with camera-info
JP2007025483A (ja) * 2005-07-20 2007-02-01 Ricoh Co Ltd 画像記憶処理装置
DE102006003363B4 (de) * 2006-01-19 2009-02-19 Dreifach Einfach - Kreative It-Systeme Gmbh Verfahren und Anordnung zur ortsabhängigen Ausgabe von Daten durch mobile Endgeräte sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
JP2007271869A (ja) * 2006-03-31 2007-10-18 Digital Service International Co Ltd 画像処理による地図作成方法、その装置及びそのコンピュータプログラム
JP4333704B2 (ja) * 2006-06-30 2009-09-16 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置
JP5228307B2 (ja) 2006-10-16 2013-07-03 ソニー株式会社 表示装置、表示方法
JP2008158583A (ja) * 2006-12-20 2008-07-10 Hitachi Software Eng Co Ltd 画像関連情報表示システム
US9183716B2 (en) * 2007-03-20 2015-11-10 International Business Machines Corporation System and method for managing moving surveillance cameras
US7642929B1 (en) 2007-04-19 2010-01-05 The United States Of America As Represented By The Secretary Of The Air Force Helicopter brown-out landing
US8239132B2 (en) * 2008-01-22 2012-08-07 Maran Ma Systems, apparatus and methods for delivery of location-oriented information
JP4994256B2 (ja) * 2008-01-28 2012-08-08 株式会社ジオ技術研究所 経路案内データベースのデータ構造
JP5384979B2 (ja) * 2009-03-23 2014-01-08 Kddi株式会社 コンテンツ検索システムおよびコンテンツ検索プログラム
US20100293173A1 (en) * 2009-05-13 2010-11-18 Charles Chapin System and method of searching based on orientation
JP5440080B2 (ja) * 2009-10-02 2014-03-12 ソニー株式会社 行動パターン解析システム、携帯端末、行動パターン解析方法、及びプログラム
KR100985737B1 (ko) * 2010-02-05 2010-10-06 (주)올라웍스 단말 장치의 시야에 포함되는 객체에 대한 정보를 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
US9420251B2 (en) 2010-02-08 2016-08-16 Nikon Corporation Imaging device and information acquisition system in which an acquired image and associated information are held on a display
US8570344B2 (en) * 2010-04-02 2013-10-29 Qualcomm Incorporated Augmented reality direction orientation mask
KR101702922B1 (ko) * 2010-05-31 2017-02-09 삼성전자주식회사 휴대용 단말기의 영역 인식 장치 및 방법
WO2012004622A1 (en) * 2010-07-07 2012-01-12 Vincent Daniel Piraud An augmented reality method, and a corresponding system and software
JP5211120B2 (ja) * 2010-07-30 2013-06-12 株式会社東芝 情報表示装置及び情報表示方法
KR101260576B1 (ko) 2010-10-13 2013-05-06 주식회사 팬택 Ar 서비스를 제공하기 위한 사용자 단말기 및 그 방법
JP5703726B2 (ja) * 2010-12-07 2015-04-22 カシオ計算機株式会社 情報表示システム、情報表示装置、情報提供装置、および、プログラム
US9664527B2 (en) * 2011-02-25 2017-05-30 Nokia Technologies Oy Method and apparatus for providing route information in image media
US8203605B1 (en) 2011-05-11 2012-06-19 Google Inc. Point-of-view object selection
JP5733720B2 (ja) * 2011-05-17 2015-06-10 株式会社日立ソリューションズ 情報提供システム及び端末装置
JP2013083553A (ja) * 2011-10-11 2013-05-09 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP6121647B2 (ja) * 2011-11-11 2017-04-26 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2013105346A (ja) * 2011-11-14 2013-05-30 Sony Corp 情報提示装置、情報提示方法、情報提示システム、情報登録装置、情報登録方法、情報登録システムおよびプログラム
US9870429B2 (en) * 2011-11-30 2018-01-16 Nokia Technologies Oy Method and apparatus for web-based augmented reality application viewer
US9230501B1 (en) 2012-01-06 2016-01-05 Google Inc. Device control utilizing optical flow
JP5774524B2 (ja) * 2012-03-02 2015-09-09 アルパイン株式会社 拡張現実システム
JP2013083994A (ja) * 2012-11-30 2013-05-09 Sony Corp 表示装置、表示方法
US9091628B2 (en) 2012-12-21 2015-07-28 L-3 Communications Security And Detection Systems, Inc. 3D mapping with two orthogonal imaging views
US9613448B1 (en) * 2014-03-14 2017-04-04 Google Inc. Augmented display of information in a device view of a display screen
CN110418045B (zh) 2014-07-02 2021-06-29 索尼公司 图像处理装置、图像处理方法和计算机可读介质
JP6538574B2 (ja) * 2016-01-14 2019-07-03 株式会社東芝 認識装置、認識システム、認識方法及びプログラム
JP6783179B2 (ja) * 2017-04-19 2020-11-11 Kddi株式会社 三次元空間情報表示システム、及び三次元空間情報表示方法
US11386527B2 (en) * 2018-01-30 2022-07-12 Sony Corporation Image processor and imaging processing method
IL267211A (en) 2019-06-10 2019-08-29 Elbit Systems Ltd System and method for video display
US11315346B2 (en) * 2020-01-16 2022-04-26 Square Enix Co., Ltd. Method for producing augmented reality image
US20210372809A1 (en) * 2020-06-02 2021-12-02 Toyota Motor Engineering & Manufacturing North America, Inc. Travel route observation and comparison system for a vehicle
JP7417827B2 (ja) * 2020-08-24 2024-01-19 株式会社Psychic VR Lab 画像編集方法、画像表示方法、画像編集システム、及び画像編集プログラム
CN112486684B (zh) * 2020-11-30 2022-08-12 展讯半导体(成都)有限公司 行车影像显示方法、装置及平台、存储介质、嵌入式设备
CN114459461B (zh) * 2022-01-26 2023-11-28 西安应用光学研究所 一种基于gis与实时光电视频的导航定位方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH107989A (ja) 1996-06-28 1998-01-13 Sumitomo Chem Co Ltd シラン化合物被膜の形成方法
US6917968B2 (en) * 1997-09-30 2005-07-12 Canon Kabushiki Kaisha System for providing location information from a remote terminal and displaying on a map display as a URL
JPH11205725A (ja) 1998-01-19 1999-07-30 Sony Corp 映像情報記録再生装置および映像情報再生装置
US6542824B1 (en) * 1999-01-29 2003-04-01 International Business Machines Corporation Method and system for determining position information utilizing a portable electronic device lacking global positioning system (GPS) reception capability
JP3406965B2 (ja) * 2000-11-24 2003-05-19 キヤノン株式会社 複合現実感提示装置及びその制御方法

Also Published As

Publication number Publication date
US20030160867A1 (en) 2003-08-28
US7119831B2 (en) 2006-10-10
JP2003216982A (ja) 2003-07-31

Similar Documents

Publication Publication Date Title
JP3893983B2 (ja) 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム
US7626596B2 (en) Image reproducing method and apparatus for displaying annotations on a real image in virtual space
US11776185B2 (en) Server, user terminal, and service providing method, and control method thereof for displaying photo images within a map
US7612777B2 (en) Animation generating apparatus, animation generating method, and animation generating program
US8666657B2 (en) Methods for and apparatus for generating a continuum of three-dimensional image data
US20170234692A1 (en) Birds eye view virtual imaging for real time composited wide field of view
WO2019079311A1 (en) CURRENT SHUTTER CORRECTION FOR IMAGES CAPTURED BY A CAMERA MOUNTED ON A MOVING VEHICLE
US20090202102A1 (en) Method and system for acquisition and display of images
US20110157223A1 (en) Electro-optic vision systems
US20110211040A1 (en) System and method for creating interactive panoramic walk-through applications
US8532924B2 (en) Method and apparatus for displaying three-dimensional terrain and route guidance
JP5401387B2 (ja) 地図画像処理装置、地図画像処理方法及び地図画像処理プログラム
US11272153B2 (en) Information processing apparatus, method for controlling the same, and recording medium
JP2008204304A (ja) 車両挙動再現方法およびシステム
JP6087712B2 (ja) 分布データ表示装置、方法及びプログラム
US11861864B2 (en) System and method for determining mediated reality positioning offset for a virtual camera pose to display geospatial object data
US20240087157A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system
JP2011138258A (ja) 景観再現システム
CN115439635B (zh) 一种呈现目标对象的标记信息的方法与设备
CN116642511A (zh) Ar导航图像渲染方法、装置、电子设备及存储介质
JP2003216977A (ja) 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム
JP2003051021A (ja) 情報更新装置、情報取得装置および情報更新処理装置
CA3063007A1 (en) Human-aided geo-rectification of geospatial metadata in video using a graphical interface
JP7506238B1 (ja) 情報処理装置、情報処理方法及びプログラム
EP4148537A1 (en) An image generator and method for an augmented reality system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061204

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091222

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101222

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101222

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111222

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111222

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121222

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121222

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131222

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees