[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2017111034A - カメラ付き端末、ナビゲーション情報提供システム、及びナビゲーション情報表示方法 - Google Patents

カメラ付き端末、ナビゲーション情報提供システム、及びナビゲーション情報表示方法 Download PDF

Info

Publication number
JP2017111034A
JP2017111034A JP2015246348A JP2015246348A JP2017111034A JP 2017111034 A JP2017111034 A JP 2017111034A JP 2015246348 A JP2015246348 A JP 2015246348A JP 2015246348 A JP2015246348 A JP 2015246348A JP 2017111034 A JP2017111034 A JP 2017111034A
Authority
JP
Japan
Prior art keywords
navigation information
camera
marker
angle
navigation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015246348A
Other languages
English (en)
Inventor
明 黒澤
Akira Kurosawa
明 黒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Ltd
Original Assignee
Hitachi Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Ltd filed Critical Hitachi Solutions Ltd
Priority to JP2015246348A priority Critical patent/JP2017111034A/ja
Publication of JP2017111034A publication Critical patent/JP2017111034A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)

Abstract

【課題】GPSやジャイロセンサから十分な精度を期待できない環境において正確に利用者をナビゲートするための技術を提供する。
【解決手段】本実施形態のナビゲーション情報表示では、カメラとマーカー間の3次元相対位置は利用されない。カメラとマーカー間の相対角度は、画像上に投影されるマーカー位置と事前に校正して得た光軸位置から、カメラモデルにおけるカメラ光軸ベクトルとマーカーへのベクトル間の角度として得る。得た相対角度を基に、画面上に撮影した画像とナビゲーションのための矢印・案内を、より適切な角度で重畳表示し、利用者を目的地までナビゲーションする。
【選択図】図6

Description

本発明は、カメラ付き端末、ナビゲーション情報提供システム、及びナビゲーション情報表示方法に関する。
従来、GPSを利用し、地図上に自身の位置と方向、目的地までをナビゲーション技術と製品がある。近年、カメラとGPS、ジャイロセンサ、加速度センサ、磁気センサを搭載するスマートフォンが普及し、カメラで撮影した画像にリアルタイムにナビゲーション情報を重畳表示するAR技術も数多く発表されている。
一方、GPSはGPS衛星を補足できない地下や屋内では利用できない。また、屋外のような広い空間でのナビゲーションについてはセンサの位置・姿勢誤差は許容されるが、屋内の狭い空間では屋外と比較して、センサの位置・姿勢誤差は許容されない状況が発生する。GPSが存在しない環境下、例えば屋内において目的地へ到達するためには、全体案内図や矢印の付いた道標に頼ることになる。
しかし、一般的に全体案内図は施設出入口や各フロアのエレベータホールにしかなく、必要なときに参照できない。また、矢印付きの案内は利用頻度の高い代表的な目的地は表記されることが多いが、利用頻度の低い目的地に関して表記されることは期待できない。
この課題に対処するため、例えば、特許文献1のように、GPSやジャイロセンサ等を利用せず、カメラに映ったマーカーを認識し、さらにマーカーとの位置関係を求める方法がある。
特開2005−115500号公報
特許文献1は、白黒で印刷された2次元バーコードを利用して、情報の読み取りと同時に、2次元バーコード平面の法線方向とカメラ光軸方向の相対角度と2次元バーコードとカメラの3次元相対位置を特定している。
しかしながら、現実的には、2次元バーコード以外が画像上に映る場合が多く、このような状況では相対角度と相対位置の特定は難しい。また、角度のある2次元バーコード画像を正対するように歪みを補正し、2次元バーコードの情報を読み取りやすくするだけであり、正確なナビゲーション情報を利用者に提供するものではない。
本発明はこのような状況に鑑みてなされたものであり、GPSやジャイロセンサから十分な精度を期待できない環境において正確に利用者をナビゲートするための技術を提供するものである。
上記の目的を達成するために、本発明は、カメラでマーカーを読み取り、当該マーカーに基づくナビゲーション情報を画面上に表示するカメラ付き端末を提供する。当該カメラ付き端末は、カメラデバイスの光軸と前記マーカーとの角度を算出し、ナビゲーション情報の投影面上で、ナビゲーション情報を算出した角度分回転させてカメラデバイスで撮影して得られた画像に重畳表示する。
本発明に関連する更なる特徴は、本明細書の記述、添付図面から明らかになるものである。また、本発明の態様は、要素及び多様な要素の組み合わせ及び以降の詳細な記述と添付される特許請求の範囲の様態により達成され実現される。
本明細書の記述は典型的な例示に過ぎず、本発明の特許請求の範囲又は適用例を如何なる意味に於いても限定するものではないことを理解する必要がある。
本発明によれば、GPSやジャイロセンサから十分な精度を期待できない環境において正確に利用者をナビゲートすることができるようになる。
本発明の実施形態によるナビゲーション情報提供システム(地図関連情報配信システムとも称することが可能)の概略機能構成例を示す図である。 本発明を利用する一例となる屋内環境の見取り図である。 ナビゲーション情報0300のデータ構造例を示す図である。 カメラ付き端末0101が撮影する環境を表す図である。 カメラが撮影する環境下における、被写体と投影される画像との関係を表すモデル図(上面)である。 カメラが撮影する環境下における、被写体及び投影される画像と重畳するナビゲーション情報との関係を表すモデル図である。 カメラで撮影した画像とナビゲーション情報との重畳表示例を示す図である。 本発明の実施形態のナビゲーション情報提供システム0100におけるナビゲーション情報表示処理(ナビゲーション情報取得から表示までの処理)を説明するためのフローチャートである。 本発明の実施形態によるナビゲーション情報提供システムの概略ハードウェア構成例を示す図である。
本発明の実施形態は、表示装置を搭載し、カメラを利用する固定型、あるいは、移動型の端末装置に対して、撮影した画像中に検出されたマーカーの座標と埋め込まれた情報を読み取り、撮影した画像とナビゲーション情報を利用者の直感に合致した態様で重畳表示するものである。
本実施形態によるナビゲーション情報表示では、カメラとマーカー間の3次元相対位置を利用しない。カメラとマーカー間の相対角度は、画像上に投影されるマーカー位置と事前に校正して得た光軸位置から、カメラモデルにおけるカメラ光軸ベクトルとマーカーへのベクトル間の角度として得る。得た相対角度を基に、画面上に撮影した画像とナビゲーションのための矢印・案内を、より適切な角度で重畳表示し、利用者を目的地までナビゲーションする。
以下、添付図面を参照して本発明の実施形態について説明する。添付図面では、機能的に同じ要素は同じ番号で表示される場合もある。なお、添付図面は本発明の原理に則った具体的な実施形態と実装例を示しているが、これらは本発明の理解のためのものであり、決して本発明を限定的に解釈するために用いられるものではない。
本実施形態では、当業者が本発明を実施するのに十分詳細にその説明がなされているが、他の実装・形態も可能で、本発明の技術的思想の範囲と精神を逸脱することなく構成・構造の変更や多様な要素の置き換えが可能であることを理解する必要がある。従って、以降の記述をこれに限定して解釈してはならない。
更に、本発明の実施形態は、後述されるように、汎用コンピュータ上で稼動するソフトウェアで実装しても良いし専用ハードウェア又はソフトウェアとハードウェアの組み合わせで実装しても良い。
なお、以後の説明では「テーブル」形式によって本実施形態の各情報について説明するが、これら情報は必ずしもテーブルによるデータ構造で表現されていなくても良く、リスト、DB、キュー等のデータ構造やそれ以外で表現されていても良い。そのため、データ構造に依存しないことを示すために「テーブル」、「リスト」、「DB」、「キュー」等について単に「情報」と呼ぶことがある。
また、各情報の内容を説明する際に、「識別情報」、「識別子」、「名」、「名前」、「ID」という表現を用いることが可能であり、これらについてはお互いに置換が可能である。
以下では各処理部(画像解析部、情報取得部、表示部など)を主語(動作主体)として本発明の実施形態における各処理について説明を行うが、プログラムはプロセッサによって実行されることで定められた処理をメモリ及び通信ポート(通信制御装置)を用いながら行うため、プロセッサを主語とした説明としてもよい。プログラムの一部または全ては専用ハードウェアで実現してもよく、また、モジュール化されていても良い。各種プログラムはプログラム配布サーバや記憶メディアによって各計算機にインストールされてもよい。
<システム機能構成>
図1は、本発明の実施形態によるナビゲーション情報提供システム(地図関連情報配信システムとも称することが可能)の概略機能構成例を示す図である。
ナビゲーション情報提供システム0100は、カメラ付き端末0101と、ナビゲーション情報配信サーバ0102と、ナビゲーションデータベース(DB)0103と、を有する。例えば、カメラ付き端末0101と、ナビゲーション情報配信サーバ0102とは通信網(ネットワーク)0111を介して通信し、情報の配信・取得が可能となっている。また、ナビゲーション情報配信サーバ0102とナビゲーションDB0103は有線で直接的に繋がれていても良いし、別のネットワークでつながれていても良い。
カメラ付き端末0101は、撮影部0104と、画像解析部0105と、情報取得部0106と、表示部0110と、を有している。
ナビゲーション情報配信サーバ0102は、配信リクエスト受信部0107と、情報取得部0108と、情報配信部0109と、を有している。
カメラ付き端末0101において、撮影部0104は、カメラを含んでいる。利用者が、撮影部0104に付属されたカメラを用いて撮影し、対象物の画像を取得する。画像解析部0105は、撮影して得た画像から、2次元バーコードを認識し、2次元バーコードに含まれる情報を取り出す。それと同時に、画像解析部0105は、画像座標系における2次元バーコードの中心座標と光軸座標を計算し、さらに、カメラの投影モデルからナビゲーション情報の補正角度を計算する。情報取得部0106は、画像解析部0105によって得られた2次元バーコード情報を条件として、ナビゲーション情報配信サーバ0102に当該2次元バーコード情報に対応する情報について問い合わせる。
ナビゲーション情報配信サーバ0102の配信リクエスト受信部0107は、カメラ付き端末0101の情報取得部0106からの問合せを受け付ける。情報取得部0108は、2次元バーコード情報に対応するナビゲーション情報を取得し、情報配信部0109に受け渡す。情報配信部0109は、問合せ元のカメラ付き端末0101に情報取得部0108から取得したナビゲーション情報を提供する。
2次元バーコード情報に対応するナビゲーション情報を取得したカメラ付き端末0101は、表示部0110を用いて、撮影部0104で撮影した画像とナビゲーション情報を重畳表示する。このとき重畳するナビゲーション情報のラベル、または、矢印をナビゲーション情報補正角度ほど回転させる。
尚、通信網を介さずカメラ付き端末0101内にナビゲーション情報配信サーバ0102、ナビゲーションDB0103を配置した構成も実現可能である。また、カメラ付き端末0101に、撮影部0104、情報取得部0106、及び表示部0110のみを持たせ、画像解析部0105が実行する処理を全てナビゲーション情報配信サーバ0102側で実行するようにしても良い。
<システムハードウェア構成>
図9は、本発明の実施形態によるナビゲーション情報提供システムの概略ハードウェア構成例を示す図である。
図9に示されるように、カメラ付き端末0101及びナビゲーション情報配信サーバ0102は、例えば、一般的なコンピュータによって構成することができる。
カメラ付き端末0101は、例えば、各種プログラムを実行するCPU(単にプロセッサと称することもできる)0901と、カメラデバイス0902と、利用者が指示や情報を入力するための入力デバイス0903と、CPUによる処理結果を出力するための出力デバイス0904と、各種プログラムや処理結果を格納したり、処理途中の情報を一時的に格納したりする記憶デバイス0905と、ナビゲーション情報配信サーバ0102等と通信するための通信デバイス0906と、を有している。
ナビゲーション情報配信サーバ0102は、例えば、各種プログラムを実行するCPU(単にプロセッサと称することもできる)0911と、サーバ管理者が指示や情報を入力するための入力デバイス0912と、CPUによる処理結果を出力するための出力デバイス0913と、各種プログラムや処理結果を格納したり、処理途中の情報を一時的に格納したりする記憶デバイス0914と、カメラ付き端末0101等と通信するための通信デバイス0915と、を有している。
入力デバイス0903及び0912は、例えば、各種ボタン、キーボード、タッチパネル、マイク等によって構成される。出力デバイス0904及び0913は、例えば、画像や文字列を表示するディスプレイや音声を出力するスピーカ等によって構成される。記憶デバイス0905及び0914は、例えばROMやRAMなどによって構成される。
カメラ付き端末0101のCPU0901は、カメラデバイスによる撮像処理を制御するためのプログラムである撮影部09011と、撮影部09011によって処理された画像データや情報を解析するためのプログラムである画像解析部09012と、ナビゲーション情報配信サーバ0102から情報(ナビゲーション情報)を取得するためのプログラムである情報取得部09013と、画像データとナビゲーション情報を出力デバイス0904に重畳表示するためのプログラムである表示部09014と、を実行する。
ナビゲーション情報配信サーバ0102のCPU0911は、カメラ付き端末0101からのナビゲーション情報配信リクエストを受信処理するためのプログラムである配信リクエスト受信部09111と、受信したナビゲーション情報配信リクエストに含まれる2次元バーコードID(CodeID:図3参照)に対応するナビゲーション情報をナビゲーションDB0103から取得するためのプログラムである情報取得部09112と、得られたナビゲーション情報をカメラ付き端末0101に送信処理するためのプログラムである情報配信部09113と、を実行する。
なお、図9では、各種プログラムがCPUの内蔵メモリに展開されている状態が示されている。実行前においては、各種プログラムは、例えば、記憶デバイス0905或いは0914に格納されており、実行時にCPU0901或いは0911によって読み込まれ、実行されることとなる。
<利用場面>
図2は、本発明の実施形態によるナビゲーション情報提供システム0100によってナビゲーション情報が提供される場面例(屋内環境)を示す図である。
当該ナビゲーション情報は、例えば、壁正面0201、壁左面0202、壁右面0203で構成される空間で提供される。そして、当該空間の中心に利用者0204が配置されるような場面を想定する。各壁の間には通路がある。各通路は、会議室A,執務室D0205、会議室B0206、及び出入口C0207にそれぞれ通じている。
利用者は、例えば、会議室Aの通路の先にある執務室Dを目的地としているものとする。壁正面0201には、利用者の目線と同程度の高さに2次元バーコード0208が配置されている。そして、利用者は、当該2次元バーコード0208を撮像し、それによって取得した2次元バーコード情報に基づいてナビゲーション情報がカメラ付き端末0101の画面上に重畳表示されることとなる。
<ナビゲーション情報のデータ構造例>
図3は、本発明の実施形態における、ナビゲーション情報0300のデータ構造例を示す図である。ナビゲーション情報0300は、テーブル構造をとっており、ナビゲーション情報を一意に特定・認識するためのNavigationID0301と、2次元バーコードを一意に特定・認識するためのCodeID0302(2次元コードから読み取られる情報である)と、撮影画像上に重畳される文字列を示すLabel0303と、カメラが2次元バーコードに正対したときに撮影画像上に重畳される矢印の角度(Label0303で示される場所の方向)を示すAngle0304と、を構成項目として含んでいる。
ナビゲーション情報配信サーバ0102の情報取得部0108は、CodeID0302をキーとして、ナビゲーションDB0103から対応するナビゲーション情報を取得する。つまり、CodeID0302を含むNavigationID0301に対応するLabel0303及びAngle0304の情報が取得される。なお、図3の例では、CodeID「1」の2次元バーコードは3つのナビゲーション情報に対応していることが示されている。
<カメラ付き端末が撮影する環境>
図4は、カメラ付き端末0101が撮影する環境を表す図である。カメラ付き端末0101は、例えば、表示画面とは反対面(背面)にカメラを有しており、撮影中の画像をプレビューとして画面に表示することができるように構成されている。
カメラ付き端末0101を使用する場合、撮影部0104に含まれるカメラは、壁面(壁正面)0401と2次元バーコード0402を撮影する。そして、カメラ付き端末0101は、表示部0110の画面上に撮影範囲0403を表示する。なお、図4において、座標0404は、予めカメラキャリブレーションして得たカメラ光軸を示している。
なお、図4は、カメラの光軸と撮影される壁面0401からの法線ベクトルは一致せず、ある一定の角度をなす場面を例示している。
<被写体と投影される画像との関係>
図5は、カメラが撮影する環境下における、被写体と投影される画像との関係を表すモデル図(上面)である。
カメラ0501があり、カメラ0501から光軸0502が伸びている。画像の投影面0503の範囲0506は、カメラレンズの画角0504とレンズの焦点距離0505から決まる。
また、2次元バーコード0507とカメラの光軸0502の相対角度0509は、2次元バーコード0507を投影面0503上に投影した座標0510と光軸との距離0508、及び焦点距離0505から得られる。当該相対角度0509は、光軸0502方向を0°とし、上面から見て右回りに表現する。
<被写体及び投影される画像と重畳するナビゲーション情報との関係>
図6は、カメラが撮影する環境下における、被写体及び投影される画像と重畳されるナビゲーション情報との関係を表すモデル図である。図6は、図5のモデルに対応するものである。
カメラ0601があり、カメラ0601から光軸0602が伸びている。図6のモデルが示す状態では、カメラ0601から2次元バーコード0603に向かうベクトル0604と光軸0602との間には角度0605が形成されている。
図6では、撮影画像の投影面0606と、ベクトル0604を法線ベクトルとするナビゲーション情報0607を投影する投影面0608とが、定義されている。つまり、投影面0608は、2次元バーコード0603が配置される壁面を示しているのではなく、ラベルと矢印から構成されるナビゲーション情報0607を投影する仮想的な面を示している。
投影面0608が投影面0606と光軸0602の交点0610を通るとすると、投影面0606と投影面0608との角度0609は、角度0605と等しい。即ち、投影面0606と投影面0608の上面から見た幾何学的関係は既知である。尚、側面についても図6と同様の幾何学的関係を記述できる。
<ナビゲーション情報の重畳表示例>
図7は、カメラで撮影した画像とナビゲーション情報との重畳表示例を示す図である。図7に示されるように、利用者は、撮影部0104に含まれるカメラで壁正面0701と2次元バーコード0702を撮影している。そのとき、カメラ付き端末0101は、表示部0110の画面上に撮影範囲0703を表示している。座標0704は、予めカメラキャリブレーションして得たカメラ光軸を示している。
ナビゲーション情報0705は、ラベルと矢印から構成され、画面上に対で表示される。矢印の方向は上方向を0°とし、右回りとする。2次元バーコードをキーとして得られたナビゲーション情報が、例えば、ラベルとして“会議室A”、角度(方向)として90°となっている場合、投影面0608と平面0606(図6参照)との角度0609が反映される前のナビゲーション情報は矢印0706で示される。この矢印0706の方向に対して、さらに投影面0608と平面0606との角度0609が加算され、当該角度が反映されたナビゲーション情報0705が表示される。尚、当該例では、投影面0608と平面0606との角度は左回りであるため、減算することになる。
なお、この画面の重畳結果は、画像は水平方向を撮影した画像となるが、ナビゲーション情報は垂直方向を表現することになる。このため、ナビゲーション情報の表示として、説明上は違和感があるかもしれないが、利用者にとっては直感的に理解しやすいものとなっている。
<ナビゲーション情報表示処理の内容>
図8は、本発明の実施形態のナビゲーション情報提供システム0100におけるナビゲーション情報表示処理(ナビゲーション情報取得から表示までの処理)を説明するためのフローチャートである。
(i)ステップ0801
まず、利用者が壁面を撮影することにより、カメラ付き端末0101の撮影部0104は画像iを取得する。
(ii)ステップ0802
画像解析部0105は、画像iから2次元バーコードを検出する。このとき複数の2次元バーコードを検出することを前提とする。また、利用する2次元バーコードは、数メートル離れた状況で、複数撮影・認識が可能であるカラーコードを想定しており、既存の検出方式を採用することによって検出することができる。
(iii)ステップ0803
画像解析部0105は、ステップ0802の処理結果に基づいて、画像i上に2次元バーコードが含まれるか判定する。画像iに2次元バーコードが含まれていない場合(ステップ0803でNoの場合)、処理はステップ0804に移行する。画像iに2次元バーコードが含まれている場合(ステップ0803でYesの場合)、処理はステップ0805に移行する。
(iv)ステップ0804
表示部0110は、画像iのみを画面上に表示してナビゲーション情報表示処理を終了する。
(v)ステップ0805
画像解析部0105は、複数検出された2次元バーコードの中で面積が最も大きなものを処理対象とする。なお、どの2次元バーコードが最大面積を有するかは、既存の検出方式であるカラーコードを用いた検出方式やライブラリ方式によって得られる四隅の座標を用いて各2次元バーコードのそれぞれ面積を算出し、比較することによって判定することができる。
(vi)ステップ0806
画像解析部0105は、処理対象2次元バーコードを読み取り、2次元バーコード情報であるID(CodeID)を抽出する。それと同時に、画像解析部0105は、処理対象の2次元バーコードの四隅の座標から中心座標を算出する。
(vii)ステップ0807
画像解析部0105は、図5や図6に示される幾何学的関係に基づいて、カメラ光軸と処理対象2次元バーコード間の角度を算出する。
(viii)ステップ0808
情報取得部0106は、画像解析部0105から処理対象2次元バーコードのID(CodeID)を取得し、それをキーとし、ナビゲーション情報配信サーバ0102に対応するナビゲーション情報を問い合せ(ナビゲーション情報配信リクエスト)する。ナビゲーション情報配信サーバ0102の情報取得部0108は、配信リクエスト受信部0107を介してナビゲーション情報配信リクエスト(CodeIDを含む)を取得し、ナビゲーションDB0103から対応するナビゲーション情報(図3参照)の有無を確認し、存在する場合にはそれを取得する。そして、ナビゲーション情報配信サーバ0102の情報配信部0109は、処理対象2次元バーコードに対応するナビゲーション情報をカメラ付き端末0101に送信する。対応するナビゲーション情報が無い場合にはカメラ付き端末0101にはその旨が通知される。
(ix)ステップ0809
カメラ付き端末0101の情報取得部0106は、ナビゲーション情報配信サーバ0102から受信した情報に基づいて、取得したナビゲーション情報の数を確認する。ナビゲーション情報数が0の場合(ステップ0809でNoの場合)、処理はステップ0804に移行する。ナビゲーション情報数が1以上の場合(ステップ0809でYesの場合)、処理はステップ0810に移行する。
(x)ステップ0810
表示部0110は、図7のように、カメラで撮影した画像iとナビゲーション情報とを重畳表示する。
<まとめ>
(i)本実施形態では、ナビゲーション情報を撮影画像に重畳表示する際に、カメラデバイスの光軸とマーカー(例えば、2次元バーコード)との角度を算出し、ナビゲーション情報の投影面上でナビゲーション情報を当該角度分回転させる。このようにすることにより、マーカー(2次元バーコード)の情報を読み取るだけで、利用者に違和感を与えない直感的な方向についての示唆を与えることができる。
より具体的には、カメラ付き端末は、マーカーからマーカー識別情報を取得し、当該マーカー識別情報をナビゲーション情報配信サーバに送信し、当該サーバからマーカー識別情報に対応するナビゲーション情報を取得する。このようにすることにより、マーカーに多くの情報を持たせる必要がなく、かつカメラ付き端末にナビゲーション情報のデータベースを備える必要ないので、処理を迅速に行うことができるようになる。ただし、これは、カメラ付き端末にナビゲーション情報を持たせることを否定するものではない。処理能力があり、記憶デバイスの容量が大きいカメラ付き端末であれば、ナビゲーションDBを持たせるようにしても利用者に不便はない。
また、角度を算出する場合、マーカーの中心座標とカメラデバイスの間のベクトルとカメラデバイスの光軸との角度が算出される。このようにすることにより、幾何学的関係を用いて容易に角度を知ることができる。この角度は、カメラデバイスで撮影して得られた画像の投影面とナビゲーション情報の投影面との角度に相当するものとなっている。
本実施形態では、撮影画像には複数のマーカーが含まれることが許容される。この場合、画像から面積が最大となるマーカーが処理対象のマーカーとして抽出される。このようにすることにより、複数のマーカーが検出されても容易に重畳表示すべきナビゲーション情報を取得することができるようになる。尚、本実施形態とは異なるが、撮影された複数のマーカーの近傍に、相互に重畳しないように全てのナビゲーション情報を表示してもよい。このとき、対応するマーカーの面積比を利用し、ナビゲーション情報に対して透過度やラベルサイズを重み付けして表示してもよい。
(ii)本発明は、実施形態の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をシステム或は装置に提供し、そのシステム或は装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD−ROM、DVD−ROM、ハードディスク、光ディスク、光磁気ディスク、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。
また、プログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現されるようにしてもよい。さらに、記憶媒体から読み出されたプログラムコードが、コンピュータ上のメモリに書きこまれた後、そのプログラムコードの指示に基づき、コンピュータのCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現されるようにしてもよい。
さらに、実施の形態の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することにより、それをシステム又は装置のハードディスクやメモリ等の記憶手段又はCD−RW、CD−R等の記憶媒体に格納し、使用時にそのシステム又は装置のコンピュータ(又はCPUやMPU)が当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしても良い。
最後に、ここで述べたプロセス及び技術は本質的に如何なる特定の装置に関連することはなく、コンポーネントの如何なる相応しい組み合わせによってでも実装できることを理解する必要がある。更に、汎用目的の多様なタイプのデバイスがここで記述した教授に従って使用可能である。ここで述べた方法のステップを実行するのに、専用の装置を構築するのが有益であることが判るかもしれない。また、実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。本発明は、具体例に関連して記述したが、これらは、すべての観点に於いて限定の為ではなく説明の為である。本分野にスキルのある者には、本発明を実施するのに相応しいハードウェア、ソフトウェア、及びファームウエアの多数の組み合わせがあることが解るであろう。例えば、記述したソフトウェアは、アセンブラ、C/C++、perl、Shell、PHP、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。
さらに、上述の実施形態において、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていても良い。
加えて、本技術分野の通常の知識を有する者には、本発明のその他の実装がここに開示された本発明の明細書及び実施形態の考察から明らかになる。明細書と具体例は典型的なものに過ぎず、本発明の範囲と精神は後続する請求範囲で示される。
0101 カメラ付き端末、0102 ナビゲーション情報配信サーバ、0103 ナビゲーションDB、0104 撮影部、0105 画像解析部、0106 情報取得部、0107 配信リクエスト受信部、0108 情報取得部、0109 情報配信部、0110 表示部、0201 壁正面、0202 壁左面、0203 壁右面、0204 利用者、0205 ナビゲーション情報右、0206 ナビゲーション情報左、0207 ナビゲーション情報背面、0208 2次元バーコード、0300 ナビゲーション情報、0301 ナビゲーションID、0302 2次元バーコードID、0303 ナビゲーションラベル、0304 ナビゲーション角度、0401 壁正面、0402 2次元バーコード、0403 撮影範囲、0404 座標(光軸位置)、0501 カメラ、0502 光軸(ベクトル)、0503 平面(投影面)、0504 画角、0505 焦点距離、0506 光軸から撮影境界までの距離(範囲)、0507 2次元バーコード、0508 光軸から投影された2次元バーコードまでの距離、0509 相対角度(光軸から2次元バーコードまでの角度)、0601 カメラ、0602 光軸(ベクトル)、0603 2次元バーコード、0604 カメラから2次元バーコードへのベクトル、0605 光軸ベクトルと2次元バーコードへのベクトル間の角度、0606 平面(撮影画像の投影面)、0607 ナビゲーション情報、0608 投影面(ナビゲーション情報投影基準面)、0609 投影面とナビゲーション情報投影基準面間角度、0701 壁正面、0702 2次元バーコード、0703 撮影範囲、0704 座標(光軸位置)、0705 ナビゲーション情報(ナビゲーションラベルと矢印)

Claims (10)

  1. カメラでマーカーを読み取り、当該マーカーに基づくナビゲーション情報を画面上に表示するカメラ付き端末であって、
    カメラデバイスと、
    各種プログラムを格納する記憶デバイスと、
    前記記憶デバイスから前記各種プログラムを読み込み、当該各種プログラムに基づいて、前記カメラデバイスで撮影して得られた画像に、前記マーカーに基づく前記ナビゲーション情報を前記画面上に重畳表示するための処理を実行するプロセッサと、を有し、
    前記プロセッサは、
    前記カメラデバイスの光軸と前記マーカーとの角度を算出する処理と、
    前記ナビゲーション情報の投影面上で前記ナビゲーション情報を前記算出した角度分回転させて前記カメラデバイスで撮影して得られた画像に重畳表示する処理と、
    を実行する、カメラ付き端末。
  2. 請求項1において、
    前記プロセッサは、さらに、前記マーカーからマーカー識別情報を取得し、当該マーカー識別情報を外部のサーバに送信し、当該外部のサーバから前記マーカー識別情報に対応する前記ナビゲーション情報を取得する処理を実行する、カメラ付き端末。
  3. 請求項1において、
    前記角度を算出する処理において、前記プロセッサは、前記マーカーの中心座標とカメラデバイスの間のベクトルと前記カメラデバイスの光軸とを用いて前記角度を算出する、カメラ付き端末。
  4. 請求項3において、
    前記カメラデバイスで撮影した画像の投影面と前記ナビゲーション情報の投影面とは前記算出された角度をなす、カメラ付き端末。
  5. 請求項1に記載のカメラ付き端末と、
    ナビゲーション情報配信サーバと、を有し、
    前記カメラ付き端末は、さらに、通信デバイスを有し、
    前記カメラ付き端末の前記プロセッサは、前記マーカーからマーカー識別情報を取得し、当該マーカー識別情報を前記ナビゲーション情報配信サーバに送信し、当該ナビゲーション情報配信サーバから前記マーカー識別情報に対応する前記ナビゲーション情報を取得する処理を実行し、
    前記ナビゲーション情報配信サーバのプロセッサは、
    前記マーカー識別情報に対応する前記ナビゲーション情報をナビゲーションデータベースから取得する処理と、
    前記取得した前記ナビゲーション情報を前記カメラ付き端末に送信する処理と、
    を実行する、ナビゲーション情報提供システム。
  6. カメラでマーカーを読み取り、当該マーカーに基づくナビゲーション情報を画面上に表示するナビゲーション情報表示方法であって、
    カメラ付き端末のプロセッサが、カメラデバイスで撮影して得られた画像からマーカーを抽出することと、
    前記プロセッサが、前記カメラデバイスの光軸と前記マーカーとの角度を算出することと、
    前記プロセッサが、前記マーカーに関連付けられた前記ナビゲーション情報を取得することと、
    前記プロセッサが、前記ナビゲーション情報の投影面上で前記ナビゲーション情報を前記算出した角度分回転させて前記カメラデバイスで撮影して得られた画像に重畳表示することと、
    を含む、ナビゲーション情報表示方法。
  7. 請求項6において、
    前記マーカーを抽出することにおいて、前記プロセッサは、前記画像から面積が最大となるマーカーを処理対象のマーカーとして抽出する、ナビゲーション情報表示方法。
  8. 請求項6において、
    前記ナビゲーション情報を取得することにおいて、前記プロセッサは、前記マーカーからマーカー識別情報を取得し、当該マーカー識別情報を外部のサーバに送信し、当該外部のサーバから前記マーカー識別情報に対応する前記ナビゲーション情報を取得する、ナビゲーション情報表示方法。
  9. 請求項6において、
    前記角度を算出することにおいて、前記プロセッサは、前記マーカーの中心座標とカメラデバイスの間のベクトルと前記カメラデバイスの光軸とを用いて前記角度を算出する、ナビゲーション情報表示方法。
  10. 請求項9において、
    前記カメラデバイスで撮影した画像の投影面と前記ナビゲーション情報の投影面とは前記算出された角度をなす、ナビゲーション情報表示方法。
JP2015246348A 2015-12-17 2015-12-17 カメラ付き端末、ナビゲーション情報提供システム、及びナビゲーション情報表示方法 Pending JP2017111034A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015246348A JP2017111034A (ja) 2015-12-17 2015-12-17 カメラ付き端末、ナビゲーション情報提供システム、及びナビゲーション情報表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015246348A JP2017111034A (ja) 2015-12-17 2015-12-17 カメラ付き端末、ナビゲーション情報提供システム、及びナビゲーション情報表示方法

Publications (1)

Publication Number Publication Date
JP2017111034A true JP2017111034A (ja) 2017-06-22

Family

ID=59080074

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015246348A Pending JP2017111034A (ja) 2015-12-17 2015-12-17 カメラ付き端末、ナビゲーション情報提供システム、及びナビゲーション情報表示方法

Country Status (1)

Country Link
JP (1) JP2017111034A (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004048674A (ja) * 2002-05-24 2004-02-12 Olympus Corp 視野一致型情報呈示システム、並びに、それに用いられる携帯情報端末及びサーバ
JP2005182350A (ja) * 2003-12-18 2005-07-07 Olympus Corp 情報呈示システム、情報呈示装置、及びサーバ
JP2005257738A (ja) * 2004-03-09 2005-09-22 Navitime Japan Co Ltd 地図表示機能を有する携帯端末、地図表示システムおよび情報配信サーバならびにプログラム
JP2005275447A (ja) * 2004-03-22 2005-10-06 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2006101013A (ja) * 2004-09-28 2006-04-13 Hitachi Ltd 案内情報表示装置
JP2006344226A (ja) * 2002-05-24 2006-12-21 Olympus Corp 視野一致型情報呈示システム及びそれに用いられる携帯情報端末
US20080055655A1 (en) * 2006-08-31 2008-03-06 Fujitsu Limited Data input device, data input system, data input method, printing device, and printed matter
JP2009031892A (ja) * 2007-07-25 2009-02-12 Dainippon Printing Co Ltd 情報読取システム及びプログラム
JP2012216935A (ja) * 2011-03-31 2012-11-08 Jvc Kenwood Corp 情報処理システム、検索装置、及びプログラム
JP2015129696A (ja) * 2014-01-08 2015-07-16 Kddi株式会社 経路案内システム、方法、プログラム及びそのデータ構造

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004048674A (ja) * 2002-05-24 2004-02-12 Olympus Corp 視野一致型情報呈示システム、並びに、それに用いられる携帯情報端末及びサーバ
JP2006344226A (ja) * 2002-05-24 2006-12-21 Olympus Corp 視野一致型情報呈示システム及びそれに用いられる携帯情報端末
JP2005182350A (ja) * 2003-12-18 2005-07-07 Olympus Corp 情報呈示システム、情報呈示装置、及びサーバ
JP2005257738A (ja) * 2004-03-09 2005-09-22 Navitime Japan Co Ltd 地図表示機能を有する携帯端末、地図表示システムおよび情報配信サーバならびにプログラム
JP2005275447A (ja) * 2004-03-22 2005-10-06 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2006101013A (ja) * 2004-09-28 2006-04-13 Hitachi Ltd 案内情報表示装置
US20080055655A1 (en) * 2006-08-31 2008-03-06 Fujitsu Limited Data input device, data input system, data input method, printing device, and printed matter
JP2009031892A (ja) * 2007-07-25 2009-02-12 Dainippon Printing Co Ltd 情報読取システム及びプログラム
JP2012216935A (ja) * 2011-03-31 2012-11-08 Jvc Kenwood Corp 情報処理システム、検索装置、及びプログラム
JP2015129696A (ja) * 2014-01-08 2015-07-16 Kddi株式会社 経路案内システム、方法、プログラム及びそのデータ構造

Similar Documents

Publication Publication Date Title
JP5740884B2 (ja) 繰り返し撮影用arナビゲーション及び差異抽出のシステム、方法及びプログラム
TWI574223B (zh) 運用擴增實境技術之導航系統
US10242456B2 (en) Digitally encoded marker-based augmented reality (AR)
TWI649675B (zh) Display device
US20160327946A1 (en) Information processing device, information processing method, terminal device, and setting method
KR101330805B1 (ko) 증강 현실 제공 장치 및 방법
KR20150082358A (ko) 기준 좌표계 결정
US20130176337A1 (en) Device and Method For Information Processing
JP7107166B2 (ja) 床面検出プログラム、床面検出方法及び端末装置
WO2019029156A1 (zh) 一种室内目标位置的导航方法、装置、电子设备及介质
CN113474819A (zh) 信息处理装置、信息处理方法和程序
JP2020008917A (ja) 拡張現実表示システム、拡張現実表示方法、及び、拡張現実表示用コンピュータプログラム
KR101253644B1 (ko) 위치 정보를 이용한 증강 현실 콘텐츠 출력 장치 및 방법
JP2012146305A (ja) ウィンドウ状の拡張現実を提供する装置および方法
TW201621273A (zh) 行動定位裝置及其定位方法
KR101914660B1 (ko) 자이로 센서를 기반으로 증강현실 컨텐츠의 표시를 제어하는 방법 및 그 장치
JP2017111034A (ja) カメラ付き端末、ナビゲーション情報提供システム、及びナビゲーション情報表示方法
JP2019066293A (ja) 映像表示システム
KR102099852B1 (ko) 증강현실 게임북을 이용한 멀티유저 증강현실 컨텐츠 제공 시스템 및 방법
JP2018032991A (ja) 画像表示装置、画像表示方法及び画像表示用コンピュータプログラム
JP2017162192A (ja) 画像処理プログラム、画像処理装置、画像処理システム、及び画像処理方法
JP7570711B2 (ja) 仮想室内空間コンテンツ提供方法およびそのためのサーバー
JP7582460B2 (ja) 撮影条件決定方法、撮影条件決定システム、撮影条件決定装置、及びプログラム
US12073515B2 (en) Information processing apparatus, display system, display method, and non-transitory computer readable medium storing program
CN115004238A (zh) 空间识别系统、空间识别方法和信息终端

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190702