[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6326996B2 - 端末装置、情報処理システム、及び表示制御プログラム - Google Patents

端末装置、情報処理システム、及び表示制御プログラム Download PDF

Info

Publication number
JP6326996B2
JP6326996B2 JP2014122282A JP2014122282A JP6326996B2 JP 6326996 B2 JP6326996 B2 JP 6326996B2 JP 2014122282 A JP2014122282 A JP 2014122282A JP 2014122282 A JP2014122282 A JP 2014122282A JP 6326996 B2 JP6326996 B2 JP 6326996B2
Authority
JP
Japan
Prior art keywords
area
display
information
content
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014122282A
Other languages
English (en)
Other versions
JP2016004292A (ja
Inventor
竜太 小松
竜太 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014122282A priority Critical patent/JP6326996B2/ja
Priority to AU2015202589A priority patent/AU2015202589A1/en
Priority to US14/710,788 priority patent/US10430655B2/en
Priority to EP18153396.9A priority patent/EP3330929B1/en
Priority to EP15168122.8A priority patent/EP2955697A1/en
Priority to CN201510319447.XA priority patent/CN105183408B/zh
Publication of JP2016004292A publication Critical patent/JP2016004292A/ja
Priority to AU2017203098A priority patent/AU2017203098B2/en
Application granted granted Critical
Publication of JP6326996B2 publication Critical patent/JP6326996B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32014Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、端末装置、情報処理システム、及び表示制御プログラムに関する。
端末装置に設けられたカメラ(撮像部)により撮像された画像の一部に表示情報を重畳して表示させる拡張現実(Augmented Reality:AR)技術が知られている。ARを用いて表示される表示情報の一例であるデジタルコンテンツは、ARコンテンツ等と呼ばれる。端末装置は、撮像画像を表示する画面に、向きや大きさを調整したARコンテンツを表示することで、あたかもARコンテンツがカメラにより撮影された空間にあるかのように表示させることができる。
ARコンテンツには、基準物(例えば、ARマーカ等)との位置関係が定義される。基準物とカメラとの位置関係、及びARコンテンツと基準物との位置関係により、カメラとARコンテンツとの位置関係が算出できる。画面に表示させるARコンテンツの画像は、カメラとARコンテンツとの位置関係に応じた方向にARコンテンツを投影させることにより生成される。
端末装置で認識したARマーカに基づいて表示される重畳画像等のARコンテンツは、予め管理者の操作により登録されるもののみでなく、作業員等の操作により登録されるものもある。この登録操作により、管理者や作業員等のユーザは、ARマーカからの相対位置にARコンテンツを設定することができる。
特開2007−293895号公報
しかしながら、同じ基準物を基準とするARコンテンツの数が多いと、画面上での表示スペースがないため、ARコンテンツの投影画像同士が重なって表示されてしまう。例えば、予め複数のARコンテンツ同士が互いに重ならないように配置させる位置を設定したとしても、別の視点(場所)からその基準物を撮影するとARコンテンツ群が互いに重なって表示されてしまう。例えば、複数ユーザが随時ARコンテンツを追加する場合には、別のユーザにより設定されるARコンテンツと重ならないようにARコンテンツの位置の調整を行うことは困難である。また、システム側でARコンテンツの位置の調整を自動で行う場合には、ユーザが注目する画像中の対象物がARコンテンツで隠れてしまう。
一つの側面では、本発明は、表示情報を適切に重畳表示することを目的とする。
一つの態様では、端末装置は、基準物が配置された空間に含まれる第1の領域の前記基準物を基準とする座標と、前記基準物及び撮像部の位置関係とに基づいて、前記撮像部により撮像される撮像画像のうち、前記第1の領域に対応する画像領域を示す第1の投影領域を算出する算出部と、前記算出部により得られる前記第1の投影領域内に前記基準物の識別情報に対応して設定された表示情報を表示させる制御を行う表示領域制御部とを有する。
一つの側面として、表示情報を適切に重畳表示することができる。
情報処理システムの概略構成の一例を示す図である。 サーバの機能構成例を示す図である。 端末装置の機能構成の一例を示す図である。 サーバのハードウェア構成の一例を示す図である。 端末装置のハードウェア構成の一例を示す図である。 実物体にARマーカを設置した例を示す図である。 第1実施例における表示制御処理の一例を示すフローチャートである。 第2実施例における表示制御処理の一例を示すフローチャートである。 配置領域情報の設定例を示す図である。 ARコンテンツの表示例を示す図である。 表示可否マップの具体例を示す図である。 統合した表示可否マップの生成例を示す図である。 表示位置テーブルの生成例を示す図である。 画面表示例を示す図(その1)である。 画面表示例を示す図(その2)である。 画面表示例を示す図(その3)である。
以下、図面に基づいて実施形態を説明する。
<情報処理システムの概略構成例>
図1は、情報処理システムの概略構成の一例を示す図である。図1に示す情報処理システム10は、情報処理装置の一例としてのサーバ11と、1又は複数の端末装置12−1〜12−n(以下、必要に応じて「端末装置12」と総称する)とを有する。サーバ11及び端末装置12は、例えば通信ネットワーク13によりデータの送受信が可能な状態で接続されている。
サーバ11は、基準物の一例としてのARマーカや、各ARマーカの識別情報(例えば、マーカID)に対応付けて登録された1又は複数のARコンテンツ、配置領域情報(配置可能領域(第1の空間)、配置不可領域(第2の空間))等を管理する。ARマーカとは、例えばARコンテンツ等の各種コンテンツ情報の内容や表示する位置等を指定するための標識となるものである。ARマーカは、例えば二次元コード等のように、所定の領域内に所定の模様や文字パターン等が形成された画像や物体等であるが、これに限定されるものではない。
ARコンテンツとは、例えば現実空間に対応する三次元の仮想空間上に配置された三次元物体のモデルデータ等であり、例えば端末装置12で撮影された画像に重畳されて表示される表示情報(オブジェクト情報)である。また、ARコンテンツは、例えば撮影画像中に含まれるARマーカを基準とした相対座標(マーカ座標系)で設定された位置に表示される。本実施形態のARコンテンツは、マーカID等に対応付けられており、例えばテキスト、アイコン、アニメーション、マーク、模様、画像、映像等の様々な形態が含まれる。また、ARコンテンツは、表示出力されるものに限定されず、例えば音声等の情報であってもよい。
配置領域情報とは、例えば実空間上にあるARマーカを撮影した画像に対し、画像内のARマーカのマーカIDに対応付けられたARコンテンツを重畳表示するための制御に用いられる情報である。配置領域情報としては、例えば画像内においてARコンテンツを配置することが可能な三次元上の領域(第1の空間、配置可能領域)と、ARコンテンツの重畳表示を不可とする三次元上の領域(第2の空間、配置不可領域)との何れか又は両方を有する。なお、配置領域情報は、二次元の情報であってもよい。
配置可能領域(第1の空間)は、例えば撮像された空間において、ユーザが注目対象としない物体や空間であり、例えば点検対象ではない壁や床(地面)、天井(空)に対応する空間(領域)であるが、これに限定されるものではない。また、配置不可領域(第2の空間)は、例えば撮像された空間において、ユーザが注目対象としている物体や空間であり、例えば点検対象物である配管やサーバ等に対応する空間等であるが、これに限定されるものではない。配置領域情報(配置可能領域、配置不可領域)は、例えばARマーカを基準にした相対座標(マーカ座標系)で設定する。マーカ座標系は、例えば三次元空間座標系(X,Y,Z)であるが、これに限定されるものではなく、二次元平面座標系(X,Y)でもよい。
サーバ11は、例えば端末装置12におけるARコンテンツの設定処理(オーサリング処理)により、端末装置12から得られるARマーカに関する情報(例えば、マーカID、ARマーカの位置情報等)と、ARマーカの位置を基準とする相対位置座標により設定された配置領域情報とを登録する。また、サーバ11は、端末装置12におけるオーサリング処理により、端末装置12からマーカIDに対応する1又は複数のARコンテンツの設定情報を取得した場合には、そのARコンテンツ情報(例えば、ARコンテンツID、コンテンツ種別、大きさ、回転角、文字情報等)を登録して管理する。
また、サーバ11は、端末装置12から配置領域情報の取得要求やARコンテンツの取得要求等を受信した場合には、端末装置12から送信されたマーカIDを用いて、予め登録された配置領域情報やARコンテンツを参照し、対応する情報を抽出する。また、サーバ11は、抽出した情報を取得要求のった端末装置12に送信する。
なお、本実施形態では、これに限定されるものではなく、例えばサーバ11は、端末装置12からマーカIDや端末装置12の位置情報、ARマーカを撮影した画像等を受信して、サーバ11側で、マーカIDに対応する配置領域情報を用いたARコンテンツの表示制御を行ってもよい。その場合、サーバ11は、制御された表示内容(例えば、ARコンテンツを所定の位置に重畳した画像等)を端末装置12に送信する。
サーバ11は、例えばPersonal Computer(PC)等でもよいが、これに限定されるものではなく、例えば一以上の情報処理装置を有するクラウドコンピューティングにより構成されるクラウドサーバ等であってもよい。
端末装置12は、内蔵カメラ等の撮像部により、実空間上の対象物(例えば、配管やサーバラック等の管理(点検)対象物等)付近に設置されたARマーカを撮影する。また、端末装置12は、撮影された画像や映像等(以下、「撮像画像」という)からARマーカを認識し、マーカ認識により得られるマーカIDに対応させて、ARマーカの撮影位置を基準としたARコンテンツの配置領域情報(配置可能領域、配置不可領域)を設定する。また、端末装置12は、マーカIDに対応させて、ARコンテンツを設定する。また、端末装置12は、マーカIDと、配置領域情報と、ARコンテンツとをサーバ11に登録する。
また、端末装置12は、撮像部による撮像画像から、マーカ認識によるマーカIDを取得し、取得したマーカIDを用いてサーバ11に対して配置領域情報やARコンテンツの取得要求を行う。また、端末装置12は、サーバ11からマーカIDに対応する配置領域情報やARコンテンツを取得し、取得した情報を用いて、撮像画像の配置可能領域にARコンテンツを重畳表示する。このとき、端末装置12は、ARマーカの位置と現時点での視点(カメラ位置)に対応させて、撮像画像に対する配置可能領域の投影領域を動的に調整する。これにより、例えば配置領域情報を設定した位置とは異なる位置からARマーカを検出した場合でも、ユーザが調整することなく自動的にARコンテンツの適切な重畳表示が可能となる。
また、端末装置12は、マーカ認識により認識されたARマーカのマーカIDや、撮影した位置情報、撮像画像等の情報をサーバ11に送信し、サーバ11側で処理されたARコンテンツの重畳画像を取得して画面に表示してもよい。
端末装置12は、例えばタブレット端末やスマートフォン、Personal Digital Assistants(PDA)、ノート型PC等であるが、これに限定されるものではなく、例えばゲーム機器、携帯電話等の通信端末であってもよい。
通信ネットワーク13は、例えばインターネットやLocal Area Network(LAN)等であるが、これに限定されるものではない。また、通信ネットワーク13は、有線でも無線でもよく、これらの組み合わせでもよい。
図1に示す情報処理システム10において、サーバ11と端末装置12とは、1対nの構成となっているが、これに限定されるものではなく、例えば複数のサーバを有していてもよい。
図1に示すような情報処理システム10を用いたARコンテンツの表示制御では、撮像画像に含まれる空間上うち、ARコンテンツの配置領域情報を設定し、設定された空間に基づいて配置可能な領域にARコンテンツを配置させる。また、本実施形態では、ARマーカとカメラ(撮像部)との位置関係に応じて、配置対象の空間の撮像部に対する投影領域を調整し、調整された投影領域内に重畳画像を配置する。また、本実施形態では、配置対象の空間が複数定義される場合に、それぞれに対応する投影領域の重なりを考慮して重畳画像を配置してもよい。
<サーバ11の機能構成例>
次に、上述したサーバ11の機能構成例について図を用いて説明する。図2は、サーバの機能構成例を示す図である。サーバ11は、通信部21と、記憶部22と、登録部23と、抽出部24と、制御部25とを有する。
通信部21は、通信ネットワーク13を介して端末装置12や他のコンピュータ等との間でデータの送受信を行う。通信部21は、例えば端末装置12からのマーカID、配置領域情報(配置可能領域、配置不可領域)、ARコンテンツ等の登録要求等を受信する。また、通信部21は、端末装置12からマーカID等を受信し、対応する配置領域情報やARコンテンツを端末装置12に送信する。
記憶部22は、本実施形態における表示制御処理に必要な各種情報を記憶する。記憶部22は、例えば端末装置12でマーカIDに対応付けて配置領域情報やARコンテンツ等を記憶する。
登録部23は、端末装置12から得られた配置領域情報や、ARコンテンツ等の各種登録情報等を登録する。例えば、登録部23は、マーカIDと、マーカIDの位置情報、マーカIDに対応して設定された配置領域情報、ARコンテンツ情報等を登録する。登録された情報は、記憶部22に記憶される。
抽出部24は、端末装置12から得られたマーカIDに基づいて、記憶部22を参照し、対応する配置領域情報やARコンテンツ情報等を抽出する。抽出部24により抽出された配置領域情報やARコンテンツ等は、通信部21によりマーカIDを送信した端末装置12に送信される。
なお、抽出部24は、端末装置12からマーカIDだけでなく、撮影位置情報や撮像画像等を取得した場合には、マーカIDに対応付けられた配置領域情報等に基づき、撮像画像に対する配置可能領域や配置不可領域を調整する。なお、領域調整時には、例えば後述する表示可否マップ等を用いることができるが、これに限定されるものではない。また、抽出部24は、調整された配置領域情報に基づいて、マーカIDに対して設定されているARコンテンツを撮像画像に重畳し、重畳画像を端末装置12に送信してもよい。
制御部25は、サーバ11内の各構成全体を制御する。制御部25は、例えば通信部21による各種情報の送受信、記憶部22によるデータ記憶、登録部23による配置領域情報やARコンテンツ等の登録、抽出部24による配置領域情報やARコンテンツ等の抽出等の処理を行う。制御部25が行う制御内容については、これに限定されるものではない。
<端末装置12の機能構成の一例>
次に、上述した端末装置12の機能構成例について、図を用いて説明する。図3は、端末装置の機能構成の一例を示す図である。端末装置12は、通信部31と、撮像部32と、記憶部33と、表示部34と、入力部35と、配置領域設定部36と、表示領域制御部37と、認識部38と、生成部39と、算出部40と、制御部41とを有する。
通信部31は、通信ネットワーク13を介してサーバ11や他のコンピュータ等とデータの送受信を行う。例えば、通信部31は、例えばARマーカのマーカIDと対応付けたARコンテンツ情報、配置領域情報(配置可能領域、配置不可領域)等の各種設定情報をサーバ11等に送信する。また、通信部31は、マーカ認識により認識されたマーカIDをサーバ11に送信し、送信したマーカIDに対応する配置領域情報やARコンテンツ等を受信する。
撮像部32は、予め設定されたフレーム間隔で画像を撮像する。撮像部32は、撮像した画像を制御部41へ出力したり、記憶部33に記憶させる。なお、以下の説明では、撮像部32から得られた撮像画像を入力画像の一例として、その入力画像にARコンテンツを重畳表示する例を示すが、これに限定されるものではなく、例えば他の装置から撮影された画像を入力画像としてもよい。
記憶部33は、本実施形態における表示制御に必要な各種情報(例えば、配置領域情報、表示可否マップ、表示位置テーブル、ARコンテンツ、アイコン、サムネイル画像等)を記憶する。また、記憶部33は、例えば処理経過や処理結果等の情報、エラー情報等を記憶してもよい。なお、これらの情報は、端末装置12が設定した情報だけでなく、サーバ11から取得した情報も含まれる。また、端末装置12により取得や設定した情報は、サーバ11へ送信した後に削除してもよい。
表示部34は、認識部38によるARマーカの認識(検出)結果に基づき、撮像画像に配置領域情報やARコンテンツを登録するための画面等を表示する。また、表示部34は、ARマーカのマーカIDに対応して取得したARコンテンツを撮像画像に重畳した重畳画像や、その他の各種設定画像等を表示する。
入力部35は、ユーザ等による操作内容の入力を受け付ける。例えば、表示部34が、タッチパネル等で構成されている場合には、入力部35は、タッチパネル上のタッチ位置座標を取得することもできる。入力部35は、例えばタッチパネル上に表示された入力キー等への操作により入力された情報を受け付ける。また、入力部35は、端末装置12に設けられた、又は外付けのキーボードや操作ボタン等により入力された情報を受け付けてもよい。
配置領域設定部36は、撮像部32で撮像された画像に対し、その画像に含まれるARマーカの位置情報を基準に、ARマーカのマーカIDに対応付けられたARコンテンツの配置領域情報(配置可能領域、配置不可領域)を設定する。例えば、ユーザは、撮像画像に含まれる実物体(例えば、点検対象物等)に対してARコンテンツを重畳表示させる場合に、実物体を基準とした位置(例えば、実物体付近)にARマーカを設置する。そして、そのARマーカのマーカIDに対応するARコンテンツを登録するときに、配置領域設定部36により配置可能領域又は配置不可領域を定義する。定義した配置領域情報等は、サーバ11に登録される。配置領域設定部36は、例えば撮像画像に対して配置可能領域を設定することで、設定された配置可能領域以外の領域(空間)を配置不可領域としてもよい。また、配置領域設定部36は、例えば撮像画像に対して配置不可領域を設定することで、設定された配置不可領域以外の領域を配置可能領域としてもよい。
また、配置領域設定部36は、例えば撮像画像の認識処理により画像中の特徴点を抽出し、特徴量が少ない領域(例えば壁や床等)を配置可能領域として設定してもよい。なお、特徴点は、画素に対する輝度値や周辺画素との輝度差等に基づいて抽出することができるが、これに限定されるものではない。また、特徴量が少ない領域とは、例えば輝度差が所定値以下の領域や、特徴点の数が所定値以下の領域等であるが、これに限定されるものではない。
また、配置領域設定部36は、配置領域を示す情報(例えば、座標値等)を予めテキストデータで管理しておき、例えばユーザの操作が困難な状況等の場合に、記憶部33やサーバ11等からそのテキストデータを取得することで配置領域の設定等を行ってもよい。なお、上述した手法のうち、どの手法を用いるかについては、ユーザ等が設定したり変更してもよく、所定の条件等に基づいて設定や変更を行ってもよい。
配置領域情報は、三次元空間で設定する場合と、二次元平面で設定する場合のどちらも可能であり、ユーザの設定や表示対象等によって使い分けることができる。例えば、表示対象物(実物体)が三次元の場合は、実物に合わせて三次元情報(体積)で空間を定義するのが好ましい。また、表示対象物が二次元平面の場合は、実物に合わせて二次元情報(面積)で平面領域を定義するのが好ましいが、これに限定されるものではない。
また、配置領域設定部36は、撮影画像中に複数のARマーカを含む場合に、ARマーカの組み合わせの設定を行ってもよい。ARマーカの組み合わせの設定とは、例えば撮影画像中に複数のARマーカが存在する場合に、そのうちのどのARマーカが同時に撮影された場合に、共通の画像の特徴情報等を設定するかを指定するものである。
表示領域制御部37は、配置領域設定部36で設定された配置可能領域又は配置不可領域を撮像画像に投影し、配置可能領域又は配置不可領域に対する投影領域を取得する。なお、配置可能領域又は配置不可領域は、サーバ11や記憶部33に記憶されている。したがって、表示領域制御部37は、認識部38により認識されたマーカIDを用いて記憶部33を参照し、記憶部33にマーカIDに対応する配置領域情報があれば、それを取得する。また、表示領域制御部37は、記憶部33に配置領域情報がない場合は、サーバ11等に取得要求を行って、マーカIDに対応する配置領域情報を取得する。
また、表示領域制御部37は、撮像画像に対する配置可能領域の投影領域内(第1の投影領域内)にARコンテンツを表示させるための表示制御を行う。投影領域は、ARマーカの位置と撮像部32のカメラ位置との関係により変動し、例えば配置可能領域に対する投影領域(第1の投影領域)と配置不可領域に対する投影領域(第2の投影領域)とが重なる場合もある。したがって、表示領域制御部37は、ARマーカとカメラ(撮像部32)との位置関係に応じて配置対象の空間の投影領域を調整し、調整した投影領域内にARコンテンツを重畳する。例えば、表示領域制御部37は、配置可能領域と、配置不可領域とが重なる場合には、配置不可領域が優先され、配置可能領域と配置不可領域とが重なった領域を除いた配置可能領域内に、ARコンテンツを表示する。このため、表示領域制御部37は、重なる前に配置可能領域に表示されていたARコンテンツを他の配置可能領域に移動して再配置表示を行う。
例えば、表示領域制御部37は、投影領域の調整時に表示可否マップ等を生成し、生成したマップに基づいて表示領域の制御を行ってもよい。表示可否マップとは、ARマーカに対応付けられて定義された配置可能領域及び配置不可領域を用いて、現在の撮影位置(視点)から撮影された撮像画像の領域(空間)に対してARコンテンツを表示できる領域(空間)をマップとして表したものである。表示可否マップは、例えば所定の時間間隔又は撮影位置が移動した場合に継続的に生成される。また、表示可否マップは、例えば撮像画像中における配置可能領域と配置不可領域とをビットデータ等で表示したものであるが、これに限定されるものではない。
認識部38は、撮像画像に含まれる基準物(例えば、ARマーカ)等を認識する。例えば、認識部38は、撮像部32により得られる撮像画像に対して画像認識を行い、その認識結果から、ARマーカの情報を取得する。また、認識部38は、ARマーカの撮像部32に対する位置(スクリーン座標)を取得したりARマーカの識別情報(マーカID)を取得する。なお、本実施形態では、複数の異なる基準物(ARマーカ)から同じマーカIDが得られる場合もある。
本実施形態では、例えば撮像画像中に含まれる実空間上の物体(対象物)に対してARマーカを付与しておくことで、そのARマーカのマーカIDに対応付けられたARコンテンツとして、例えばその物体の使用方法や作業手順、注意事項、点検結果等を撮像画像に重畳して表示させることができる。
生成部39は、認識部38による認識結果に基づいて、ARマーカのマーカIDに対応するARコンテンツを撮像画像の配置可能領域の投影領域内に重畳した重畳画像を生成する。生成部39は、例えばサーバ11等に対しマーカIDに対応するARコンテンツの取得要求を行い、対応するARコンテンツを取得する。また、生成部39は、例えば撮像画像に対する配置可能領域の投影領域内に、取得したARコンテンツを表示する。なお、ARコンテンツを重畳する場合、生成部39は、例えばARコンテンツの座標をスクリーン座標系に変換し、ARコンテンツの投影画像(図形)を生成し、生成した投影画像を重畳してもよい。
例えば、ARコンテンツのサイズが大きかったり、コンテンツ数が多いため、配置可能領域の投影領域内にARコンテンツ(詳細情報)が重畳表示できない場合がある。そのような場合、生成部39は、所定の縮小率で縮小した画像(サムネイル画像等)を生成したり、予め設定されたコンテンツ種別等に対応するアイコン等に変換したり、複数のARコンテンツを集約した集約情報等を生成し、それらの情報を重畳してもよい。また、ユーザが上述したサムネイル画像やアイコン等を選択すると、表示領域制御部37は、サムネイル画像を拡大表示したり、アイコンに対応するARコンテンツの詳細表示を重畳表示する。
また、生成部39は、例えば認識部38によるマーカ認識がOKの場合やNGの場合で、異なるARコンテンツを生成して画面に重畳させてもよい。また、生成部39は、重畳表示するときの時間情報に応じて異なるARコンテンツを生成して画面に重畳させてもよい。
算出部40は、例えば配置可能領域に対応付けられて外部(例えば、ユーザ操作等)から受け付けた配置可能領域を指定する座標と、座標の基準となるARマーカ及びカメラ(撮像部32)の位置関係とに基づいて、配置可能領域が撮像部32により撮像される撮像画像内に占める領域(第1の投影領域)を算出する。また、算出部40は、例えば配置不可領域に対応付けられて外部から受け付けた配置不可領域を指定する座標と、座標の基準となるARマーカ及び撮像部32の位置関係とに基づいて、配置不可領域が撮像部32により撮像される撮像画像内に占める領域(第2の投影領域)を算出する。例えば、算出部40は、配置領域設定部36において設定された配置可能領域に対して、三次元又は二次元における位置情報と、ARコンテンツの大きさ等の情報等から、どの位置にどのように配置するかといった位置情報を取得するための算出を行う。例えば、算出部40は、配置領域情報の座標、又は配置可能領域におけるARコンテンツの座標を、所定の変換行列等を用いて撮像画像を基準にしたスクリーン座標系に変換する処理を行ってもよい。
制御部41は、端末装置12が有する各構成における処理全体を制御する。制御部41は、撮像部32による画像撮影、表示部34による各種情報の画面表示、入力部35によるユーザからの入力情報を受け付け等の処理を行う。また、制御部41は、配置領域設定部36によるARコンテンツの配置領域の設定、表示領域制御部37による表示領域の制御、認識部38による撮影画像に含まれるARマーカの認識等の処理を行う。また、制御部41は、生成部39によるARコンテンツや重畳する画像等の生成、算出部40による所定の演算(算出)等の処理を行う。
<サーバ11のハードウェア構成例>
次に、サーバ11のハードウェア構成例について、図を用いて説明する。図4は、サーバのハードウェア構成の一例を示す図である。図4の例において、サーバ11は、入力装置51と、出力装置52と、ドライブ装置53と、補助記憶装置54と、主記憶装置55と、Central Processing Unit(CPU)56と、ネットワーク接続装置57とを有し、これらはシステムバスBで相互に接続されている。
入力装置51は、ユーザ等が操作するキーボード及びマウス等のポインティングデバイスや、マイクロフォン等の音声入力デバイスを有しており、ユーザ等からのプログラムの実行指示、各種操作情報、ソフトウェア等を起動するための情報等の入力を受け付ける。
出力装置52は、本実施形態における処理を行うためのコンピュータ本体(サーバ11)を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイ等を有する。出力装置52は、CPU56が有する制御プログラムによりプログラムの実行経過や結果等を表示することができる。
ここで、本実施形態において、例えばコンピュータ本体にインストールされる実行プログラムは、記録媒体58等により提供される。記録媒体58は、ドライブ装置53にセット可能である。CPU56からの制御信号に基づき、記録媒体58に格納された実行プログラムが、記録媒体58からドライブ装置53を介して補助記憶装置54にインストールされる。
補助記憶装置54は、例えばHard Disk Drive(HDD)やSolid State Drive(SSD)等のストレージ手段等である。補助記憶装置54は、CPU56からの制御信号に基づき、本実施形態における実行プログラム(表示制御プログラム)や、コンピュータに設けられた制御プログラム等を記憶し、必要に応じて入出力を行う。補助記憶装置54は、CPU56からの制御信号等に基づいて、記憶された各情報から必要な情報を読み出したり、書き込むことができる。
主記憶装置55は、CPU56により補助記憶装置54から読み出された実行プログラム等を格納する。主記憶装置55は、Read Only Memory(ROM)やRandom Access Memory(RAM)等である。
CPU56は、Operating System(OS)等の制御プログラム、及び主記憶装置55に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して各処理を実現する。プログラムの実行中に必要な各種情報等は、補助記憶装置54から取得することができ、また実行結果等を格納することもできる。
CPU56は、例えば入力装置51から得られるプログラムの実行指示等に基づき、補助記憶装置54にインストールされたプログラムを実行させることにより、主記憶装置55上でプログラムに対応する処理を行う。例えば、CPU56は、表示制御プログラムを実行させることで、上述した登録部23によるARマーカによる配置領域情報、ARコンテンツの登録、抽出部24による各種情報の抽出、制御部25による表示制御等の処理を行う。CPU56における処理内容は、上述した内容に限定されるものではない。CPU56により実行された内容は、必要に応じて補助記憶装置54等に記憶される。
ネットワーク接続装置57は、上述した通信ネットワーク13を介して、端末装置12や他の外部装置との通信を行う。ネットワーク接続装置57は、CPU56からの制御信号に基づき、通信ネットワーク13等と接続することにより、実行プログラムやソフトウェア、設定情報等を外部装置等から取得する。また、ネットワーク接続装置57は、プログラムを実行することで得られた実行結果を端末装置12等に提供したり、本実施形態における実行プログラム自体を外部装置等に提供してもよい。
記録媒体58は、上述したように実行プログラム等が格納されたコンピュータで読み取り可能な記録媒体である。記録媒体58は、例えばフラッシュメモリ等の半導体メモリやCD−ROM、DVD等の可搬型の記録媒体であるが、これに限定されるものではない。
図4に示すハードウェア構成に実行プログラム(例えば、表示制御プログラム等)をインストールすることで、ハードウェア資源とソフトウェアとが協働して本実施形態における表示制御処理等を実現することができる。
<端末装置12のハードウェア構成例>
次に、端末装置12のハードウェア構成例について図を用いて説明する。図5は、端末装置のハードウェア構成の一例を示す図である。図5の例において、端末装置12は、マイクロフォン(以下、「マイク」という)61と、スピーカ62と、表示部63と、操作部64と、センサ部65と、電力部66と、無線部67と、近距離通信部68と、補助記憶装置69と、主記憶装置70と、CPU71と、ドライブ装置72とを有し、これらはシステムバスBで相互に接続されている。
マイク61は、ユーザが発した音声や、その他の音を入力する。スピーカ62は、通話相手先の音声を出力したり、着信音等の音を出力する。マイク61及びスピーカ62は、例えば、通話機能等により通話相手と会話するとき等に用いることができるが、これに限定されるものではなく、音声による情報の入出力に用いることができる。
表示部63は、ユーザに対してOSや各種アプリケーションで設定された画面を表示する。また、表示部63は、タッチパネルディスプレイ等でもよく、その場合には表示部63は、入出力部としての機能を有する。
表示部63は、例えばLiquid Crystal Display(LCD)や有機Electro Luminescence(EL)等のディスプレイである。
操作部64は、表示部63の画面に表示された操作ボタンや端末装置12の外部に設けられた操作ボタン等である。操作ボタンは、例えば電源ボタンや音量調整ボタンでもよく、所定の順番で配列された文字入力用の操作キー等でもよい。
ユーザは、例えば表示部63の画面上で所定の操作を行ったり、上述した操作ボタンを押すことで、表示部63により画面上のタッチ位置が検出される。また、表示部63は、画面上にアプリ実行結果やコンテンツやアイコン、カーソル等を表示することができる。
センサ部65は、端末装置12のある時点又は継続的な動作を検出する。例えば、センサ部65は、端末装置12の傾き角度、加速度、方向、位置等を検出するが、これに限定されるものではない。なお、センサ部65としては、例えば傾きセンサや加速度センサ、ジャイロセンサ、Global Positioning System(GPS)等であるが、これに限定されるものではない。
電力部66は、端末装置12の各構成に対して電力を供給する。電力部66は、例えばバッテリ等の内部電源であるが、これに限定されるものではない。電力部66は、電力量を常時又は所定の時間間隔で検出し、電力量の残量等を監視することもできる。
無線部67は、例えばアンテナ等を用いて基地局からの無線信号(通信データ)を受信したり、アンテナを介して無線信号を基地局に送信する通信データの送受信部である。無線部67により、通信ネットワーク13を介して基地局等からサーバ11とデータの送受信を行うことができる。
近距離通信部68は、例えば赤外線通信やWi−Fi(登録商標)、Bluetooth(登録商標)等の通信手法を用いて、他の端末装置12等のコンピュータと近距離通信を行うことができる。上述した無線部67及び近距離通信部68は、他のコンピュータとのデータの送受信を可能とする通信インタフェースである。
補助記憶装置69は、例えばHDDやSSD等のストレージ手段である。補助記憶装置69は、各種のプログラム等を記憶し、必要に応じてデータの入出力を行う。
主記憶装置70は、CPU71からの指示により補助記憶装置69から読み出された実行プログラム等を格納したり、プログラム実行中に得られる各種情報等を記憶する。主記憶装置70は、例えばROMやRAM等であるが、これに限定されるものではない。
CPU71は、OS等の制御プログラム、及び主記憶装置70に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御することで、表示制御における各処理を実現する。
CPU71は、例えば操作部64等から得られるプログラムの実行指示等に基づき、補助記憶装置69にインストールされたプログラムを実行させることにより、主記憶装置70上でプログラムに対応する処理を行う。例えば、CPU71は、表示制御プログラムを実行させることで、上述した撮像部32による画像撮影、表示部34による各種情報の画面表示、入力部35によるユーザからの入力情報を受け付け等の処理を行う。また、CPU71は、配置領域設定部36によるARコンテンツの配置領域の設定、表示領域制御部37による表示領域の制御、認識部38による撮影画像に含まれるARマーカの認識等の処理を行う。また、CPU71は、生成部39によるARコンテンツや重畳する画像等の生成、算出部40による所定の演算(算出)等の処理を行う。CPU71における処理内容は、上述した内容に限定されるものではない。CPU71により実行された内容は、必要に応じて補助記憶装置69等に記憶される。
ドライブ装置72は、例えば記録媒体73等を着脱自在にセットすることができ、セットした記録媒体73に記録された各種情報を読み込んだり、所定の情報を記録媒体73に書き込むことができる。ドライブ装置72は、例えば媒体装填スロット等であるが、これに限定されるものではない。
記録媒体73は、上述したように実行プログラム等を格納するコンピュータで読み取り可能な記録媒体である。記録媒体73は、例えばフラッシュメモリ等の半導体メモリであってもよい。また、記録媒体73は、USBメモリ等の可搬型記録媒体であってもよいが、これに限定されるものではない。
本実施形態では、上述したコンピュータ本体のハードウェア構成に実行プログラム(例えば、表示制御プログラム等)をインストールすることで、ハードウェア資源とソフトウェアとが協働して本実施形態における表示制御処理等を実現することができる。
また、上述した表示制御処理に対応する表示制御プログラムは、例えば装置上で常駐している状態であってもよく、起動指示により起動させてもよい。
<ARマーカ例>
次に、本実施形態における基準物の一例としてARマーカ例について図を用いて説明する。図6は、実物体にARマーカを設置した例を示す図である。例えば、図6(A)の例では、現実空間にある実物体(例えば、点検対象物等)の一例としてパイプ(配管)80が設置されている。パイプ80は、複数のバルブ(弁)81−1〜81−5を有する。本実施形態では、例えば上述したパイプ80と共に撮影できる位置にARマーカ90が取り付けられている。
本実施形態では、ARマーカ90をパイプ80と共に、端末装置12の撮像部32で撮影し、認識部38が画像認識によりARマーカ90の識別情報(マーカID)を読み取る。また、配置領域設定部36は、撮像画像の空間に対する投影された配置領域情報(配置対象情報、配置不可情報)等を設定する。撮像画像のうち、パイプ80等が表示されている領域は、ARコンテンツの表示で隠れてしまうことを抑制するため、配置不可領域として設定(定義)する。また、パイプ80以外の領域は、配置可能領域として設定する。なお、パイプ80上であってもユーザの注目対象でなければ、パイプ80上に配置可能領域を設定してもよい。
また、配置領域情報の設定後(すでに設定されている場合は省略可能)、設定された配置可能領域に対してARマーカ90のマーカIDに対応するARコンテンツを設定する。
また、ユーザは、点検作業時等に撮影した画像からARマーカ90が認識されると、ARマーカ90のマーカIDに対応して設定されたARコンテンツが、撮像画像に対する配置可能領域の投影領域に重畳表示される
これにより、ユーザ(作業者等)は、端末装置12の画面に表示されたARコンテンツ情報に基づいて、例えばバルブ(弁)81−1〜81−5を直接操作して、パイプ80の制御等を行うことができる。また、複数のユーザがARコンテンツ情報を共有することができる。
また、ARマーカ90から得られるARコンテンツ情報としては、上述した操作内容に限定されるものではなく、例えばパイプ80がひび割れ等の破損をしている場合や修理が必要である場合等に、その情報や注意事項等をユーザ等に通知するための情報でもよい。
ARマーカ90は、1つの対象物(例えば、パイプ80)に対して1以上設けてもよく、複数の対象物に対して1つのARマーカ90であってもよい。また、画像中に複数のARマーカが存在する場合には、それらのARマーカに対して共通の判定条件を用いて判定を行い、その判定結果に応じたARコンテンツを表示してもよい。
また、ARマーカ90は、図6(B)に示すように、例えばサーバ等のコンピュータを収納するサーバラック82等の機器(対象物)に対して、その操作内容やメンテナンス情報(稼働スケジュール、故障時の連絡先)等の各種情報(詳細情報)を、そのサーバラックと共に撮影可能な位置に取り付けられたARマーカ90の画像を撮影し、その画像に対して画像認識することで取得することができる。
ARマーカ90の例としては、例えばバーコード、QRコード(登録商標)等の二次元コードでもよく、カラー等を用いた多次元コードでもよいが、これらに限定されるものではなく、その他の基準物でもよい。なお、ARマーカ90によりARコンテンツを表示させる対象物については、これに限定されるものではない。
<端末装置12における表示制御処理の一例>
次に、上述した端末装置12における表示制御処理の一例について、フローチャートを用いて説明する。なお、端末装置12における処理としては、例えば、管理者や作業者のユーザ等がARマーカに対応付けて、配置領域情報やARコンテンツ等を設定する場合と、ARマーカを認識して対応付けられたARコンテンツを表示する場合とがある。このような場合には、1台の端末装置12を管理者及び作業者が用いてもよく、例えば複数の端末装置12をそれぞれの所有者(管理者、作業者)に割り当てて、処理を行ってもよい。以下の説明では、上記の各場合における処理例を分けて説明する。
<第1実施例>
図7は、第1実施例における表示制御処理の一例を示すフローチャートである。図7の例において、端末装置12は、本実施形態における表示制御プログラム等を実行して、例えばAR表示モードを起動する(S01)。S01の処理では、撮像部32における撮像等を実行すると共にARマーカの認識状態に遷移する。
次に、端末装置12の認識部38は、撮像部32で撮影された画像からARマーカを検知したか否かを判断し(S02)、ARマーカを検知した場合(S02において、YES)、ARマーカに対応する配置領域情報(例えば、配置可能領域、配置不可領域)を取得する(S03)。ARコンテンツは、例えばARマーカに対応するマーカIDをサーバ11に送信し、送信したサーバ11からマーカIDに対応する配置領域情報を取得することができるが、これに限定されるものではない。例えば、端末装置12は、すでにマーカIDに対応する配置領域情報を記憶部33等に保持している場合には、その情報を用いてもよい。なお、S03の処理では、配置領域情報の一例として、配置可能領域、配置不可領域の座標(例えば、ARマーカからの相対座標等)を取得する。
次に、端末装置12は、配置可能領域及び配置不可領域の座標を撮像部32で撮影された空間に対応したスクリーン座標系に変換する(S04)。S04の処理により配置可能領域、配置不可領域それぞれの投影領域(第1の投影領域、第2の投影領域)が得られる。また、端末装置12は、検出された他のARマーカがあるか否かを判断する(S05)。他のARマーカがある場合(S05において、YES)、S03の処理に戻る。
また、他のARマーカがない場合(S05において、NO)、端末装置12の表示領域制御部37は、全ARマーカ分のスクリーン座標を重ね合わせて、撮像画像内におけるARコンテンツの表示可否マップを生成する(S06)。例えば、S06の処理において、表示領域制御部37は、例えば予め設定された配置可能領域(重畳可能領域)と配置不可領域(重畳不可領域)とが、重なっている場合には、配置不可領域として表示可否マップを生成する。これは、配置不可とユーザが定義した領域にARコンテンツ重畳しないためである。また、表示領域制御部37は、予め定義した2つの配置可能領域が重なる場合に、その重なった領域は配置可能領域のままとする。また、表示領域制御部37は、2つの配置不可領域が重なる場合に、その重なった領域は配置不可領域のままとする。
次に、端末装置12は、S02の処理により得られたARマーカに対応するARコンテンツを取得する(S07)。S07の処理では、例えばARマーカに対応するマーカID等をサーバ11等に送信し、サーバ11からマーカIDに対応するARコンテンツを取得する。なお、S07の処理では、これに限定されるものではなく、予め記憶部33等にマーカIDに対応するARコンテンツが存在する場合には、そのARコンテンツを取得してもよい。
次に、端末装置12は、ARコンテンツの座標をスクリーン座標系に変換し(S08)、ARコンテンツの投影画像(図形)を生成する(S09)。次に、端末装置12は、投影画像の表示位置と、上述した表示可否マップとを照合し(S10)、投影画像の全領域が配置可能領域か否かを判断する(S11)。S11の処理において、投影画像の全領域が配置可能領域である場合(S11において、YES)、投影画像を撮像画像上の指定位置に重畳表示する(S12)。
また、投影画像の全領域が配置可能領域でない場合(S11において、NO)、投影画像の一部の領域が配置可能領域か否かを判断する(S13)。投影画像の一部の領域が配置可能領域である場合(S13において、YES)、投影画像を変形して撮像画像上の指定位置に重畳表示する(S14)。なお、S14の処理において、投影画像の変形とは、例えば投影画像を所定の縮小率で縮小することであるが、これに限定されるものではない。また、所定の縮小率とは、例えば投影画像を縮小することで、その投影画像の全て又は所定領域以上が配置可能領域上に表示されるような縮小率をいうが、これに限定されるものではなく、例えば予め設定された固定の縮小率であってもよい。
また、S14の処理では、投影画像の変形の一例として、ARコンテンツ(投影画像)に対応するサムネイル画像を生成して重畳表示してもよく、ARコンテンツ(投影画像)に対応するアイコン等を重畳表示してもよい。アイコンは、例えばARコンテンツの種別に対応させて予め記憶部33やサーバ11等に記憶されており、表示するARコンテンツに対応するアイコン等を取得して重畳表示させてもよい。画面に表示されたサムネイル画像やアイコンをユーザが選択することで、実際の投影画像を、例えばポップアップ画面等で表示させることができる。なお、S12又はS14の処理後、例えば表示位置テーブル等に表示領域(座標)等を記録する(S15)。
また、端末装置12は、S13の処理において、投影画像の一部の領域が配置可能領域でない場合(S13において、NO)、投影画像の全てが配置不可領域に配置されることになるため、現在の角度(視点)等から撮影された領域には、投影画像を表示せずに記憶部33等に保存する(S16)。
S15又はS16の処理後、端末装置12は、他のARマーカがあるか否かを判断し(S17)、他のARマーカがある場合(S17において、YES)、S07に戻る。また、他のARマーカがない場合(S17において、YES)、S16の処理により保存された表示されていない投影画像を取得し(S18)、表示位置テーブルを参照して配置可能領域の空き領域に、S18の処理により取得した投影画像を表示する(S19)。また、端末装置12は、保存される他の投影画像があるか否かを判断し(S20)。他の投影画像がある場合(S20において、YES)、S18の処理に戻る。
また、S20の処理において、他の投影画像がない場合(S20において、NO)、又は、S02の処理において、ARマーカを検知しなかった場合(S02において、NO)、ユーザ等の操作による終了指示があったか否かを判断し(S21)、終了指示がなかった場合(S21において、NO)、S02に戻る。また、終了指示があった場合(S21において、YES)、処理を終了する。
<第2実施例>
図8は、第2実施例における表示制御処理の一例を示すフローチャートである。第2実施例では、例えば端末装置12のユーザとして管理者等が配置領域(配置可能領域、配置不可領域)やARマーカに対応するARコンテンツ等を設定する時のフローチャートである。
図8の例において、端末装置12は、本実施形態における表示制御プログラム等を実行して、例えば配置領域設定用のAR表示モードを起動する(S31)。S31の処理では、撮像部32における撮像等を実行すると共にARマーカの認識状態に遷移する。
次に、端末装置12の認識部38は、撮影された画像中にARマーカを検知したか否かを判断し(S32)、ARマーカを検知した場合(S32において、YES)、マーカ認識処理を行う(S33)。S33の処理は、例えば上述した第1実施例のS03〜S05と同様の処理を行うため、ここでの具体的な説明は省略する。
次に、端末装置12は、配置領域情報を設定するための編集処理の呼び出しを行い(S34)、静止画表示モードに切り替え(S35)、撮像部32により撮像された撮像画像及び予め設定された操作メニュー等を表示する(S36)。
次に、端末装置12は、配置領域情報情報(配置可能領域、配置不可領域)を設定する(S37)。AR定義オブジェクトを選択する(S37)。S37の処理では、例えば表示された撮影画像の静止画に対して配置可能領域や配置不可領域を設定することができる。なお、配置領域情報がすでに設定されている場合には、S37の処理を省略してもよい。
次に、端末装置12は、ARマーカに対応するARコンテンツを設定する(S38)。なお、S38の処理では、ARマーカに対応するマーカIDに対応付けてARコンテンツを設定する。設定されるARコンテンツは、例えば予め記憶部33に記憶されている複数のARコンテンツのうち少なくとも1つを選択してもよく、サーバ11等の外部装置にアクセスして、サーバ11等に蓄積された複数のARコンテンツのうち少なくとも1つを選択してもよい。
次に、端末装置12は、設定したARコンテンツの投影画像を生成し(S39)、ARオブジェクトの投影画像を撮像画像に重畳合成する(S40)。次に、端末装置12は、操作メニュー等によるユーザ等からの位置決定入力があるか否かを判断する(S41)。端末装置は、位置決定入力がない場合(S41において、NO)、次に、位置指定があるか否かを判断する(S42)。S42の処理では、例えばユーザによる端末装置12の表示画面に対するタッチ操作によって位置指定を行ってもよく、座標パラメータ等の数値設定による位置指定等であってもよいが、これに限定されるものではない。位置指定は、例えばARコンテンツが、配置可能領域内に設定されるのが好ましいが、配置可能領域内に設定しても、その後の撮影角度の違いによって配置不可領域内にARコンテンツが表示される可能性があるため、これに限定されるものではない。
S42の処理において、位置指定がある場合(S42において、YES)、端末装置12は、指定された座標をスクリーン座標系に座標変換する(S43)。また、端末装置12は、ARコンテンツの座標を更新し(S44)、S36の処理に戻る。また、端末装置12は、S42の処理において、位置指定がない場合(S42において、NO)、同様にS36の処理に戻る。
上述したS41の処理において、位置決定入力があった場合(S41の処理において、YES)、ARコンテンツに対して指定された位置の座標をマーカ座標系(撮像画像に含まれるARマーカの位置を基準にした相対座標系)に座標変換を行う(S45)。次に、端末装置12は、編集終了か否かを判断し(S46)、編集終了でない場合(S46において、NO)、S36の処理に戻る。また、編集終了である場合(S46において、YES)、編集データを登録する(S47)。S47の処理では、例えばARマーカに対応するマーカIDと、設定した配置領域情報やARコンテンツ等とをサーバ11に登録したり、記憶部33に記憶させることで登録することができるが、これに限定されるものではない。
次に、端末装置12は、ユーザ等から終了指示があったか否かを判断し(S48)、終了指示がなかった場合(S48において、NO)、S32に戻る。また、終了指示があった場合(S48において、YES)、処理を終了する。
<表示制御の具体例>
次に、本実施形態における表示制御の具体例について、図を用いて説明する。図9は、配置領域情報の設定例を示す図である。図9(A),(B)の例では、三次元空間における配置領域情報の設定例を示し、図9(C),(D)は二次元平面における配置領域情報の設定例を示している。また、図9(A),(C)は、ARマーカ90を正面から撮影した撮像画像例を示し、図9(B),(D)は、図9(A),(C)で撮影された空間を上から見た例を示している。
本実施形態では、例えば実空間におけるARマーカ設置後に、ARコンテンツの配置可能領域や配置不可領域を設定し、設定された情報がサーバ11又は端末装置12の記憶部33等に登録される。この場合、配置領域情報は、図9(A),(B)に示すように三次元空間で設定してもよく、図9(C),(D)に示すように二次元平面で設定してもよい。これらの設定は、例えばARコンテンツを配置する対象物(実物体)の内容やARコンテンツの形状等によって使い分けることができる。
例えば、図9(A),(B)に示すように、ARコンテンツを表示する対象の実物体101が三次元物体の場合には、実物に合わせて三次元情報(体積)で配置領域情報を設定するのが好ましい。なお、図9(C),(D)に示すように、表示されるARコンテンツが二次元平面でもよい場合には、実物に合わせて二次元情報(面積)で平面を設定してもよい。
例えば、図9(A)、(B)に示すようにバルブが設けられた配管(パイプ)等の実物体(注目対象物)101−1〜101−3に対して、配置可能領域(例えば、壁や床等の空き領域)102−1〜102−4と配置不可領域103−1〜103−3とが三次元座標で設定される。図9(A)、(B)の例では、実物体101−1〜101−3が隠れないように配置不可領域103−1〜103−3が設定されている。
また、図9(C),(D)に示す例では、大型サーバ等の実物体111−1〜111−3に対して、配置可能領域112と配置不可領域113とが二次元座標で平面的に設定されている。図9(C),(D)の例では、複数の実物体111−1〜111−3又は複数のARマーカ90−1〜90−3に対して1つの配置可能領域112が設定されているが、これに限定されるものではなく、実物体毎又はARマーカ毎に配置領域情報を設定してもよい。配置領域情報の登録時には、AR90−1〜90−3のそれぞれに対応付けられて配置可能領域112と配置不可領域113とが設定される。
配置領域情報(配置可能領域、配置不可領域)の設定手法としては、例えば端末装置12のオーサリング処理により、ユーザの画面へのタッチ操作で配置領域情報を設定することができる。また、他の手法としては、例えば撮像画像の認識処理により画像中の特徴点を抽出し、特徴量が少ない領域(例えば壁や床等)を配置可能領域として設定する。また、他の手法としては、配置領域を示す情報(例えば、座標値等)を予めテキストデータで管理しておき、例えばユーザの操作が困難な状況等の場合に、記憶部33やサーバ11等からそのテキストデータを取得することで配置領域情報の設定等を行う。配置領域情報(配置可能領域、配置不可領域)は、例えばマーカIDに対応付けて、マーカIDの位置を基準にした頂点(矩形の場合は4点)の相対位置座標が登録される。また、複数の配置可能領域があれば、それぞれの領域毎に領域を示す座標が登録される。
配置領域情報としては、例えば、
マーカID:100
<配置可能領域>
エリアID1:(x,y,z)={(-50,30,0)、(-50,-10,0)、(-5,30,0)、(-5,-100,0)}
エリアID2:{略}
<配置不可領域>
エリアID1:(x,y,z)={(-20,30,0)、(-20,-10,0)、(10,30,0)、(10,-100,0)}
エリアID2:{略}
等であるが、これに限定されるものではない。また、マーカIDに対応付けてARコンテンツと、ARコンテンツの表示位置等が登録される。
図10は、ARコンテンツの表示例を示す図である。図10(A)〜(D)は、上述した図9(A)に対応する図を示している。また、図10(A)は、図10(B)に示す上からの図の視点Aから撮影された画像例を示し、図10(C)は、図10(D)に示す上からの図の視点Bから撮影された画像例を示している。図10(A)〜(D)の例では、説明の便宜上、配置可能領域102及び配置不可領域103が表示されている。
図10の例では、端末装置12が、検出したARマーカ90に対応するマーカIDを用いて、サーバ11にアクセスし、サーバ11からマーカIDに対応するARコンテンツや配置領域の情報を取得し、配置可能領域に画像表示を行う。
例えば、本実施形態では、図10(B),(D)に示すように撮影する視点(角度)が異なった場合に、図10(A),(C)に示すように調整された配置可能領域102の所定の位置にARコンテンツ120−1〜120−6が表示される。本実施形態では、ユーザの注目物である配管等の実物体101〜103上にARコンテンツ120−1〜120−6が配置されて、ユーザの視界が阻害されないように、配置不可領域103にはARコンテンツ120を重畳表示しないようにする。なお、図10(A),図10(C)に示すARコンテンツ120−1〜120−6は、一例として「作成日時」、「担当者」、「コメント」等を有するテキスト情報のコンテンツであるが、これに限定されるものではなく、例えば標識やマーク、画像、映像、絵文字、スタンプ等であってもよい。
また、本実施形態では、図10(A)のARコンテンツ120−4〜120−6に示すように、配置可能領域102−2の大きさに対応させてARコンテンツを縮小して表示させて表示させてもよい。また、図10(D)に示す視点Bから撮影した場合には、図10(C)に示すように、配置可能領域102−2と、配置不可領域103−1とが重なる場合がある。そのような場合には、配置不可領域103−1が優先され、配置可能領域102−2と配置不可領域103−1とが重なった領域を除いた配置可能領域内に、ARコンテンツを表示させる。このため、配置可能領域102−2に表示されていたARコンテンツ120−4〜120−6は、他の配置可能領域(例えば、配置可能領域102−1)に移動して表示される(再配置表示)。なお、図10(C)の例では、すでに配置可能領域102−1に表示されていたコンテンツ120−1〜120−3を含めて表示位置が再調整されて、撮像画像に重畳表示される。
上述したように、撮影角度(視点)の変更に対応させてARコンテンツ120−1〜120−6の重畳位置が変更(再配置)されるため、実際にユーザが指定した表示位置(座標)からずれてしまう。そのため、本実施形態では、例えば図10(C)に示すように、ARコンテンツ120−1〜120−6からユーザが指定した表示位置に対して矢印等を表示する。これにより、ユーザは、表示されたARコンテンツがどの位置(空間)に位置付けられたものかを適切且つ迅速に把握することができる。
上述したARコンテンツの表示制御により、ARマーカ90を含む領域(空間)を撮影する角度(視点)が変わった場合でも、ユーザが注目する実物体等の対象物に重ならずに、ARコンテンツを分散して配置することができる。
<表示可否マップの具体例>
次に、上述した表示可否マップの具体例について説明する。図11は、表示可否マップの具体例を示す図である。なお、図11の例では、上述した図9(A)の図に対応している。本実施形態では、図11に示すように、現時点において認識できる各ARマーカ90のマーカ座標系での配置可能領域102−1〜120−4、配置不可領域103−1〜103−3の位置情報を取得し、取得した位置情報を、例えば画像の左上を基準としたスクリーン座標系(X,Y)に変換した投影領域から表示可否マップを生成する。
例えば、図11に示す表示可否マップは、スクリーン解像度分のビットマップデータとして配置可能領域及び配置不可領域の投影領域を保持する。表示可否マップのデータ形式において、マスクビットとして保持する。この場合、図11の例に示すように「1」を配置可能領域(「表示可」)、「0」を配置不可領域(「表示不可」)としたビットパターンを設定されるが、これに限定されるものではなく、例えば「1」と「0」の割り当てを逆にしてもよい。また、本実施形態では、配置可能領域や配置不可能領域以外の領域を有していてもよい。その場合には、例えば配置可能領域又は配置不可領域を「1」とし、それ例外の領域として「1」を設定してもよい。また、図11の例では、表示可否マップのビットパターンを模式的に示しているが、例えば画素毎にビットパターンが設定されてもよい。
また、本実施形態では、例えば撮像画像に複数のARマーカ(例えば、ARマーカ90−1,90−2)が検出された場合、その検出されたARマーカ毎に、上述した表示可否マップが生成され、生成されたそれぞれの表示可否マップが統合されて複数のARマーカに対応する表示可否マップが生成される。
図12は、統合した表示可否マップの生成例を示す図である。例えば、図12(A)の例では、撮像画像に実物体101−1〜101−3が存在する場合に、ARマーカ90−1に対して配置可能領域121−1,121−2及び配置不可領域122−1が設定される。また、図12(B)の例では、図12(A)と同様の撮像画像に含まれるARマーカ90−2に対して配置可能領域121−3,121−4及び配置不可領域122−2が設定される。
この場合、撮像画像に対する最終的な表示可否マップは、図12(A),(B)のそれぞれの領域を統合した図12(C)に示すような領域となる。領域の統合では、配置可能領域と配置不可領域とが重なった場合に、その領域は配置不可領域を優先する。また、複数の配置可能領域が重なった場合に、その領域は配置可能領域とする。また、複数の配置不可領域が重なった場合に、その領域を配置不可領域とする。
これにより、図12(C)の例では、図12(A),(B)の設定結果を統合して配置可能領域121−5〜121−7及び配置不可領域122−1,122−2が設定される。また、この結果から、図12(D)に示すような表示可否マップが生成される。なお、上述したような表示可否マップの生成は、撮像中の間は所定時間間隔で繰り返し処理され、例えばARマーカの撮影角度(視点)等が異なれば、その位置から撮像された画像に対応する配置可能領域及び配置不可領域の投影領域に基づく表示可否マップが生成される。
<表示位置テーブルの生成例>
次に、上述した表示位置テーブルの生成例について図を用いて説明する。図13は、表示位置テーブルの生成例を示す図である。図13(A)〜(C)では、図の左側に示す撮像画像に重畳される各ARコンテンツの表示状態に対応させた表示位置テーブルが図の右側に示されている。図13(A)〜(C)の撮影画像には、ARマーカ90−1,90−2に対する配置可能領域121−5〜121−7及び配置不可領域122−1,122−2が設定されている。
表示位置テーブルの項目としては、例えば「ARコンテンツ」、「マーカID」、「表示領域」等があるが、これに限定されるものではない。「ARコンテンツ」は、ARマーカのマーカIDに対応して表示されるARコンテンツの識別情報である。「マーカID」は、ARマーカから得られるマーカの識別情報である。「表示領域」は、ARコンテンツの表示領域を示す情報である。図13(A)〜(C)の例において、表示領域は、例えばARコンテンツの矩形領域の各頂点の座標で示されるが、これに限定されるものではない。また、表示領域は、撮像画像に対する二次元のスクリーン座標系(X,Y)を用いたARコンテンツの表示位置情報が示されているが、これに限定されるものではななく、例えば三次元の座標系等を用いてもよい。
例えば、ARマーカのマーカIDに対応して設定された各ARコンテンツは、上述した表示可否マップと照合を行い、撮像画像中に含まれる配置可能(「表示可」)領域に順番に配置される。
例えば、図13(A)に示すように、ARコンテンツ(例えば、重畳1,重畳2)の投影画像(図形)の重畳領域が全て配置可能領域121−5にあり、各ARコンテンツが重なっていない。したがって、全てのARコンテンツをそのまま表示する。また、ARコンテンツの表示領域等については、スクリーン座標系等に基づく座標等が表示位置テーブルに記憶される。例えば、ARコンテンツ(重畳1)では、{TopLeft:(50,5),BottomLeft(50,50),TopRight:(100,5),BottomRight(100,50)}が記憶されている。
また、図13(A)の表示内容から、更に図13(B)に示すようにARコンテンツ(例えば、重畳3)を配置可能領域121−6に表示する場合に、重畳3の投影画像の一部が配置可能領域内であれば、ARコンテンツ(投影画像)の面積を縮小して表示する。例えば、投影画像の全表示領域のうち、所定の閾値(例えば、約80%)以上が配置可能領域内であれば、その投影画像の一部が配置可能領域内であるとみなすが、これに限定されるものではない。また、上述した投影画像の面積の縮小率に対応させて、投影画像内に表示されるテキスト情報の文字サイズを小さくしてもよい。
また、図13(B)の例では、投影画像の面積を縮小する一例として、ARコンテンツ(重畳3)があることを示すサムネイル画像や所定のアイコン等を表示してもよい。重畳3における表示領域等については、ARコンテンツやマーカID等と共に表示位置テーブルに記憶される。
ここで、例えばARコンテンツ(例えば、重畳4)を画面表示する場合に、予め指定された重畳4の表示位置(領域)は、撮影角度等の影響で配置不可(「表示不可」)の領域(配置不可領域122−2)を含んでいる。そのため、ARコンテンツ(重畳4)を指定された位置にそのまま表示することができない。このような場合には、ARコンテンツ(重畳4)を記憶部33に保存し、他のARコンテンツ(重畳1〜重畳3)の表示が終了した後に、表示位置テーブルや表示可否マップ等から、配置可能領域のうちARコンテンツが重畳されていない領域(空き領域)を検索する。そして、空き領域があった場合には、その領域を利用してARコンテンツ(重畳4)を表示する。
例えば、図13(C)では、ARコンテンツが配置可能領域121−6の空き領域を利用して表示されている。また、図13(C)では、縮小されたARコンテンツ(重畳4)が表示されている。ARコンテンツ(重畳4)における表示領域等については、ARコンテンツやマーカID等と共に変更された表示領域が表示位置テーブルに記憶される。
なお、図13(A)〜(C)の示す表示位置テーブルの表示領域は、二次元における矩形領域の頂点座標が設定されているが、これに限定されるものではなく、例えば三次元座標でもよく、またARコンテンツの中心座標を基準して所定の半径からなる円領域又は球領域でもよい。
<画面表示例>
次に、ARコンテンツの画面表示例について図を用いて説明する。図14〜図16は、ARコンテンツの画面表示例を示す図(その1〜その3)である。なお、図14〜図16の各表示例は、例えば生成部39により表示内容が生成され、表示領域制御部37により表示制御される。また、図14〜図16に示す撮像画像や配置可能領域、配置不可領域は、図9(A)に対応している。また、図14〜図16の例に示すように、本実施形態では、ARコンテンツ(テキスト情報、画像等)の表示において、ARコンテンツの表示による他の情報の視認が阻害されることを抑制するための表示制御が行われる。
生成部39における表示内容の生成としては、例えばARコンテンツのサムネイル画像の生成、アイコンへの変換、フォント(文字サイズ)変更、メッセージ集約(集約情報)の生成等がある。また、表示領域制御部37による表示制御としては、例えば最新情報のみの出力、ユーザ権限レベルに基づく優先表示、サムネイル画像やアイコンからユーザの選択による拡大表示等がある。また、表示制御の一例としては、利用履歴の表示、時間帯に対応したARコンテンツ表示等があるが、これに限定されるものではない。
例えば、図14の例では、ARコンテンツの種別(例えば、テキスト、画像、手書き)等に対応させたアイコン131−1〜131−3等を設定する。アイコンの種類は、図14の例に限定されるものではない。
図14(A)の例において、配置可能領域102−1には、詳細表示のARコンテンツ120−1〜120−3が表示されている。また、配置可能領域102−2には、ARコンテンツの種別に対応するアイコン131−1〜131−3が表示されている。本実施形態では、例えば元の詳細情報のARコンテンツの表示領域が、配置可能領域102−2よりも所定の閾値以上大きかった場合や配置不可領域103−1等と重なった場合等にアイコン表示されるが、これに限定されるものではない。例えばARコンテンツの設定時にユーザ等がアイコン表示の有無の設定を行ってもよい。
また、配置可能領域102−2に表示されているアイコン131−1〜131−3のうち、何れかのアイコン(例えば、アイコン131−1)をユーザが選択することで、図14(B)に示すように選択したアイコンに対応する詳細情報132−1を表示することができる。また、アイコン131ではなく、縮小表示されているARコンテンツについては、ユーザの選択によりARコンテンツの拡大表示を行う。なお、上述した詳細表示されたARコンテンツや拡大表示されたARコンテンツは、配置不可領域上に表示されることになるが、ユーザの許可(選択)により表示制御される内容であるため、視認が阻害されるものではない。また、詳細表示や拡大表示されたARコンテンツは、そのARコンテンツの表示部分をユーザが選択したり、所定時間(例えば、10秒)経過した後に表示が消去され、元の画像に戻る。
このように、本実施形態では、ユーザに対して、最初にARマーカのマーカIDに対応するARコンテンツの存在をアイコン等で通知し、ユーザの選択に応じて詳細情報を提示することができる。
図15の例では、表示領域制御部37は、配置可能領域の投影領域内に表示する複数のARコンテンツを集約し、集約された件数を配置可能領域内に表示する。表示領域制御部37は、例えば図15(A)に示すように、表示するARコンテンツをメッセージ集約し、集約した件数を画面表示してもよい。図15(A)の例では、アイコン131−1に対して集約件数8件を示すARコンテンツ141−1が表示され、アイコン131−2に対して集約件数3件を示すARコンテンツ141―2が表示されている。
ここで、例えばアイコン131−1に対応する集約件数(8件)の表示部分(ARコンテンツ141−1)を選択することで、図15(B)に示すように、8件のメッセージに対応するARコンテンツ142が表示される。なお、表示領域制御部37は、集約された全メッセージ(8件)のうち、少なくとも1つ(図15(B)の例では、ARコンテンツ142−1〜142−4)を所定順序(例えば、登録された順等)で表示させることができるが、これに限定されるものではない。
また、図15(B)の例でもARコンテンツ142−1〜142−4は、配置不可領域103−3上に表示されることになるが、ユーザの許可(選択)により表示制御される内容であるため、視認が阻害されるものではない。また、ARコンテンツ142−1〜142−4は、そのARコンテンツの表示部分をユーザが選択したり、所定時間(例えば、10秒)経過した後に表示が消去され、元の画像に戻る。このように、本実施形態では、例えば集約件数の表示部分をユーザが選択することで、集約情報(メッセージ等)を展開して表示することができる。
図16の例では、表示領域制御部37は、配置可能領域の投影領域内に表示する複数のARコンテンツを時系列に重ねて表示し、ユーザの選択により最前面にあるARコンテンツを重ねられた他のARコンテンツに変更して表示する。表示領域制御部37は、例えば図16(A)に示すように、ARマーカ90のマーカIDに対して表示されるARコンテンツが複数ある場合に、ARコンテンツ群151として配置可能領域102−1に表示させる。この場合、表示領域制御部37は、ARコンテンツ群に含まれるARコンテンツを登録順にソートし、登録した最新の情報を最前面に表示する。
また、例えばユーザがARコンテンツ群151の表示部分を選択すると、表示領域制御部37は、図16(B)に示すように、それまで最前面にあったARコンテンツをARコンテンツ群151の最背面に配置し、その次に新しいARコンテンツを最前面に表示する。これにより、ユーザの選択毎に時系列にARコンテンツの情報を参照することができる。
このように、本実施形態では、ARコンテンツ群151により、複数のARコンテンツが存在することをユーザに通知することができ、その後のユーザの選択により、それぞれの情報を容易に参照することができる。また、図16の例では、配置可能領域102−1内で複数のARコンテンツを参照することができる。
上述したように、本実施形態では、表示情報を適切に重畳表示することができる。例えば、本実施形態では、基準物に対する相対位置座標で表示情報の配置可能領域(第1の空間)や配置不可領域(第2の空間)等を定義する。また、この定義情報を基にして、基準物の位置と視点に合わせた適切な表示領域を動的に計算することで、ユーザが調整することなく自動的に表示情報の適切な重畳表示が可能となる。例えば、多数の表示情報が同じ位置に紐付けられていても、ユーザが注目する対象物の視界を邪魔することなく、多くの表示情報を表示することができる。したがって、本実施形態によれば、表示情報の表示による他の情報の視認が阻害されることを抑制することができる。
以上、実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、上述した実施例の一部又は全部を組み合わせることも可能である。
なお、以上の実施例に関し、更に以下の付記を開示する。
(付記1)
第1の空間に対応付けられて受け付けた前記第1の空間を指定する座標と、前記座標の基準となる基準物及び撮像部の位置関係とに基づいて、前記第1の空間が前記撮像部により撮像される撮像画像内に占める領域を示す第1の投影領域を算出する算出部と、
前記算出部により得られる前記第1の投影領域内に前記基準物の識別情報に対応して設定された表示情報を表示させる制御を行う表示領域制御部とを有することを特徴とする端末装置。
(付記2)
前記算出部は、第2の空間に対応付けられて受け付けた第2の空間を指定する座標と、前記位置関係とに基づいて、前記第2の空間が前記撮像画像内に占める領域を示す第2の投影領域を算出し、
前記表示領域制御部は、前記第1の投影領域から、前記第1の投影領域と前記第2の投影領域とが重なった領域を除いた領域内に、前記表示情報を表示させることを特徴とする付記1に記載の端末装置。
(付記3)
前記表示領域制御部は、
前記第1の投影領域内に表示させる前記表示情報の表示領域が、前記第2の投影領域と重なる場合に、所定の縮小率で縮小された前記表示情報を表示することを特徴とする付記2に記載の端末装置。
(付記4)
前記表示領域制御部は、
前記第1の投影領域内に表示させる前記表示情報の表示領域が、前記第2の投影領域と重なる場合に、前記表示情報に対応するサムネイル画像又はアイコンを表示することを特徴とする付記2又は3の何れか1項に記載の端末装置。
(付記5)
前記表示領域制御部は、
ユーザによる前記サムネイル画像又は前記アイコンの選択により、前記サムネイル画像又は前記アイコンに対応する表示情報を前記第2の投影領域を含む領域に表示することを特徴とする付記4に記載の端末装置。
(付記6)
前記表示領域制御部は、
前記第1の投影領域内に表示する複数の前記表示情報を集約し、集約された件数を前記第1の投影領域内に表示することを特徴とする付記1乃至5の何れか1項に記載の端末装置。
(付記7)
前記表示領域制御部は、
前記第1の投影領域内に表示する複数の前記表示情報を時系列に重ねて表示し、ユーザの選択により最前面にある表示情報を重ねられた他の表示情報に変更して表示することを特徴とする付記1乃至6の何れか1項に記載の端末装置。
(付記8)
基準物の識別情報に対応する表示情報の配置領域情報が登録された情報処理装置と、
入力画像から取得した基準物の識別情報に対応する配置領域情報を前記情報処理装置から取得し、取得した配置領域情報に含まれる第1の空間に対応付けられて受け付けた前記第1の空間を指定する座標と、前記座標の基準となる基準物及び前記入力画像を撮像した撮像部の位置関係とに基づいて、前記第1の空間が前記入力画像内に占める領域を示す第1の投影領域を算出し、算出した前記第1の投影領域内に前記基準物の識別情報に対応して設定された表示情報を表示させる制御を行う端末装置とを有することを特徴とする情報処理システム。
(付記9)
端末装置が、
第1の空間に対応付けられて受け付けた前記第1の空間を指定する座標と、前記座標の基準となる基準物及び撮像部の位置関係とに基づいて、前記第1の空間が前記撮像部により撮像される撮像画像内に占める領域を示す第1の投影領域を算出し、
算出した前記第1の投影領域内に前記基準物の識別情報に対応して設定された表示情報を表示させる制御を行うことを特徴とする表示制御方法。
(付記10)
第1の空間に対応付けられて受け付けた前記第1の空間を指定する座標と、前記座標の基準となる基準物及び撮像部の位置関係とに基づいて、前記第1の空間が前記撮像部により撮像される撮像画像内に占める領域を示す第1の投影領域を算出し、
算出した前記第1の投影領域内に前記基準物の識別情報に対応して設定された表示情報を表示させる制御を行う、
処理をコンピュータに実行させる表示制御プログラム。
10 情報処理システム
11 サーバ(情報処理装置)
12 端末装置
13 通信ネットワーク
21,31 通信部
22,33 記憶部
23 登録部
24 抽出部
25,41 制御部
32 撮像部
34,63 表示部
35 入力部
36 配置領域設定部
37 表示領域制御部
38 認識部
39 生成部
40 算出部
51 入力装置
52 出力装置
53,72 ドライブ装置
54,69 補助記憶装置
55,70 主記憶装置
56,71 CPU
57 ネットワーク接続装置
58,73 記録媒体
61 マイク
62 スピーカ
64 操作部
65 センサ部
66 電力部
67 無線部
68 近距離通信部
80 パイプ(配管)
81 バルブ(弁)
82 サーバラック
90 ARマーカ(基準物)
101,111 実物体
102,112,121 配置可能領域
103,113,122 配置不可領域
120,141 ARコンテンツ
131 アイコン
132 詳細情報
151 ARコンテンツ群

Claims (8)

  1. 基準物が配置された空間に含まれる第1の領域の前記基準物を基準とする座標と、前記基準物及び撮像部の位置関係とに基づいて、前記撮像部により撮像される撮像画像のうち、前記第1の領域に対応する画像領域を示す第1の投影領域を算出する算出部と、
    前記算出部により得られる前記第1の投影領域内に前記基準物の識別情報に対応して設定された表示情報を表示させる制御を行う表示領域制御部とを有することを特徴とする端末装置。
  2. 前記算出部は、第2の領域の前記基準物を基準とする座標と、前記位置関係とに基づいて、前記撮像画像のうち、前記第2の領域に対応する画像領域を示す第2の投影領域を算出し、
    前記表示領域制御部は、前記第1の投影領域から、前記第1の投影領域と前記第2の投影領域とが重なった領域を除いた領域内に、前記表示情報を表示させることを特徴とする請求項1に記載の端末装置。
  3. 前記表示領域制御部は、
    前記第1の投影領域内に表示させる前記表示情報の表示領域が、前記第2の投影領域と重なる場合に、所定の縮小率で縮小された前記表示情報を表示することを特徴とする請求項2に記載の端末装置。
  4. 前記表示領域制御部は、
    前記第1の投影領域内に表示させる前記表示情報の表示領域が、前記第2の投影領域と重なる場合に、前記表示情報に対応するサムネイル画像又はアイコンを表示することを特徴とする請求項2又は3の何れか1項に記載の端末装置。
  5. 前記表示領域制御部は、
    前記第1の投影領域内に表示する複数の前記表示情報を集約し、集約された件数を前記第1の投影領域内に表示することを特徴とする請求項1乃至4の何れか1項に記載の端末装置。
  6. 前記表示領域制御部は、
    前記第1の投影領域内に表示する複数の前記表示情報を時系列に重ねて表示し、ユーザの選択により最前面にある表示情報を重ねられた他の表示情報に変更して表示することを特徴とする請求項1乃至5の何れか1項に記載の端末装置。
  7. 基準物の識別情報に対応する表示情報の配置領域情報が登録された情報処理装置と、
    入力画像から取得した基準物の識別情報に対応する配置領域情報を前記情報処理装置から取得し、取得した配置領域情報に含まれる、前記基準物が配置された空間に含まれる第1の領域の前記基準物を基準とする座標と、前記基準物及び前記入力画像を撮像した撮像部の位置関係とに基づいて、前記入力画像のうち、前記第1の領域に対応する画像領域を示す第1の投影領域を算出し、算出した前記第1の投影領域内に前記基準物の識別情報に対応して設定された表示情報を表示させる制御を行う端末装置とを有することを特徴とする情報処理システム。
  8. 基準物が配置された空間に含まれる第1の領域の前記基準物を基準とする座標と、前記基準物及び撮像部の位置関係とに基づいて、前記撮像部により撮像される撮像画像のうち、前記第1の領域に対応する画像領域を示す第1の投影領域を算出し、
    算出した前記第1の投影領域内に前記基準物の識別情報に対応して設定された表示情報を表示させる制御を行う、
    処理をコンピュータに実行させる表示制御プログラム。
JP2014122282A 2014-06-13 2014-06-13 端末装置、情報処理システム、及び表示制御プログラム Expired - Fee Related JP6326996B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2014122282A JP6326996B2 (ja) 2014-06-13 2014-06-13 端末装置、情報処理システム、及び表示制御プログラム
US14/710,788 US10430655B2 (en) 2014-06-13 2015-05-13 Augmented reality information processing system and augmented reality display control method with space information conversion and display control features
AU2015202589A AU2015202589A1 (en) 2014-06-13 2015-05-13 Information processing system and display control method
EP15168122.8A EP2955697A1 (en) 2014-06-13 2015-05-19 Controlling display of superimposed information in an augmented reality system
EP18153396.9A EP3330929B1 (en) 2014-06-13 2015-05-19 Controlling display of superimposed information in an augmented reality system
CN201510319447.XA CN105183408B (zh) 2014-06-13 2015-06-11 信息处理系统和显示控制方法
AU2017203098A AU2017203098B2 (en) 2014-06-13 2017-05-10 Information processing system and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014122282A JP6326996B2 (ja) 2014-06-13 2014-06-13 端末装置、情報処理システム、及び表示制御プログラム

Publications (2)

Publication Number Publication Date
JP2016004292A JP2016004292A (ja) 2016-01-12
JP6326996B2 true JP6326996B2 (ja) 2018-05-23

Family

ID=53283993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014122282A Expired - Fee Related JP6326996B2 (ja) 2014-06-13 2014-06-13 端末装置、情報処理システム、及び表示制御プログラム

Country Status (5)

Country Link
US (1) US10430655B2 (ja)
EP (2) EP2955697A1 (ja)
JP (1) JP6326996B2 (ja)
CN (1) CN105183408B (ja)
AU (2) AU2015202589A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015001875A (ja) * 2013-06-17 2015-01-05 ソニー株式会社 画像処理装置、画像処理方法、プログラム、印刷媒体及び印刷媒体のセット
WO2016185557A1 (ja) * 2015-05-19 2016-11-24 楽天株式会社 情報処理装置、情報処理方法、プログラム
JP6256430B2 (ja) * 2015-08-17 2018-01-10 コニカミノルタ株式会社 コンテンツ提供サーバ、コンテンツ提供方法、およびコンピュータプログラム
JP6736898B2 (ja) * 2016-02-02 2020-08-05 富士通株式会社 設備点検支援プログラム、設備点検支援方法および情報処理装置
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
JP6826829B2 (ja) * 2016-07-19 2021-02-10 株式会社Nttファシリティーズ 情報共有支援システム、情報共有支援方法、及びプログラム
TWI603227B (zh) 2016-12-23 2017-10-21 李雨暹 移動物件的虛擬訊息遠距管理方法與應用系統
JP6809267B2 (ja) * 2017-02-10 2021-01-06 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム
JP6911914B2 (ja) * 2017-02-28 2021-07-28 日本電気株式会社 点検支援装置、点検支援方法およびプログラム
JP6815290B2 (ja) * 2017-07-13 2021-01-20 ヤンマーパワーテクノロジー株式会社 物体識別システム
JP6939195B2 (ja) 2017-07-27 2021-09-22 株式会社大林組 検査処理システム、検査処理方法及び検査処理プログラム
JP6996147B2 (ja) * 2017-07-27 2022-01-17 株式会社大林組 検査処理システム、検査処理方法及び検査処理プログラム
CN109511004B (zh) * 2017-09-14 2023-09-01 中兴通讯股份有限公司 一种视频处理方法及装置
JP7039989B2 (ja) * 2017-12-20 2022-03-23 富士通株式会社 制御プログラム、制御方法及び制御装置
JP7017689B2 (ja) * 2017-12-29 2022-02-09 富士通株式会社 情報処理装置、情報処理システムおよび情報処理方法
WO2020163218A1 (en) * 2019-02-04 2020-08-13 Beam Therapeutics Inc. Systems and methods for implemented mixed reality in laboratory automation
US10789780B1 (en) 2019-03-29 2020-09-29 Konica Minolta Laboratory U.S.A., Inc. Eliminating a projected augmented reality display from an image
JP2020198001A (ja) * 2019-06-04 2020-12-10 三菱電機株式会社 作業支援システム、作業支援方法及びプログラム
JP7341736B2 (ja) * 2019-06-06 2023-09-11 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2021079728A1 (ja) * 2019-10-25 2021-04-29 日本電気株式会社 欠陥位置判定システム、外観検査方法およびプログラム
JP2021125053A (ja) * 2020-02-06 2021-08-30 エヌ・ティ・ティ・コムウェア株式会社 情報処理装置、プログラム、情報処理システム、および情報処理方法
US11100328B1 (en) * 2020-02-12 2021-08-24 Danco, Inc. System to determine piping configuration under sink
US11798156B2 (en) 2020-03-26 2023-10-24 International Business Machines Corporation Hyperconverged configuration troubleshooting
US11374808B2 (en) * 2020-05-29 2022-06-28 Corning Research & Development Corporation Automated logging of patching operations via mixed reality based labeling
US11295135B2 (en) * 2020-05-29 2022-04-05 Corning Research & Development Corporation Asset tracking of communication equipment via mixed reality based labeling
JP7096295B2 (ja) * 2020-07-27 2022-07-05 ソフトバンク株式会社 表示制御システム、プログラム、及び表示制御方法
JP7055186B2 (ja) * 2020-12-16 2022-04-15 ヤンマーパワーテクノロジー株式会社 物体識別システム
JP2023048874A (ja) * 2021-09-28 2023-04-07 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
US11995777B2 (en) * 2022-04-13 2024-05-28 Dell Products L.P. Augmented reality enablement for information technology infrastructure
US11995778B2 (en) 2022-04-13 2024-05-28 Dell Products L.P. Augmented reality location operation including augmented reality tracking handoff
US12051162B2 (en) 2022-04-14 2024-07-30 Dell Products L.P. Augmented reality location operation using constellation information

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10187747A (ja) * 1996-12-26 1998-07-21 Digital Vision Lab:Kk 情報提示方法及び装置、情報表示装置及び音声出力装置
JP3398796B2 (ja) 2001-01-31 2003-04-21 飛島建設株式会社 複合現実感を利用した3次元測量支援用画像システム
WO2002093491A1 (en) 2001-05-17 2002-11-21 The Trustees Of Columbia University In The City Of New York System and method for view management in three dimensional space
JP4144806B2 (ja) 2005-08-30 2008-09-03 株式会社プロフィールド 情報編集装置、情報編集システム、情報編集方法、およびプログラム
JP2007293895A (ja) 2007-06-12 2007-11-08 Fujitsu Ltd 情報オブジェクトの表示方法をコンピュータに実行させるためのプログラム
US9204050B2 (en) * 2008-12-25 2015-12-01 Panasonic Intellectual Property Management Co., Ltd. Information displaying apparatus and information displaying method
US20110161875A1 (en) * 2009-12-29 2011-06-30 Nokia Corporation Method and apparatus for decluttering a mapping display
JP2011166589A (ja) * 2010-02-12 2011-08-25 Aplix Corp 携帯端末および情報提示方法
US9122053B2 (en) * 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
US20120249416A1 (en) * 2011-03-29 2012-10-04 Giuliano Maciocci Modular mobile connected pico projectors for a local multi-user collaboration
JP5932278B2 (ja) * 2011-10-04 2016-06-08 キヤノン株式会社 表示制御装置、表示制御装置の制御方法、プログラム
US9081177B2 (en) * 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
JP5602702B2 (ja) 2011-10-13 2014-10-08 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
US9235819B2 (en) * 2011-11-04 2016-01-12 Canon Kabushiki Kaisha Printing system, image forming apparatus, and method
KR101873525B1 (ko) * 2011-12-08 2018-07-03 삼성전자 주식회사 휴대단말기의 콘텐츠 표시장치 및 방법
JP5966510B2 (ja) 2012-03-29 2016-08-10 ソニー株式会社 情報処理システム
JP2013210793A (ja) * 2012-03-30 2013-10-10 Ntt Data Corp Ar表示最適化のためのシステム、方法、およびプログラム
EP2901410A4 (en) * 2012-09-28 2016-05-25 Intel Corp DETERMINATION OF INCREASED REALITY INFORMATION
CN102945637A (zh) * 2012-11-29 2013-02-27 河海大学 一种基于增强现实的嵌入式教学模型及其方法
US20150100327A1 (en) * 2013-10-04 2015-04-09 Cerner Innovation, Inc. Maintaining context between applications utilizing a prioritized patient list
CN103530594B (zh) * 2013-11-05 2017-06-16 深圳市幻实科技有限公司 一种提供增强现实的方法、系统及终端
US10528246B2 (en) * 2014-04-10 2020-01-07 Htc Corporation Method and device for managing information

Also Published As

Publication number Publication date
JP2016004292A (ja) 2016-01-12
US20150363076A1 (en) 2015-12-17
EP3330929A1 (en) 2018-06-06
CN105183408A (zh) 2015-12-23
EP3330929B1 (en) 2020-11-25
US10430655B2 (en) 2019-10-01
AU2017203098A1 (en) 2017-06-01
AU2015202589A1 (en) 2016-01-07
EP2955697A1 (en) 2015-12-16
AU2017203098B2 (en) 2019-08-22
CN105183408B (zh) 2018-08-31

Similar Documents

Publication Publication Date Title
JP6326996B2 (ja) 端末装置、情報処理システム、及び表示制御プログラム
JP6244954B2 (ja) 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
JP6424601B2 (ja) 表示制御方法、情報処理プログラム、及び情報処理装置
JP5776201B2 (ja) 情報処理装置、情報共有方法、プログラム及び端末装置
US20160012612A1 (en) Display control method and system
JP6421670B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
US10163266B2 (en) Terminal control method, image generating method, and terminal
JP6217437B2 (ja) 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
JP2012212345A (ja) 端末装置、オブジェクト制御方法及びプログラム
JP6543924B2 (ja) 情報処理方法、情報処理プログラム、及び情報処理装置
JP6640294B1 (ja) 複合現実システム、プログラム、携帯端末装置、及び方法
JP6686547B2 (ja) 画像処理システム、プログラム、画像処理方法
JP2016162079A (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
JP2014203175A (ja) 情報処理装置、情報処理方法及びプログラム。
US20130158859A1 (en) Location Map Submission Framework
JP6413521B2 (ja) 表示制御方法、情報処理プログラム、及び情報処理装置
KR102260193B1 (ko) 3차원 공간에 대한 보안기능을 제공하는 증강현실 원격 통신방법 및 시스템
JP6607243B2 (ja) 情報処理装置、情報処理方法、プログラム
CN114856527B (zh) 丛式井中井口间距的确定方法、装置及计算机存储介质
JP2024142906A (ja) 情報処理装置、情報処理方法及びプログラム
JP2020057430A (ja) 複合現実システム、プログラム、携帯端末装置、及び方法
JP2019057014A (ja) 被写体特定情報処理装置並びにその制御方法及び制御プログラム
JP2016130938A (ja) 調査支援アプリケーションプログラム及び調査支援装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180402

R150 Certificate of patent or registration of utility model

Ref document number: 6326996

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees