[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2014102685A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2014102685A
JP2014102685A JP2012254166A JP2012254166A JP2014102685A JP 2014102685 A JP2014102685 A JP 2014102685A JP 2012254166 A JP2012254166 A JP 2012254166A JP 2012254166 A JP2012254166 A JP 2012254166A JP 2014102685 A JP2014102685 A JP 2014102685A
Authority
JP
Japan
Prior art keywords
information processing
processing apparatus
entity model
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012254166A
Other languages
English (en)
Inventor
Andre Alexis
アレクシー アンドレ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012254166A priority Critical patent/JP2014102685A/ja
Priority to US14/057,471 priority patent/US20140142900A1/en
Priority to CN201310571604.7A priority patent/CN103838909A/zh
Publication of JP2014102685A publication Critical patent/JP2014102685A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • Architecture (AREA)
  • Software Systems (AREA)

Abstract

【課題】多様なモデルを対象として、実体モデルを構築するためのインストラクションをユーザが容易に作成することを可能とすること。
【解決手段】複数のエレメントから構築される実体モデルから個々のエレメントが除去される過程を映した一連の入力画像を取得する画像取得部と、前記画像取得部により取得される前記入力画像を用いて、前記実体モデルのエレメント構成を認識する認識部と、前記認識部により認識される前記エレメント構成に基づいて、前記実体モデルを構築するための構築手順を決定する決定部と、を備える情報処理装置を提供する。
【選択図】図4

Description

本開示は、情報処理装置、情報処理方法及びプログラムに関する。
例えば玩具、家具及び電化製品の組み立ての場面において、インストラクションに従って複数のエレメント(部品)から1つの実体モデルを構築する作業が行われる。特に、エンドユーザが構築作業を担う場合には、正確で分かり易いインストラクションを提供することが重要である。通常、インストラクションは、モデルの設計に基づいて、スペシャリストにより、CAD(Computer Aided Design)などのツールを用いて作成される。このインストラクションの作成を自動的に行うことができれば、インストラクションを伴う製品の生産性の観点で有益である。
しかし、所与のモデルからそのモデルの構築手順を自動的に導き出すことは、必ずしも容易ではない。そこで、下記特許文献1は、ユーザとのインタラクションを伴う半自動的な解決策を提案している。下記特許文献1により提案された技術では、まず、モデルの完成型がコンピュータの画面に表示される。そして、モデルから除去すべきエレメントがユーザにより逐次的に選択され、除去ステップのシーケンスがコンピュータにより記憶される。インストラクションのための構築ステップのシーケンスは、記憶された除去ステップのシーケンスを逆転させることにより導かれる。
米国特許第7979251号明細書
上記特許文献1により提案された技術は、モデルの完全なデジタル表現が予め用意されており、コンピュータ上でユーザがモデルを扱うことを前提としている。しかしながら、コンピュータ上でモデルを扱うこと自体が、スペシャリストではないユーザにとっては、スキルの面でも経済的な面でも負担になり得る。また、エンドユーザが独自に構築した実体モデルについては、モデルのデジタル表現は通常存在しないため、上記特許文献1により提案された技術を利用してその実体モデルのためのインストラクションを作成することができない。通信環境の高度化に伴ってユーザ間の情報交換が活発化している今日、ユーザ独自のモデルを他のユーザと共有したいというニーズは増している。そのニーズを、既存の技術は十分に満足させていない。
従って、多様なモデルを対象として、実体モデルを構築するためのインストラクションをユーザが容易に作成することを可能とする、改善された仕組みが提供されることが望ましい。
本開示によれば、複数のエレメントから構築される実体モデルから個々のエレメントが除去される過程を映した一連の入力画像を取得する画像取得部と、前記画像取得部により取得される前記入力画像を用いて、前記実体モデルのエレメント構成を認識する認識部と、前記認識部により認識される前記エレメント構成に基づいて、前記実体モデルを構築するための構築手順を決定する決定部と、を備える情報処理装置が提供される。
また、本開示によれば、情報処理装置により実行される情報処理方法であって、複数のエレメントから構築される実体モデルから個々のエレメントが除去される過程を映した一連の入力画像を取得することと、取得される前記入力画像を用いて、前記実体モデルのエレメント構成を認識することと、認識された前記エレメント構成に基づいて、前記実体モデルを構築するための構築手順を決定することと、を含む情報処理方法が提供される。
また、本開示によれば、情報処理装置を制御するコンピュータを、複数のエレメントから構築される実体モデルから個々のエレメントが除去される過程を映した一連の入力画像を取得する画像取得部と、前記画像取得部により取得される前記入力画像を用いて、前記実体モデルのエレメント構成を認識する認識部と、前記認識部により認識される前記エレメント構成に基づいて、前記実体モデルを構築するための構築手順を決定する決定部と、として機能させるためのプログラムが提供される。
本開示に係る技術によれば、多様なモデルを対象として、実体モデルを構築するためのインストラクションをユーザが容易に作成することが可能となる。
一実施形態に係る情報処理装置の概要について説明するための説明図である。 モデルを構成するエレメントの一例について説明するための第1の説明図である。 モデルを構成するエレメントの一例について説明するための第2の説明図である。 一実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。 一実施形態に係る情報処理装置の機能構成の一例を示すブロック図である。 特徴データの構成の一例について説明するための説明図である。 エレメント構成の一例について説明するための説明図である。 図6に示したエレメント構成に対応するモデルについて説明するための説明図である。 実体モデルからエレメントが除去される様子を示す説明図である。 エレメントを識別するための第1の手法について説明するための説明図である。 エレメントを識別するための第2の手法について説明するための説明図である。 エレメントを識別するための第3の手法について説明するための説明図である。 エレメントの配置を認識するための手法の一例について説明するための説明図である。 除去されたエレメントの順に記述される実体モデルのエレメント構成の一例について説明するための第1の説明図である。 除去されたエレメントの順に記述される実体モデルのエレメント構成の一例について説明するための第2の説明図である。 実体モデルの構築手順を決定するための手法の一例について説明するための説明図である。 一実施形態に係る情報処理装置により実行される処理の流れの一例を示すフローチャートである。 本開示に係る技術に従って作成され得るインストラクションの第1の例を示す説明図である。 本開示に係る技術に従って作成され得るインストラクションの第2の例を示す説明図である。 一変形例に係る情報処理装置の機能構成の一例を示すブロック図である。 一変形例において作成され得るインストラクションの一例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、以下の順序で説明を行う。
1.一実施形態の概要
2.情報処理装置の構成
2−1.ハードウェア構成例
2−2.機能構成例
2−3.処理の流れの例
2−4.インストラクションの例
3.変形例
4.まとめ
<1.一実施形態の概要>
図1は、一実施形態に係る情報処理装置の概要について説明するための説明図である。図1を参照すると、情報処理装置100、実体モデルM1及びユーザの手Uhが示されている。本明細書において、モデルとは、複数のエレメントを組み立てることにより構築されるオブジェクトをいう。エレメントは、モデルを構成する部品である。実空間において物理的に構築されたモデルを、実体モデル(real model)という。一方、概念的に設計された(物理的な実体を伴わない)モデルを、概念モデル(conceptual model)という。
上記特許文献1により提案された技術では、完成された概念モデルの画像がコンピュータの画面に表示され、ユーザは、概念モデルから除去すべきエレメントをユーザインタフェースを介して逐次的に選択する。一方、本開示に係る技術では、実体モデルからユーザが実際にエレメントを逐次的に除去していく過程を、情報処理装置100が撮像する。そして、情報処理装置100は、一連の撮像画像に基づいて、実体モデルのエレメント構成を認識する。図1の例から理解されるように、エレメントが除去される前の段階では、外部から見えないエレメントが存在する可能性がある。そのため、モデルの完全なエレメント構成は、最初から与えられるのではなく、ユーザによるエレメントの除去が終了した後に認識され得る。
本実施形態において、モデルを構成するエレメントの視覚的特徴(例えば、色、形状及びサイズのうちの1つ以上)は、予め規格化される。そして、エレメントは、その視覚的特徴に依存して有限個のタイプに分類される。
図1の例では、実体モデルM1を構成するエレメントは、玩具用のブロックである。図2Aには、第1のタイプのブロックBL1が示されている。ブロックBL1は、その上面に4×2のマトリクス状に配列された8個の突起(knob)Kn1を有する。また、ブロックBL1は、その底面に4×2のマトリクス状に配列された8個の窪みTu1を有する。ユーザは、例えば、2つのブロックBL1を上下に重ね合わせて上のブロックBL1の窪みTu1に下のブロックの突起Kn1を嵌め込むことにより、2つのブロックBL1、BL2を互いに連結(interlock)することができる。図2Bには、第2のタイプのブロックBL2が示されている。ブロックBL2は、その上面に6×1のマトリクス状に配列された6個の突起Kn2を有する。また、ブロックBL2は、その底面に6×1のマトリクス状に配列された6個の窪みTu2を有する。ブロックBL2の突起Kn2の形状は、ブロックBL1の突起Kn1の形状と同等であってよく、ブロックBL2の窪みTu2の形状は、ブロックBL1の窪みTu1の形状と同等であってよい。隣接する突起の間の間隔(pitch)及び隣接する窪みの間の間隔もまた同等であってよい。それにより、ユーザは、ブロックBL1とブロックBL2とを自在に連結させることができる。なお、ここに示したブロックは単なる例に過ぎない。即ち、他のサイズ又は他の形状を有するブロックが、実体モデルを構成するためのエレメントとして使用されてもよい。
次節以降では、本開示に係る技術が玩具用のブロックから構築されるモデルに適用される例を主に説明する。しかしながら、本開示に係る技術の用途は、かかる例に限定されない。例えば、本開示に係る技術は、板材、角材、ボルト及びナットなどのエレメントから構築される家具、又は筐体、基板及びケーブルなどのエレメントから構築される電化製品にも適用可能である。
<2.情報処理装置の構成>
情報処理装置100は、PC(Personal Computer)、スマートフォン、PDA(Personal Digital Assistants)若しくはゲーム端末のような汎用的な装置であってもよく、又はインストラクションの作成のために実装される専用の装置であってもよい。本節では、情報処理装置100の詳細な構成について説明する。
[2−1.ハードウェア構成例]
図3は、情報処理装置100のハードウェア構成の一例について説明するための説明図である。図3を参照すると、情報処理装置100は、カメラ102、ユーザインタフェース104、記憶部108、表示部110、通信インタフェース112、バス116及び制御部118を備える。
カメラ102は、例えばCCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を有し、画像を撮像する。
ユーザインタフェース104は、例えばタッチセンサ、ポインティングデバイス、キーボード、ボタン又はスイッチなどの入力デバイスを含む。また、ユーザインタフェース104は、ユーザが発する音声コマンドを認識する音声認識モジュールを含んでもよい。ユーザインタフェース104は、ユーザが情報処理装置100を操作するためのユーザインタフェースを提供し、ユーザ入力を検出する。
記憶部108は、半導体メモリ又はハードディスクなどの記憶媒体を有し、制御部118により利用されるデータ及びプログラムを記憶する。なお、本明細書で説明するデータ及びプログラムの一部は、記憶部108により記憶されることなく、外部のデータソース(例えば、データサーバ、ネットワークストレージ又は外付けメモリなど)から取得されてもよい。
表示部110は、LCD(Liquid Crystal Display)、OLED(Organic light-Emitting Diode)又はCRT(Cathode Ray Tube)などにより構成され、情報処理装置100により生成される出力画像を表示する。
通信インタフェース112は、任意の無線通信プロトコル又は有線通信プロトコルに従って、情報処理装置100と他の装置との間の通信接続を確立する。
バス116は、カメラ102、ユーザインタフェース104、記憶部108、表示部110、通信インタフェース112及び制御部118を相互に接続する。
制御部118は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当する。制御部118は、記憶部108又は他の記憶媒体に記憶されるプログラムを実行することにより、情報処理装置100の様々な機能を動作させる。
[2−2.機能構成例]
図4は、図3に示した情報処理装置100の記憶部108及び制御部118により実現される論理的機能の構成の一例を示すブロック図である。図4を参照すると、情報処理装置100は、画像取得部120、データ取得部130、特徴データベース(DB)140、構成認識部150、手順決定部160、手順記憶部170及びインストラクション生成部180を備える。
(1)画像取得部
画像取得部120は、実体モデルから個々のエレメントが除去される過程を映した一連の入力画像(即ち、入力映像)を、撮像部102から取得する。そして、画像取得部120は、取得した入力画像を、構成認識部150へ出力する。
(2)データ取得部
データ取得部130は、実体モデルを構成するエレメントの各々の既知の視覚的特徴を示す特徴データを取得する。本実施形態では、特徴データは、特徴DB140により予め記憶される。他の実施形態として、データ取得部130は、例えば、通信インタフェース112を介して外部のデータサーバ(例えば、エレメントのセットを製造し又は販売する企業のサーバなど)へリクエストを送信し、当該データサーバから受信される特徴データを取得してもよい。そして、データ取得部130は、取得した特徴データを、構成認識部150へ出力する。
(3)特徴DB
特徴DB140は、特徴データを記憶するデータベースである。図5は、一例としての特徴データ142の構成を示している。図5を参照すると、特徴データ142は、「エレメントタイプ」、「色」、「サイズ」及び「外観」という4つのデータ項目を有する。
「エレメントタイプ」は、各エレメントのタイプを識別する文字列である。異なる視覚的特徴を有するエレメントには、異なるタイプが付与される。図5の例では、2種類のエレメントタイプ“T421”及び“T611”が定義されている。
「色」は、エレメントタイプごとの色を表す。図5の例では、エレメントタイプT421の色は赤色(RGB=[255,0,0])であり、エレメントタイプT611の色は黒色(RGB=[0,0,0])である。
「サイズ」は、エレメントタイプごとのサイズを表す。図5の例では、エレメントタイプT421のサイズは4×2×1であり、エレメントタイプT611のサイズは6×1×1である。
「外観」は、エレメントタイプごとのサンプル画像、又はサンプル画像から抽出される特徴量のセットを含み得る。サンプル画像からの画像特徴量の抽出は、例えばRandom Ferns法又はSURF法などの任意の公知の手法に従って行われてよい。
(4)構成認識部
構成認識部150は、実体モデルのエレメント構成を認識する。本実施形態において、エレメント構成とは、実体モデルを構成する複数のエレメントの各々についてのエレメント識別情報と配置情報とを含む。
図6は、エレメント構成の一例について説明するための説明図である。図7は、図6に示したエレメント構成に対応するモデルについて説明するための説明図である。
図6を参照すると、一例としてのモデルM0のエレメント構成が示されている。エレメント構成は、モデルを識別する「モデルID」に加えて、「エレメントID」、「エレメントタイプ」、「向き」及び「位置」という4つのデータ項目によって定義される。「エレメントID」及び「エレメントタイプ」は、エレメント識別情報に相当する。「エレメントID」は、モデル内の個々のエレメントを一意に識別するための識別子である。「エレメントタイプ」は、各エレメントのタイプを表す。「向き」及び「位置」は、配置情報に相当する。「向き」は、当該モデルの座標系を基準とする各エレメントの向きを表す。「位置」は、当該モデルの座標系を基準とする各エレメントの位置を表す。
図6の例において、モデルM0は、3つのエレメントEL01、EL02及びEL03から構成される。エレメントEL01は、エレメントタイプT611に属し、向き0°及び位置(0,0,0)で配置される。エレメントEL02は、エレメントタイプT421に属し、向き90°及び位置(2,1,0)で配置される。エレメントEL03は、エレメントタイプT421に属し、向き0°及び位置(1,0,1)で配置される。
モデルの座標系は、モデル内のいずれか1つのエレメント(典型的には、構築手順において最初に登場するエレメント)上の点を原点として、エレメントの特性に適合するように設定される。図6のエレメントEL01のエントリは、モデルM0の座標系の原点がエレメントEL01上に存在することを示している。図7を参照すると、モデルM0の構成がその構築手順に沿って示されている。図7の左には、エレメントEL01のみが示されており、エレメントEL01の一端(図中の左端)の突起の位置P01にX−Y−Z座標系の原点が設定されている。例えば、X−Y平面は水平面であり、X軸はエレメントEL01の上面又は底面の長手方向、Y軸はエレメントEL01の上面又は底面の短手方向、Z軸は高さ方向にそれぞれ対応し得る。X軸及びY軸の座標値は、突起及び窪みのピッチを単位としてスケーリングされ得る。Z軸の座標値は、最も薄いエレメントの高さを単位としてスケーリングされ得る。なお、かかる例に限定されず、各座標値の単位は、ミリメートル又はセンチメートルなどの絶対的な長さでスケーリングされてもよい。また、ここでは、説明の簡明さのために、各エレメントの向きが水平面内でのみ変化する例を示している。しかしながら、かかる例に限定されず、各エレメントの向きは、3次元的に変化してもよい。例えば、水平面に対する角度がゼロでない面に突起が配置されるエレメントが採用される場合、エレメントの向きは水平面から離れて回転し得る。また、向きを自在に回転可能なユニバーサルジョイント機構を有するエレメントが採用されてもよい。その場合、各エレメントの向きは、オイラー角又はクオータニオン(四元数)によって表現されてもよい。
図7の中央には、エレメントEL01に加えて、エレメントEL02が示されている。エレメントEL02の向きは、特徴データ142において定義されている向きから、X−Y平面上で90°回転されている。エレメントEL02の左手前の突起の位置P02は、原点P01からX方向に“2”、Y方向に“1”、Z方向に“0”だけ移動した座標(2,1,0)を有する。
図7の右には、エレメントEL01及びEL02に加えて、エレメントEL03が示されている。エレメントEL03の向きは、特徴データ142において定義されている向きから回転されていない。エレメントEL03の左手前の突起の位置P03は、原点P01からX方向に“1”、Y方向に“0”、Z方向に“1”だけ移動した座標(1,0,1)を有する。
予め用意された概念モデルを参照しながらユーザが実体モデルを構築したのではない場合、構築された実体モデルについて、図6及び図7を用いて説明したような完全なエレメント構成は与えられない。そこで、構成認識部150は、画像取得部120により取得される、実体モデルから個々のエレメントが除去される過程を映した一連の入力画像を用いて、実体モデルのエレメント構成を事後的に認識する。図8には、実体モデルM1からエレメントEL11がユーザにより除去される様子が示されている。
以下、実体モデルから除去されたエレメントを構成認識部150が識別するための手法の3つの例について、図9〜図11を用いて説明する。
第1の手法において、構成認識部150は、入力画像に映るエレメントの特徴をデータ取得部130により取得される特徴データと照合することにより、実体モデルのエレメント構成を認識する。より具体的には、構成認識部150は、実体モデルからエレメントが除去される都度、エレメントの除去前の第1のモデル画像と除去後の第2のモデル画像との間の差分を計算する。そして、構成認識部150は、計算した差分に現れる視覚的特徴を特徴データと照合することにより、除去されたエレメントを識別する。図9の例では、実体モデルM1からエレメントEL11が除去される前のモデル画像Im11と、実体モデルM1からエレメントEL11が除去された後のモデル画像Im12との間の差分が計算され、差分領域の部分画像DIが生成されている。そして、部分画像DIが特徴データ142と照合されている。
例えば、全てのエレメントタイプが色のみによって一意に識別可能である場合には、構成認識部150は、部分画像DIの色の特徴を、特徴データ142により示されるエレメントタイプごとの色と照合してもよい。また、構成認識部150は、例えばSFS(Shape from Shading)法又はSFM(Structure from Motion)法などの公知の形状認識アルゴリズムを用いて、部分画像DIに映るエレメントの形状を認識し、認識した形状を特徴データ142により示されるエレメントタイプごとの形状と照合してもよい。また、構成認識部150は、部分画像DIから抽出される特徴量セットを、特徴データ142に含まれるエレメントタイプごとの既知の特徴量セットと照合してもよい。図9の例では、これら手法の1つ以上を用いて、実体モデルM1から除去されたエレメントEL11がエレメントタイプT421に属するエレメントであることを識別することができる。
第2の手法においても、構成認識部150は、入力画像に映るエレメントの特徴をデータ取得部130により取得される特徴データと照合することにより、実体モデルのエレメント構成を認識する。但し、第2の手法では、ユーザは、実体モデルからエレメントを除去する都度、除去したエレメントを情報処理装置100のカメラへ呈示するものとする。構成認識部150は、呈示されたエレメントのエレメント画像に現れる視覚的特徴をデータ取得部130から入力される特徴データと照合することにより、各エレメントを識別する。図10の例では、実体モデルM1からユーザにより除去されたエレメントがエレメント画像EIに映っており、エレメント画像EI内でエレメントが認識されている。構成認識部150は、例えば、認識したエレメントの色、形状及び特徴量セットのうちの1つ以上を、特徴データ142により示される既知の情報と照合し得る。それにより、構成認識部150は、実体モデルM1から除去されたエレメントのエレメントタイプを識別することができる。
第3の手法では、構成認識部150は、データ取得部130により取得される特徴データを使用しない。その代わりに、各エレメントは、当該エレメントを識別する識別情報をエレメント内又はエレメント表面に有するものとする。ここでの識別情報とは、例えば、エレメントに内蔵されるRF(Radio Frequency)タグにより記憶される情報、又はエレメント表面に貼付される一次元若しくは二次元のバーコードにより示される情報などであってよい。構成認識部150は、除去された各エレメントからこうした識別情報を読み取ることにより、各エレメントを識別する。図11の例では、エレメントEL11がRFタグRTを内蔵しており、情報処理装置100が問合せ信号を送信すると、エレメントEL11の識別情報を含む応答信号がRFタグRTから返送される。構成認識部150は、このように読み取られる識別情報を用いて、エレメントEL11のエレメントタイプを識別することができる。
構成認識部150は、実体モデルから除去された各エレメントの実体モデルにおける配置を、例えば、上記第1のモデル画像と上記第2のモデル画像との間の差分に基づいて認識することができる。図12は、エレメントの配置を認識するための手法の一例について説明するための説明図である。図12を参照すると、図9に例示した第1のモデル画像Im11及び差分領域の部分画像DIが再び示されている。部分画像D1にはエレメントEL11が映っており、エレメントEL11はエレメントタイプT421に属する。第1のモデル画像Im11には、モデルM1に残る複数のエレメントが映っている。構成認識部150は、例えば、モデルM1の上部左手前の突起の位置P12を暫定的な座標系の原点に設定し、位置P12を基準として、エレメントEL11の左手前の突起の位置P11の座標を判定する。図12の例では、位置P11は座標(1,2,1)を有する。エレメントEL11は、X−Y平面内で90°回転している。構成認識部150は、実体モデルからエレメントが除去される都度、除去されたエレメントの相対的な配置をこのように判定し、エレメント識別情報及び配置情報を手順決定部160へ出力する。
(5)手順決定部
手順決定部160は、構成認識部150により認識されるエレメント構成に基づいて、実体モデルを構築するための構築手順を決定する。より具体的には、手順決定部160は、除去されたエレメントの順に構成認識部150から入力されるエレメント識別情報及び配置情報を、エレメント構成データ内に記述する。そして、ユーザによるエレメントの除去が終了すると、手順決定部160は、エレメント構成データ内のエレメント識別情報及び配置情報の順序を逆転させることにより、構築手順を決定する。
図13及び図14は、除去されたエレメントの順に記述される実体モデルのエレメント構成の一例について説明するための説明図である。
図13の上段には、完成された実体モデルM1が示されている。第1の除去ステップRS11において、ユーザは、実体モデルM1の最上部に位置するエレメントEL11を除去する。その結果、除去されたエレメントEL11についてのエレメント構成エントリEE11が生成される。エレメント構成エントリEE11は、エレメントEL11がエレメントタイプT421に属し、90°の向きと暫定的な原点P12を基準とする座標(1,2,1)とを有することを示している。
第2の除去ステップRS12において、ユーザは、実体モデルM1の上部奥に位置するエレメントEL12を除去する。その結果、除去されたエレメントEL12についてのエレメント構成エントリEE12が生成される。エレメント構成エントリEE12は、エレメントEL12がエレメントタイプT421に属し、0°の向きと暫定的な原点P12を基準とする座標(0,4,0)とを有することを示している。
図14を参照すると、第3の除去ステップRS13において、ユーザは、実体モデルM1の上部左手前に位置するエレメントEL13を除去する。その結果、除去されたエレメントEL13についてのエレメント構成エントリEE13が生成される。エレメント構成エントリEE13は、エレメントEL13がエレメントタイプT421に属し、90°の向きと暫定的な原点P13を基準とする座標(1,0,1)とを有することを示している。
第4の除去ステップRS14において、ユーザは、実体モデルM1の上部右手前に位置するエレメントEL14を除去する。その結果、除去されたエレメントEL14についてのエレメント構成エントリEE14が生成される。エレメント構成エントリEE14は、エレメントEL14がエレメントタイプT421に属し、90°の向きと暫定的な原点P13を基準とする座標(3,0,1)とを有することを示している。
第4の除去ステップRS14の後、実体モデルM1には4つのエレメントEL15、EL16、EL17及びEL18が残されている。エレメントの除去はこれ以降も継続され得るが、説明の冗長さを避けるために、ここではその説明を省略する。
図15は、実体モデルの構築手順を決定するための手法の一例について説明するための説明図である。図15の上段には、図13及び図14を用いて説明したエレメント構成エントリEE11〜EE14を含む、一例としてのモデルM1についてのエレメント構成データ172が示されている。エレメント構成データ172内で、エレメント構成エントリは、エレメントが除去された順に記述されている。手順決定部160は、各エレメント構成エントリに、除去ステップ番号を示すデータ項目「除去ステップ」を付与する。図15の例では、8個のエレメント構成エントリに除去ステップ番号“RS11”〜“RS18”が付与されている。また、手順決定部160は、各エレメント構成エントリの位置座標を、暫定的な原点を基準とする座標から共通的な1つの原点を基準とする座標に修正する。図15の例では、位置P13が共通的な原点として選択されている(図14も参照)。そして、例えば図13の除去ステップRS11において原点P12を基準として決定されたエレメントEL11の位置座標(1,2,1)は、原点P13を基準とする位置座標(2,2,2)に修正されている。同様に、除去ステップRS12において原点P12を基準として決定されたエレメントEL12の位置座標(0,4,0)は、原点P13を基準とする位置座標(1,4,1)に修正されている。
手順決定部160は、エレメント構成データ172内のエレメント識別情報(例えば、エレメントID及びエレメントタイプ)並びに配置情報(例えば、向き及び位置)の順序を逆転させることにより、図15の下段に示したような構築手順データ174を生成する。構築手順データ174は、「モデルID」、「構築ステップ」、「エレメントID」、「エレメントタイプ」、「向き」及び「位置」という6つのデータ項目を有する。「構築ステップ」以外の5つのデータ項目は、エレメント構成データ172と同様である。「構築ステップ」は、構築手順において各エレメントを組み立てる順序を示す番号である。第1の構築ステップCS11は、エレメント構成データ172における第8の(最後の)除去ステップRS18に対応する。第2の構築ステップCS12は、エレメント構成データ172における第7の除去ステップRS17に対応する。第3の構築ステップCS13は、エレメント構成データ172における第6の除去ステップRS16に対応する。第4の構築ステップCS14は、エレメント構成データ172における第5の除去ステップRS15に対応する。第5の構築ステップCS15は、エレメント構成データ172における第4の除去ステップRS14に対応する。第6の構築ステップCS16は、エレメント構成データ172における第3の除去ステップRS13に対応する。第7の構築ステップCS17は、エレメント構成データ172における第2の除去ステップRS12に対応する。第8の構築ステップCS18は、エレメント構成データ172における第1の(最初の)除去ステップRS11に対応する。
手順決定部160は、このように生成される構築手順データを、手順記憶部170に記憶させる。
(6)手順記憶部
手順記憶部170は、手順決定部160により決定される実体モデルの構築手順を示す構築手順データを記憶する。構築手順データは、次に説明するインストラクション生成部180によるインストラクションの生成のために使用される。
(7)インストラクション生成部
インストラクション生成部180は、手順決定部160により決定される実体モデルの構築手順をユーザに指示するインストラクションISTを生成する。本明細書において、インストラクションとは、ユーザの作業を支援するためのマニュアル、ヘルプ、ガイダンス又はナビゲーションなどを含み得る概念である。なお、インストラクションを利用するユーザは、実体モデルを構築したユーザと同じユーザであってもよく、又は異なるユーザであってもよい。
インストラクションISTは、例えば、構築手順データにより示される順序で各エレメントを実体モデルに取り付ける作業を段階的に示す文書データであってもよい。文書データは、紙の文書を印刷するために使用されてもよく、又は画面上でインストラクションを閲覧するために使用されてもよい。文書データは、テキストに加えて、イラスト又は写真などのイメージを含み得る。また、インストラクション生成部180は、少なくとも1つのエレメントが取り付けられる様子を表現する動画を文書データに埋め込んでもよい。埋め込まれる動画は、例えば、仮想的に生成されるアニメーションであってもよく、又は画像取得部120により取得される入力画像を用いて生成される映像であってもよい。
また、インストラクション生成部180は、実体モデルのエレメント構成に含まれるエレメントのリストを、インストラクションISTに挿入してもよい。エレメントのリストが提供されることにより、ユーザは、実体モデルの構築を開始する前に必要なエレメントを適切に準備することができる。また、ユーザは、自らが所有しているエレメントセットを用いて目的とする実体モデルを構築することができるかを、エレメントのリストを参照して判断することができる。
インストラクション生成部180により生成されるインストラクションのいくつかの例について、後にさらに説明する。
[2−3.処理の流れの例]
図16は、情報処理装置100により実行される処理の流れの一例を示すフローチャートである。
図16を参照すると、処理の準備として、ユーザにより、情報処理装置100のカメラ102が実体モデルに向けられる(ステップS100)。そして、ユーザインタフェース104を介して検出される何らかのユーザ入力に応じて、その後の処理が開始される。
まず、完成した実体モデルのモデル画像が画像取得部120により入力画像として取得され、データが初期化される(例えば、新たなモデルIDが実体モデルに割り当てられ、実体モデルの完成イメージが記憶される)(ステップS105)。
次に、構成認識部150は、入力画像に映る実体モデルからエレメントが除去されたか否かを判定する(ステップS110)。ここでの判定は、入力画像をモニタリングすることにより行われてもよく、又はエレメントが除去されたことを通知するユーザ入力を受け付けることにより行われてもよい。
実体モデルからエレメントが除去されたと判定されると、構成認識部150は、エレメント除去後のモデル画像を取得する(ステップS115)。また、構成認識部150は、エレメント除去前のモデル画像と除去後のモデル画像との間の差分を計算する(ステップS120)。そして、構成認識部150は、上述した第1〜第3の手法のいずれかに従って、除去されたエレメントを識別し(ステップS125)、除去されたエレメントの配置(向き及び位置)を認識する(ステップS130)。
次に、手順決定部160は、構成認識部150から入力されるエレメント識別情報及び配置情報を含むエレメント構成エントリを、エレメント構成データに追加する(ステップS135)。
次に、構成認識部150は、除去されたエレメントが最後のエレメントであるか否かを判定する(ステップS140)。ここでの判定は、実体モデルに残るエレメントの数を認識することにより行われてもよく、又はエレメントの除去が終了したことを通知するユーザ入力を受け付けることにより行われてもよい。除去されたエレメントが最後のエレメントではない場合には、処理はステップS110へ戻り、除去される次のエレメントについてステップS110〜ステップS140の処理が繰り返される。除去されたエレメントが最後のエレメントである場合には、処理はステップS145へ進む。
ステップS145において、手順決定部160は、エレメント構成データ内のエントリの順序を逆転させることにより構築手順を決定し、決定した構築手順を示す構築手順データを生成する(ステップS145)。
その後、インストラクションの生成を引き続いて行うべきである場合には(ステップS150)、インストラクション生成部180は、手順決定部160により生成された構築手順データに基づいて、実体モデルの構築のためのインストラクションを生成する(ステップS155)。
[2−4.インストラクションの例]
(1)第1の例
図17は、本開示に係る技術に従って作成され得るインストラクションの第1の例を示す説明図である。図17を参照すると、紙に印刷された文書であるインストラクションIST1が示されている。インストラクションIST1の左のページには、実体モデルを構築するために必要な部品(エレメント)のリストが記載されている。また、インストラクションIST1の右のページには、X番目の構築ステップにおいてエレメントEL14を実体モデルに取り付ける様子が、その取り付けの向き及び位置が分かる形で記載されている。このようなリスト及び構築ステップの記載は、図15に例示したような構築手順データ174を用いて自動的に生成され得る。
(2)第2の例
図18は、本開示に係る技術に従って作成され得るインストラクションの第2の例を示す説明図である。図18を参照すると、ユーザ端末の画面に表示されるインストラクションIST2が示されている。インストラクションIST2のウィンドウでは、X番目の構築ステップにおいてエレメントを実体モデルに取り付ける様子が、アニメーションAN1で表現されている。ユーザが指示されたエレメントの取り付けを終了すると、ウィンドウへのタッチ若しくはボタンの押下などのユーザ入力に応じて、又は自動的に、次の構築ステップのためのアニメーションがインストラクションIST2のウィンドウに表示され得る。
<3.変形例>
図19は、図17及び図18に示したインストラクションの2つの例とは異なる形態のインストラクションを提供する、一変形例に係る情報処理装置200の論理的機能の構成の一例を示すブロック図である。図4を参照すると、情報処理装置200は、画像取得部220、データ取得部230、特徴データベース140、構成認識部150、手順決定部160、手順記憶部170、画像認識部280及びインストラクション生成部290を備える。
(1)画像取得部
画像取得部220は、構築手順決定モードにおいて、上述した画像取得部120と同様に、実体モデルから個々のエレメントが除去される過程を映した一連の入力画像を取得する。そして、画像取得部220は、取得した入力画像を、構成認識部150へ出力する。また、画像取得部220は、インストラクション提供モードにおいて、ユーザにより構築される実体モデルの部品としてのエレメントを映した一連の入力画像を取得する。そして、画像取得部220は、取得した入力画像を、画像認識部280及びインストラクション生成部290へ出力する。これらモードを切り替えるためのユーザインタフェースが提供されてもよい。
(2)データ取得部
データ取得部230は、構築手順決定モードにおいて、上述したデータ取得部230と同様に、エレメントの各々の既知の視覚的特徴を示す特徴データを構成認識部150へ出力する。また、データ取得部230は、インストラクション提供モードにおいて、当該特徴データを画像認識部280へ出力する。
(3)画像認識部
画像認識部280は、データ取得部230から入力される特徴データを用いて、画像取得部220から入力される入力画像に映るエレメントを認識する。画像認識部280は、例えば、特徴データに含まれる既知の特徴量セットと入力画像から抽出される特徴量セットとを照合することにより、入力画像に映るエレメントのタイプ及び位置を認識してもよい。そして、画像認識部280は、エレメント認識結果をインストラクション生成部290へ出力する。
(4)インストラクション生成部
インストラクション生成部290は、インストラクション提供モードにおいて、新たな入力画像に未完成の実体モデル又はエレメントが映っている場合に、当該実体モデル又は当該エレメントに関連するインストラクションを生成する。ここで生成されるインストラクションは、いわゆるAR(拡張現実:Augmented Reality)のアノテーションのような表示オブジェクトを含む。インストラクションの内容は、画像認識部280から入力されるエレメント認識結果に基づいて決定され得る。そして、インストラクション生成部290は、生成したインストラクションを入力画像に重畳して画面に表示させる。
図20は、本変形例において作成され得るインストラクションの一例を示す説明図である。図20を参照すると、情報処理装置200の画面に、未完成の実体モデルM1及びエレメントEL14を映した入力画像が表示されている。当該入力画像には、3つの表示オブジェクトA1、A2及びA3が重畳されている。表示オブジェクトA1は、次に実体モデルM1に取り付けるべきエレメントがエレメントEL14であることを指示するメッセージボックスである。表示オブジェクトA2は、エレメントEL14の取り付け位置を指示する矢印アイコンである。表示オブジェクトA3は、エレメントEL14が実体モデルM1に取り付けられた様子を仮想的に示すイメージである。ユーザは、このようなインストラクションを画面上で閲覧しながら、例えば他のユーザにより独自に構築されたモデルと同様の実体モデルを、直感的かつ容易に構築することができる。
<4.まとめ>
ここまで、図1〜図20を用いて、本開示に係る技術の実施形態について詳細に説明した。上述した実施形態によれば、複数のエレメントから構築される実体モデルから個々のエレメントがユーザにより除去される過程を映した一連の入力画像を用いて当該実体モデルのエレメント構成が認識され、認識されたエレメント構成に基づいて当該実体モデルを構築するための構築手順が決定される。従って、モデルの完全なデジタル表現が与えられておらず、実際に物理的に構築された実体モデルのみが存在する状況においても、その実体モデルに関するインストラクションのための適切な構築手順を得ることができる。また、ユーザは構築手順を得るためにコンピュータ上でモデルを扱わなくてよいため、スペシャリストではないユーザにとっても、上述した仕組みを容易に利用することができる。
上述した仕組みが実現される結果として、例えば、ユーザ間でユーザ独自のモデルを共有するために独自のインストラクションを交換するような新たなコミュニケーションの形態も可能となる。それにより、エレメントセットの商品としての魅力が強化され、商品の市場における競争力が向上するという効果も期待される。
また、上述した実施形態によれば、実体モデルからエレメントが除去される都度、当該実体モデルを構成するエレメントの各々についてのエレメント識別情報と配置情報とが、エレメント構成として認識される。従って、完成した実体モデルにおいて外部から見えないエレメントが存在する場合にも、最終的に全てのエレメントの配置を正確に認識してそれを構築手順に反映させることができる。
また、上述した実施形態によれば、各エレメントの既知の視覚的特徴に基づいて、実体モデルのエレメント構成が認識される。例えば玩具用のブロックのように、エレメントが規格化され、有限個のタイプのエレメントのみがユーザに提供されるような用途においては、それらエレメントの視覚的特徴を予めデータベース化することは難しくない。従って、エレメントの既知の視覚的特徴に基づく上述した手法は、そのような用途に非常に適している。また、エレメントが規格化されている限り、既に販売されたエレメントセットについて、事後的にその視覚的特徴を示す特徴データを配布することにより、本開示に係る技術を適用することも可能である。
また、上述した実施形態によれば、各エレメントの除去前の第1のモデル画像と当該除去後の第2のモデル画像との間の差分に現れる視覚的特徴に基づいて、各エレメントが識別され得る。この場合、ユーザは、エレメントの識別のための特別な動作を課されることなく、エレメントが除去される間実体モデルの撮影を継続するだけで、インストラクションのための構築手順を得ることができる。エレメントに内蔵され又はエレメント表面に貼付され得る識別情報を用いてエレメントが識別される場合には、識別情報を導入するためのコストを要するものの、エレメント構成の認識精度を高めることができる。
なお、本明細書において説明した各装置による一連の処理は、典型的には、ソフトウェアを用いて実現される。一連の処理を実現するソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体(非一時的な媒体:non-transitory media)に予め格納される。そして、各プログラムは、例えば、実行時にRAM(Random Access Memory)に読み込まれ、CPUなどのプロセッサにより実行される。
また、各装置の論理的機能の一部は、当該装置上に実装される代わりに、クラウドコンピューティング環境内に存在する装置上に実装されてもよい。その場合には、論理的機能の間でやり取りされる情報が、図3に例示した通信インタフェース112を介して装置間で送信され又は受信され得る。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
複数のエレメントから構築される実体モデルから個々のエレメントが除去される過程を映した一連の入力画像を取得する画像取得部と、
前記画像取得部により取得される前記入力画像を用いて、前記実体モデルのエレメント構成を認識する認識部と、
前記認識部により認識される前記エレメント構成に基づいて、前記実体モデルを構築するための構築手順を決定する決定部と、
を備える情報処理装置。
(2)
前記認識部により認識される前記エレメント構成は、前記複数のエレメントの各々についてのエレメント識別情報と配置情報とを含む、前記(1)に記載の情報処理装置。
(3)
前記情報処理装置は、前記複数のエレメントの各々の既知の視覚的特徴を示す特徴データを取得するデータ取得部、をさらに備え、
前記認識部は、前記入力画像に映るエレメントの特徴を前記データ取得部により取得される前記特徴データと照合することにより、前記エレメント構成を認識する、
前記(2)に記載の情報処理装置。
(4)
前記認識部は、各エレメントの除去前の第1のモデル画像と当該除去後の第2のモデル画像との間の差分に現れる視覚的特徴を前記特徴データと照合することにより、各エレメントを識別する、前記(3)に記載の情報処理装置。
(5)
前記認識部は、前記実体モデルから除去された各エレメントのエレメント画像に現れる視覚的特徴を前記特徴データと照合することにより、各エレメントを識別する、前記(3)に記載の情報処理装置。
(6)
前記認識部は、前記第1のモデル画像と前記第2のモデル画像との間の差分に基づいて、前記実体モデルにおける各エレメントの配置を認識する、前記(4)又は前記(5)に記載の情報処理装置。
(7)
前記複数のエレメントの各々は、当該エレメントを識別する識別情報をエレメント内又はエレメント表面に有し、
前記認識部は、前記識別情報を読み取ることにより、各エレメントを識別する、
前記(2)又は前記(3)に記載の情報処理装置。
(8)
前記決定部は、除去されたエレメントの順序で前記エレメント構成に記述される前記エレメント識別情報及び前記配置情報の前記順序を逆転させることにより、前記構築手順を決定する、前記(2)〜(7)のいずれか1項に記載の情報処理装置。
(9)
前記情報処理装置は、前記決定部により決定される前記構築手順をユーザに指示するインストラクションを生成する生成部、をさらに備える、前記(2)〜(8)のいずれか1項に記載の情報処理装置。
(10)
前記生成部は、新たな入力画像に未完成の前記実体モデル又はエレメントが映っている場合に、当該実体モデル又は当該エレメントに関連する前記インストラクションを生成して、生成した前記インストラクションを前記新たな入力画像に重畳する、前記(9)に記載の情報処理装置。
(11)
前記インストラクションは、除去されたエレメントの順序の逆の順序で、各エレメントを前記実体モデルに取り付ける作業を段階的に示す文書データである、前記(9)に記載の情報処理装置。
(12)
前記生成部は、少なくとも1つのエレメントが取り付けられる様子を表現する動画を、前記文書データに埋め込む、前記(11)に記載の情報処理装置。
(13)
前記生成部は、前記エレメント構成に含まれるエレメントのリストを、前記インストラクションに挿入する、前記(9)〜(12)のいずれか1項に記載の情報処理装置。
(14)
情報処理装置により実行される情報処理方法であって、
複数のエレメントから構築される実体モデルから個々のエレメントが除去される過程を映した一連の入力画像を取得することと、
取得される前記入力画像を用いて、前記実体モデルのエレメント構成を認識することと、
認識された前記エレメント構成に基づいて、前記実体モデルを構築するための構築手順を決定することと、
を含む情報処理方法。
(15)
情報処理装置を制御するコンピュータを、
複数のエレメントから構築される実体モデルから個々のエレメントが除去される過程を映した一連の入力画像を取得する画像取得部と、
前記画像取得部により取得される前記入力画像を用いて、前記実体モデルのエレメント構成を認識する認識部と、
前記認識部により認識される前記エレメント構成に基づいて、前記実体モデルを構築するための構築手順を決定する決定部と、
として機能させるためのプログラム。
100,200 情報処理装置
120,220 画像取得部
130,230 データ取得部
150 構成認識部
160 手順決定部
180,290 インストラクション生成部

Claims (15)

  1. 複数のエレメントから構築される実体モデルから個々のエレメントが除去される過程を映した一連の入力画像を取得する画像取得部と、
    前記画像取得部により取得される前記入力画像を用いて、前記実体モデルのエレメント構成を認識する認識部と、
    前記認識部により認識される前記エレメント構成に基づいて、前記実体モデルを構築するための構築手順を決定する決定部と、
    を備える情報処理装置。
  2. 前記認識部により認識される前記エレメント構成は、前記複数のエレメントの各々についてのエレメント識別情報と配置情報とを含む、請求項1に記載の情報処理装置。
  3. 前記情報処理装置は、前記複数のエレメントの各々の既知の視覚的特徴を示す特徴データを取得するデータ取得部、をさらに備え、
    前記認識部は、前記入力画像に映るエレメントの特徴を前記データ取得部により取得される前記特徴データと照合することにより、前記エレメント構成を認識する、
    請求項2に記載の情報処理装置。
  4. 前記認識部は、各エレメントの除去前の第1のモデル画像と当該除去後の第2のモデル画像との間の差分に現れる視覚的特徴を前記特徴データと照合することにより、各エレメントを識別する、請求項3に記載の情報処理装置。
  5. 前記認識部は、前記実体モデルから除去された各エレメントのエレメント画像に現れる視覚的特徴を前記特徴データと照合することにより、各エレメントを識別する、請求項3に記載の情報処理装置。
  6. 前記認識部は、前記第1のモデル画像と前記第2のモデル画像との間の差分に基づいて、前記実体モデルにおける各エレメントの配置を認識する、請求項4に記載の情報処理装置。
  7. 前記複数のエレメントの各々は、当該エレメントを識別する識別情報をエレメント内又はエレメント表面に有し、
    前記認識部は、前記識別情報を読み取ることにより、各エレメントを識別する、
    請求項2に記載の情報処理装置。
  8. 前記決定部は、除去されたエレメントの順序で前記エレメント構成に記述される前記エレメント識別情報及び前記配置情報の前記順序を逆転させることにより、前記構築手順を決定する、請求項2に記載の情報処理装置。
  9. 前記情報処理装置は、前記決定部により決定される前記構築手順をユーザに指示するインストラクションを生成する生成部、をさらに備える、請求項2に記載の情報処理装置。
  10. 前記生成部は、新たな入力画像に未完成の前記実体モデル又はエレメントが映っている場合に、当該実体モデル又は当該エレメントに関連する前記インストラクションを生成して、生成した前記インストラクションを前記新たな入力画像に重畳する、請求項9に記載の情報処理装置。
  11. 前記インストラクションは、除去されたエレメントの順序の逆の順序で、各エレメントを前記実体モデルに取り付ける作業を段階的に示す文書データである、請求項9に記載の情報処理装置。
  12. 前記生成部は、少なくとも1つのエレメントが取り付けられる様子を表現する動画を、前記文書データに埋め込む、請求項11に記載の情報処理装置。
  13. 前記生成部は、前記エレメント構成に含まれるエレメントのリストを、前記インストラクションに挿入する、請求項9に記載の情報処理装置。
  14. 情報処理装置により実行される情報処理方法であって、
    複数のエレメントから構築される実体モデルから個々のエレメントが除去される過程を映した一連の入力画像を取得することと、
    取得される前記入力画像を用いて、前記実体モデルのエレメント構成を認識することと、
    認識された前記エレメント構成に基づいて、前記実体モデルを構築するための構築手順を決定することと、
    を含む情報処理方法。
  15. 情報処理装置を制御するコンピュータを、
    複数のエレメントから構築される実体モデルから個々のエレメントが除去される過程を映した一連の入力画像を取得する画像取得部と、
    前記画像取得部により取得される前記入力画像を用いて、前記実体モデルのエレメント構成を認識する認識部と、
    前記認識部により認識される前記エレメント構成に基づいて、前記実体モデルを構築するための構築手順を決定する決定部と、
    として機能させるためのプログラム。
JP2012254166A 2012-11-20 2012-11-20 情報処理装置、情報処理方法及びプログラム Pending JP2014102685A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012254166A JP2014102685A (ja) 2012-11-20 2012-11-20 情報処理装置、情報処理方法及びプログラム
US14/057,471 US20140142900A1 (en) 2012-11-20 2013-10-18 Information processing apparatus, information processing method, and program
CN201310571604.7A CN103838909A (zh) 2012-11-20 2013-11-13 信息处理设备、信息处理方法以及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012254166A JP2014102685A (ja) 2012-11-20 2012-11-20 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2014102685A true JP2014102685A (ja) 2014-06-05

Family

ID=50728746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012254166A Pending JP2014102685A (ja) 2012-11-20 2012-11-20 情報処理装置、情報処理方法及びプログラム

Country Status (3)

Country Link
US (1) US20140142900A1 (ja)
JP (1) JP2014102685A (ja)
CN (1) CN103838909A (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3436170A4 (en) * 2016-03-29 2019-12-18 Play Properties Entertainment Ltd. COMPUTERIZED METHOD AND SYSTEM FOR OPERATING A PHYSICAL TOY CONSTRUCTION ASSEMBLY
EP3436773B1 (en) 2016-04-01 2021-04-28 Lego A/S Toy scanner
US10427065B2 (en) * 2017-03-31 2019-10-01 Intel Corporation Building blocks with lights for guided assembly
DK3727623T3 (da) * 2017-12-19 2022-07-18 Lego As Legesystem og fremgangsmåde til detektering af legetøjselementer
KR102341778B1 (ko) * 2019-04-12 2021-12-22 레고 에이/에스 조립식 완구의 조립 순서 결정 및 매뉴얼 생성 방법

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5828575A (en) * 1996-05-06 1998-10-27 Amadasoft America, Inc. Apparatus and method for managing and distributing design and manufacturing information throughout a sheet metal production facility
US7466313B2 (en) * 1999-12-24 2008-12-16 Hewlett-Packard Development Company, L.P. Method for interactive construction of virtual 3D models
GB2370738B (en) * 2000-10-27 2005-02-16 Canon Kk Image processing apparatus
US7092899B2 (en) * 2000-10-31 2006-08-15 Interlego Ag Method and system for generating a brick model
US20020196250A1 (en) * 2001-06-20 2002-12-26 Gateway, Inc. Parts assembly for virtual representation and content creation
PT1550085E (pt) * 2002-10-11 2007-02-28 Lego As Método de gerar um modelo legivel por computador
US7596473B2 (en) * 2003-05-20 2009-09-29 Interlego Ag Method of constructing a virtual construction model
CA2524031C (en) * 2003-05-20 2015-07-07 Interlego Ag Method and system for manipulating a digital representation of a three-dimensional object
EP1499117B1 (en) * 2003-07-16 2007-12-05 British Broadcasting Corporation Video processing
GB2411229B (en) * 2003-07-22 2006-04-12 Hitachi Int Electric Inc Object tracking method and object tracing apparatus
CA2570546A1 (en) * 2004-06-17 2005-12-29 Interlego Ag Automatic generation of building instructions for building block models
JP4165538B2 (ja) * 2004-07-21 2008-10-15 オムロン株式会社 部品実装検査方法および部品実装検査装置
US20060237427A1 (en) * 2005-04-07 2006-10-26 Logan James D Smart cabinets
US7874921B2 (en) * 2005-05-11 2011-01-25 Roblox Corporation Online building toy
JP4757142B2 (ja) * 2006-08-10 2011-08-24 キヤノン株式会社 撮影環境校正方法及び情報処理装置
JP4309439B2 (ja) * 2007-03-30 2009-08-05 ファナック株式会社 対象物取出装置
JP4347386B2 (ja) * 2008-01-23 2009-10-21 ファナック株式会社 加工用ロボットプラグラムの作成装置
WO2009100051A1 (en) * 2008-02-04 2009-08-13 Polchin George C Physical data building blocks system for video game interaction
US8140185B2 (en) * 2008-06-09 2012-03-20 The Coca-Cola Company Virtual vendor shelf inventory management
EP2249286A1 (en) * 2009-05-08 2010-11-10 Honda Research Institute Europe GmbH Robot with vision-based 3D shape recognition
US9230360B2 (en) * 2009-10-02 2016-01-05 Lego A/S Connectivity depended geometry optimization for real-time rendering
DE102009058802B4 (de) * 2009-12-18 2018-03-29 Airbus Operations Gmbh Anordnung zur kombinierten Darstellung eines realen und eines virtuellen Modells
EP2383696A1 (en) * 2010-04-30 2011-11-02 LiberoVision AG Method for estimating a pose of an articulated object model
EP2405402A1 (en) * 2010-07-06 2012-01-11 EADS Construcciones Aeronauticas, S.A. Method and system for assembling components
US8842163B2 (en) * 2011-06-07 2014-09-23 International Business Machines Corporation Estimation of object properties in 3D world
JP5874398B2 (ja) * 2012-01-05 2016-03-02 オムロン株式会社 画像検査装置の検査領域設定方法
WO2014010004A1 (ja) * 2012-07-13 2014-01-16 株式会社ソニー・コンピュータエンタテインメント 入力装置、情報処理システム、情報処理装置、および情報処理方法
US9014428B2 (en) * 2013-02-15 2015-04-21 Sony Corporation Object detection using difference of image frames
US9233470B1 (en) * 2013-03-15 2016-01-12 Industrial Perception, Inc. Determining a virtual representation of an environment by projecting texture patterns
JP2015146526A (ja) * 2014-02-03 2015-08-13 ソニー株式会社 画像処理装置および方法、並びにプログラム
US9327406B1 (en) * 2014-08-19 2016-05-03 Google Inc. Object segmentation based on detected object-specific visual cues

Also Published As

Publication number Publication date
CN103838909A (zh) 2014-06-04
US20140142900A1 (en) 2014-05-22

Similar Documents

Publication Publication Date Title
CN110517319B (zh) 一种相机姿态信息确定的方法及相关装置
JP5942456B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN110383274B (zh) 识别设备的方法、装置、系统、存储介质、处理器和终端
CN110163942B (zh) 一种图像数据处理方法和装置
JP5807686B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN111028330A (zh) 三维表情基的生成方法、装置、设备及存储介质
JP6548967B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN109685905A (zh) 基于增强现实的小区规划方法和系统
JP2021532447A (ja) 拡張現実によるモデル動画多平面インタラクション方法、装置、デバイス及び記憶媒体
JP2014102685A (ja) 情報処理装置、情報処理方法及びプログラム
JP6054831B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP3611239B2 (ja) 三次元cgモデル作成装置および処理プログラムを記録した記録媒体
CN111643899A (zh) 一种虚拟物品显示方法、装置、电子设备和存储介质
US11461921B2 (en) Program, system, electronic device, and method for recognizing three-dimensional object
JP2013164697A (ja) 画像処理装置、画像処理方法、プログラム及び画像処理システム
WO2017147909A1 (zh) 目标设备的控制方法和装置
CN112905014A (zh) Ar场景下的交互方法、装置、电子设备及存储介质
CN112882576A (zh) Ar交互方法、装置、电子设备及存储介质
CN110163956A (zh) 三维户型图生成方法、装置、设备和存储介质
CN105141913A (zh) 可视化远程控制可触控设备的方法、系统和相关设备
WO2016136380A1 (ja) 情報処理システム及びプログラム、サーバ、端末、並びに媒体
US11373329B2 (en) Method of generating 3-dimensional model data
JP5420056B2 (ja) 画像作成システム、画像作成アプリケーションサーバ、画像作成方法およびプログラム
CN113129362B (zh) 一种三维坐标数据的获取方法及装置
CN112927330A (zh) 用于生成虚拟人体图像的方法和系统