[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5905540B2 - 画像の少なくとも1つの特徴として記述子を提供する方法及び特徴をマッチングする方法 - Google Patents

画像の少なくとも1つの特徴として記述子を提供する方法及び特徴をマッチングする方法 Download PDF

Info

Publication number
JP5905540B2
JP5905540B2 JP2014161137A JP2014161137A JP5905540B2 JP 5905540 B2 JP5905540 B2 JP 5905540B2 JP 2014161137 A JP2014161137 A JP 2014161137A JP 2014161137 A JP2014161137 A JP 2014161137A JP 5905540 B2 JP5905540 B2 JP 5905540B2
Authority
JP
Japan
Prior art keywords
image
feature
orientation
descriptor
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014161137A
Other languages
English (en)
Other versions
JP2014241155A (ja
Inventor
クルツ ダニエル
クルツ ダニエル
ベンハイマン セリム
ベンハイマン セリム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Metaio GmbH
Original Assignee
Metaio GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Metaio GmbH filed Critical Metaio GmbH
Publication of JP2014241155A publication Critical patent/JP2014241155A/ja
Application granted granted Critical
Publication of JP5905540B2 publication Critical patent/JP5905540B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/768Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Navigation (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像の少なくとも1つの特徴として記述子を提供する方法及び2つ以上の画像の特徴をマッチングする方法に関する。また、本発明は、前記方法を実行する手段を与えるソフトウェアコードセクションを具備するコンピュータプログラムに関する。
コンピュータ・ビジョン分野における多くのアプリケーションには、使用される照明及びキャプチャ用ハードウェアを変化させるとともに、変化するビューポイントで、同じシーン若しくはオブジェクトの2つ以上の画像における一致点或いは他と異なる別の特徴を見つけることが必要である。その特徴は、複数の点であるか、又は複数の点の一組(線、セグメント、画像における領域若しくは単なる画素群)であり得る。実施例のアプリケーションには、狭い及びワイド−ベースラインのステレオマッチング、カメラポーズの推定、画像検索、オブジェクト認識及び視覚検索が含まれる。
例えば、拡張現実(感)システムでは、実環境における視覚的印象と、コンピュータで生成された仮想情報との重ね合わせを可能にする。最終的には、例えば1つ以上の画像の中にカメラによって捉えられた、現実世界における視覚的印象は、例えば、仮想情報とともに拡張されたそれぞれの画像を表示するディスプレイ機器の手段により、仮想情報とミックスされる。仮想情報及び現実世界の空間描画には、通常、特徴の一致に基づいたカメラポーズ(位置及び方位)の計算が必要である。
例えば、David G Lowe, “Distinctive Image Features From Scale-Invariant Keypoints”, International Journal of Computer Vision, 60, 2(2004), pp.91-110.(非特許文献1)に開示されているような、このような一致を得るための一般的な方法は、最初に、高い反復性を有する個々の画像から、特徴若しくは興味点(例えば、エッジ、コーナー、又は局所の極値)を抽出することである。即ち、同じ物理的実体と一致する同じ画素のセットが、異なる画像においても抽出される確率は、高い。次なる第2のステップは、隣接する画素の明暗度に基づいて、各特徴の記述子を作成し、特徴を比較し特徴のマッチングを可能にする。良い記述子のための2つの主たる要件は、示差的である、即ち、異なる特徴点が、異なる記述子をもたらすということ、並びに、1)ビューイング方向、回転及びスケールの変化、2)照明の変化、3)画像ノイズのための不変性をもたらすということである。
このことは、異なる画像の同じ特徴は、類似性の測定に関連して、同じ様に記述されることを確かなものとする。回転に対する不変性について述べれば、空間の正規化では、記述子の構築よりも前に、特徴点の周りのローカル近傍の画素を、正規化された座標系へと変換する。
この正規化が再現可能であるということは、不変性にとって重要である。より多くの改良された方法が存在するが、最も単純な実施例においては、正規化のみが、方位の特徴によって平面内の回転から形成される。方位は、例えば最も大きな傾きの方向として、特徴点の近傍にある画素の明暗度に基づいて、通常定義される。理想的には、特徴の正規化された近傍の画素は、変化するビューイング方向、回転及びスケールで撮影された、異なる画像においても、一致するはずである。実際、図2を参照すると、それらは、少なくとも非常によく似ている。
図2には、異なるシーン21及び22における典型的な特徴点が示されている。シーン21及び22を示している第1段目において、2つの異なる方位における同じ特徴点が、シーン21においては特徴点F21として、シーン22においては特徴点F22として、示されている。次のステップでは、特徴点F21及びF22それぞれの近傍における画素の明暗度に基づいて、本実施例では、最も大きな傾き(それぞれの矩形の中の白線により描画されている)の方向として、方位が定義される。次に、空間の正規化は、記述子d1及びd2(第3段目)の構築より前に、特徴点F21及びF22の周囲のローカル近傍の画素(この場合、矩形の中の画素)を、正規化された座標系(この場合、第2段目の描画31及び32)にそれぞれ変換する。結果として、最も大きな傾きに対する記述子d1及びd2の整列は、非常に類似した(描画31及び32として示されている)正規化近傍を描画し、従って近似した記述子d1及びd2をもたらす。この特性は、局所(ローカル)特徴記述子の中の共通事項であり、回転における不変性と呼ばれる。スケールの不変性は通常、異なるスケールの画像を含んだ画像ピラミッドを構築し、それを全てのスケールレベルに実行することにより処理される。他のアプローチは、全ての特徴記述子とともにスケールを記録する。
ローカル特徴記述子の多様性が存在し、その中でも、優れた概説及び比較が、Krystian Mikolajczyk and Cordelia Schmid, “A performance evaluation of local descriptors”, IEEE Transactions on Pattern Analysis & Machine Intelligence, 10, 27(2005), pp.1615-1630.(非特許文献2)に示されている。それらの多くは、正規化されたローカル近傍画素の明暗度の値若しくは傾きなどのそれらのいずれかのヒストグラムを作成することに基づいている。最終記述子は、n次元ベクトル(図2の右に示されている)として表され、例えばユークリッド距離のような類似性測定を用いて、他の記述子と比較することができる。
図3には、特徴記述子を作成するための標準的なアプローチが示されている。ステップS1において、画像は、例えばカメラのようなキャプチャ装置によって、捉えられるか、又は記憶媒体から読み込まれる。ステップS2において、特徴点は、画像から抽出され、2次元の記述子(パラメータu、v)の中に記録される。ステップS3において、方位の割り当ては、図2に関して上述したように、方位角αをパラメータu、vに追加するように実行される。その後、正規化された近傍画素の明暗度[i]を得るために、図2において上述されているように、近傍正規化ステップS4が実行される。最終ステップS5では、記述子ベクトル[d]の形をした特徴記述子が、正規化された近傍画素の明暗度[i]の関数として抽出されたそれぞれの特徴のために生成される。ステップS3で1つの特徴に複数の方位角を割り当てるアプローチや、その結果として、割り当てられた方位1つにつき1つの記述子をもたらす各方位のためのステップS4及びS5を達成するアプローチが存在している。
上述された標準的なアプローチの主な限界は、回転のための不変性が、明らかに多くのアプリケーションローカル特徴記述子の重要な特徴である一方で、画像に複数の適合した特徴或いは殆ど適合した特徴が含まれるとき、例えば対称形である窓の4つの角やダーツ盤個々の区域の例のように、ミスマッチを引き起こすということである。
1つの実施例として、図1に示されているように、本実施例では、窓4を有する建造物である現実オブジェクト3は、背面にカメラ(図示せず)を有するモバイル機器1によってキャプチャされる(図示せず)。例えば、モバイル機器1は、窓4の画像をキャプチャするためのカメラ及び光学レンズを有する携帯電話である。モバイル機器1のディスプレイ6上には、窓4が、図のように表示される。画像処理の方法は、例えば、窓の目立った特徴と考えられる窓の4つの角を表す特徴F1〜F4のように、表示された画像から特徴を抽出し、特徴F1〜F4それぞれの特徴記述子を生成する。図1の左欄に概略的に図示されているように、回転の不変性により、左欄の正規化座標系に表示されている抽出された特徴F1〜F4により図示されるように、典型的なローカル特徴記述子は、それらが区別できない位全く同じ様に、これらの特徴F1〜F4を表示する。
カメラのノイズ及びエイリアジングとともに設定する現実世界では、記述子は、同一ではないが、非常に類似し、そのため実質的には区別できない。その結果、そのような(非常に類似しているが同一ではない)ローカル特徴記述子を信頼しているいずれのシステムも完全な失敗をもたらすであろうこのようなシーンについては、誤った組み合わせに導く確率が、極めて高い。
直立方位で撮影される全てのカメラ画像を仮定する様々なアプローチが存在し、それ故方位に対応する必要はない。ここで、異なる方位に適合する特徴若しくは適合する特徴は、容易に相互に区別されるが、可能なアプリケーションの分野は、カメラの方位が、かなり制約されている状態であることから、極めて限定される。
David G Lowe, "Distinctive Image Features From Scale-Invariant Keypoints", International Journal of Computer Vision, 60, 2(2004), pp.91-110. Krystian Mikolajczyk and Cordelia Schmid, "A performance evaluation of local descriptors", IEEE Transactions on Pattern Analysis & Machine Intelligence, 10, 27(2005), pp.1615-1630.
上記の事情に鑑み、本発明の目的は、画像の少なくとも1つの特徴のための記述子を提供する方法であって、特徴をマッチングする過程において、静的なオブジェクト若しくはシーンに対して異なる方位に適合する特徴若しくは殆ど適合する特徴のために引き起こされるミスマッチの確率を、キャプチャ装置の方位若しくは動きを制約すること無く或いはキャプチャ装置の方位若しくは動きに関して予備知識を必要とすること無く、減少させることのできる方法によって前記記述子が提供されることを特徴とする方法を提供することである。
第1実施形態では、特許請求の範囲の請求項1に係る発明の特徴により、画像の少なくとも1つの特徴のための記述子を提供する方法が提供される。更に、別の実施形態では、特許請求の範囲の請求項10により、2つ以上の画像の特徴をマッチングする方法が提供される。本発明はまた、特許請求の範囲の請求項15による、前記方法を実行するソフトウェアコードセクションを含むコンピュータプログラムにも関連している。
特に、第1実施形態において、画像の少なくとも1つの特徴に記述子を提供する方法であって、キャプチャ装置によってキャプチャされた画像を提供し、前記画像から少なくとも1つの特徴を抽出する工程、並びに少なくとも1つの前記特徴に、方位を示す少なくとも1つのパラメータを信頼する記述子を与える工程を具備し、そこでは、少なくとも1つの前記パラメータが、トラッキングシステムにより測定される前記キャプチャ装置の絶対的若しくは相対的方位から決定されることを特徴とする方法が提供される。特に、本発明に関係する前記トラッキングシステムは、オブジェクトの少なくとも1つの方位、特に前記キャプチャ装置の方位、好ましくは共通座標系について決定し、更には後述の実施形態で説明される。トラッキングシステムにより測定されている方位でもって、前記キャプチャ装置の方及び/若しくは動きをある位置に制約する必要はなく、前記キャプチャ装置の方位及び/若しくは動きに対して、いかなる予備知識持つことも必要ではない。
本発明の実施形態において、特徴記述子(特に、ローカル特徴記述子)の方位を、与えられたある共通座標系でもって調整することが、提案される。前記画像における近傍画素の明暗度から、再生可能な方位を得る代わりに、個々の画素及び/又は前記キャプチャ装置の方位に関する追加情報が、特徴に方位を割り当てることの基本を、構築する。異なる方位を伴った適合する特徴若しくは殆ど適合する特徴は、都市景観の中及び人工オブジェクト上に広がっているので、図1の右に図示しより詳細に後述するように、グローバル方位にローカル特徴記述子を整列させることによって、異なる方位を伴った適合する特徴若しくは殆ど適合する特徴によってもたらされる不明確さを克服する。本発明の実施形態では、前記トラッキングシステムは、例えば、慣性センサ、加速度計、ジャイロスコープ若しくはコンパスなどといった、キャプチャ装置に取り付けられているセンサを具備する。
別の実施形態では、前記トラッキングシステムは、前記キャプチャ装置及び固定化された参照点との間における物理的接合を基にした機械的トラッキングシステム、磁場が発生及び測定される電磁気トラッキングシステム、音波と連動する音響トラッキングシステム、並びに/又は、前記キャプチャ装置から放出された及び/若しくは反射された光を用いた光学トラッキングシステムを包含する。前記光学トラッキングシステムは、前記キャプチャ装置の中に一体化されるか、前記キャプチャ装置とは別に、外部システムとして実現されることが可能である。
本発明の1つの実施形態では、前記共通座標系が、絶対値を供給するトラッキングシステム(例えば、装置に取り付けられているコンパス及び/又は慣性センサ)で測定される世界座標系である。
別の実施形態では、共通座標系は、トラッキングシステムが向きの変換を供給するのに関連した座標系である。例えばジャイロスコープで測定された、方位における相対的な変化は、絶対的な方位を測定するセンサが無くても、あらゆる瞬間において、共通座標系における絶対的方位を計算するために蓄積することができる。
別の実施形態では、前記キャプチャ装置は、関連した深さ及び/若しくは三次元位置とともにイメージ画素を提供する距離データキャプチャ装置、具体的にはレーザスキャナ、タイムオブフライトカメラ、又はステレオカメラを具備する。
本発明の別の実施形態では、本発明の方法は更に、共通座標系における方位に関して、少なくとも1つの前記特徴の近傍を正規化する工程を具備する。特に、少なくとも1つの前記特徴の近傍を正規化する工程において、該方位によって、画像を回転するための角度が規定される。少なくとも1つの前記特徴の近傍を正規化する工程において、特定の近傍の遠近法による歪みを修正するために、1つ以上の参照方位に、近傍の画素若しくは全画像を歪ませるために、該方位が随意使用される。
本発明の別の実施形態では、2つ以上の画像特徴をマッチングする方法は、第1画像の少なくとも1つの第1特徴及び第2画像の少なくとも1つの第2特徴を抽出する工程と、前記第1特徴に対して第1記述子及び前記第2特徴に対して第2記述子を提供する工程と、前記第1及び第2特徴のためのマッチング工程における前記第1及び第2記述子を比較する工程とを具備し、前記第1及び第2記述子の少なくとも1つは、上述の方法の形態により提供される。マッチング工程において、次に、第1及び第2特徴が、互いに一致するかどうかが、類似性測定を基に決定される。
本発明の実施形態によれば、少なくとも1つの特徴における1つ以上の方向は、近傍画素の画素明暗度を基に計算され、共通座標系に関連して記録される。マッチング段階においては、必要とされる比較の数を減らし、誤照合比率を減少させるために、共通座標系に関して類似した方向を持った特徴のみが、マッチングされる。
本発明の実施形態において、本発明に係る方法は、詳細にはワイド−ベースラインステレオマッチング、カメラトラッキング、画像検索、オブジェクト認識、視覚検索、姿勢評価、視覚監視、情景再構成、モーション推定、パノラマ合成、又は画像復元のような、ステレオマッチングプロセスにより実行される。
本発明の更なる実施形態においては、画像をキャプチャするための少なくとも1つのキャプチャ装置に連結された、デジタルコンピュータシステムの内部メモリの中に読み込まれるように構成されたコンピュータプログラムであって、前記プロダクトが、前記コンピュータシステムで作動している時に、上述のいずれかの方法及び実施形態による工程が実行されるために用いられる、ソフトウェアコードセクションを具備するコンピュータプログラムを提供する。
本発明の更なる実施形態及び態様は、特許請求の範囲の従属請求項に記載の事項から明らかである。
背面にカメラを有するモバイル機器によってキャプチャされた画像、並びに該画像から抽出され、且つ標準的アプローチ(左)及び本発明に係る実施形態(右)によって、正規化された描画の中に模式的に示された特徴の典型的なシーンを示す。 2つの異なる方位における特徴点の典型的な描画、前記特徴点のローカル近傍画素の正規化、及びそれぞれの記述子の構造における回転のための不変性への標準的アプローチを示す。 特徴記述子を構成するための標準的アプローチを、フローダイアグラムの中に示す。 特徴記述子を構成するための本発明による方法を、フローダイアグラムの中に示す。 マッチングされるために、異なる視点からそれぞれ抽出された特徴でもって、同じ静的オブジェクトを描画した典型的な第1及び第2画像を、概略的な方法で示す。
以下に、図面を参照しながら、本発明に関する種々の実施形態をより詳細に説明する。
図1は、背面にカメラを有するモバイル機器によってキャプチャされた画像、並びに該画像から抽出され、且つ標準的アプローチ(上述したように左に示されている。)及び本発明に係る実施形態(右に示されている)によって、正規化された描画の中に模式的に示された特徴の典型的なシーンを示す。
本発明の上記に示された実施形態によれば、この実施例では窓4を有する建造物である現実オブジェクト3は、背面にカメラ(図示せず)を有するモバイル機器2により、キャプチャされる。例えば、モバイル機器2は、画像処理のためのマイクロプロセッサ並びに窓4の画像をキャプチャするために背面に光学レンズを有するカメラを有する携帯電話若しくはデジタルカメラであっても良い。しかし、他のいかなるタイプの機器が、使用されても良い。同様に、画像処理のためのマイクロプロセッサ及びカメラを含む処理装置を伴なった他のいずれのタイプのシステム形態でも良く、一体型或いは分配型いずれかで使用され得る。
モバイル機器は、例えば慣性センサ、加速度計、ジャイロメータ、及び/又はコンパスのような、センサ5を具備する。カメラもまたモバイル機器の一部であるので、センサは、そのようなものとして、モバイル機器のカメラと連係している。センサは、共通座標系10と関連して、モバイル機器2の方位を測定するのに適している。このことは、絶対的な方式、或いは関連する方位データを時間とともに蓄積することのいずれかによって測定することができる。一般に、入手可能な携帯電話及びデジタルカメラは、しばしば装置の現方位を示す測定値を提供するビルトイン型デジタル加速度計及びコンパスを搭載している。この情報は、カメラの固有パラメータについての情報と共に、カメラ画像の座標系おいて、例えば重力若しくは北方の世界座標におけるいかなる方位の変換も可能にする。
モバイル機器2のディスプレイ7上に、モバイル機器2のカメラでキャプチャされた窓4が、図示される。モバイル機器2(若しくはモバイル機器2と通信している外部機器)のマイクロプロセッサで実行される画像処理方法は、例えばかなり顕著な窓の特徴として、窓の4つの角を表示する特徴F11〜F14のような、キャプチャされた画像から特徴を抽出し、より詳細に後述するように、特徴F11〜F14のそれぞれに、特徴記述子を作成する。作成されたローカル特徴記述子は、右の段において、正規化された座標系に描画されている抽出された特徴F11〜F14により図示されているように、左の段(上述の標準的アプローチ)と比べて異なる方法で、これらの特徴F11〜F14を、特徴を明らかに示差しながら開示する。特に、センサ5の座標系10により定義された、グローバル方位に、特徴の方位を整列させることによって、機器の方位に制約を加えることなく、4つの良く区別することのできる記述子がもたらされる。異なるカメラの方位の下で撮影された特徴も、照合することが可能である。
図4には、特徴記述子を構成するための本発明に係る方法における実施形態のフローダイアグラムが示されている。ステップS11において、画像は、例えばモバイル機器2のカメラのようなキャプチャ装置により捕らえられるか、又は記憶媒体から読み込まれる。ステップS12では、二次元記述における特徴点(パラメータu,v)を得るために、特徴点が画像から抽出される。ステップS13においては、トラッキングシステムにより提供されたキャプチャ装置の方位についての空間情報(パラメータx,y,z)を用いて抽出された特徴点のために、特徴の方位が計算される。
例えば、トラッキングシステムにより、オイラー角として、世界座標系に関するキャプチャ装置の方位が与えられ、特徴記述子は、重力によって整列させられると推定される。全ての特徴の方位を得るための極めて単純な方法は、重力を、第一にオイラー角を用いて、キャプチャ装置に装着されている座標系に変換し、次にそれを画像面に映し出すことである。それによって、画像の全ての特徴のために、画像における重力の方向が計算され、且つ使用される。この技術は、一般的には違うが正射影と仮定される。カメラの固有のパラメータを組み込むことによって、この仮定は弱められるが、それでも2次元画像に基づいた全ての技術では、平面上に置かれるように、画像の中では全てのものが見えると仮定され、それ故に2次元画像に基づいた全ての技術が推仮定される。
ステップS14において、方位の割り当ては、ステップS13において決定された特徴の方位角αに基づいて、方位角αをパラメータu,vに追加するために、実行される。その後、近傍正規化ステップS15は、正規化された近傍画素の明暗度[i]を得るために、実行される。最終ステップS16では、特に、ステップS14における方位の割り当てによってもたらされた抽出された特徴の方位を示しているパラメータによって、記述子ベクトル[d]の形の特徴記述子が、抽出されたそれぞれの特徴について作成される。
本発明の別の実施形態において、キャプチャ装置として、距離データキャプチャ装置が使用され、そこでは、例えばレーザスキャナ、タイムオブフライトカメラ、又はステレオカメラ等といったあらゆる種類の距離データキャプチャ装置で撮影されたイメージ画素が、三次元座標に結合される。この場合、特定の特徴点のための共通座標系におけるどのような方位も、特徴点の近傍画素の三次元位置から計算される。
全ての近傍画素Ni(iは、近傍画素の指数である)のために、画素Pで特徴が与えられると、画素Pから生じ、画素Niを指し示している三次元ベクトルが計算される。望ましい方位ベクトルに最も近い2つの隣接するものが決定され、画像空間における望ましい方位を補間するために用いられる。
更に、少なくとも2つの画素の三次元における位置が分かれば、近傍正規化ステップにおける平面内の回転のための回転角を計算することができる。3個以上の画素の三次元世界座標が分かれば、該正規化ステップにおける1つ以上の参照方位へ、ローカル近傍若しくは全画像を歪ませるために、三次元変換を計算することができる。
画像から抽出された特徴記述子は、異なるトラッキングシステムとは違った種類の結合された空間情報とともに、提案された技術を用いてマッチングすることができる。
上述したように、図1では、窓の4つの角を例にして、本発明によって決定されたグローバルに整列されたローカル特徴記述子に対する標準的アプローチの結果が、概略的に比較される。標準アプローチ(左段の特徴F1〜F4)が、4つの同一の記述子をもたらす一方で、本発明におけるグローバル整列では、明らかに示差的な特徴記述子(右段の特徴F11〜F14)へと導かれる。
従って、本発明の実施形態によれば、共通座標系に関しては、キャプチャ装置の方位に関連した情報とともに、画像からローカル特徴記述子を抽出する場合、この情報に基づいた特徴の方位を割り当てることが、提案される。特に、特徴のための方位は、画像座標系に投影された共通座標系でもって整列させられている。このことは、カメラの自由な動作及び回転を可能にする一方で、異なる方位を伴った適合する特徴若しくは殆ど適合する特徴の記述子の間での、より高い示差性を可能にする。本発明による方法は、図4に示されているように、測定された方位を考慮に入れることによって、正規化されたローカル近傍に基づいたどのような既存のローカル特徴記述子にも容易に利用することができる。
測定された機器の方位は、近傍正規化ステップでカメラ画像を回転するための単一の角度を与える特徴の方位の割り当てに影響を与えるだけでなく、更に、特定の特徴記述子近傍における遠近法による歪みを補正するための1つ以上の参照方位へと、一部画像若しくは全体画像を歪ませるのに随意用いられる。
例えば、上述の方法は、特にワイド−ベースラインステレオマッチング、カメラトラッキング、画像検索、画像分類、オブジェクト分類又はオブジェクト認識のような、スレテオマッチングプロセスにより実行される。
ステレオマッチングの目標は、異なるビューポイントから撮影されたシーン或いはオブジェクトの2つの画像を三次元ジオメトリに再構成することである。このことは、同じ三次元ポイントを描画している2つの画像における対応した画素を見つけ三角測量法を用いてそれらの深さを計算することにより、行われる。
カメラトラッキングとは、1つ以上のカメラ画像が与えられたカメラのポーズ(位置及び方位)を計算するプロセスについて述べている。カメラ画像における特徴は、絶対的なポーズを計算するために分かっている三次元位置を伴った参照特徴に対して、又は位置及び方位における関連する変化を計算するために前のフレームからの特徴に対してのいずれかでマッチングされる。
画像又はオブジェクトの分類では、与えられた画像若しくはオブジェクトの三次元記述が、n個のあり得る分類の1つに割り当てられる。たとえ、クエリ画像における特定の果実が、トレーニングのため若しくは参照画像として使用されなかったとしても、1つの例として、与えられた画像が、リンゴ若しくは梨を描画しているかどうかを語る方法になるであろう。ということからすると、与えられたクエリのための画像検索及びオブジェクト認識の中では、正確にマッチングした参照画像若しくはオブジェクトが、探し求められる。
全てこれらの技術は、2つ以上の画像の特徴をマッチングすることに基づいている。
図5A及び5Bは、マッチングされるために各々抽出された特徴とともに、同じオブジェクトを表示している典型的な第1及び第2画像を、模式的に示す。例えば、画像は、異なる視角や光の条件といった、異なる条件若しくは状況の下で捉えられる。
第1画像IM1において、図5Aに示されている現実静的オブジェクトRO1は、カメラ(図示せず)によってキャプチャされる。画像IM1において、現実静的オブジェクトRO1の特徴は、図5Aに示されているように、特徴F51によって抽出される。次のステップにおいて、記述子は、本発明の方法によって、抽出された特徴F51全てについて計算される。次に、これらの特徴F51は、第2画像IM2の中で抽出された特徴F52とマッチングされる。第2画像IM2は、異なるビューポイントの下での、現実オブジェクトRO1に対応した現実オブジェクトRO2を表示しており、そこでは、特徴F52のためにも、それぞれの記述子が決定される。特に、特徴F51及びF52の記述子が、ある類似性測定の言語において、比較的類似している場合、それらはマッチングされる。例えば、もし全ての記述子が、数のベクトルとして書かれているとしたら、2つの記述子を比較するとき、類似性測定法として、2つの対応するベクトルの間のユークリッド距離を使うことができる。
破線を伴って、それらを連結することにより、図5には、破線で結び合わされた3つのマッチングが描かれている。マッチM51では、マッチングされた2つの特徴が、同じ物理的実体と一致しているので、マッチM51は、正しいものである一方で、マッチM52及びM53では、それぞれ異なる物理的実体と一致している特徴を有しているので、間違っている。マッチM52では、2つの特徴は、異なる方位における類似した(殆ど適合している)近傍を有する。このようなミスマッチが標準アプローチの使用に共通するものである一方、本発明は、それらを回避することを目標としている。M53の中でマッチングされた2つの特徴は、類似した方位において、類似した近傍を有しているために、標準アプローチ及び本発明の実施形態の両方で、ミスマッチを導くことがあり得る。
近傍の画素の画素明暗度に基づいた特徴の方位を計算するための一般的な方法は、高い反復性を有しており、それ故に、それは特徴の信頼性のある特性である。本発明で示唆されたように、共通座標系に特徴を整列させるとき、この特性は、記述子がより示差性やマッチング能力を増大させるように用いられる。特徴を抽出する際、画像の明暗度に基づいた1つ以上の方向が随意計算され、その方向は、それぞれの特徴のために共通座標系に対応して、随意記録される。マッチング段階において、必要とされる比較の数は、共通座標系に関連して類似した方向を持った特徴だけを比較することによって、減少させることができる。
この発明の詳細な説明では、本発明に係るいくつかの実施形態について説明している。可能な実施に関する上述の発明の詳細な説明は、発明の明らかな説明に役立つことを意図したものであって、そこに発明が限定されないことを意図していると、理解されるべきである。また、この発明の開示における、“第1”、“第2”などの語は、単にラベルとして使用され、それらのオブジェクトにおける数的な要件を与えることを意図していない。特許請求の範囲の請求項に記載の範囲内での、他の実施形態及び一部修正は、図面に関連した上述の発明の詳細な説明を検討すれば、当業者にとっては明らかなものである。
2 モバイル機器
3 現実オブジェクト
10 共通座標系

Claims (15)

  1. 画像の少なくとも1つの特徴のための記述子を提供する方法であって、
    キャプチャ装置によってキャプチャされた画像を提供し、前記画像から少なくとも1つの特徴を抽出する工程と、
    記述子を前記少なくとも1つの特徴に割り当てる工程とを具備し、
    前記記述子が、重力の方向の射影に対応した前記画像における方位を示す少なくとも1つのパラメータに応じており、
    前記少なくとも1つのパラメータが、少なくとも1つのトラッキングシステム及び前記キャプチャ装置の固有のパラメータに対する情報により決定され、並びに前記方位に関して、前記少なくとも1つの特徴の近傍を正規化する工程を更に具備し、前記少なくとも1つの特徴の近傍を正規化する工程において、前記方位は、前記画像を回転するための角度を規定することを特徴とする画像の少なくとも1つの特徴として記述子を提供する方法。
  2. 前記少なくとも1つのパラメータが、共通座標系に関連して、前記キャプチャ装置の方位から決定される請求項1に記載の方法。
  3. 前記トラッキングシステムが、具体的には慣性センサ、加速度計、ジャイロスコープ又はコンパスのようなセンサを具備し、そのセンサは前記キャプチャ装置に付随している請求項1又は2に記載の方法。
  4. 前記トラッキングシステムが、機械的及び/又は電磁気的及び/又は音響的及び/又は光学トラッキングシステムを包含する請求項1乃至3のいずれか1項に記載の方法。
  5. 前記キャプチャ装置は、具体的にはレーザスキャナ、タイムオブフライトカメラ、又はステレオカメラのような距離データキャプチャ装置を具備し、関連する深さ及び/又は三次元位置とともにイメージ画素を提供する請求項1乃至4のいずれか1項に記載の方法。
  6. 前記少なくとも1つのパラメータは、前記画像の座標系における変換のための、前記キャプチャ装置の固有のパラメータに対する情報とともに、決定される請求項1乃至5のいずれか1項に記載の方法。
  7. 前記少なくとも1つの抽出された特徴のために、前記少なくとも1つのパラメータが、前記画像の画素の三次元位置から決定される請求項1乃至6のいずれか1項に記載の方法。
  8. 前記少なくとも1つの特徴の近傍を正規化する工程において、前記方位は、特に特徴近傍の遠近法による歪みを修正するために、1つ以上の参照方位に全体画像若しくは画像の一部を歪ませるために使用される請求項1乃至7のいずれか1項に記載の方法。
  9. 共通座標系における前記方位に関する前記特徴の1つ以上の方位は、画素明暗度に基づいて計算され、且つ前記記述子の1部として記録される請求項1乃至のいずれか1項に記載の方法。
  10. 2つ以上の画像特徴をマッチングする方法であって、
    第1画像の少なくとも1つの第1特徴及び第2画像の少なくとも1つの第2特徴を抽出する工程と、
    前記第1特徴に対して第1記述子及び前記第2特徴に対して第2記述子を提供する工程であって、前記第1及び第2記述子の少なくとも1つが、請求項1乃至のいずれか1項に記載の方法により提供される工程と、
    前記第1及び第2特徴のためのマッチングプロセスにおいて、前記第1及び第2記述子を比較する工程とを具備する2つ以上の画像特徴をマッチングする方法。
  11. 前記マッチングプロセスにおいて、前記第1及び第2特徴がお互いに一致するかどうかが、類似性測定を基に決定される請求項10に記載の方法。
  12. 前記類似性測定は、できるだけ早く、悪いマッチを退けるために、異なる基準を引き続いて計算する、多段階法を具備する請求項11に記載の方法。
  13. 具体的には、ワイド−ベースラインステレオマッチング、カメラトラッキング、画像検索、オブジェクト認識、視覚検索、姿勢評価、視覚監視、情景再構成、モーション推定、パノラマ合成、又は画像復元のような、ステレオマッチングプロセスにより実行される請求項1乃至12のいずれか1項に記載の方法。
  14. 前記方位が、前記画像における重力の方向の射影により整列させられる請求項1乃至13のいずれか1項に記載の方法。
  15. 画像をキャプチャするための少なくとも1つのキャプチャ装置又は画像から読み込むための記憶媒体と一体となったコンピュータシステムの内部メモリの中に読み込まれるように構成されたコンピュータプログラムであって、前記プログラムが前記コンピュータシステムで作動している時に、請求項1乃至13のいずれか1項に記載の工程が実行されるために用いられる、ソフトウェアコードセクションを具備することを特徴とするコンピュータプログラム。
JP2014161137A 2009-10-19 2014-08-07 画像の少なくとも1つの特徴として記述子を提供する方法及び特徴をマッチングする方法 Active JP5905540B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102009049849.4A DE102009049849B4 (de) 2009-10-19 2009-10-19 Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells
DE102009049849.4 2009-10-19

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012533534A Division JP2013508794A (ja) 2009-10-19 2010-05-28 画像の少なくとも1つの特徴として記述子を提供する方法及び特徴をマッチングする方法

Publications (2)

Publication Number Publication Date
JP2014241155A JP2014241155A (ja) 2014-12-25
JP5905540B2 true JP5905540B2 (ja) 2016-04-20

Family

ID=42667910

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2012533534A Pending JP2013508794A (ja) 2009-10-19 2010-05-28 画像の少なくとも1つの特徴として記述子を提供する方法及び特徴をマッチングする方法
JP2012533553A Pending JP2013508795A (ja) 2009-10-19 2010-09-16 カメラ姿勢決定方法、及び実環境物体認識方法
JP2014161137A Active JP5905540B2 (ja) 2009-10-19 2014-08-07 画像の少なくとも1つの特徴として記述子を提供する方法及び特徴をマッチングする方法
JP2014223180A Active JP5980295B2 (ja) 2009-10-19 2014-10-31 カメラ姿勢決定方法、及び実環境物体認識方法

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2012533534A Pending JP2013508794A (ja) 2009-10-19 2010-05-28 画像の少なくとも1つの特徴として記述子を提供する方法及び特徴をマッチングする方法
JP2012533553A Pending JP2013508795A (ja) 2009-10-19 2010-09-16 カメラ姿勢決定方法、及び実環境物体認識方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2014223180A Active JP5980295B2 (ja) 2009-10-19 2014-10-31 カメラ姿勢決定方法、及び実環境物体認識方法

Country Status (6)

Country Link
US (7) US8942418B2 (ja)
EP (4) EP2491529B1 (ja)
JP (4) JP2013508794A (ja)
CN (3) CN102612704B (ja)
DE (1) DE102009049849B4 (ja)
WO (2) WO2011047888A1 (ja)

Families Citing this family (150)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7146260B2 (en) 2001-04-24 2006-12-05 Medius, Inc. Method and apparatus for dynamic configuration of multiprocessor system
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US20150205111A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Optical configurations for head worn computing
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
DE102009049849B4 (de) 2009-10-19 2020-09-24 Apple Inc. Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells
WO2011106520A1 (en) 2010-02-24 2011-09-01 Ipplex Holdings Corporation Augmented reality panorama supporting visually impaired individuals
US9185388B2 (en) * 2010-11-03 2015-11-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
US8977629B2 (en) * 2011-05-24 2015-03-10 Ebay Inc. Image-based popularity prediction
US20120314031A1 (en) * 2011-06-07 2012-12-13 Microsoft Corporation Invariant features for computer vision
CN103959308B (zh) * 2011-08-31 2017-09-19 Metaio有限公司 以参考特征匹配图像特征的方法
TWI489859B (zh) * 2011-11-01 2015-06-21 Inst Information Industry 影像形變方法及其電腦程式產品
US9536251B2 (en) * 2011-11-15 2017-01-03 Excalibur Ip, Llc Providing advertisements in an augmented reality environment
US9600744B2 (en) 2012-04-24 2017-03-21 Stmicroelectronics S.R.L. Adaptive interest rate control for visual search
CN102694963B (zh) * 2012-04-27 2014-09-17 南京航空航天大学 一种获取无阴影目标图像的方法
JP5727969B2 (ja) * 2012-06-15 2015-06-03 株式会社東芝 位置推定装置、方法、及びプログラム
CN103673990B (zh) * 2012-09-13 2016-04-06 北京同步科技有限公司 获取摄像机姿态数据的装置及其方法
CN103674011B (zh) * 2012-09-19 2017-07-25 联想(北京)有限公司 即时定位与地图构建设备、系统与方法
US9237340B2 (en) * 2012-10-10 2016-01-12 Texas Instruments Incorporated Camera pose estimation
CN102928201B (zh) * 2012-10-24 2014-12-17 北京控制工程研究所 一种动态的月面成像敏感器的目标模拟系统
US20140140573A1 (en) * 2012-11-21 2014-05-22 Gravity Jack, Inc. Pose Tracking through Analysis of an Image Pyramid
US20140168264A1 (en) 2012-12-19 2014-06-19 Lockheed Martin Corporation System, method and computer program product for real-time alignment of an augmented reality device
JP5670416B2 (ja) * 2012-12-28 2015-02-18 ファナック株式会社 ロボットシステム表示装置
EP2763077B1 (en) * 2013-01-30 2023-11-15 Nokia Technologies Oy Method and apparatus for sensor aided extraction of spatio-temporal features
US9058683B2 (en) 2013-02-21 2015-06-16 Qualcomm Incorporated Automatic image rectification for visual search
WO2014145722A2 (en) 2013-03-15 2014-09-18 Digimarc Corporation Cooperative photography
US9495389B2 (en) 2013-03-15 2016-11-15 Qualcomm Incorporated Client-server based dynamic search
WO2014179745A1 (en) * 2013-05-02 2014-11-06 Qualcomm Incorporated Methods for facilitating computer vision application initialization
DE102013009288B4 (de) 2013-06-04 2016-02-04 Testo Ag 3D-Aufnahmevorrichtung, Verfahren zur Erstellung eines 3D-Bildes und Verfahren zur Einrichtung einer 3D-Aufnahmevorrichtung
CN103327246B (zh) * 2013-06-07 2016-08-24 腾讯科技(深圳)有限公司 一种多媒体拍摄处理方法、装置及智能终端
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
WO2015012659A1 (en) * 2013-07-26 2015-01-29 Samsung Electronics Co., Ltd. Two way local feature matching to improve visual search accuracy
US8860818B1 (en) 2013-07-31 2014-10-14 Apple Inc. Method for dynamically calibrating rotation offset in a camera system
US9646384B2 (en) 2013-09-11 2017-05-09 Google Technology Holdings LLC 3D feature descriptors with camera pose information
US8958663B1 (en) * 2013-09-24 2015-02-17 Zazzle Inc. Automated imaging of customizable products
DE102013016247A1 (de) 2013-10-01 2014-06-26 Daimler Ag Verfahren und Vorrichtung zur augmentierten Darstellung
CN104854428B (zh) 2013-12-10 2018-12-14 深圳市大疆创新科技有限公司 传感器融合
CN110120072B (zh) * 2013-12-19 2023-05-09 苹果公司 用于跟踪移动设备的方法和系统
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US9299194B2 (en) * 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US20150277118A1 (en) 2014-03-28 2015-10-01 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US12093453B2 (en) 2014-01-21 2024-09-17 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US9746676B2 (en) 2014-01-21 2017-08-29 Osterhout Group, Inc. See-through computer display systems
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US9532714B2 (en) 2014-01-21 2017-01-03 Osterhout Group, Inc. Eye imaging in head worn computing
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US9811153B2 (en) 2014-01-21 2017-11-07 Osterhout Group, Inc. Eye imaging in head worn computing
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US9811159B2 (en) 2014-01-21 2017-11-07 Osterhout Group, Inc. Eye imaging in head worn computing
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
CN104881860B (zh) * 2014-02-28 2019-01-08 国际商业机器公司 基于照片进行定位的方法和装置
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US9400939B2 (en) 2014-04-13 2016-07-26 International Business Machines Corporation System and method for relating corresponding points in images with different viewing angles
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US9280832B2 (en) * 2014-05-08 2016-03-08 The Trustees Of The University Of Pennsylvania Methods, systems, and computer readable media for visual odometry using rigid structures identified by antipodal transform
US9761008B2 (en) 2014-05-08 2017-09-12 The Trustees Of The University Of Pennsylvania Methods, systems, and computer readable media for visual odometry using rigid structures identified by antipodal transform
KR101613418B1 (ko) * 2014-05-29 2016-04-21 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 마커부 자세 및 위치 산출방법
DE102014008152A1 (de) 2014-05-30 2014-10-23 Daimler Ag Verfahren und Vorrichtung zur augmentierten Darstellung mindstens einer Zusatzinformation in mindestens einem Bild einer Umgebung
KR101888566B1 (ko) * 2014-06-03 2018-08-16 애플 인크. 실제 물체와 관련된 디지털 정보를 제시하기 위한 방법 및 시스템
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
WO2016019390A1 (en) * 2014-08-01 2016-02-04 Locuslabs Ip Image-based object location system and process
JP6181300B2 (ja) 2014-09-05 2017-08-16 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 無人航空機の速度を制御するシステム
WO2016033796A1 (en) 2014-09-05 2016-03-10 SZ DJI Technology Co., Ltd. Context-based flight mode selection
EP3428766B1 (en) 2014-09-05 2021-04-07 SZ DJI Technology Co., Ltd. Multi-sensor environmental mapping
US10719727B2 (en) 2014-10-01 2020-07-21 Apple Inc. Method and system for determining at least one property related to at least part of a real environment
US9746913B2 (en) 2014-10-31 2017-08-29 The United States Of America As Represented By The Secretary Of The Navy Secured mobile maintenance and operator system including wearable augmented reality interface, voice command interface, and visual recognition systems and related methods
US10445895B2 (en) 2014-11-21 2019-10-15 Apple Inc. Method and system for determining spatial coordinates of a 3D reconstruction of at least part of a real object at absolute spatial scale
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
WO2016107635A1 (en) 2014-12-29 2016-07-07 Metaio Gmbh Method and system for generating at least one image of a real environment
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
US10878775B2 (en) 2015-02-17 2020-12-29 Mentor Acquisition One, Llc See-through computer display systems
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
US10142596B2 (en) 2015-02-27 2018-11-27 The United States Of America, As Represented By The Secretary Of The Navy Method and apparatus of secured interactive remote maintenance assist
JP6524713B2 (ja) * 2015-03-02 2019-06-05 セイコーエプソン株式会社 画像処理装置、表示装置、及び、画像処理装置の制御方法
US10481696B2 (en) * 2015-03-03 2019-11-19 Nvidia Corporation Radar based user interface
US9984301B2 (en) * 2015-04-20 2018-05-29 Qualcomm Incorporated Non-matching feature-based visual motion estimation for pose determination
CN104764452A (zh) * 2015-04-23 2015-07-08 北京理工大学 一种基于惯性和光学跟踪系统的混合位姿跟踪方法
KR101910484B1 (ko) * 2015-06-26 2018-10-22 코그넥스코오포레이션 3차원(3d) 비전 검사를 위한 방법
KR101835434B1 (ko) 2015-07-08 2018-03-09 고려대학교 산학협력단 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법
US9928648B2 (en) 2015-11-09 2018-03-27 Microsoft Technology Licensing, Llc Object path identification for navigating objects in scene-aware device environments
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
US10424072B2 (en) 2016-03-01 2019-09-24 Samsung Electronics Co., Ltd. Leveraging multi cues for fine-grained object classification
US10096158B2 (en) * 2016-03-24 2018-10-09 Ford Global Technologies, Llc Method and system for virtual sensor data generation with depth ground truth annotation
DE102016109628A1 (de) * 2016-05-25 2017-11-30 Deutsche Telekom Ag Verfahren zum Bestimmen der Position und/oder Orientierung einer mobilen elektronischen Einrichtung mit Hilfe einer digitalen Wärmebildkamera
US10579860B2 (en) 2016-06-06 2020-03-03 Samsung Electronics Co., Ltd. Learning model for salient facial region detection
US10788888B2 (en) * 2016-06-07 2020-09-29 Koninklijke Kpn N.V. Capturing and rendering information involving a virtual environment
CN106210450B (zh) * 2016-07-20 2019-01-11 罗轶 一种多通道多视角大数据视频剪辑方法
US10739142B2 (en) 2016-09-02 2020-08-11 Apple Inc. System for determining position both indoor and outdoor
CN107967710B (zh) * 2016-10-20 2021-05-25 株式会社理光 一种三维物体描述方法及装置
US20180190033A1 (en) * 2016-12-30 2018-07-05 Facebook, Inc. Systems and methods for providing augmented reality effects and three-dimensional mapping associated with interior spaces
JP6760114B2 (ja) 2017-01-31 2020-09-23 富士通株式会社 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム
CN107145525B (zh) * 2017-04-14 2020-10-16 北京星选科技有限公司 用于确认搜索场景的数据处理方法、搜索方法及相应装置
US10740613B1 (en) 2017-04-20 2020-08-11 Digimarc Corporation Hybrid feature point/watermark-based augmented reality
CN106996777B (zh) * 2017-04-21 2019-02-12 合肥井松自动化科技有限公司 一种基于地面图像纹理的视觉导航方法
US9965960B1 (en) * 2017-08-07 2018-05-08 Lyft, Inc. Facilitating transportation services by generating a directional indicator between a requester and a transportation vehicle
WO2019031259A1 (ja) * 2017-08-08 2019-02-14 ソニー株式会社 画像処理装置および方法
US11257250B2 (en) 2017-10-31 2022-02-22 Outward, Inc. Blended physical and virtual realities
DE102017222534B3 (de) 2017-12-12 2019-06-13 Volkswagen Aktiengesellschaft Verfahren, computerlesbares Speichermedium mit Instruktionen, Vorrichtung und System zum Einmessen einer Augmented-Reality-Brille in einem Fahrzeug, für das Verfahren geeignetes Fahrzeug und für das Verfahren geeignete Augmented-Reality-Brille
JP7149707B2 (ja) 2018-01-15 2022-10-07 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム、並びに、運転制御システム
US10508913B2 (en) * 2018-02-08 2019-12-17 Raytheon Company Environment recording system using virtual or augmented reality
EP3749172B1 (en) 2018-02-09 2022-03-30 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters
EP3750028B1 (en) 2018-02-09 2022-10-19 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters
WO2019154511A1 (en) 2018-02-09 2019-08-15 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters using a neural network
US10549186B2 (en) * 2018-06-26 2020-02-04 Sony Interactive Entertainment Inc. Multipoint SLAM capture
CN109345589A (zh) * 2018-09-11 2019-02-15 百度在线网络技术(北京)有限公司 基于自动驾驶车辆的位置检测方法、装置、设备及介质
US10943401B2 (en) 2019-02-01 2021-03-09 International Business Machines Corporation Active visual recognition in mobile augmented reality
WO2020237194A1 (en) 2019-05-22 2020-11-26 Pcms Holdings, Inc. Method for rendering of augmented reality content in combination with external display
CN110175579A (zh) * 2019-05-29 2019-08-27 北京百度网讯科技有限公司 姿态确定方法、场景图像的展示方法、装置、设备及介质
US11676422B2 (en) 2019-06-05 2023-06-13 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US10828576B1 (en) 2019-07-29 2020-11-10 Universal City Studios Llc Motion exaggerating virtual reality ride systems and methods
GB2586831A (en) * 2019-09-05 2021-03-10 Wolf In Motion Ltd Three-Dimensional Content Generation using real-time video compositing
US11023730B1 (en) 2020-01-02 2021-06-01 International Business Machines Corporation Fine-grained visual recognition in mobile augmented reality
DE102020112300A1 (de) 2020-05-06 2021-11-11 Audi Aktiengesellschaft 6 Degree of Freedom (6DOF) Tracking von mobilen Head Mounted Displays (HMD)
CN111666434B (zh) * 2020-05-26 2021-11-02 武汉大学 基于深度全局特征的街景图片检索方法
CN111583420B (zh) * 2020-05-27 2021-11-12 上海松鼠课堂人工智能科技有限公司 基于增强现实模式的智能学习系统和方法
US11688142B2 (en) 2020-11-23 2023-06-27 International Business Machines Corporation Automatic multi-dimensional model generation and tracking in an augmented reality environment
DE102021205834A1 (de) * 2021-06-09 2022-12-15 Continental Automotive Technologies GmbH Cloudgestütztes 3D Rendering für ein Egofahrzeug
CN115493512B (zh) * 2022-08-10 2023-06-13 思看科技(杭州)股份有限公司 数据处理方法、三维扫描系统、电子装置和存储介质
CN117102856B (zh) * 2023-10-23 2024-02-13 浙江大学 一种大型舱体双平台五自由度位姿识别与调整方法

Family Cites Families (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4700307A (en) 1983-07-11 1987-10-13 General Dynamics Corp./Convair Division Feature navigation system and method
JP2900737B2 (ja) * 1993-02-01 1999-06-02 トヨタ自動車株式会社 車間距離検出装置
JP3244850B2 (ja) * 1993-03-22 2002-01-07 三菱重工業株式会社 ナンバープレート読み取り装置
JP3486613B2 (ja) * 2001-03-06 2004-01-13 キヤノン株式会社 画像処理装置およびその方法並びにプログラム、記憶媒体
US6903752B2 (en) 2001-07-16 2005-06-07 Information Decision Technologies, Llc Method to view unseen atmospheric phenomenon using augmented reality
DE10145608B4 (de) 2001-09-15 2006-01-26 Eads Deutschland Gmbh Modellbasierte Objektklassifikation und Zielerkennung
US7203384B2 (en) 2003-02-24 2007-04-10 Electronic Scripting Products, Inc. Implement for optically inferring information from a planar jotting surface
JP4743818B2 (ja) * 2003-04-04 2011-08-10 キヤノン株式会社 画像処理装置、画像処理方法、コンピュータプログラム
AU2004273275A1 (en) * 2003-08-29 2005-03-24 Nec Corporation Object posture estimation/correlation system using weight information
US7110100B2 (en) 2003-11-04 2006-09-19 Electronic Scripting Products, Inc. Apparatus and method for determining an inclination of an elongate object contacting a plane surface
JP2005141655A (ja) * 2003-11-10 2005-06-02 Olympus Corp 3次元モデリング装置及び3次元モデリング方法
US7268956B2 (en) 2003-11-24 2007-09-11 Electronic Scripting Products, Inc. Solid catadioptric lens with two viewpoints
US7038846B2 (en) 2003-11-24 2006-05-02 Electronic Scripting Products, Inc. Solid catadioptric lens with a single viewpoint
DE50308363D1 (de) 2003-12-16 2007-11-22 Siemens Ag Verfahren und Gerät zur Identifikation eines Objektes in einem Kamerabild
US7088440B2 (en) 2003-12-22 2006-08-08 Electronic Scripting Products, Inc. Method and apparatus for determining absolute position of a tip of an elongate object on a plane surface with invariant features
US7826641B2 (en) 2004-01-30 2010-11-02 Electronic Scripting Products, Inc. Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
US7729515B2 (en) 2006-03-08 2010-06-01 Electronic Scripting Products, Inc. Optical navigation apparatus using fixed beacons and a centroid sensing device
US8542219B2 (en) 2004-01-30 2013-09-24 Electronic Scripting Products, Inc. Processing pose data derived from the pose of an elongate object
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
US7023536B2 (en) 2004-03-08 2006-04-04 Electronic Scripting Products, Inc. Apparatus and method for determining orientation parameters of an elongate object
US7161664B2 (en) 2004-04-13 2007-01-09 Electronic Scripting Products, Inc. Apparatus and method for optical determination of intermediate distances
US7129887B2 (en) 2004-04-15 2006-10-31 Lockheed Martin Ms2 Augmented reality traffic control center
JP2005326275A (ja) * 2004-05-14 2005-11-24 Canon Inc 情報処理方法および装置
US7113270B2 (en) 2004-06-18 2006-09-26 Electronics Scripting Products, Inc. Determination of an orientation parameter of an elongate object with a scan beam apparatus
US20060120568A1 (en) * 2004-12-06 2006-06-08 Mcconville Patrick J System and method for tracking individuals
JP4613617B2 (ja) * 2005-01-07 2011-01-19 ソニー株式会社 画像処理システム、学習装置および方法、並びにプログラム
WO2007011306A2 (en) * 2005-07-20 2007-01-25 Bracco Imaging S.P.A. A method of and apparatus for mapping a virtual model of an object to the object
JP4914019B2 (ja) 2005-04-06 2012-04-11 キヤノン株式会社 位置姿勢計測方法及び装置
US8160400B2 (en) * 2005-11-17 2012-04-17 Microsoft Corporation Navigating images using image based geometric alignment and object based controls
US8942483B2 (en) * 2009-09-14 2015-01-27 Trimble Navigation Limited Image-based georeferencing
DE102005061952B4 (de) * 2005-12-23 2008-09-11 Metaio Gmbh Verfahren und System zur Bestimmung einer Ungenauigkeitsinformation in einem Augmented Reality System
DE102006005044B4 (de) 2006-02-03 2011-01-27 Metaio Gmbh Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung
DE202006020299U1 (de) * 2006-05-16 2008-04-24 Deutsches Zentrum für Luft- und Raumfahrt e.V. 3D-Vermessungsanordnung
CN100587518C (zh) 2006-07-20 2010-02-03 中国科学院自动化研究所 遥感影像高精度控制点自动选择方法
JP4789745B2 (ja) 2006-08-11 2011-10-12 キヤノン株式会社 画像処理装置および方法
EP1906339B1 (en) * 2006-09-01 2016-01-13 Harman Becker Automotive Systems GmbH Method for recognizing an object in an image and image recognition device
CN100456300C (zh) 2006-10-27 2009-01-28 北京航空航天大学 基于二维草图的三维模型检索方法
JP5403861B2 (ja) * 2006-11-06 2014-01-29 キヤノン株式会社 情報処理装置、情報処理方法
US8174568B2 (en) * 2006-12-01 2012-05-08 Sri International Unified framework for precise vision-aided navigation
DE102006062061B4 (de) * 2006-12-29 2010-06-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zum Bestimmen einer Position basierend auf einem Kamerabild von einer Kamera
US9070207B2 (en) 2007-09-06 2015-06-30 Yeda Research & Development Co., Ltd. Modelization of objects in images
JP4636064B2 (ja) * 2007-09-18 2011-02-23 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
WO2009047335A1 (en) * 2007-10-12 2009-04-16 Mvtec Software Gmbh Computer vision cad models
US20090185746A1 (en) * 2008-01-22 2009-07-23 The University Of Western Australia Image recognition
KR100951890B1 (ko) * 2008-01-25 2010-04-12 성균관대학교산학협력단 상황 모니터링을 적용한 실시간 물체 인식 및 자세 추정 방법
CN101285686B (zh) 2008-05-29 2010-11-10 中国农业大学 一种农业机械导航分级定位的方法和系统
US8144947B2 (en) * 2008-06-27 2012-03-27 Palo Alto Research Center Incorporated System and method for finding a picture image in an image collection using localized two-dimensional visual fingerprints
US8180107B2 (en) 2009-02-13 2012-05-15 Sri International Active coordinated tracking for multi-camera systems
DE102009049849B4 (de) 2009-10-19 2020-09-24 Apple Inc. Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells
CA2798925C (en) * 2010-05-10 2022-09-27 Park Assist Llc. Method and system for managing a parking lot based on intelligent imaging
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
CN103959308B (zh) 2011-08-31 2017-09-19 Metaio有限公司 以参考特征匹配图像特征的方法
WO2013029673A1 (en) 2011-08-31 2013-03-07 Metaio Gmbh Method of detecting and describing features from an intensity image
KR101329111B1 (ko) 2012-05-02 2013-11-14 한국과학기술연구원 실내 네비게이션 시스템 및 방법
WO2014020547A1 (en) 2012-07-31 2014-02-06 Indoorgo Navigation Systems Ltd. Navigation method and device
US8970709B2 (en) 2013-03-13 2015-03-03 Electronic Scripting Products, Inc. Reduced homography for recovery of pose parameters of an optical apparatus producing image data with structural uncertainty
US9140555B1 (en) 2014-03-14 2015-09-22 Google Inc. Navigation using sensor fusion
US10395116B2 (en) 2015-10-29 2019-08-27 Hand Held Products, Inc. Dynamically created and updated indoor positioning map

Also Published As

Publication number Publication date
EP3550516A1 (de) 2019-10-09
CN102612704A (zh) 2012-07-25
CN106650723A (zh) 2017-05-10
US20150092987A1 (en) 2015-04-02
JP2013508794A (ja) 2013-03-07
EP3547256B1 (en) 2021-05-19
WO2011047924A1 (de) 2011-04-28
EP3550516B1 (de) 2022-11-23
JP2014241155A (ja) 2014-12-25
CN102612704B (zh) 2017-03-22
US10062169B2 (en) 2018-08-28
EP2491530B1 (de) 2019-06-26
US20160189384A1 (en) 2016-06-30
EP2491529A1 (en) 2012-08-29
EP2491530A1 (de) 2012-08-29
JP5980295B2 (ja) 2016-08-31
US20190172220A1 (en) 2019-06-06
JP2013508795A (ja) 2013-03-07
EP3547256A1 (en) 2019-10-02
US9218665B2 (en) 2015-12-22
JP2015084229A (ja) 2015-04-30
US20120237085A1 (en) 2012-09-20
US20140321708A1 (en) 2014-10-30
US8837779B2 (en) 2014-09-16
US8942418B2 (en) 2015-01-27
US20120219188A1 (en) 2012-08-30
WO2011047888A1 (en) 2011-04-28
US10580162B2 (en) 2020-03-03
US10650546B2 (en) 2020-05-12
DE102009049849A1 (de) 2011-04-21
EP2491529B1 (en) 2019-06-26
US20180357786A1 (en) 2018-12-13
US10229511B2 (en) 2019-03-12
DE102009049849B4 (de) 2020-09-24
CN102667855A (zh) 2012-09-12

Similar Documents

Publication Publication Date Title
JP5905540B2 (ja) 画像の少なくとも1つの特徴として記述子を提供する方法及び特徴をマッチングする方法
US8682106B2 (en) Method and apparatus for measuring position and orientation of an object
Chen et al. City-scale landmark identification on mobile devices
US8144238B2 (en) Image processing apparatus and method
US7554575B2 (en) Fast imaging system calibration
CN112435338B (zh) 电子地图的兴趣点的位置获取方法、装置及电子设备
US10268929B2 (en) Method and device for generating binary descriptors in video frames
JP5833507B2 (ja) 画像処理装置
Bettadapura et al. Egocentric field-of-view localization using first-person point-of-view devices
Gupta et al. Augmented reality system using lidar point cloud data for displaying dimensional information of objects on mobile phones
JP6304815B2 (ja) 画像処理装置ならびにその画像特徴検出方法、プログラムおよび装置
DeFranco Detecting and tracking moving objects from a small unmanned air vehicle
KR20190005222A (ko) 가상 환경의 표현에서의 시선 방향을 조정하는 방법
Koniarski Augmented reality using optical flow
Park et al. Digital map based pose improvement for outdoor Augmented Reality
Skulimowski et al. Verification of visual odometry algorithms with an OpenGL-based software tool
Wang Robust Pose Estimation for Spherical Panorama
Sun et al. Joint detection and tracking of independently moving objects in stereo sequences using scale-invariant feature transform features and particle filter
Katai-Urban et al. Stereo Reconstruction of Atmospheric Cloud Surfaces from Fish-Eye Camera Images
Filax et al. VIOL: Viewpoint Invariant Object Localizator
Sagüés et al. Robust line matching in image pairs of scenes with dominant planes
Forsman Applying Augmented Reality to Outdoors Industrial Use
Fiala Panoramic computer vision
Gava et al. A Unifying Structure from Motion Framework for Central Projection Cameras
Albrecht A vision system for mobile maritime surveillance platforms

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160316

R150 Certificate of patent or registration of utility model

Ref document number: 5905540

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250