JP6255125B2 - 画像処理装置、画像処理システム、および画像処理方法 - Google Patents
画像処理装置、画像処理システム、および画像処理方法 Download PDFInfo
- Publication number
- JP6255125B2 JP6255125B2 JP2017076805A JP2017076805A JP6255125B2 JP 6255125 B2 JP6255125 B2 JP 6255125B2 JP 2017076805 A JP2017076805 A JP 2017076805A JP 2017076805 A JP2017076805 A JP 2017076805A JP 6255125 B2 JP6255125 B2 JP 6255125B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- luminance
- acquired
- image processing
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
姿勢の異なる複数の前記物体を含む輝度画像から当該輝度画像の複数の領域における前記物体の表面の輝度値を取得する第1の取得手段と、
前記第1の取得手段により前記輝度値が取得される前記複数の領域における前記物体の表面の向きに係る情報を取得する第2の取得手段と、
前記第1の取得手段により取得した前記複数の領域における前記物体の表面の輝度値と、前記第2の取得手段により取得した前記複数の領域における前記物体の表面の向きに係る情報との対応関係を取得する第3の取得手段と、
前記第3の取得手段により取得した対応関係と、前記物体のモデル情報とに基づいて、前記物体の学習画像を生成する生成手段と、
を有することを特徴とする。
本発明は、入力画像から対象物体の画像を検出する画像認識処理において参照される辞書の生成に用いられる学習画像を、実環境下で対象物体を撮影した情報に基づき、環境条件を反映して対象物体の表面輝度を近似させるように生成する。
図1(a)に、本実施形態における画像認識処理を行う画像処理装置において、特に学習画像の生成を行うための構成の概要を示す。モデル設定部1010は、対象物体のモデルを設定し、モデル記憶部1020に記憶する。画像取得部1110は、対象物体を撮影することで事前取得画像を取得し、事前取得画像記憶部1120に記憶する。観測データ分布取得部1130は、事前取得画像記憶部1120に記憶された事前取得画像から得られる情報に基づき、輝度値の観測データ分布を取得する。輝度推定部1210では、観測データ分布取得部1130で得られたデータ分布に基づき、対象物体表面の輝度分布を推定する。画像生成部1220は、モデル記憶部1020に記憶されているモデルと、輝度推定部1210で推定された輝度分布に基づき、対象物体の様々な姿勢のCG画像を生成する。生成されたCG画像は、学習画像として学習画像記憶部2010に記憶される。本実施形態では、このように対象物体を撮影して得られた輝度分布に基づく学習画像を容易に生成することを特徴とする。
以下、上述した構成からなる本実施形態の画像処理装置を、ロボットによる作業へ応用する場合を例として、説明を行う。まず、ランタイム時に対象物体を検出するための装置構成を図2に示す。図2において、トレイ500に検出の対象物体400が配置されている。300は画像情報および撮影位置からの距離情報を得るための撮像装置であり、図1における入力画像取得部3020に相当する。撮像装置300としては、撮影時に画像情報とともに距離情報を得ることができれば、ステレオカメラやTOFセンサ、あるいは、カメラと投光器の組み合わせによる光切断や空間コード化などの装置でもよく、本発明において限定されるものではない。また、後述するようにトラッキング技術を利用したモデルとの位置合わせを行う場合には、距離情報を得る必要はなく、撮像装置300はカメラのみによる構成であってもよい。撮像装置300は有線もしくは無線を介して計算機100に接続されている。
図2に示す構成におけるランタイム処理について、図3(a)のフローチャートを用いて説明する。上述したようにランタイムとは、本実施形態で作成された学習画像に基づく辞書を用いて、実際の入力画像に対して対象物体の認識(検出)処理を行うことである。図2に示す構成例では、例えば実際の工場などで次々と搬送されてくる対象物体を撮影し、物体の位置および姿勢を認識することを指す。ただし、本発明は上記のようなランタイム処理に限定されるものではなく、例えば本発明を顔認識に応用した場合であれば、カメラを人に向けて撮影して顔認識を行う場面なども、ランタイム処理であると言える。
以上のようなランタイム処理を行うにあたり、対象物体400を検出するための辞書を事前に用意しておく必要がある。以下、この辞書を設定するための処理について詳細に説明する。なお上述したように、繰り返し行われるランタイム作業において辞書は再利用されるものであるから、辞書生成処理は一度だけ行えばよい。
そして、対象物体400表面の任意の位置における表面法線40の法線ベクトルN=(Nx,Ny,Nz)と、反射中心軸30の方向ベクトルHのなす角50をθとすると、θは以下の(2)式で表わされる。
このとき、上記対象物体表面の任意の位置における輝度値Jは、θの関数として以下の(3)式のようにガウス関数で近似することができる。
なお、(3)式におけるCとmはそれぞれ、輝度分布全体の強度と輝度分布の広がりを表す輝度分布パラメータであり、これを推定することで輝度分布モデルの近似が行われる。
最尤推定フィッティングをこの誤差関数Eの最小化問題として考える。すると、誤差関数EはパラメータCに関して下に凸の2次関数であるため、以下の(5)式を解けば、パラメータCの更新式が(6)式のように求まる。
(7)式を最急降下的に解くと、逐次更新式は以下の(8)式のようになり、これはRobbins-Monroの手続きと呼ばれる。なお、(8)式における係数ηは正の値で定義される定数であり、観測データ数の逆数として与えるのが一般的である。
なお、(9)式においてKd,Ks,mはこのモデルにおける輝度分布パラメータである。このモデルを図4に適用すると、θは(2)式のθと同様であり、すなわち表面法線40の方向ベクトルNと反射中心軸30の方向ベクトルHのなす角50である。また、αは表面法線40の方向ベクトルNと光源軸20の方向ベクトルLのなす角70、βは表面法線40の方向ベクトルNとカメラ光軸100の方向ベクトルVのなす角60であり、それぞれ以下の(10),(11)式で表わされる。
β=cos-1(V・N/(|V||N|)) ・・・(11)
各観測画素jに対応する(9)式における角度αjとβjは、上記(10),(11)式から得ることができ、これによりθj、αj、βjに対応する輝度値Jjの観測分布を得ることができる。この観測分布に対して(9)式のモデルを最尤推定によってフィッティングすることで、対象物体400の表面輝度分布の推定モデルを得ることができる。
第1実施形態では、撮像装置300での撮影によって、対象物体を含む輝度画像および距離画像を取得する例を示したが、撮像装置300が測距機能を有さない場合にも、本実施形態は適用可能である。以下、撮像装置300にて距離画像を取得できない場合に、第1実施形態を適用する変形例について説明する。本変形例においては、周知のトラッキング技術を用いて対象物体の位置姿勢を推定することで、距離画像を生成する。図1(b)に、本変形例における学習画像生成用の構成を示すが、図1(a)と同様の構成には同一番号を付し、説明を省略する。すなわち、図1(b)における距離画像生成部1140にて、距離画像を生成する。この場合、撮像装置300で撮影した輝度画像に対し、ユーザが対象物体のモデルを画像上に重畳させて概位置および概姿勢を設定し、既存のトラッキング技術を用いて詳細な位置および姿勢に合わせ込む。合わせ込まれたモデルとの対応から、対象物体が写っている領域に関する各画素のカメラ座標系における推定位置を算出することで、推定された距離画像として扱うことができる。
以下、本発明に係る第2実施形態について説明する。上述した第1実施形態では、対象物体が単色物体であることを前提として説明を行った。しかしながら、対象物体が複数の色から成る場合ももちろんある。例えば、複数部品によるアッセンブリとして供給される部品が対象物体である場合、該対象物体の一部が黒いプラスチック、一部が白いプラスチックで構成されるといったように、部位によって輝度特性が異なることが考えられる。第2実施形態ではこのように複数の輝度特性を有する対象物体について、学習画像を生成する例について説明する。
第2実施形態においても第1実施形態と同様に、後述するように生成された学習画像から、対象物体を検出するための辞書を生成する。第2実施形態における辞書生成処理の概要は第1実施形態で示した図3(b)のフローチャートと同様であるが、その詳細が異なる。なお、図3(b)においてモデル設定工程S1000、画像取得工程S1100、観測データ分布取得工程S1130については第1実施形態と同様であるため、説明を省略する。
なお、(12)式におけるCtとmtはそれぞれ、輝度分布全体の強度と輝度分布の広がりを表すパラメータである。
なお、(14)式においてKdt,Kst,mtはこのモデルにおけるパラメータであり、α,βは上記(10),(11)式で表わされる。これらのパラメータも第1実施形態と同様に関数フィッティングによって推定される。なお、輝度値が多チャンネルで得られている場合にも、第1実施形態と同様にそれぞれのチャンネルに関する輝度分布を別々に推定すればよい。
以下、本発明に係る第3実施形態について説明する。上述した第1および第2実施形態では、対象物体の表面性状が表面法線方向に対して安定しているものとして説明を行ったが、この表面性状は必ずしも安定しているとは限らない。例えば、対象物体表面に梨地のような加工がなされていれば、同一方向を向いた対象物体の面であっても、部分によって輝度値が変化する。また意図的な表面加工がなくても、成型時の型の粗さ等によって同様に輝度値の変化が発生する場合がある。このような表面正常が不安定な対象物体に対し、その輝度値の不安定さを再現するために学習画像生成時にノイズを加えることが考えられる。第3実施形態ではすなわち、学習画像生成時に加えるノイズを考慮して、対象物体の輝度分布を推定することを特徴とする。
第3実施形態においても第1実施形態と同様に、後述するように生成された学習画像から、対象物体を検出するための辞書を生成するが、この辞書生成処理も図3(b)のフローチャートに従う。図3(b)においてモデル設定工程S1000、画像取得工程S1100、観測データ分布取得工程S1130については第1実施形態と同様であるため、説明を省略する。
w=(w1,…,wh,…,wM)T ・・・(19)
Φ(θ)=(φ1(θ),…,φh(θ),…,φM(θ))T ・・・(20)
ここで、θは図4で説明した表面法線40の方向ベクトルNと反射中心軸30の方向ベクトルHのなす角50である。またMはカーネルの数であって、ユーザによって定義される。角度θは0〜90degの範囲で収まるため、例えばM=9と設定すれば、10deg程度の間隔でカーネルを配置することができる。また、パラメータwはM次元ベクトルであり、その要素wh(h=1,…,M)は正の実数値である。ベクトルφはM次元ベクトルであり、その要素φh(h=1,…,M)は(21)式のように定義されるガウスカーネルである。
ここで、μhはガウスカーネルφhの中心位置を表す。カーネル中心μhは角度θの定義域内に配置すればよく、例えばM=9と定義した場合には、9degごとにμhを設定してもよい。
ここで、Rは観測輝度値の集合ベクトルであり、観測画素の総数がNである場合には以下の(23)式に示すような列ベクトルで表わされる。
ここで、Jjは観測データの画素jにおける輝度値の観測値である。
ここで、εは精度パラメータであり、以下の(25)式に示すような、第1および第2実施形態における推定輝度関数J(θj)と観測輝度値Jjとの二乗誤差平均を用いる。なお、(25)式においてΣはjについての総和を示す。
上記(24)式を重みwの尤度関数と考え、この共役事前分布を、以下の(26)式に示すような期待値m0、共分散S0を持つガウス分布であるとする。
このとき、事後分布である(22)式の右辺第二項は、以下の(27)(28)(29)式に示すような正規分布で表わすことができる。
mN=SN(S0 -1m0+1/ε2ΦTR) ・・・(28)
SN -1=S0 -1+1/ε2ΦTΦ ・・・(29)
ここで、Φは計画行列と呼ばれ、カーネルと観測データから以下の(30)式のように決定される。
σN 2(θ)=ε2+φ(θ)TSNφ(θ) ・・・(32)
なお、(32)式は予測輝度分布の分散であって、その平方根であるσN(θ)は予測輝度分布の標準偏差である。
以下、本発明に係る第4実施形態について説明する。上述した第1実施形態では、対象物体表面の輝度を上記(3)式や(9)式による輝度分布モデルで近似する例を示した。第4実施形態ではさらに、輝度分布モデルについてのパラメータ(輝度分布パラメータ)として複数のパラメータ候補を用意する。そして、各パラメータ候補に基づいて対象物体の認識用の辞書を作成し、実写による入力画像に対して該辞書を適用した認識結果を評価値として、最適なパラメータ候補を選択する例を示す。ここで輝度分布パラメータとは、(3)式におけるCとm、あるいは(9)式におけるKd,Ks,mである。
第4実施形態における辞書生成処理は、図15(a)のフローチャートに従う。なお、図15(a)においてモデル設定工程S1000、画像取得工程S1100では第1実施形態と同様に、対象物体のCADモデルと複数の事前取得画像が設定される。
なお、上述した第1〜第4実施形態においては、ランタイム時の入力画像を事前取得画像として用いてもよい。そうすることで、ランタイム時の環境変化に対して、動的に適切な学習画像を生成することが可能となる。
Claims (26)
- 物体を検出するための画像認識処理において参照される辞書の作成に用いられる該物体の学習画像を生成する画像処理装置であって、
姿勢の異なる複数の前記物体を含む輝度画像から当該輝度画像の複数の領域における前記物体の表面の輝度値を取得する第1の取得手段と、
前記第1の取得手段により前記輝度値が取得される前記複数の領域における前記物体の表面の向きに係る情報を取得する第2の取得手段と、
前記第1の取得手段により取得した前記複数の領域における前記物体の表面の輝度値と、前記第2の取得手段により取得した前記複数の領域における前記物体の表面の向きに係る情報との対応関係を取得する第3の取得手段と、
前記第3の取得手段により取得した対応関係と、前記物体のモデル情報とに基づいて、前記物体の学習画像を生成する生成手段と、
を有することを特徴とする画像処理装置。 - 前記第1の取得手段は、姿勢の異なる複数の前記物体を含む輝度画像を複数枚取得し、各輝度画像から複数の領域における前記物体の表面の輝度値を取得し、
前記第2の取得手段は、前記各輝度画像に対して、前記複数の領域における前記物体の表面の向きに係る情報を取得し、
前記第3の取得手段は、前記各輝度画像に対して、前記複数の領域における前記物体の表面の向きに係る情報と各領域に対応する輝度値との対応関係を取得することを特徴とする請求項1に記載の画像処理装置。 - 前記第2の取得手段は、前記物体に対する距離情報を取得し、該取得した距離情報に基づいて前記複数の領域における前記物体の表面の向きに係る情報を取得することを特徴とする請求項1又は2に記載の画像処理装置。
- 前記第2の取得手段は、前記輝度画像の各画素の距離情報を取得し、該取得した距離情報に基づいて前記複数の領域における前記物体の表面の向きに係る情報を取得することを特徴とする請求項3に記載の画像処理装置。
- 前記姿勢の異なる複数の物体を含む輝度画像は、前記複数の物体がランダムに配された状態で撮影された画像であることを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
- 前記姿勢の異なる複数の物体を含む輝度画像は、前記複数の物体が山積みされた状態で撮影された画像であることを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
- 前記第3の取得手段により取得した対応関係に基づいて、前記物体の表面における輝度分布を推定する推定手段を更に有し、
前記生成手段は、前記推定手段により推定した輝度分布と前記物体のモデル情報とに基づいて、前記学習画像を生成することを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。 - 前記生成手段は、前記物体の表面の向きに係る情報に応じた輝度値を前記輝度分布の分散から決定することを特徴とする請求項7に記載の画像処理装置。
- 前記推定手段は、前記第3の取得手段により取得した対応関係と所定の輝度分布モデルとに基づいて、前記輝度分布を推定することを特徴とする請求項7に記載の画像処理装置。
- 前記推定手段は、複数の輝度分布モデルを取得する手段と、該複数の輝度分布モデルに前記第3の取得手段により取得した対応関係を割り当てる割り当て手段と、前記複数の輝度分布モデルを該輝度分布モデルに割り当てられている対応関係に基づいて更新する更新手段と、を有することを特徴とする請求項9に記載の画像処理装置。
- 前記割り当て手段は、前記第3の取得手段により取得した対応関係が示す前記物体の表面の向きに係る情報を入力して得られる輝度値が該対応関係により求められる輝度値に最も近い前記輝度分布モデルに対して、該対応関係を割り当てることを特徴とする請求項10に記載の画像処理装置。
- 前記更新の前後における前記第3の取得手段により取得した対応関係の割当先が一致するまで、前記割り当て手段及び前記更新手段に処理を繰り返し行わせる手段を更に有することを特徴とする請求項10に記載の画像処理装置。
- 前記生成手段は、前記物体の複数の姿勢に対応する射影変換を、前記物体のモデル情報に対して行い、該射影変換後の前記モデル情報によって示される前記物体の表面の向きに、該物体の表面の向きに対応する輝度値を与えて、前記姿勢ごとの前記学習画像を生成することを特徴とする請求項1乃至12の何れか1項に記載の画像処理装置。
- 前記モデル情報はCADデータであり、前記学習画像はCG画像であることを特徴とする請求項1乃至13の何れか1項に記載の画像処理装置。
- 前記第2の取得手段により取得した物体の表面の向きに係る情報は、該物体の表面の法線の情報であることを特徴とする請求項1乃至14の何れか1項に記載の画像処理装置。
- 前記輝度画像と前記物体のモデル情報から距離画像を生成する距離画像生成手段を更に有することを特徴とする請求項1乃至15の何れか1項に記載の画像処理装置。
- 前記距離画像は、前記物体の表面の位置を表すことを特徴とする請求項16に記載の画像処理装置。
- 前記生成手段により生成された学習画像に基づいて、前記物体を認識するための識別器を生成する手段を更に有することを特徴とする請求項1乃至17の何れか1項に記載の画像処理装置。
- 前記物体を含む画像を取得する手段と、
前記識別器に基づいて、前記物体を含む画像から前記物体を認識する認識手段とを更に有することを特徴とする請求項18に記載の画像処理装置。 - 前記姿勢の異なる複数の物体を含む輝度画像は、前記物体の認識と同じ照明条件で撮影された画像であることを特徴とする請求項1乃至19の何れか1項に記載の画像処理装置。
- 物体を検出するための画像認識処理において参照される辞書の作成に用いられる該物体の学習画像を生成する画像処理方法であって、
姿勢の異なる複数の前記物体を含む輝度画像から当該輝度画像の複数の領域における前記物体の表面の輝度値を取得する第1の取得ステップと、
前記第1の取得ステップで前記輝度値が取得される前記複数の領域における前記物体の表面の向きに係る情報を取得する第2の取得ステップと、
前記第1の取得ステップで取得した前記複数の領域における前記物体の表面の輝度値と、前記第2の取得ステップで取得した前記複数の領域における前記物体の表面の向きに係る情報との対応関係を取得する第3の取得ステップと、
前記第3の取得ステップで取得した対応関係と、前記物体のモデル情報とに基づいて、前記物体の学習画像を生成する生成ステップと、
を有することを特徴とする画像処理方法。 - 前記輝度画像を入力するステップを更に有し、
前記第1の取得ステップでは、前記入力された輝度画像の複数の領域の各々における前記物体の表面の輝度値を取得し、
前記第2の取得ステップでは、前記複数の領域の各々における前記物体の表面の向きに係る情報を取得することを特徴とする請求項21に記載の画像処理方法。 - 前記第2の取得ステップでは、前記物体に対する距離情報を取得し、該取得した距離情報に基づいて前記複数の領域における前記物体の表面の向きに係る情報を取得することを特徴とする請求項21又は22に記載の画像処理方法。
- 前記第2の取得ステップでは、前記輝度画像の各画素の距離情報を取得し、該取得した距離情報に基づいて前記複数の領域における前記物体の表面の向きに係る情報を取得することを特徴とする請求項23に記載の画像処理方法。
- 物体の認識において参照される辞書の生成に用いられる学習画像を生成する画像処理システムであって、
姿勢の異なる複数の前記物体を含む輝度画像を撮影する撮影手段と、
前記姿勢の異なる複数の物体を含む輝度画像から当該輝度画像の複数の領域における前記物体の表面の輝度値を取得する第1の取得手段と、
前記第1の取得手段により前記輝度値が取得される前記複数の領域における前記物体の表面の向きに係る情報を取得する第2の取得手段と、
前記第1の取得手段により取得した前記複数の領域における前記物体の表面の輝度値と、前記第2の取得手段により取得した前記複数の領域における前記物体の表面の向きに係る情報との対応関係を取得する第3の取得手段と、
前記第3の取得手段により取得した対応関係と、前記物体のモデル情報とに基づいて、前記物体の学習画像を生成する生成手段と、
を有することを特徴とする画像処理システム。 - コンピュータ装置で実行されることにより、該コンピュータ装置を請求項1乃至20の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017076805A JP6255125B2 (ja) | 2017-04-07 | 2017-04-07 | 画像処理装置、画像処理システム、および画像処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017076805A JP6255125B2 (ja) | 2017-04-07 | 2017-04-07 | 画像処理装置、画像処理システム、および画像処理方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013074860A Division JP6126437B2 (ja) | 2013-03-29 | 2013-03-29 | 画像処理装置および画像処理方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017120672A JP2017120672A (ja) | 2017-07-06 |
JP2017120672A5 JP2017120672A5 (ja) | 2017-08-17 |
JP6255125B2 true JP6255125B2 (ja) | 2017-12-27 |
Family
ID=59272288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017076805A Active JP6255125B2 (ja) | 2017-04-07 | 2017-04-07 | 画像処理装置、画像処理システム、および画像処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6255125B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200140334A (ko) * | 2018-04-06 | 2020-12-15 | 지멘스 악티엔게젤샤프트 | 종래의 cad 모델들을 사용한 이미지들로부터 객체 인식 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019061484A (ja) | 2017-09-26 | 2019-04-18 | キヤノン株式会社 | 画像処理装置及びその制御方法及びプログラム |
EP3474185B1 (en) * | 2017-10-18 | 2023-06-28 | Dassault Systèmes | Classification of 2d images according to types of 3d arrangement |
JP7501907B2 (ja) * | 2018-03-02 | 2024-06-18 | 日本電気株式会社 | 画像収集装置、画像収集システム、画像収集方法、およびプログラム |
JP7017462B2 (ja) * | 2018-04-26 | 2022-02-08 | 株式会社神戸製鋼所 | 学習画像生成装置及び学習画像生成方法、並びに画像認識装置及び画像認識方法 |
JP7186521B2 (ja) * | 2018-06-12 | 2022-12-09 | シチズンファインデバイス株式会社 | 外観検査装置の教師画像生成装置 |
CN111968057B (zh) * | 2020-08-24 | 2024-08-20 | 浙江大华技术股份有限公司 | 图像降噪方法、装置、存储介质及电子装置 |
JP7446615B2 (ja) * | 2020-11-09 | 2024-03-11 | 東京ロボティクス株式会社 | データセット生成装置、生成方法、プログラム、システム、機械学習装置、物体認識装置、及びピッキングシステム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5290865B2 (ja) * | 2009-05-18 | 2013-09-18 | キヤノン株式会社 | 位置姿勢推定方法および装置 |
-
2017
- 2017-04-07 JP JP2017076805A patent/JP6255125B2/ja active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200140334A (ko) * | 2018-04-06 | 2020-12-15 | 지멘스 악티엔게젤샤프트 | 종래의 cad 모델들을 사용한 이미지들로부터 객체 인식 |
US11403491B2 (en) | 2018-04-06 | 2022-08-02 | Siemens Aktiengesellschaft | Object recognition from images using cad models as prior |
Also Published As
Publication number | Publication date |
---|---|
JP2017120672A (ja) | 2017-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6126437B2 (ja) | 画像処理装置および画像処理方法 | |
JP6255125B2 (ja) | 画像処理装置、画像処理システム、および画像処理方法 | |
JP6074272B2 (ja) | 画像処理装置および画像処理方法 | |
US7321370B2 (en) | Method and apparatus for collating object | |
JP6573354B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP6594129B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
JP2022028860A (ja) | ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法 | |
WO2017143745A1 (zh) | 一种确定待测对象的运动信息的方法及装置 | |
KR102369989B1 (ko) | 적외선 이미징을 사용한 색상 식별 | |
US10984610B2 (en) | Method for influencing virtual objects of augmented reality | |
US10726569B2 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium | |
JP2004086929A5 (ja) | ||
US20180191951A1 (en) | Imaging apparatus and imaging condition setting method and program | |
JP2018022247A (ja) | 情報処理装置およびその制御方法 | |
JP6237032B2 (ja) | 色と三次元形状の計測方法及び装置 | |
JP2007042136A (ja) | 物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体 | |
KR101865886B1 (ko) | 근적외선 영상을 이용한 물체 표현의 기하 구조 및 반사도 추정 방법, 그리고 이를 구현한 시스템 | |
JP6890422B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
US11436754B2 (en) | Position posture identification device, position posture identification method and position posture identification program | |
KR102567379B1 (ko) | 3d 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템 | |
KR102515259B1 (ko) | Ai 물체 인식 학습용 라벨링 데이터 자동 수집 장치 | |
JP2018194544A (ja) | 情報処理装置、情報処理方法、コンピュータプログラム | |
CN116137062A (zh) | 生成训练数据的方法、系统以及存储介质 | |
JP6796850B2 (ja) | 物体検出装置、物体検出方法および物体検出プログラム | |
Muttenthaler | Object recognition for robotic grasping applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170407 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170613 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20170613 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20170711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170804 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171102 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171201 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6255125 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |