JP2015225453A - 物体認識装置及び物体認識方法 - Google Patents
物体認識装置及び物体認識方法 Download PDFInfo
- Publication number
- JP2015225453A JP2015225453A JP2014109325A JP2014109325A JP2015225453A JP 2015225453 A JP2015225453 A JP 2015225453A JP 2014109325 A JP2014109325 A JP 2014109325A JP 2014109325 A JP2014109325 A JP 2014109325A JP 2015225453 A JP2015225453 A JP 2015225453A
- Authority
- JP
- Japan
- Prior art keywords
- feature
- points
- dimensional image
- point
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【解決手段】物体認識装置22は、パレット3の点の集合及び各点を結んで構成される線分の集合によって定義されるパレット3の二次元モデルのデータを保存するモデル保存部45と、パレット3が含まれる三次元画像を入力する三次元画像入力部41と、三次元画像における特徴点118,119,120を検出する画像特徴点検出部42と、三次元画像上の各点における特徴量を算出する特徴量算出部43と、特徴点118,119,120と、補間点123,124とにおける特徴量に基づいて、二次元モデルのデータとの類似度を比較することで物体の認識を行うパターンマッチング部44とを備える。
【選択図】図2
Description
例えば、特許文献1には、位置を変えて設けられた一対のカメラにより撮影された2つの画像データに基づいて、距離情報を備える三次元画像を生成し、これに基づいて物体認識を行う装置が開示されている。
さらに、特許文献3には、物体の二次元画像と距離画像とから物体の三次元座標を算出して、参照パターンとなる三次元モデルのデータを当てはめて、物体の認識を行う装置が開示されている。
特許文献3に記載されているように、二次元画像において抽出した物体の画像特徴に、三次元画像により三次元座標を算出して、三次元モデルデータとの照合を行った場合には、多数の特徴点を抽出する際の演算負荷が大きくなる。このような演算負荷を低減するためには、パターンマッチングを行うための特徴点の候補を少なくすることが考えられるが、その場合、パターンマッチングの精度が低下するという問題がある。
本発明の一見地による物体認識装置は、モデル保存部と、三次元画像入力部と、画像特徴点検出部と、特徴量算出部と、パターンマッチング部とを備える。モデル保存部は、認識対象である物体表面の点の集合及び各点を結んで構成される線分の集合によって定義される物体の幾何的特徴を表すモデルのデータを保存する。三次元画像入力部は、物体が含まれる三次元画像を入力する。画像特徴点検出部は、三次元画像における特徴点を検出する。特徴量算出部は、三次元画像上の各点における特徴量を算出する。パターンマッチング部は、画像特徴点検出部で検出された特徴点と、特徴点に対して特定の幾何的条件を満たす補間点とにおける特徴量に基づいて、モデルのデータとの類似度を比較することで物体の認識を行う。
物体の形状によっては、モデル上の特徴点ではない点に、物体の特徴を表す点としての属性を与えることができる。このような点を、特徴点と特定の幾何的条件を満たす補間点とすることで、パターンマッチングを行う際の特徴点のダウンサンプリングが可能となり、その結果、背景に存在する他の特徴点と識別して、物体の認識を確実に行うことができる。また、これにより、パターンマッチング処理の演算負荷を軽減できる。
物体の特徴を表す特徴点の幾何的条件を設定することにより、三次元画像から検出した特徴点から、マッチングを行うためのマッチング候補点をダウンサンプリングすることが容易であり、この結果、演算負荷を低減できる。
物体のエッジが断続するような部分では、検出される特徴点の間に、物体上の特徴点ではない点が存在することになる。このような点は、画像上に存在する物体を認識する際に、有効な情報となり得る。このため、特徴点の中間点を補間点としてマッチング候補点とすることで、マッチング精度を向上できる。
特徴量の算出には、公知の技術を用いることが可能であり、例えば、法線方向ヒストグラム、距離ヒストグラム、輝度レベルのヒストグラムなどを用いることが可能であり、より具体的には、FPFH(Fast Point Feature Histograms)を用いることができる。
物体は、3個の特徴点を有するパレットであってもよい。その場合、所定の幾何的条件を満たす所定数の特徴点とは、3個の特徴点のなす角度が所定範囲内である3個の特徴点である。
この場合、TOFカメラ、又はステレオカメラを用いて撮影される物体の距離画像を三次元画像として入力できる。TOFカメラ及びステレオカメラにより撮影された距離画像を用いて特徴点を検出する技術については、公知のものを用いることができる。
特徴点の検出方法は、画像の各画素について、色や輝度変化が大きくなる点を検出できればよく、Harris作用素、又はSIFT作用素を用いる方法の他に、公知の技術を用いることができる。
画像特徴点検出部が特徴点の検出を行うのは、三次元画像において、二次元画像処理部において検出された物体の画像特徴に対応する領域のみであってもよい。
この場合、二次元画像により特定された物体の画像特徴に対応する領域において、特徴点を検出していることから、通常の三次元画像からの特徴点の抽出に比して、演算負荷を軽減でき、高速化が可能になる。
特徴量算出部は、三次元画像において前記領域にある特徴点における特徴量を算出し、パターンマッチング部は、三次元画像において前記領域にある前記特徴点の前記特徴量を用いてもよい。
◎認識対象である物体表面の点の集合及び各点を結んで構成される線分の集合によって定義される物体の幾何的特徴を表すモデルのデータを保存するステップ
◎物体が含まれる三次元画像を入力するステップ
◎三次元画像における特徴点を検出するステップ
◎特徴点と、特徴点に対して特定の幾何的条件を満たす補間点とにおける特徴量を算出するステップ
◎特徴量に基づいて、モデルのデータとの類似度を比較して物体の認識を行うステップ
この場合、CPU、ROM、RAMを備えるマイクロプロセッサにより、各ステップを備えるプログラムを実行することにより、サンプリング数の少ない特徴点から物体の認識を行うことができ、その結果、演算負荷を軽減できる。
図1は、物体認識装置を搭載する無人フォークリフトの説明図である。
無人フォークリフト2は、内部に設置された制御部(図示せず)の制御に基づいて自律走行可能な本体部21を備えている。
本体部21の前面には、上下移動可能に配置された1対のフォーク23,24を備えており、パレット3をリフトアップして搬送可能となっている。
さらに、本体部21は、物体認識装置22を備えている。物体認識装置22は、少なくとも本体部21の前方の画像情報を取得できるカメラ(詳細は後述する)を備えている。物体認識装置22は、カメラにより撮影された画像情報に基づく三次元画像から、認識対象であるパレット3を認識する。物体認識装置22のカメラをフォーク23,23の先端部に設けても良い。
物体認識装置22は、無人フォークリフト2に対向する面に形成された垂直面33〜35の特徴点を検出することによって、パレット3をその位置、形状及び大きさを含め認識・識別できる。
パレット3の上面には、物品が載置されている場合と物品が載置されていない場合があり、物体認識装置22は、そのいずれの場合にもパレット3を認識できるようにする。
物体認識装置22は、三次元画像入力部41と、画像特徴点検出部42と、特徴量算出部43と、パターンマッチング部44と、モデル保存部45とを備える。
三次元画像入力部41は、物体の三次元画像を入力する。例えば、三次元画像入力部41は、位置が異なる2つのカメラを有するステレオカメラを含んでいてもよく、その場合は、2つの二次元画像の視差により、二次元画像上の特徴点に距離データ処理がなされた距離画像を三次元画像として入力する。この他にも、TOFカメラ、又は距離センサで得られる距離データに基づいて生成される距離画像が、三次元画像として入力できる。
例えば、パターンマッチング部44は、画像特徴点検出部42により検出された特徴点のうちから、特定の幾何的関係にある1又は複数の特徴点対を抽出する。例えば、パレット3の垂直面33〜35が、床面と接するエッジに複数の特徴点がある場合、各垂直面33〜35上に位置する特徴点は、ほぼ直線上にあると考えられる。したがって、3点の特徴点の中央に位置する特徴点と他の2つの特徴点を結ぶ線分がほぼ180度の角度となる。また、パレット3が規格に合致するものであれば、3点の特徴点の距離は所定範囲となる。
したがって、パターンマッチング部44は、所定範囲の距離だけ離間し、各点を結ぶ線分がなす角度が所定範囲であれば、この3点の特徴点をマッチング候補点とする。さらに、パターンマッチング部44は、中央に位置する特徴点と、他の2つの特徴点との間の中間点を、それぞれパターンマッチングの候補点とする。パターンマッチング部44は、このようにして、パターンマッチングを行うためのマッチング候補点を選択することによって、特徴点のダウンサンプリングを行う。
モデル保存部45は、物体の幾何的特徴を表す二次元モデルのデータを保存する。二次元モデルのデータは、三次元画像に撮影された物体を認識する際に、物体の位置や姿勢を算出する際に用いられるものであり、例えば、点の集合及び各点を結んで構成される線分の集合によって定義される。具体的には、基本のモデルのデータは、1)特徴点3点の隣り合う点間の距離範囲、2)3点の両端の点間の距離範囲、3)3点の特徴点の間をなす角度範囲、4)各特徴点・補間点のFPFHヒストグラムの次元(角度)ごとの平均及び分散である。
また、二次元モデルのデータは、物体の三次元画像から得られる特徴点と、その特徴点の中間点における特徴量とすることもできる。この場合、特徴点を検出する方法は画像特徴点検出部42と同一の方法とし、各点の特徴量を算出する方法は、特徴量算出部43と同一の方法とする。
モデル保存部45は、EEPROM、RAM、ハードディスク、その他の記憶装置の所定の領域で構成される。
図3は、物体認識処理の概略構成を示すフローチャートである。
物体認識装置22は、CPU、ROM、RAMなどを含むマイクロプロセッサで構成される制御部が、所定のプログラムを実行することにより、画像情報から物体認識を行う。
ステップS301において、制御部は、二次元モデルのデータを保存する。制御部は、認識対象である物体表面の点の集合及び各点を結んで構成される線分の集合によって定義される二次元モデルのデータを、モデル保存部45に保存する。
また、パターンマッチング部44が、所定の幾何的条件を満たす所定数の特徴点をマッチング候補点として抽出し、さらに抽出された特徴点に対して特定の幾何的条件を満たす補間点を決定する。
特徴量算出部43は、マッチング候補点に関して、FPFHにより法線方向ヒストグラムを作成し、各点における特徴量を算出する。
三次元画像入力部41の具体例について、その一例を以下に説明する。
図4は、三次元画像入力部の一例を示すブロック図である。
図4に示す三次元画像入力部41は、ステレオカメラ51からの画像情報に基づいて、距離情報を有する三次元画像を生成する。
無人フォークリフト2に対する2つのカメラの位置及び向きに関するパラメータは、予め設定されており、物体認識装置1の所定の記憶領域に記憶されている。
二次元特徴点抽出部54は、2つの二次元画像情報のそれぞれについて、輝度情報に基づく二次元特徴点を検出する。また、パレット3の垂直面33〜35に、所定のパターンが形成されている場合には、この所定のパターンに沿って二次元特徴点を検出することもできる。この場合、二次元特徴点抽出部54は、2つの二次元画像情報を同一方向に追跡して、所定のパターンの外周の曲がり点を検出して、これを二次元特徴点とすることができる。
前述したステレオカメラ51を用いた場合には、2つの二次元画像の対応付け処理を行う必要があったが、TOFカメラにより撮影された画像情報を用いることで、処理コストを削減し、処理時間を削減してリアルタイム処理が可能となる。
画像特徴点検出部42において、入力される3次元画像情報から特徴点を検出する方法は、公知の方法を用いることができる。
例えば、SIFT作用素を用いた特徴点の検出方法では、拡大又は縮小を行った際に、形状が急激に変化するスケールの極値を利用する。
図5(a)に示すような、所定のパターンが形成された画像情報について、スケールσを変更してDoGフィルタの出力値を検出した特性図が、図5(b)である。
図示した例では、DoGフィルタの出力値が最も大きくなるスケールσの極値が、10.15程度であることがわかる。
画像特徴点検出部42は、図5(a)の画像情報上の特徴点の候補位置と、図5(b)で得られるスケールσとを決定する。
このことにより、画像特徴点検出部42は、スケール変化に対して、不変の特徴量をもつ特徴点を選択することができる。
図6では、垂直面33〜35及び差し込み口31〜32を含むパレット3の前面61に特徴点が多く現れている。特に、第1領域62及び第2領域63に示すように、パレット3が床面と接するエッジ部分であって、差し込み口31〜32の近傍に特徴点が多く現れる。
スケールを変えた場合や、画像を回転させて、SIFT特徴量の算出を行った結果、同様にして、パレット3が床面と接するエッジ部分に多くの特徴点が現れる。
Harris作用素を用いる特徴点の検出方法では、所定領域内の画像を微少シフトさせた場合に、輝度値差の二乗和(SSD:Sum of Squared Difference)が大きくなる点を検出する。
図7は、Harris特徴点の検出方法に関する説明図である。
画像70上に物体画像71が存在するとして、画像70上に設定される所定領域72を微少シフトさせる場合を考える。
図7(a)に示すように、所定領域72が物体画像71上に設定されている場合、画像70の微少シフトによる輝度値の変化が少ない。したがって、この場合には、どの方向に移動させても、特徴点を検出することは難しい。
また、図7(c)に示すように、所定領域72が物体画像71のコーナー付近に設定されている場合、画像70をいずれの方向に移動させても、輝度値の変化が大きくなる。したがって、認識対象である物体のコーナー位置を特徴点として検出できる。
図8では、垂直面33〜35及び差し込み口31〜32を含むパレット3の前面81に特徴点が多く現れる。特に、第1領域82、第2領域83、第3領域84に示すように、パレット3の垂直面33〜35が床面と接するエッジ部分に特徴点が多く現れる。
スケールを変えた場合や、画像を回転させて、Harris特徴量の算出を行った結果、同様にして、垂直面33〜35が床面と接するエッジ部分に多くの特徴点が現れる。
このことから、三次元画像情報から検出した特徴点のうちから、所定の幾何的条件を満たす特徴点のグループをマッチング候補点として抽出すれば、効率良くパターンマッチングを行うことができる。
パターンマッチング部44は、画像特徴点検出部42により検出された特徴点に基づいて、マッチング候補点の特徴量を二次元モデルのデータの特徴量と比較して、画像上の物体の認識・識別を行う。この画像特徴量検出処理〜パターンマッチング処理を以下に詳述する。
図9は、画像特徴量検出処理〜パターンマッチング処理のフローチャートである。図9では、三次元画像情報が入力された後の処理を示すものであり、図3のステップS303〜ステップS305に対応する処理を示す。
ステップS901において、画像特徴点検出部42は、三次元画像上の点群から特徴点を検出する。具体的には、画像特徴点検出部42が、Harris作用素を用いた特徴点の検出方法を用いて、三次元画像上の特徴点を抽出する。
前述したように、パレット3を撮影した3次元画像情報にHarris作用素を用いた特徴点の検出を行う場合、パレット3の前面下部に位置する3点を特徴点として抽出できる。
3つの特徴点は、それぞれ、パレット3の垂直面33〜35が床面と接するエッジに対応して現れる。したがって、3つの特徴点は、ほぼ直線上に並んで現われる。
このことから、第1特徴点と第2特徴点とを結ぶ線分と、第1特徴点と第3特徴点とを結ぶ線分とが、180度に近い角度範囲であるような3つの特徴点を抽出することで、パレット3の前面形状に対応する特徴点を抽出できる。
第1特徴点91と第2特徴点92との距離α1、第1特徴点91と第3特徴点93との距離α2、第2特徴点92と第3特徴点93との距離をβとする。また、第1特徴点91と第2特徴点92とを結ぶ線分94と、第1特徴点91と第3特徴点93とを結ぶ線分95とがなす角度をθとする。
このことから、距離α1、α2が340(mm)〜600(mm)の範囲、距離βが800(mm)〜1050(mm)の範囲という幾何的条件を設定できる。
このような幾何的条件を設定することにより、パレット3の参照パターンとパターンマッチングするための3つの特徴点を安定して抽出できる。
このような幾何的条件を適用することにより、図11に示すように、パレット3の垂直面33〜35の下端エッジに対応するマッチング候補点101〜103を抽出できる。
ただし、パレット3が存在していない第1領域105、第2領域106においても、同様の特徴を有するマッチング候補が存在している。
第1領域105及び第2領域106に存在するマッチング候補を排除するためには、特徴点に対して特定の幾何的条件を満たす補間点を設定する。
ステップS903において、パターンマッチング部44は、マッチング候補として抽出された特徴点に基づいて、特徴点に対して特定の幾何的条件を満たす補間点を決定する。
図12では、図1におけるパレット3を撮影した画像をパレット111として示し、垂直面33〜35に対応する画像を垂直面112〜114として示す。
図12に示す画像では、床面110上にパレット111が載置されており、パレット111の前面に垂直面112,113,114を有している。この垂直面112,113,114と、床面110の一部により形成される折れ曲がった折曲面に対応する第1領域115,第2領域116,第3領域117が存在している。特徴点118,119,120は、第1領域115,第2領域116,第3領域117において、垂直面112,113,114と床面110とが接する位置に現れる。
制御部は、特徴点118,119,120と、補間点123,124とをマッチング候補点として抽出する。
図13に示すように、対象となる特徴点Psに対して、近傍点Pk1〜Pk5、P6〜P11を設定する。
図14に示すように、特徴点Psの法線nsと、近傍点Ptの法線ntとの3次元座標u,v,wに対する角度差α、φ、θを求める。
特徴点Psの法線nsと、11個の近傍点Ptの法線ntとの角度差α、φ、θにより、180度を11分割したヒストグラムを3つ並べて、33次元のヒストグラムを構成する。
前述したようにしてFPFHによる特徴量をグラフ化すると、図15に示すように、角度差α、φ、θについて、頻度(%)が縦軸に現れる。
このようにして、制御部は、マッチング候補点として抽出した特徴点118,119,120と、補間点123,124とにおけるFPFH特徴量を算出する。
FPFH特徴量を用いたパターンマッチングを行う場合、認識対象である物体の撮影した画像に基づいて、FPFH特徴量を予め算出して、これを二次元モデルのデータとしてモデル保存部45に記載する。
図16は、マッチング候補点のFPFH特徴量の説明図である。
図16(a)は、パレット3の前面における中心に位置する特徴点119のFPFH特徴量を示している。特徴点119では、パレット3の前面中央に位置していることから、近傍点との法線方向の角度差が安定している。
図16(b)は、パレット3の前面における左右に位置する特徴点118,120のFPFH特徴量を示している。特徴点118,120では、パレット3の側面にある特徴点の影響を受けて、近傍点との法線方向の角度差が安定しておらず、角度差θに対応する右側のグラフにおける分散値が大きくなっている。
図16(c)は、角がない平面に位置する補間点123,124のFPFH特徴量であって、角度差φに対応する中央のグラフにおけるバラツキが小さくなっている。
ステップS906において、パターンマッチング部44は、マッチング候補点の特徴量と、二次元モデルの特徴量とを照合する。具体的には、読み出された二次元モデルのFPFH特徴量と、特徴量算出部43により算出されたマッチング候補点のFPFH特徴量との差分を算出し、差分の最も小さいマッチング候補点のグループを選択する。
また、特徴点に対して、所定の幾何的条件を満たす補間点をマッチング候補点として設定しているので、パターンマッチングの精度を向上できる。
物体認識装置(例えば、物体認識装置22)は、モデル保存部(例えば、モデル保存部45)と、三次元画像入力部(例えば、三次元画像入力部41)と、画像特徴点検出部(例えば、画像特徴点検出部42)と、特徴量算出部(例えば、特徴量算出部43)と、パターンマッチング部(例えば、パターンマッチング部44)とを備える。モデル保存部(モデル保存部45)は、認識対象である物体表面の点の集合及び各点を結んで構成される線分の集合によって定義される物体(例えば、パレット3)の幾何的特徴を表すモデルのデータを保存する。三次元画像入力部(三次元画像入力部41)は、物体が含まれる三次元画像を入力する。画像特徴点検出部(画像特徴点検出部42)は、三次元画像における特徴点(例えば、特徴点118,119,120)を検出する。特徴量算出部(特徴量算出部43)は、三次元画像上の各点における特徴量(例えば、FPFH特徴量)を算出する。パターンマッチング部(パターンマッチング部44)は、画像特徴点検出部(画像特徴点検出部42)で検出された特徴点(特徴点118,119,120)と、特徴点(特徴点118,119,120)に対して特定の幾何的条件(特徴点の中間点)を満たす補間点(補間点123,124)とにおける特徴量に基づいて、モデルのデータとの類似度を比較することで物体の認識を行う。
物体の形状によっては、モデル上の特徴点ではない点に、物体の特徴を表す点が出現する場合がある。このような点を、特徴点と特定の幾何的条件を満たす補間点とすることで、パターンマッチングを行う際の特徴点のダウンサンプリングが可能となり、その結果、背景に存在する他の特徴点と識別して、物体の認識を確実に行うことができる。また、これにより、パターンマッチング処理の演算負荷を軽減できる。
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、発明の要旨を逸脱しない範囲で種々の変更が可能である。特に、本明細書に書かれた複数の実施形態及び変形例は必要に応じて任意に組み合せ可能である。
画像特徴点検出部42は、三次元画像に対して、二次元画像処理部によって絞られたパレットの画像特徴に対応する領域について、特徴点を検出する。この場合、二次元画像により特定された物体の画像特徴に対応する領域において特徴点を検出していることから、通常の三次元画像からの特徴点の抽出に比して演算負荷を軽減でき、高速化が可能になる。
特徴量算出部43は、三次元画像において前記領域にある特徴点における特徴量を算出する。パターンマッチング部44は、三次元画像において前記領域にある特徴点の特徴量を用いる。
なお、二次元画像を取得するカメラは、三次元画像を取得するカメラと別に設けられていてもよい。
3 パレット
21 本体部
22 物体認識装置
31 差し込み口
32 差し込み口
33 垂直面
34 垂直面
35 垂直面
41 三次元画像入力部
42 画像特徴点検出部
43 特徴量算出部
44 パターンマッチング部
45 モデル保存部
51 ステレオカメラ
52 フレームメモリ
53 画像バス
54 二次元特徴点検出部
55 対応付け処理部
56 座標算出部
61 前面
62 第1領域
63 第2領域
70 画像
71 物体画像
72 所定領域
73 床面
74 物体
75 コーナー
76 所定領域
81 前面
82 第1領域
83 第2領域
84 第3領域
91 第1特徴点
92 第2特徴点
93 第3特徴点
110 床面
111 パレット
112 垂直面
113 垂直面
114 垂直面
115 第1領域
116 第2領域
117 第3領域
118 特徴点
119 特徴点
120 特徴点
121 第4領域
122 第5領域
123 補間点
124 補間点
Claims (12)
- 認識対象である物体表面の点の集合及び各点を結んで構成される線分の集合によって定義される物体の幾何的特徴を表すモデルのデータを保存するモデル保存部と、
前記物体が含まれる三次元画像を入力する三次元画像入力部と、
前記三次元画像における特徴点を検出する画像特徴点検出部と、
前記三次元画像上の各点における特徴量を算出する特徴量算出部と、
前記画像特徴点検出部で検出された特徴点と、前記特徴点に対して特定の幾何的条件を満たす補間点とをパターンマッチングのためのマッチング候補点のグループとし、各グループに含まれるマッチング候補点の特徴量に基づいて、前記モデルのデータとの類似度を比較することで前記物体の認識を行うパターンマッチング部と、
を備える物体認識装置。 - 前記パターンマッチング部は、前記画像特徴点検出部で検出された特徴点から、所定の幾何的条件を満たす所定数の特徴点を前記マッチング候補点として抽出する、請求項1に記載の物体認識装置。
- 前記補間点は、1対又は複数対の特徴点の中間点である、請求項1又は2に記載の物体認識装置。
- 前記パターンマッチング部は、前記特徴量算出部が前記マッチング候補点のそれぞれについて作成されるヒストグラムに基づいて、前記物体の認識を行う、請求項1〜3のいずれかに記載の物体認識装置。
- 前記特徴量算出部は、FPFH(First Point Feature Histogram)により記述されるヒストグラムを作成する、請求項4に記載の物体認識装置。
- 前記物体は、3個の特徴点を有するパレットであり、
前記所定の幾何的条件を満たす所定数の特徴点とは、3個の特徴点の特徴点のなす角度が所定範囲内である3個の特徴点である、請求項2又は3に記載の物体認識装置。 - 前記三次元画像入力部は、TOF(Time Of Flight)カメラ、又はステレオカメラを有する、請求項1〜6のいずれかに記載の物体認識装置。
- 前記画像特徴点検出部は、Harris処理、又はSIFT(Scale Invariant Feature Transform)処理することにより、前記特徴点を検出する、請求項1〜7のいずれかに記載の物体認識装置。
- 前記三次元画像とほぼ同一視点で撮影された前記物体を含む二次元画像を入力する二次元画像入力部と、
前記二次元画像における前記物体の画像特徴を検出する二次元画像処理部と、
をさらに備えている、請求項1〜8のいずれかに記載の物体認識装置。 - 前記画像特徴点検出部が前記特徴点の検出を行うのは、前記三次元画像において、前記二次元画像処理部において検出された前記物体の画像特徴に対応する領域のみである、請求項9に記載の物体認識装置。
- 前記特徴量算出部は、前記三次元画像において前記領域にある前記特徴点における特徴量を算出し、
前記パターンマッチング部は、前記三次元画像において前記領域にある前記特徴点の前記特徴量を用いる、請求項10に記載の物体認識装置。 - 認識対象である物体表面の点の集合及び各点を結んで構成される線分の集合によって定義される物体の幾何的特徴を表すモデルのデータを保存するステップと、
物体が含まれる三次元画像を入力するステップと、
前記三次元画像における特徴点を検出するステップと、
前記特徴点と、前記特徴点に対して特定の幾何的条件を満たす補間点とにおける特徴量を算出するステップと、
前記特徴量に基づいて、前記モデルのデータとの類似度を比較して物体の認識を行うステップと、
を備える物体認識方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014109325A JP6369131B2 (ja) | 2014-05-27 | 2014-05-27 | 物体認識装置及び物体認識方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014109325A JP6369131B2 (ja) | 2014-05-27 | 2014-05-27 | 物体認識装置及び物体認識方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015225453A true JP2015225453A (ja) | 2015-12-14 |
JP6369131B2 JP6369131B2 (ja) | 2018-08-08 |
Family
ID=54842157
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014109325A Active JP6369131B2 (ja) | 2014-05-27 | 2014-05-27 | 物体認識装置及び物体認識方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6369131B2 (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017151650A (ja) * | 2016-02-23 | 2017-08-31 | 村田機械株式会社 | 物体状態特定方法、物体状態特定装置、および、搬送車 |
JP2017151652A (ja) * | 2016-02-23 | 2017-08-31 | 村田機械株式会社 | 物体状態特定方法、物体状態特定装置、および、搬送車 |
JP2017178567A (ja) * | 2016-03-30 | 2017-10-05 | 株式会社豊田中央研究所 | フォークリフト |
JP2017201493A (ja) * | 2016-05-06 | 2017-11-09 | 村田機械株式会社 | 柱状物体認識方法、柱状物体認識装置および無人走行車 |
CN109543705A (zh) * | 2017-09-22 | 2019-03-29 | 欧姆龙株式会社 | 模板创建装置及方法、物体识别处理装置以及记录介质 |
JP2020023397A (ja) * | 2018-08-07 | 2020-02-13 | 住友ナコ フォ−クリフト株式会社 | 搬送装置 |
CN111382776A (zh) * | 2018-12-26 | 2020-07-07 | 株式会社日立制作所 | 物体识别装置以及物体识别方法 |
CN113196337A (zh) * | 2019-01-09 | 2021-07-30 | 株式会社富士 | 图像处理装置、作业机器人、基板检查装置及检体检查装置 |
CN113673276A (zh) * | 2020-05-13 | 2021-11-19 | 广东博智林机器人有限公司 | 目标物体识别对接方法、装置、电子设备及存储介质 |
JP7569225B2 (ja) | 2021-01-21 | 2024-10-17 | 住友重機械工業株式会社 | 荷取支援装置、搬送装置、荷取支援方法及び荷取支援プログラム |
KR102728969B1 (ko) * | 2022-10-21 | 2024-11-13 | 포테닛 주식회사 | 팔레트 홀 검출장치 및 방법 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230168516A (ko) * | 2022-06-07 | 2023-12-14 | 현대자동차주식회사 | 스마트 물류 차량 및 그 제어 방법 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011198130A (ja) * | 2010-03-19 | 2011-10-06 | Fujitsu Ltd | 画像処理装置及び画像処理プログラム |
-
2014
- 2014-05-27 JP JP2014109325A patent/JP6369131B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011198130A (ja) * | 2010-03-19 | 2011-10-06 | Fujitsu Ltd | 画像処理装置及び画像処理プログラム |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017151652A (ja) * | 2016-02-23 | 2017-08-31 | 村田機械株式会社 | 物体状態特定方法、物体状態特定装置、および、搬送車 |
US10163225B2 (en) | 2016-02-23 | 2018-12-25 | Murata Machinery, Ltd | Object state identification method, object state identification apparatus, and carrier |
US10347005B2 (en) | 2016-02-23 | 2019-07-09 | Murata Machinery, Ltd. | Object state identification method, object state identification apparatus, and carrier |
JP2017151650A (ja) * | 2016-02-23 | 2017-08-31 | 村田機械株式会社 | 物体状態特定方法、物体状態特定装置、および、搬送車 |
JP2017178567A (ja) * | 2016-03-30 | 2017-10-05 | 株式会社豊田中央研究所 | フォークリフト |
JP2017201493A (ja) * | 2016-05-06 | 2017-11-09 | 村田機械株式会社 | 柱状物体認識方法、柱状物体認識装置および無人走行車 |
CN109543705B (zh) * | 2017-09-22 | 2023-05-12 | 欧姆龙株式会社 | 模板创建装置及方法、物体识别处理装置以及记录介质 |
CN109543705A (zh) * | 2017-09-22 | 2019-03-29 | 欧姆龙株式会社 | 模板创建装置及方法、物体识别处理装置以及记录介质 |
JP7300646B2 (ja) | 2018-08-07 | 2023-06-30 | 住友ナコ フォ-クリフト株式会社 | 搬送装置 |
JP2020023397A (ja) * | 2018-08-07 | 2020-02-13 | 住友ナコ フォ−クリフト株式会社 | 搬送装置 |
CN111382776A (zh) * | 2018-12-26 | 2020-07-07 | 株式会社日立制作所 | 物体识别装置以及物体识别方法 |
CN113196337A (zh) * | 2019-01-09 | 2021-07-30 | 株式会社富士 | 图像处理装置、作业机器人、基板检查装置及检体检查装置 |
CN113196337B (zh) * | 2019-01-09 | 2023-08-29 | 株式会社富士 | 图像处理装置、作业机器人、基板检查装置及检体检查装置 |
CN113673276A (zh) * | 2020-05-13 | 2021-11-19 | 广东博智林机器人有限公司 | 目标物体识别对接方法、装置、电子设备及存储介质 |
JP7569225B2 (ja) | 2021-01-21 | 2024-10-17 | 住友重機械工業株式会社 | 荷取支援装置、搬送装置、荷取支援方法及び荷取支援プログラム |
KR102728969B1 (ko) * | 2022-10-21 | 2024-11-13 | 포테닛 주식회사 | 팔레트 홀 검출장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
JP6369131B2 (ja) | 2018-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6369131B2 (ja) | 物体認識装置及び物体認識方法 | |
US9635346B2 (en) | Autonomous vehicle, and object recognizing method in autonomous vehicle | |
US10347005B2 (en) | Object state identification method, object state identification apparatus, and carrier | |
US8947508B2 (en) | Image processing apparatus | |
KR101917515B1 (ko) | 물체 인식 장치, 물체 인식 방법 및 프로그램 | |
JP6649796B2 (ja) | 物体状態特定方法、物体状態特定装置、および、搬送車 | |
EP3563345B1 (en) | Automatic detection, counting, and measurement of lumber boards using a handheld device | |
US20140177915A1 (en) | Method and apparatus for detecting object | |
US9020251B2 (en) | Image processing apparatus and method | |
CN107388960A (zh) | 一种确定物体体积的方法及装置 | |
US9576363B2 (en) | Object picking system, object detecting device, object detecting method | |
KR102073468B1 (ko) | 비전 시스템에서 컬러 이미지에 대해 컬러 후보 포즈들의 점수화를 위한 시스템 및 방법 | |
KR20160003776A (ko) | 자세 추정 방법 및 로봇 | |
Wang et al. | Edge extraction by merging 3D point cloud and 2D image data | |
CN104268853A (zh) | 一种红外图像与可见光图像配准方法 | |
US11216905B2 (en) | Automatic detection, counting, and measurement of lumber boards using a handheld device | |
Sansoni et al. | Optoranger: A 3D pattern matching method for bin picking applications | |
Varga et al. | Vision-based autonomous load handling for automated guided vehicles | |
JP6526527B2 (ja) | 識別装置及び認証システム | |
CN116309882A (zh) | 一种面向无人叉车应用的托盘检测和定位方法及系统 | |
CN113128346B (zh) | 起重机施工现场的目标识别方法、系统、装置及存储介质 | |
US20150063637A1 (en) | Image recognition method and robot | |
Srikakulapu et al. | Depth estimation from single image using defocus and texture cues | |
KR101717222B1 (ko) | 시선 검출 시스템 및 그 방법 | |
US10140509B2 (en) | Information processing for detection and distance calculation of a specific object in captured images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180306 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180612 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180625 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6369131 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |