[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6144976B2 - 情報処理装置、組み付け装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、組み付け装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP6144976B2
JP6144976B2 JP2013134202A JP2013134202A JP6144976B2 JP 6144976 B2 JP6144976 B2 JP 6144976B2 JP 2013134202 A JP2013134202 A JP 2013134202A JP 2013134202 A JP2013134202 A JP 2013134202A JP 6144976 B2 JP6144976 B2 JP 6144976B2
Authority
JP
Japan
Prior art keywords
region
measurement
captured image
irradiated
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013134202A
Other languages
English (en)
Other versions
JP2015010844A (ja
JP2015010844A5 (ja
Inventor
英 大野
英 大野
山本 貴久
貴久 山本
優和 真継
優和 真継
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013134202A priority Critical patent/JP6144976B2/ja
Priority to US14/310,349 priority patent/US9714829B2/en
Publication of JP2015010844A publication Critical patent/JP2015010844A/ja
Publication of JP2015010844A5 publication Critical patent/JP2015010844A5/ja
Application granted granted Critical
Publication of JP6144976B2 publication Critical patent/JP6144976B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Multimedia (AREA)

Description

本発明は、情報処理装置、制御装置、組み付け装置、情報処理方法、及びプログラムに関する。
物体までの距離を計測する方法として、スリット光や二次元パターン光等を物体に照射した状態で物体の画像を撮像し、三角測量の原理に基づいて距離の計測を行う、アクティブ計測方式が知られている。特許文献1には、照明パターンを複数の方向から照射することができる計測装置が開示されている。特許文献1の方法によれば、所定の方向から照明パターンを照射している場合には画像の輝度が飽和する場合であっても、他の方向から照明パターンを照射することにより、十分なコントラストを有する画像に基づいて距離を計測することかできる。
特許文献2には、光源により照明されている物体の画像と、光源により照明されていない物体の画像と、パターン光が照射されている物体の画像とを用いて、物体の表面反射率や外光の影響を補正しながら物体までの距離を計測する方法が開示されている。
特許第4077754号 特許第3884321号
しかしながら、従来技術によっても、測定対象物体の性質により距離の計測が困難な場合がある。例えば、測定対象物体が白色又は金属製の高反射素材と、黒色の低反射素材との双方を含む場合がある。この場合、高反射素材によって光は強く反射され、低反射素材によって光は弱く反射される。したがって、従来の方法で照明パターンを照射した場合、撮像画像のうち高反射素材に対応する部分で輝度値が飽和するか、又は低反射素材に対応する部分で輝度値が不足する可能性がある。この場合、照明パターンの検出位置にずれが生じるか、又は照明パターンを検出できないために、高反射素材と低反射素材との双方について同時に距離を正確に計測できないことがある。
また、測定対象物体が、照明装置に近い部分と遠い部分とを含んでいる場合も、同様の問題が生じうる。さらに、測定対象物体が色の異なる部分を含む場合にも同様の問題が生じうる。例えば、測定対象物品が赤い部分と青い部分とを含む場合、赤い照明パターンを照射した場合には青い部分からの反射光が弱く、青い照明パターンを照射した場合には赤い部分からの反射光が弱くなる。
一方で、これまで人間が行っていた複雑なタスク、例えば工業製品の組み立て等をロボットに行わせることが多くなっている。ロボットは、ハンド等のエンドエフェクタによって部品を把持し、把持している把持部品を組み付け対象まで移動し、把持部品を組み付け対象に組み付ける。ここで、ロボットハンド等が把持している把持部品を組み付け対象に組み付けるためには、把持部品と組み付け対象の正確な位置関係をロボットに教示する必要がある。このような位置関係を取得するためにアクティブ計測方式を用いる場合、把持部品と組み付け対象との双方に照明光を照射する必要があるが、上述のように同時に2つの測定対象の距離を正しく計測できない場合がある。
本発明は、以上の問題に鑑みてなされたものであり、距離測定対象を構成する複数の部分について同時により正確に距離を測定することを目的とする。
本発明の目的を達成するために、例えば、本発明の情報処理装置は以下の構成を備える。すなわち、
距離測定のための測定パターンを測定対象に照射する照射手段と、
前記測定パターンが照射されている前記測定対象を含む撮像画像を取得する撮像手段と、
前記撮像手段が取得する撮像画像のうち、相対的に多くの光を前記撮像手段へと反射する前記測定対象の第1部分を含む第1領域と、相対的に少ない光を前記撮像手段へと反射する前記測定対象の第2部分を含む第2領域と、を検出する第1の検出手段と、
前記測定パターンのうち、前記第1部分に照射される第領域と、前記第2部分に照射される第領域と、を検出する第2の検出手段と、
前記第領域における照射光量が、前記第領域における照射光量より少なくなるように、領域により照射光量が異なる測定パターンを生成する生成手段と、
前記生成された測定パターンを前記照射手段に照射させる指示手段と、
前記生成された測定パターンが照射された前記測定対象を含む撮像画像を前記撮像手段から取得し、該取得した撮像画像を用いて前記測定対象までの距離を導出する導出手段と、
を備え
前記第1の検出手段は、予備測定パターンが照射された前記測定対象を含む撮像画像から、前記第1領域と前記第2領域とを検出し、
前記生成手段は、前記第3領域における照射光量を少なくすることと、前記第4領域における照射光量を多くすることと、のうちの少なくとも一方を行うように、前記予備測定パターンを修正することにより、前記測定パターンを生成することを特徴とする。
距離測定対象を構成する複数の部分について同時により正確に距離を測定できる。
実施形態1に係る組み付け装置の構成の一例を示す図。 実施形態1に係る組み付け装置を用いた組み付けシステムの一例を示す図。 実施形態1に係る処理の一例のフローチャート。 実施形態1で参照される画像輝度と照明強度との対応関係の一例を示す図。 実施形態2で参照される画像輝度と照明強度との対応関係の一例を示す図。 実施形態4により距離を測定できる測定対象の例を示す図。 実施形態4に係る処理の一例のフローチャート。 実施形態4に係る処理の一例のフローチャート。
[実施形態1]
以下で、本発明の実施形態1について説明する。本実施形態に係る組み付け装置13は、図1に示すように、計測装置12と、ロボットハンド機構131(把持装置)とを備える。ロボットハンド機構131は、ロボットハンドと、ロボットハンドを制御する制御装置とを備える。ロボットハンド機構131の制御装置は、計測装置12から取得した距離情報を参照しながら、ロボットハンドが把持する物体(把持部品)を組み付け対象の物体に組み付けるようにロボットハンドを制御する。計測装置12は、ロボットハンド機構131に、把持部品又は組み付け対象(以下、測定対象と呼ぶ)についての距離情報を提供する。すなわち、把持部品及び組み付け対象は、測定対象の一部である。
計測装置12は、照射装置11と距離算出部121とを有している。照射装置11は、距離測定のための照明パターン(測定パターン)を測定対象に照射する。距離算出部121は、照射装置11が照射した照明パターンの情報と取得した画像情報とに基づいて、照射装置11の位置を基準とした測定対象の表面の各点までの距離を判定する。より正確には、距離算出部121は、後述する照射部111又は撮像部112の位置を基準とした距離を判定する。例えば計測装置12は、把持部品又は組み付け対象までの距離を判定することができる。もっとも、計測装置12が照射部111及び撮像部112を有している必要はない。計測装置12は情報処理装置10と距離算出部121とを有し、照射部111及び撮像部112に通信可能に接続されていてもよい。
距離の算出方法としては、従来の方法を用いることができる。本実施形態においては、三角測量の原理を用いて距離を測定するものとする。三角測量は、照射装置11が有する照射部111及び撮像部112(正確には照射部111及び撮像部112の光点)と、測定対象上の1点と、を頂点とする三角形に基づいて行われる。具体的には、照射部111と撮像部112とを結ぶ線分を基線として、基線と、測定対象上の点との角度を求める。角度を求める際には、照射部111が照射した照明パターンと、撮像部112が撮像した撮像画像との対応関係が参照される。この基線の長さと角度とを用いて、撮像部112から、すなわち視点位置から測定対象上の点までの距離を算出する。三角測量においては、照射部111及び撮像部112についての内部パラメータと、照射部111と撮像部112との間の相対的な位置及び姿勢を示す情報と、に基づいて計算が行われる。
照射装置11は、情報処理装置10、照射部111、及び撮像部112を備える。照射部111は、後述する照明パターン生成部115によって生成された照明パターンを測定対象に照射する。本実施形態において照射部111は、色成分毎に照明パターンの強度分布を制御しながら照射を行ってもよい。照射部111の具体的な構成については特に限定されないが、例えば液晶プロジェクタを照射部111として用いることができる。液晶プロジェクタは、照明パターンの表示色及び強度を画素単位で制御することができる。液晶プロジェクタの内部パラメータ(例えば、焦点距離、主点位置、又はレンズ歪み等)は、予め校正しておくことができる。照射部111としては、例えばデジタルミラーデバイスを備えるプロジェクタを用いることもできる。
撮像部112は、照射部111により照明パターンが照射されている測定対象の画像、又は照明パターンを照射されていない測定対象の画像を取得する。撮像部112の具体的な構成については特に限定されないが、例えばデジタルカメラ等の撮像素子を備える撮像装置を撮像部112として用いることができる。照射装置11は、撮像部112の代わりに又はこれに加えて、予め記憶装置に記憶してある静止画像又は動画像を読み出す画像取得部(不図示)を有していてもよい。この場合、画像取得部によって読み出された画像が後述する対応関係取得部113及び画像分割部116に入力される。
情報処理装置10は、対応関係取得部113、強度分布決定部114、照明パターン生成部115、及び画像分割部116を備える。対応関係取得部113は、照射部111によって照射された照明パターン内の各位置と、撮像部112が取得する撮像画像の各画素と、の対応関係を取得する(第2の検出)。もっとも、後述するように、この対応関係は照明パターン内の各位置に対応する撮像画像の1つの画素を特定するものである必要はない。例えば、この対応関係は、照明パターン内の各位置に対応する、撮像画像内の分割領域を特定する情報であってもよい。
以下の説明においては、照明パターン内の各位置とは、照明パターンを示す照明パターン画像の各画素のことを意味するものとする。本実施形態においては照射部111として液晶プロジェクタが用いられ、したがって照明パターン内の各位置とは液晶プロジェクタが備える液晶フィルタの各画素のことを意味する。すなわち、本実施形態で対応関係取得部113は、液晶プロジェクタの液晶フィルタの画素と、撮像部112が取得した画像内の画素との対応関係を取得する。
本実施形態において用いられる照明パターンは、照明パターン中の各位置を特定可能な符号情報を含んでいる。具体的な一例として、本実施形態においては格子パターンが測定対象に照射される。対応関係取得部113は、格子パターンが照射されている状態の画像を撮像部112から取得する。そして、対応関係取得部113はこの画像から格子パターンを抽出し、各格子点に埋め込まれた符号情報を抽出する。さらに、対応関係取得部113は、抽出した符号情報に基づいて、画像上の符号情報が埋め込まれている部分が照射された格子パターンのどの位置に対応するかを調べる。こうして、対応関係取得部113は、照射部111から照射した照明パターン中の各位置と、撮像された画像上の各画素との対応関係を取得する。そして対応関係取得部113は、取得した対応関係を示す対応位置情報を保持する。
照明パターンは格子パターンに限定されるわけではない。撮像された画像中の部分領域と照明パターンの位置とを対応付けることができ、領域ごとに照明強度を変化させても距離計測が可能であれば、どのような照明パターンを用いてもよい。例えば、照明パターンとしてはマルチスリット光を用いることもできるし、空間変調されたパターン光を用いることもできる。
画像分割部116は、撮像部112から取得した画像を画像の輝度に基づいて複数の領域に分割する。本実施形態において画像分割部116は、ロボットハンド機構131が把持する把持部品を含む領域と、把持部品を組み付ける組み付け対象を含む領域と、に分割する(第1の検出)。そして画像分割部116は、それぞれの領域の位置を示す情報を保持する。しかしながら、領域の分割方法はこれに限定されず、たとえば3つ以上に領域を分割してもよい。この場合、3つ以上の分割領域のそれぞれについて照射強度が決定されうる。
強度分布決定部114は、画像分割部116で分割した領域毎に、照射する照明パターンの強度分布を決定する。具体的には、強度分布決定部114は、撮像部112から取得した画像の輝度に基づいて、照明パターンのそれぞれの画素の強度を決定する。この際、強度分布決定部114は、画像の輝度と照明パターンの強度との対応関係を示す情報を参照して、照明パターンの強度を決定する。この対応関係は、事前に作成されており、その作成方法については後述する。以下の説明においては、照明パターンのそれぞれの画素の強度のことを単に「強度」と省略することがある。
照明パターンの強度とは、具体的には、照明パターンとして各画素がON/OFFのいずれかであるパターンを用いる場合における、ONの画素の画素値でありうる。また、照明パターンとして多値のパターンを用いる場合には、照明パターンの強度とは、多値のうち最大の値に対応する画素値でありうる。また、照明パターンの強度は、上述のように照明パターンの各画素の画素値を決定するために用いられうる。一方で、符号情報が埋め込まれた照明パターンを用いる場合、照明パターンの強度がそれぞれの符号情報について決定され、符号情報を含む部分領域の画素値を決定するために照明パターンの強度が用いられてもよい。
照明パターン生成部115は、対応関係取得部113から取得した対応関係と、強度分布決定部114が決定した強度分布とに従って、照明パターンを生成する。照明パターン生成部115が生成した照明パターンに従って、照射部111は照明を測定対象に照射する。
組み付け装置13を使用した組み付けシステム21の概要を図2(A)に示す。組み付けシステム21によれば、ロボットハンド202を制御して、把持部品203を組み付け対象204に組み付けことができる。以下に、組み付けシステム21の動作方法について説明する。まず、ロボットハンド202の把持部206が部品箱205の上に移動する。次に、把持部206は部品箱205から1つの把持部品203を把持する。把持状態を保ったまま、把持部206は組み付け対象204まで移動し、組み付け対象204に把持部品203を組み付ける。この動作を繰り返し行うことにより、1つの組み付け対象204に複数の部品を組み付けることができる。
ロボットハンド202は、オンハンド3次元計測装置201を有している。オンハンド3次元計測装置201は、上述した計測装置12の照射部111及び撮像部112と、ロボットハンド202への取り付け部を備える。前述の部品把持から組み付けまでの一連の動作を監視するために、照射部111及び撮像部112と、これらと通信可能に接続された情報処理装置10とを用いて、任意のタイミングで距離計測が行われる。
図2(B)は、撮像部112が撮像する画像の一例を示す。撮像部112は、把持部品203(第1部分、第1物体)と組み付け対象204(第2部分、第2物体)とを同時に撮像する。図2(B)においては、把持部品203は白い部品であり、組み付け対象204は主に黒い部品で構成されているものとする。図2(B)において、把持部品203から3次元計測装置201までの距離は、組み付け対象204から3次元計測装置201までの距離と比較して相対的に短い。このために、把持部品203はより多くの光を撮像部112へと反射し、組み付け対象204は把持部品203より少ない光を撮像部112へと反射する。
この場合に照明パターンを照射すると、把持部品203に照射された照明パターンの照度は、組み付け対象204に照射された照明パターンの照度と比べて相対的に高くなる。このために、撮像部112が撮像した画像において、把持部品203の領域で輝度が飽和するか、組み付け対象204の領域で輝度が不足する可能性がある。特にこの場合においては、把持部品203が白い部品であり、組み付け対象204が黒い部品であるから、輝度の飽和又は不足が発生しやすく、適切に照明パターンを検出できない画像が取得される可能性が高い。
本実施形態においては、画像が把持部品を含む把持部品領域(第1領域)と組み付け対象を含む組み付け対象領域(第2領域)、又は高反射率領域と低反射率領域に分割される。そして、それぞれの領域に対して、明るさや波長等の光学的特性が異なる照明パターンが照射される。例えば、把持部品203に照射される領域(第1領域)における照射光量が、組み付け対象204に照射される領域(第2領域)における照射光量よりも弱くなるように、領域により照射光量(照明強度)が異なる測定パターンが生成される。これにより、把持部品203及び組み付け対象204の双方(測定対象)について適正な画像を取得し、適切に照明パターンを検出することにより、把持部品203と組み付け対象204とについて同時に距離計測を行うことが可能となる。
また、本実施形態によれば、領域分割位置と照明パターンとを把持部品203の形状又は把持状態等に応じて適応的に変化させることができる。このため、把持する部品が変わった場合や部品の把持位置がずれた場合でも、把持部品203と組み付け対象204とについて同時に正確な距離計測を行うことが可能となる。もちろん、把持部品203が組み付け対象204と比べてより少ない光を撮像部112へと反射する場合であっても、本実施形態の方法を同様に用いることができる。
以下で、図3を参照して情報処理装置10が行う処理について説明する。以下の説明においては、情報処理装置10は図2(A)に示す組み付けシステム21を制御するものとする。
ステップS1010において撮像部112は、測定対象を含む画像を撮像する。そして画像分割部116は、撮像した画像について領域分割処理を行うことにより、領域分割マップを作成する。具体的には画像分割部116は、撮像画像から把持部品203の領域を抽出する。そして、抽出結果に基づいて画像分割部116は領域分割マップを生成する。領域分割マップにおいては、各画素について、どの分割領域に属するかを示すラベルが特定される。
以下では、画像分割部116による領域分割方法について説明する。まず、ロボットハンド機構131は、撮像部112からみて把持部品203が基準背景の前方に位置するように、把持部品203を把持しているロボットハンド202を移動させる。基準背景は、通常、反射率が均一な平面素材で構成される平坦な背景である。撮像画像から把持部品203の領域と背景の領域とを後述するようにコンピュータが区別可能であれば、基準背景の種類は特に限定されない。例えば、組み付け対象204が基準背景に含まれていてもよい。
続いて撮像部112は、把持部品203を把持しているロボットハンド202及び把持部品203を基準背景を背景として撮像することにより、撮像画像を取得する。さらに画像分割部116は、基準背景を背景として、把持部品203を把持していないロボットハンド202を撮像することによって得られた撮像画像を記憶部(不図示)から取得する。この撮像画像は、撮像部112によって予め撮像されている。そして、画像分割部116は、把持部品203を把持している状態の撮像画像と、把持部品203を把持していない場合の撮像画像との差分に基づいて、把持部品203を把持している状態の撮像画像から、把持部品203の領域を抽出する。抽出方法は特に限定されない。例えば、画像分割部116は、2つの画像の差分画像を、所定の画素値を閾値として用いて2値化し、メディアンフィルタ等を用いてノイズを除去することにより、把持部品203の領域を抽出することができる。
こうして得られた把持部品203の領域を把持部品領域と呼ぶ。また、撮像画像のうち把持部品203以外の領域を背景領域と呼ぶ。そして、画像分割部116は、把持部品領域の画素にはラベル「1」が付され、背景領域の画素にはラベル「0」が付されている、領域分割マップを生成する。本実施形態において撮像部112はロボットハンド202に取り付けられている。したがって、ロボットハンド202が把持部品203を離してから再び把持すること等によって、撮像部112と把持部品203との相対位置が変化しない限り、撮像部112による撮像画像において把持部品203は同じ位置に映っている。例えば、把持部品203がロボットハンド202によって組み付け対象204近傍に移動された場合であっても、撮像部112による撮像画像において把持部品203は同じ位置に映っている。
ステップS1020において対応関係取得部113は、撮像部112が撮像した画像上の画素と、照明パターン中の位置との対応関係に従って、対応関係マップを作成する。具体的にはまず照射部111は、撮像部112からみて把持部品203が基準背景の前方に位置している状態で、上述の符号情報を含む照明パターンを照射する。そして、照射部111による照射が行われている状態で、撮像部112は撮像画像を取得する。本実施形態においては、基準背景上に照射された照明パターンを撮像画像から検出できるように、照明パターン、照射部111による照射強度、照射部111と基準背景との位置関係、等が設定されている。
そして対応関係取得部113は、領域分割マップを参照して、ラベル「0」が付されている画素から、すなわち背景領域から照明パターンを検出する。そして、検出された照明パターンから符号情報を抽出することにより、符号情報が示す照明パターン中の位置と、符号情報が抽出された画像中の位置と、の対応関係を取得する。本実施形態において、対応関係取得部113は、照明パターンの各位置について、その位置のパターンが把持部品領域に映るか否かを示す、対応関係マップを生成する。この対応関係マップは、照明パターンの各位置について、その位置のパターンが把持部品に照射されるか否かを示している。
例えば、照明パターンに埋め込まれた符号情報が、撮像画像の背景領域から検出された場合、対応関係マップの検出した符号情報に対応する位置には、ラベル「0」が付される。このように、把持部品以外に照射される照明パターン中の位置が、対応関係マップに記録される。また、照明パターンに埋め込まれた符号情報が、撮像画像の背景領域から検出されなかった場合、対応関係マップのこの符号情報に対応する位置には、ラベル「1」が付される。本実施形態においては、照明パターンは、基準背景と把持部品に照射される。したがって、背景領域内の画像との対応が認識されなかった符号情報が、把持部品に照射されていることになる。このように、把持部品に照射される照明パターン中の位置も、対応関係マップに記録される。符号情報が示す照明パターン中の位置と、符号情報が抽出された画像中の位置と、の対応関係を示す情報の構成は特に限定されない。例えば、対応関係マップを作成する代わりに、照明パターン中の各位置について、対応する撮像画像上の座標を記録してもよい。
ステップS1030において強度分布決定部114は、測定対象に照射する照明強度を決定する。本実施形態において強度分布決定部114は、領域分割マップに示される領域ごとに照明強度を決定する。言い換えれば、強度分布決定部114は、把持部品に対する照明強度と、把持部品以外に対する照明強度と、を決定する。このようにして、測定対象に対する照明強度分布が決定される。以下に、その具体的な処理について説明する。
まず撮像部112は、基準背景を背景として、把持部品203を把持しているロボットハンド202の画像を2枚撮像する。1枚目の画像(第1の撮像画像)は、照射部111が光を照射していない状態、すなわち環境光下で撮影される。また、2枚目の画像(第2の撮像画像)は、照射部111が均一な照明パターンを照射している状態で撮影される。もっとも、2枚の画像を撮影している際の照射部111の状態は特に限定されず、照射部111によって照射される光が異なっているように2枚の画像が撮像されていればよい。例えば、1枚目の画像は、撮像部112の視野角全体にわたって照射部111が一様な光を照射している状態で撮像されてもよい。また、1枚目の画像として、ステップS1010で取得した画像を用いてもよい。
次に強度分布決定部114は、領域分割マップを参照して、ラベル「1」が付されている画素について、すなわち把持部品領域について画素値の平均を算出する。こうして、強度分布決定部114は、環境光下での把持部品領域の輝度値と、照明パターン下での把持部品領域の輝度値とを算出する。もっとも、把持部品領域の輝度値として平均値を用いる必要はなく、例えば中央値のような統計値を用いることもできる。また、本実施形態においては平均画素値を輝度値として用いるが、輝度値は異なる方法で算出されてもよい。
そして強度分布決定部114は、予め作成されている、画像の輝度と照明強度との対応関係1031を参照して、環境光下での把持部品領域の輝度値と、環境光下での把持部品領域の輝度値とに対応する照明強度を決定する。図4に示すルックアップテーブルは、予め作成されている画像の輝度と照明パターンの強度との対応関係1031の例である。
図4には、環境光下での把持部品領域の輝度値及び照明パターン下での把持部品領域の輝度値、並びにこれらに対応する照明強度が規定されている。図4に規定されている照明強度は、より高い精度で距離の測定が可能となるように予め決定されたものである。例えば、環境光下での輝度値が85で、照明パターン下での輝度値が244である場合、強度分布決定部114は、これらに対応する「照明パターン強度1」を、把持部品領域に対する照明強度として選択する。一方で、環境光下での輝度値及び照明パターン下での輝度値に対応する照明強度が規定されていない場合、強度分布決定部114はデフォルト値(Default)である「照明パターン強度D」を把持部品領域に対する照明強度として決定する。
このように、異なる照明状態で取得された画像の輝度値、例えば照明パターンが照射されていない環境光下での輝度値及び照明パターン下での輝度値を参照することにより、把持部品の反射特性等に応じて適した照明強度を選択することが可能となる。また、把持部品をより正確に識別することも可能となる。もっとも、強度分布決定部114は、1枚の撮像画像における把持部品領域の輝度値に応じて、照明強度を決定してもよい。例えば、1枚の撮像画像における把持部品領域の輝度値と、照明強度との対応関係を用いて、照明強度を決定することができる。また、所定の関数を用いて、把持部品領域の輝度値に対応する照明強度を決定することもできる。
また、強度分布決定部114は、背景領域に対しては、デフォルト値である「照明パターン強度D」を照明強度として決定する。以上のようにして、ステップS1010で分割されたそれぞれの領域について、照明強度が決定される。
画像の輝度と照明パターンの強度との対応関係は適宜作成することができるが、以下にその作成方法の一例について説明する。この方法では、ロボットハンド202が様々な部品を把持している状態で撮像部112がステップS1030と同様に2枚の画像を撮像する。そして、2枚の画像のそれぞれについての輝度が、距離計測精度が最も高くなる照明パターンの強度と対応付けて記録される。以下で、この方法についてより詳しく説明する。
まず、ロボットハンド202及び把持部品203が、実際の組み付け作業と同様の位置姿勢に配置される。例えば、ロボットハンド202が実際の組み付け作業と同様に把持部品203を把持するように、ロボットハンド202が操作される。配置作業は手動で行ってもよいし、ロボットハンド202を動作させながら行ってもよい。
次に、撮像部112が把持部品203を基準背景を背景として撮像できるように、ロボットハンド202を移動させる。次に、ステップS1030で用いられるのと同様の照明条件下で、例えば環境光下及び均一な照明パターン下で、撮像部112により画像が2枚取得される。そして、この2枚の画像のそれぞれから、把持部品領域が抽出され、領域内の輝度値が算出される。把持部品領域の抽出はステップS1010と同様に行うことができる。また、領域内の輝度値の算出はステップS1030と同様に行うことができる。1つの把持部品203について、撮像及び輝度値の算出を繰り返し行うことにより、環境光下での把持部品領域の輝度値の範囲と、均一な照明パターン下での把持部品領域の輝度値の範囲とを決定することができる。
次に、撮像部112が把持部品203を基準背景を背景として撮像できる状態のままで、照射部111から照明パターンが照射され、同時に撮像部112により撮像が行われる。さらに、撮像画像を用いて距離算出部121は把持部品203までの距離を、より正確には照射部111及び撮像部112を基準とする把持部品203の位置を、算出する。この際に用いる照明パターンは、均一な照明パターンでありうる。ここで照射部111は様々な強度の照明パターンを照射し、距離算出部121はそれぞれの照明パターン下で距離の算出を行う。具体的には、照明強度を最大から段階的に弱くしていきながら、距離の算出を行うことができる。そして、距離算出部121は、最も精度良く距離を算出できる(例えば、最も距離の誤差が小さい)照明パターンの強度を決定し、この強度を記録する。
距離の算出精度は、実際の距離情報を用いて判定することができる。例えば、ロボットハンド202、撮像部112、照射部111及び把持部品203の3Dモデルを用いたシミュレーションにより、把持部品203までの距離を推定することができる。そして、シミュレーションにより推定した距離と距離算出部121が算出した距離との誤差に従って、算出精度を判定することができる。シミュレーションによる距離と実際の距離との間には誤差がある。しかしながら、この例では所定の照明強度で精度良く距離を計測できるか否かを判定しているに過ぎないため、シミュレーションによる距離の誤差は許容することができる。
以上の作業を複数の把持部品203について行うことにより、図4に示す対応関係が得られる。図4においては、番号1以外の各行は異なる把持部品203に対応している。それぞれの把持部品203について、環境光下での把持部品領域の輝度値の範囲と、均一な照明パターン下での把持部品領域の輝度値の範囲と、最も精度良く距離を算出できる照明パターンの強度と、が記録されている。図4の対応関係を用いて、ステップS1030において現在把持している部品を判別することもできる。ここで、1つの把持部品203について、異なる位置姿勢ごとに照明強度を決定してもよい。
また、番号1の行には、デフォルトの照明パターン強度Dが記録されている。他の行に規定された輝度値範囲に当てはまらない部品に対しては、強度Dの照明パターンが照射される。また、把持部品以外に対しても、強度Dの照明パターンが照射される。この強度Dは、適宜設定することができる。例えば、組み付け対象204について最も精度良く距離を算出できる照明パターンの強度を同様に決定し、強度Dとして用いることもできる。
ステップS1040において、照明パターン生成部115は、ステップS1030で決定された照明強度と、ステップS1020で得られた対応関係マップとに従って、照明パターンを決定する。より具体的には、撮像画像のそれぞれの分割領域に対応する測定対象へと、ステップS1030で決定した強度の照明パターンが照射されるように、照明パターン生成部115は照明パターンを生成する。以下で、この処理について詳しく説明する。
対応関係マップには、照明パターンの各位置について、その位置のパターンが把持部品領域に映るか否か、すなわち把持部品に照射されるか否かを記録されている。また、ステップS1030においては、分割領域ごとに、すなわち領域分割マップのラベル「0」「1」のそれぞれについて、照明強度が決定されている。したがって、照明パターン生成部115は、照明パターンの各位置についてパターンが映る分割領域を選択し、選択された分割領域に対応する照明強度を照明パターンのその位置についての照明強度として設定する。こうして、照明パターン生成部115は、各位置について設定された照明強度を有する照明パターンを生成することができる。
ステップS1050において、情報処理装置10が有する指示部(不図示)は、照射部111に、S1040で生成された照明パターンを測定対象へと照射させる。ステップS1060において撮像部112は、照明パターンが照射されている状態で測定対象を撮像する。ステップS1070において距離算出部121は、ステップS1060で撮像された撮像画像と照射された照明パターンを参照して測定対象までの距離を算出する。
次に、組み付け装置13の全体的な動作について説明する。まず照射部111は、照明パターン生成部115によって生成された照明パターンを照射する。照明パターン生成部115による照明パターンの生成は、任意のタイミングで行われうる。例えば、測定対象までの距離を算出する際に毎回照明パターンを生成してもよい。また、ロボットハンド202が新たな把持部品203を把持した際に照明パターンを生成してもよい。さらには、把持部品203が組み付け対象204に接近した際に照明パターンを生成してもよい。
次に撮像部112は、照明パターンが照射されている状態で測定対象を撮像する。そして、得られた撮像画像に基づいて距離算出部121は測定対象までの距離を算出する。上述のように、照明パターンと、撮像画像上における照明パターンに対応する位置と、を用いて距離算出部121は距離を算出する。これ以外にも、照射部111及び撮像部112の内部パラメータ、並びにロボットハンド202と測定対象との間の相対的な位置及び姿勢を示す情報を用いることもできる。そして、距離算出部121は得られた距離情報をロボットハンド機構131に送信し、ロボットハンド機構131は送信された情報を用いてフィードバック制御等の動作制御を行う。
別の実施例として、照明パターン生成部115は、以前に照明強度を決定する際に用いられた撮像画像と、今回撮像された撮像画像とを比較し、差が小さい場合には以前と同じ照明強度を用いて照明パターンを生成することもできる。例えば、前回撮像された画像と今回撮像された画像との画素ごとの差分値の総和を算出し、これをあらかじめ決められた閾値と比較してもよい。あらかじめ決められた閾値より差分値の総和が小さい場合、撮像画像の差は小さいと判定することができる。さらなる実施例として、あらかじめ決められた閾値より差分値の総和が小さい場合、強度分布決定部114は差分値に応じて前回得られた照明強度を調節し、得られた強度を今回の照明強度として用いることもできる。より具体的には、画像がより明るくなっている場合には照明強度をより小さくすればよい。また、照明パターン生成部115は、以前に照明パターンを決定する際に用いられた撮像画像と、今回撮像された撮像画像とを比較し、差が大きい場合にのみ新たな照明パターンを生成してもよい。
本実施形態においては、分割領域ごとに異なる照明強度を有する構造化された照明光を用いて、組み付け対象と把持部品の距離を同時にかつより正確に取得できるために、正確な組み付けが容易となる。本実施形態においては撮像画像の輝度値に従って照明強度を決定した。しかしながら、照明強度の決定は色成分ごとに行ってもよい。例えば、図4において、照明強度としてRGB各色についての強度が設定されていてもよい。また、RGB各色の輝度値の組み合わせについて、対応する照明強度が設定されていても良い。さらには、RGB各色について、それぞれの輝度値に応じた照明強度が設定されていてもよい。例として、所定の色成分、例えばR成分(着目色成分)、について組み付け対象204が把持部品203より少ない光を撮像部112へと反射する場合を考える。この場合、把持部品203に対して照射されるR成分の照射光量が、組み付け対象204に対して照射されるR成分の照射光量よりも少なくなるように、R成分についての照射光量が設定されうる。
[実施形態2]
以下で、本発明の実施形態2について説明する。実施形態2は、組み付け対象に照射する照明パターンの強度を、組み付け対象204と3次元計測装置201との距離に応じて変化させる点で、第1の実施形態と異なる。本実施形態によれば、組み付け対象204と、3次元計測装置201との距離が変化しても、適切な照射光を照射することができる。把持部品203と3次元計測装置201との距離は変化しないため、把持部品203への照射光の強度の決定は、実施形態1と同様に行われる。
本実施形態においては、予め作成された、撮像部112により撮像された画像の輝度と、測定対象の属性と、の関係を示す情報が用いられる。ここで、属性とは、複数の測定対象の中から1つの測定対象を識別するための情報である。例えば、この属性は把持されている把持部品203を識別する情報でありうる。属性は、属性は測定対象を識別できるのであれば特に限定されず、具体的には部品名称又は材質名等でありうる。
以下で、実施形態2における処理の流れを説明する。本実施形態に係る装置及び処理方法は実施形態1と同様であり、同様の構成については説明を省略する。本実施形態の処理と、実施形態1の処理とは、ステップS1030の処理が異なる。まず、ステップS1030で用いられる対応関係情報について説明する。本実施形態においては、図4に示す対応関係情報の代わりに、図5(A)(B)に示す対応関係情報を用いて、照明強度が決定される。図5(A)(B)に示す情報も、実施形態1と同様、予め作成されたものである。
まず、図5(A)(B)に示す情報の作成方法について説明する。本実施形態においては、図5(A)に示す輝度と属性との対応関係を示す情報と、図5(B)に示す属性と強度との対応関係を示す情報とが用いられる。図5(A)に示す情報は図4に示す情報と同様のものであるが、輝度値の組み合わせに対して、照明強度の代わりに属性情報が付されている。この属性情報は、それぞれの輝度値の組み合わせに対応する把持部品を識別する情報(把持部品1〜3)である。また、属性「組み付け部」が、デフォルトの属性情報として設定されている。
図5(B)は、属性と強度との対応関係を示す。属性「把持部品1〜3」については、組み付け対象204と3次元計測装置201との距離にかかわらず一定の照明強度(照明パターン強度1〜3)が用いられる。なぜなら、3次元計測装置201と把持部品203との間の距離は略一定だからである。この照明パターン強度1〜3は、図4に示す照明パターン強度1〜3と同様のものであり、実施形態1と同様に決定される。一方で、属性「組み付け部」については、組み付け対象204と3次元計測装置201との距離に応じて異なる強度(照明パターン強度4〜6)が設定される。
以下に、「組み付け部」についての照明強度の決定方法について説明する。まず、実施形態1と同様、ロボットハンド202と組み付け対象204とを実際の組み付け作業に従って配置する。この状態で照射部111から照明パターンを照射している間に撮像部112が撮像した撮像画像を用いて、距離算出部121は組み付け対象204までの距離を算出する。実施形態1と同様に、距離算出部121は照明強度を最大から段階的に弱くしていきながら距離の算出を行う。そして、距離算出部121は、最も精度良く距離を算出できる照明パターンの強度を決定し、この強度を記録する。距離の算出精度の決定も、実施形態1と同様に行うことができる。以上のような照明パターンの強度の決定を、3次元計測装置201と組み付け対象204との間の距離を変化させながら行うことにより、それぞれの距離に対応した照明パターン強度4〜6が決定される。
次に、本実施形態におけるステップS1030の処理について説明する。強度分布決定部114は、実施形態1と同様に、基準背景を背景として、把持部品203を把持しているロボットハンド202の画像を2枚撮像する。そして強度分布決定部114は、実施形態1と同様に、環境光下での把持部品領域の輝度値と、照明パターン下での把持部品領域の輝度値とを算出する。そして、これらの輝度値の組み合わせに対応する属性を図5(A)に従って選択し、選択された属性に対応する照明強度を図5(B)に従って選択する。こうして、把持部品の属性が検出され、把持部品領域に照射される照明強度が決定される。輝度値が把持部品1〜3に該当しない場合、属性として「組み付け部」が選択されてもよいし、不図示のデフォルト属性が選択されてもよい。
一方で、把持部品以外の領域については、照明パターン強度Dの代わりに、照射部111と組み付け対象204との相対距離に応じた照明強度を図5(B)を参照して選択する。例えば相対距離が75mmである場合、照明強度として「照明パターン強度5」が選択される。照射部111と組み付け対象204との相対距離は、ロボットハンド202の位置姿勢情報と組み付け対象204の配置情報とを参照して算出することができる。ロボットハンド202の位置姿勢情報は、ロボットハンド202の制御装置から取得することができる。また、組み付け対象204の配置情報は予め入力しておけばよい。
他の方法としては、照明パターンを照射するタイミングは事前に分かっているのであれば、そのタイミングにおける相対距離を測定しておき、測定された相対距離を予め入力しておいてもよい。さらには、所定の強度の照明パターンを照射している間に撮像部112が撮像した撮像画像を用いて距離算出部121が算出した距離を、相対距離として用いることもできる。以上のような方法により、距離取得部(不図示)は照射部111と組み付け対象204との相対距離を取得することができる。
以上のように決定された把持部品領域についての照明強度と、組み付け対象204を含む把持部品以外の領域についての照明強度とを用いて、照明パターン生成部115は照明パターンを生成する。本実施形態においては照射部111と組み付け対象204との距離に応じた照明強度を図5(B)を参照して選択したが、所定の関数を用い、この距離に応じた照明強度を算出してもよい。
[実施形態3]
以下に、本発明の実施形態3について説明する。実施形態3において、強度分布決定部114は、測定対象の設計情報、及び3次元計測装置201と測定対象との間の相対位置姿勢情報を用いて、照明強度を決定する。以下で、実施形態3における処理の流れを説明する。本実施形態に係る装置及び処理方法は実施形態1と同様であり、同様の構成については説明を省略する。本実施形態の処理と、実施形態1の処理とは、ステップS1030の処理が異なる点と、ステップS1030とステップS1040との間にステップS1035が追加されている点で異なる。
ステップS1030において強度分布決定部114は、3次元計測装置201と測定対象との間の相対位置姿勢情報を用いて照明強度を決定する。具体的には、まず、強度分布決定部114は、ロボットハンド202による組み付けを模した3次元モデルを、グラフィックスハードウェアを用いて3次元空間上で再現する。具体的には、照射部111、撮像部112、及び測定対象が、3次元空間上に描かれる。この際には、照射部111の光源、及び撮像部112が有する投影面の位置情報が参照される。この相対位置姿勢情報は、例えば、ロボットハンド202の位置姿勢を示す情報を用いて算出することができる。
そして強度分布決定部114は、照射部111、撮像部112、及び測定対象の位置姿勢を示す位置姿勢情報と、測定対象の設計情報に応じて、照明強度を決定する。この設計情報は、例えば、測定対象の光反射率を示す情報であり予め用意されている。この光反射率を示す情報は、所定の光についての反射率を示す情報であってもよいし、分光反射特性を示す情報であってもよい。強度分布決定部114は、関数を用いて、測定対象の位置と、測定対象の反射率若しくは分光反射特性に対応する照明強度を算出することができる。例えば、照射部111若しくは撮像部112と測定対象との相対距離が大きい場合、測定対象の反射率が低い場合、又は測定対象が黒色に近い場合には、照明強度を強めることができる。一方で、逆の場合には光量を弱めることができる。このようにして、撮像部112によって撮像される撮像画像上における照明強度が所定範囲に入るように、照明強度が決定されうる。
強度分布決定部114は、以上のように、照明パターンの各位置について、その位置の照明パターンが照射される測定対象の設計情報に応じて、照明強度を決定する。一方で、強度分布決定部114は、把持部品に照射される位置と、把持部品以外に照射される位置と、について照明パターンの強度を決定してもよい。この場合、こうして決定された照明強度を用いて、実施形態1のステップS1040と同様に照明パターン生成部115は照明パターンを生成することができる。
強度分布決定部114はさらに、シミュレーションにより、照明強度を調整してもよい。具体的には、強度分布決定部114は、照射部111から照射され、測定対象によって撮像部112へと反射される光量をシミュレーションにより推定する。すなわち、強度分布決定部114は、照射部111から照明パターンを照射した際に撮像部112により撮像される画像を、3次元空間上でのシミュレーションにより再現する。このシミュレーションは、照射部111、撮像部112及び測定対象のモデルの位置姿勢の情報と、光源光量並びに測定対象の反射率若しくは分光反射特性等を用いて行うことができる。これらの情報を用いて、強度分布決定部114は、撮像部112により撮像される画像上の輝度値をシミュレーションにより算出する。
シミュレーションにより得られる画像のうち測定対象部分に、所望の輝度範囲にある照明パターンが含まれていれば、処理はステップS1035に進み、この際に照射部111が照射している照明パターンを用いて照明強度が決定される。一方で、所望の輝度範囲にある照明パターンが含まれていない場合、強度分布決定部114は照明強度を変更し、再度シミュレーションを行う。具体的には、前回の照明パターンとは異なる照明パターンを複数用いて、それぞれの照明パターンを用いて再度シミュレーションを行うことができる。例えば、前回の照明パターンよりも強度が所定値だけ高い又は低いパターンを用いてシミュレーションを行うことができる。別の方法として、シミュレーションで使用する関数のパラメータを変更し、再度シミュレーションを行ってもよい。シミュレーションを繰り返すことにより、シミュレーションにより得られる画像のうち測定対象部分に、所望の輝度範囲にある照明パターンが含まれるように、照明パターンの強度が決定される。こうして得られた照明パターンを用いて、ステップS1035で照明強度が決定される。
ステップS1035において、強度分布決定部114は各分割領域についての照明強度を決定する。本実施形態において、ステップS1030で決定した照明パターンは、シミュレーションにより算出した照明パターンの強度分布である。この強度分布は、ステップS1010で生成した分割領域マップに示される各領域の分布とは完全に一致しないことが多い。そこで本実施形態において、強度分布決定部114は、ステップS1020で得られた対応関係マップを参照して、各領域についての照明強度を、ステップS1030で決定された照明パターンを参照して決定する。こうして強度分布決定部114は、ステップS1030で決定された強度の照明パターンが、ステップS1010で生成した分割領域マップに従って照射されるように、照明パターンを微調整する。
具体的には強度分布決定部114は、ステップS1020で得られた対応関係マップを参照して、分割領域マップに示される各画素について、ステップS1030で決定された照明パターン中の位置における照明強度を判定する。こうして強度分布決定部114は、各分割領域に含まれる複数の画素について、対応する複数の照明強度を集計することにより、分割領域についての照明強度を決定する。具体的には強度分布決定部114は、複数の照明強度の統計値、例えば最頻値を、分割領域についての照明強度として用いることができる。こうして強度分布決定部114は、各領域についての照明強度を決定する。こうして決定された照明強度を用いて、ステップS1040において実施形態1と同様に照明パターンが生成される。
[実施形態4]
以下で、本発明の実施形態4について説明する。本実施形態では、図6に示すように、測定対象の表面に模様がある場合、又は測定対象が複雑な三次元形状を有している場合にも、距離計測のためにより適した照明パターンを生成することができる。本実施形態に係る装置の構成は、実施形態1と同様である。以下では、実施形態1と同様の構成については、説明を省略する。
本実施形態に係る処理の一例について、図7のフローチャートを参照して説明する。ステップS4010において撮像部112は、測定対象を含む画像を撮像する。そして画像分割部116は、実施形態1と同様に、撮像した画像について領域分割処理を行うことにより、領域分割マップを作成する。ステップS4020において対応関係取得部113は、実施形態1と同様に、画像上の画素と照明パターンの各位置の対応関係を示す対応関係マップを取得する。
ステップS4030において強度分布決定部114及び照明パターン生成部115は、照明強度を決定する。この処理について図8のフローチャートを参照して説明する。ステップS4031において撮像部112は、照射部111が照明パターン光(予備測定パターン)を照射している状態における測定対象の画像と、照射部が光を照射していない環境光下での測定対象の画像と、を撮像する。ステップS4031で照射される照明パターン光は特に限定されず、例えば均一な照明パターン光でありうる。すなわち、把持部品に対する照明強度と、把持部品以外に対する照明強度が同じであってもよい。照明パターン光の強度は、照射部111により照射可能な強度であれば特に限定されない。
ステップS4032において照明パターン生成部115は、照射部111が照明パターン光を照射している状態における測定対象の画像から、反射光量が多い領域(第1領域)と反射光量が少ない領域(第2領域)とを検出する。本実施形態において照明パターン生成部115は、照射部が光を照射していない環境光下での測定対象の画像をさらに参照して、これらの領域を検出する。具体的には照明パターン生成部115は、ステップS4031で取得した2枚の画像の差分画像を生成する。
ステップS4033において照明パターン生成部115は、差分画像の各画素について、画素値が所定の範囲内にあるか否かを判定する。具体的には、照明パターン生成部115は、画素値が上限閾値以下であるか否か、及び下限閾値以上であるか否かを判定する。この閾値は、差分画像の輝度差についての望ましい範囲を規定するものであって、予め決定されている。全ての画素について、対応する画素値が所定の範囲にある場合、ステップS4030の処理は終了する。この場合、直前のステップS4031又はS4035で照射された照明パターンが、ステップS4040において照射される。一方で、いずれかの画素について画素値が所定の範囲にない場合、処理はステップS4034に進む。
ステップS4034において強度分布決定部114は、ステップS4033における比較結果に基づいて、直前のステップS4031又はS4035で照射された照明パターンの照明強度を修正する。具体的には、把持部品領域において差分画像の画素値が上限閾値より大きい場合には、照明パターン生成部115は把持部品に対する照明強度をあらかじめ決定する所定量だけ弱くする。また、把持部品領域において差分画像の画素値が下限閾値より小さい場合には、照明パターン生成部115は把持部品に対する照明強度をあらかじめ決定する所定量だけ強くする。照明パターン生成部115は、把持部品以外の領域に対する照明強度についても同様に、背景領域における差分画像の画素値を参照して修正を行う。
さらに照明パターン生成部115は、強度分布決定部114によって修正された照明強度に従って、実施形態1と同様に照明パターンを生成する。この処理は、実施形態1と同様に、ステップS4010で取得した対応関係マップに従って行うことができる。
ステップS4035において照射部111は、ステップS4034で生成された照明パターンを測定対象に照射する。そして撮像部112は、照明パターンが照射された測定対象の画像を撮像する。その後処理はステップS4032に戻り、照射部が光を照射していない環境光下での測定対象の画像と、ステップS4036で撮像された画像と、を用いて同様の処理が繰り返される。以上の処理により、照明パターンが生成される。
照明パターンのある位置について、N回目のステップS4033で対応する画素値が上限閾値を上回り、N+1回目のステップS4033で対応する画素値が下限閾値を下回ると判定される場合、又はその逆の場合がある。その場合、続くステップS4034においては、照明強度を所定量だけ強く又は弱くする代わりに、所定の係数を照明強度に乗算することができる。別の方法として、照明強度N回目の処理における照明強度と、N+1回目の処理における照明強度との間の強度を、新たな照明強度として用いてもよい。このような方法により、差分画像の画素値が可能な限り2つの閾値の間に入るように照明強度を決定することができる。
ステップS4040〜S4060においては、実施形態1のステップS1050〜S1070と同様の処理が行われる。以上の処理により、測定対象の画像を参照しながら、距離測定に適した照明パターンを生成することが可能となる。
[実施形態4の変形例]
実施形態4では把持部品に対する照明強度及び把持部品以外に対する照明強度を修正しながら照明パターンを生成した。この変形例においては、照明パターンの各位置における照明強度を独立に修正しながら照明パターンを生成する。本変形例に係る装置は、強度分布決定部114及び画像分割部116を有さなくてもよい。また、ステップS4010は省略することができる。以下に、実施形態4との相違点について説明する。
ステップS4020において対応関係取得部113は、対応関係マップを取得する。本変形例における対応関係マップは、照射部111によって照射された照明パターン内の各位置について、各位置の照明パターンが映る撮像画像内の画素を特定する。例えば、対応関係マップは、照明パターンに含まれる符号情報のそれぞれについて、符号情報が映っている撮像画像内の画素を特定する情報でありうる。この対応関係マップは照明パターンの制御に用いられるものであり、測定対象への距離を算出するために直接用いられるわけではないため、照明強度が高すぎることなどによる検出誤差は許容することができる。
ステップS4033において照明パターン生成部115は、照明パターンの各位置に対応する差分画像の画素について、画素値が所定の範囲内にあるか否かを判定する。この判定は、ステップS4020で取得した対応関係マップに従って行うことができる。照明パターンの全ての位置について、対応する画素値が所定の範囲にある場合、ステップS4030の処理は終了する。一方で、照明パターンのいずれかの位置について、対応する画素値が所定の範囲にない場合、処理はステップS4034に進む。
ステップS4034において照明パターン生成部115は、ステップS4033における比較結果に基づいて、直前のステップS4031又はS4035で照射された照明パターンの各位置の照明強度を修正する。具体的には、対応する差分画像の画素値が上限閾値より大きい場合には、照明強度があらかじめ決定する所定量だけ弱くされる。また、対応する差分画像の画素値が下限閾値より小さい場合には、照明強度があらかじめ決定する所定量だけ強くされる。
以上の処理により、照明パターンの各位置について詳細に照射強度を制御しながら、距離測定に適した照明パターンを生成することが可能となる。
(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。

Claims (19)

  1. 距離測定のための測定パターンを測定対象に照射する照射手段と、
    前記測定パターンが照射されている前記測定対象を含む撮像画像を取得する撮像手段と、
    前記撮像手段が取得する撮像画像のうち、相対的に多くの光を前記撮像手段へと反射する前記測定対象の第1部分を含む第1領域と、相対的に少ない光を前記撮像手段へと反射する前記測定対象の第2部分を含む第2領域と、を検出する第1の検出手段と、
    前記測定パターンのうち、前記第1部分に照射される第領域と、前記第2部分に照射される第領域と、を検出する第2の検出手段と、
    前記第領域における照射光量が、前記第領域における照射光量より少なくなるように、領域により照射光量が異なる測定パターンを生成する生成手段と、
    前記生成された測定パターンを前記照射手段に照射させる指示手段と、
    前記生成された測定パターンが照射された前記測定対象を含む撮像画像を前記撮像手段から取得し、該取得した撮像画像を用いて前記測定対象までの距離を導出する導出手段と、
    を備え
    前記第1の検出手段は、予備測定パターンが照射された前記測定対象を含む撮像画像から、前記第1領域と前記第2領域とを検出し、
    前記生成手段は、前記第3領域における照射光量を少なくすることと、前記第4領域における照射光量を多くすることと、のうちの少なくとも一方を行うように、前記予備測定パターンを修正することにより、前記測定パターンを生成することを特徴とする情報処理装置。
  2. 前記測定パターンは、符号情報を有するパターンであり、
    前記第2の検出手段は、前記測定パターンが照射されている前記測定対象を含む前記撮像画像と、前記測定パターンが備える符号情報と、前記第1の検出手段が検出した前記撮像画像の前記第1領域及び前記第2領域とに基づいて、前記測定パターンの前記第領域及び前記第領域を検出することを特徴とする、請求項1に記載の情報処理装置。
  3. 前記第1の検出手段は、前記撮像画像の輝度分布に基づいて、前記第1領域又は前記第2領域を検出することを特徴とする、請求項1又は2に記載の情報処理装置。
  4. 前記第1の検出手段は、前記撮像手段から取得した前記第1部分又は前記第2部分を含む撮像画像と、前記撮像手段から取得した前記第1部分又は前記第2部分を含まない撮像画像と、を比較することにより前記撮像画像の前記第1領域又は前記第2領域を検出することを特徴とする、請求項1乃至3の何れか1項に記載の情報処理装置。
  5. 前記生成手段は、前記第1部分と前記第2部分との少なくとも一方の部分について、前記撮像手段から取得した撮像画像のうち該部分に対応する領域に含まれる画素の画素値に従って、該部分に照射される領域における照射光量を決定することを特徴とする、請求項1乃至4の何れか1項に記載の情報処理装置。
  6. 前記生成手段は、前記第1部分と前記第2部分との少なくとも一方の部分について、該部分に対応する領域に含まれる画素の画素値の統計値を算出し、該部分に照射される領域における照射光量として、該算出された統計値に対応する照射光量をルックアップテーブルを参照して取得することを特徴とする、請求項5に記載の情報処理装置。
  7. 前記生成手段は、第1の撮像画像を用いて算出された画素値の統計値と、前記第1の撮像画像とは前記測定対象の照明状態が異なる第2の撮像画像を用いて算出された画素値の統計値と、に対応する照射光量を前記ルックアップテーブルを参照して取得することを特徴とする、請求項6に記載の情報処理装置。
  8. 前記生成手段は、前記第1部分と前記第2部分との少なくとも一方の部分について、前記撮像手段から取得した撮像画像のうち該部分に対応する領域に含まれる画素の画素値に従って該部分の属性を検出し、該検出した属性に対応する照射光量をルックアップテーブルを参照して取得することを特徴とする、請求項5に記載の情報処理装置。
  9. 前記属性は、前記部分に対応する物体を識別する情報、又は前記部分の材質を識別する情報であることを特徴とする、請求項8に記載の情報処理装置。
  10. 前記生成手段は、前記第1部分と前記第2部分との少なくとも一方の部分について、各色成分についての前記統計値を算出し、当該各色成分についての統計値に対応する照射光量を前記ルックアップテーブルを参照して取得することを特徴とする、請求項6又は7に記載の情報処理装置。
  11. 前記第1部分と前記第2部分との少なくとも一方の部分について、該部分までの距離を取得する距離取得手段をさらに有し、
    前記生成手段は、該部分までの距離に従って、該部分に照射される領域における照射光量を決定することを特徴とする、請求項1乃至10の何れか1項に記載の情報処理装置。
  12. 前記生成手段は、前記照射手段、前記撮像手段及び前記測定対象の位置姿勢情報、並びに前記測定対象の光反射率を示す情報に従って、前記照射光量を決定することを特徴とする、請求項1に記載の情報処理装置。
  13. 前記生成手段は、前記照射手段から照射され、前記測定対象により前記撮像手段へと反射される光量を推定し、該推定に従って前記照射光量を決定することを特徴とする、請求項12に記載の情報処理装置。
  14. 前記照射光量は色成分毎に異なり、
    前記第2部分は、着目色成分について、前記第1部分よりも少ない光を前記撮像手段へと反射し、
    前記測定パターンにおいて、前記第領域における前記着目色成分の照射光量は、前記第領域における当該着目色成分の照射光量より少ない
    ことを特徴とする、請求項1乃至13の何れか1項に記載の情報処理装置。
  15. 前記測定パターンは空間符号化法に用いられる縞パターンであることを特徴とする請求項1乃至14の何れか1項に記載の情報処理装置。
  16. 測定対象の一部である第1物体までの距離、及び前記測定対象の一部である第2物体までの距離を計測する、請求項1乃至15の何れか1項に記載の情報処理装置と、
    前記測定対象の一部である第1物体を把持する把持手段と、
    前記計測された距離に従って、前記把持手段を制御する制御手段と、
    を備えることを特徴とする組み付け装置。
  17. 前記把持手段が前記照射手段及び前記撮像手段を備えることを特徴とする、請求項16に記載の組み付け装置。
  18. 情報処理装置が行う情報処理方法であって、
    照射手段に、距離測定のための測定パターンを測定対象に照射させる照射工程と、
    撮像手段に、前記測定パターンが照射されている前記測定対象を含む撮像画像を取得させる撮像工程と、
    前記撮像手段が取得する撮像画像のうち、相対的に多くの光を前記撮像手段へと反射する前記測定対象の第1部分を含む第1領域と、相対的に少ない光を前記撮像手段へと反射する前記測定対象の第2部分を含む第2領域と、を検出する第1の検出工程と、
    前記測定パターンのうち、前記第1部分に照射される第領域と、前記第2部分に照射される第領域と、を検出する第2の検出工程と、
    前記第領域における照射光量が、前記第領域における照射光量より少なくなるように、領域により照射光量が異なる測定パターンを生成する生成工程と、
    前記生成された測定パターンを前記照射手段に照射させる指示工程と、
    前記生成された測定パターンが照射された前記測定対象を含む撮像画像を前記撮像手段から取得し、該取得した撮像画像を用いて前記測定対象までの距離を導出する導出工程と、
    を有し、
    前記第1の検出工程では、予備測定パターンが照射された前記測定対象を含む撮像画像から、前記第1領域と前記第2領域とを検出し、
    前記生成工程では、前記第3領域における照射光量を少なくすることと、前記第4領域における照射光量を多くすることと、のうちの少なくとも一方を行うように、前記予備測定パターンを修正することにより、前記測定パターンを生成することを特徴とする情報処理方法。
  19. コンピュータに、
    照射手段に、距離測定のための測定パターンを測定対象に照射させる照射工程と、
    撮像手段に、前記測定パターンが照射されている前記測定対象を含む撮像画像を取得させる撮像工程と、
    前記撮像手段が取得する撮像画像のうち、相対的に多くの光を前記撮像手段へと反射する前記測定対象の第1部分を含む第1領域と、相対的に少ない光を前記撮像手段へと反射する前記測定対象の第2部分を含む第2領域と、を検出する第1の検出工程と、
    前記測定パターンのうち、前記第1部分に照射される第領域と、前記第2部分に照射される第領域と、を検出する第2の検出工程と、
    前記第領域における照射光量が、前記第領域における照射光量より少なくなるように、領域により照射光量が異なる測定パターンを生成する生成工程と、
    前記生成された測定パターンを前記照射手段に照射させる指示工程と、
    前記生成された測定パターンが照射された前記測定対象を含む撮像画像を前記撮像手段から取得し、該取得した撮像画像を用いて前記測定対象までの距離を導出する導出工程と、
    を実行させるプログラムであって、
    前記第1の検出工程では、予備測定パターンが照射された前記測定対象を含む撮像画像から、前記第1領域と前記第2領域とを検出し、
    前記生成工程では、前記第3領域における照射光量を少なくすることと、前記第4領域における照射光量を多くすることと、のうちの少なくとも一方を行うように、前記予備測定パターンを修正することにより、前記測定パターンを生成することを特徴とするプログラム。
JP2013134202A 2013-06-26 2013-06-26 情報処理装置、組み付け装置、情報処理方法、及びプログラム Active JP6144976B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013134202A JP6144976B2 (ja) 2013-06-26 2013-06-26 情報処理装置、組み付け装置、情報処理方法、及びプログラム
US14/310,349 US9714829B2 (en) 2013-06-26 2014-06-20 Information processing apparatus, assembly apparatus, information processing method, and storage medium that generate a measurement pattern having different amounts of irradiation light depending on imaging regions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013134202A JP6144976B2 (ja) 2013-06-26 2013-06-26 情報処理装置、組み付け装置、情報処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2015010844A JP2015010844A (ja) 2015-01-19
JP2015010844A5 JP2015010844A5 (ja) 2016-05-12
JP6144976B2 true JP6144976B2 (ja) 2017-06-07

Family

ID=52115644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013134202A Active JP6144976B2 (ja) 2013-06-26 2013-06-26 情報処理装置、組み付け装置、情報処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US9714829B2 (ja)
JP (1) JP6144976B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9648698B2 (en) * 2015-05-20 2017-05-09 Facebook, Inc. Method and system for generating light pattern using polygons
US20170243582A1 (en) * 2016-02-19 2017-08-24 Microsoft Technology Licensing, Llc Hearing assistance with automated speech transcription
KR101932216B1 (ko) * 2017-09-13 2018-12-24 주식회사 에프앤디파트너스 광특성가변식 패턴광을 이용한 3차원 형상 측정 방법 및 그 장치
JP7317732B2 (ja) * 2020-01-20 2023-07-31 株式会社東芝 推定装置、物体搬送システム、推定方法、およびプログラム
JP7540170B2 (ja) * 2020-03-12 2024-08-27 オムロン株式会社 三次元形状計測装置
JP2022049874A (ja) * 2020-09-17 2022-03-30 オムロン株式会社 検査装置、検査方法及び検査プログラム

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4905034A (en) 1986-03-25 1990-02-27 Asahi Kogaku Kogyo Kabushiki Kaisha Automatic focusing projector
JPS63288695A (ja) * 1987-05-22 1988-11-25 株式会社東芝 位置ずれ検出装置
TW399186B (en) 1997-12-10 2000-07-21 Canon Kk Image processing apparatus and image processing method
JP2000241131A (ja) 1998-12-22 2000-09-08 Matsushita Electric Ind Co Ltd レンジファインダ装置および撮像装置
US6876392B1 (en) 1998-12-22 2005-04-05 Matsushita Electric Industrial Co., Ltd. Rangefinder for obtaining information from a three-dimensional object
JP2001282426A (ja) 2000-03-30 2001-10-12 Canon Inc データ通信システム、装置、方法及び記憶媒体
JP3884321B2 (ja) 2001-06-26 2007-02-21 オリンパス株式会社 3次元情報取得装置、3次元情報取得における投影パターン、及び、3次元情報取得方法
JP2003069998A (ja) 2001-08-28 2003-03-07 Canon Inc 画像処理装置及び画像処理方法
JP4077754B2 (ja) 2003-04-04 2008-04-23 オリンパス株式会社 3次元形状測定装置
JP4261986B2 (ja) 2003-05-30 2009-05-13 キヤノン株式会社 制御装置、制御方法、および記録媒体
JP4208726B2 (ja) 2004-01-14 2009-01-14 キヤノン株式会社 画像表示装置、画像表示方法および画像表示プログラム
JP2006003212A (ja) * 2004-06-17 2006-01-05 Konica Minolta Sensing Inc 位相計測システム
JP4701948B2 (ja) * 2005-09-21 2011-06-15 オムロン株式会社 パタン光照射装置、3次元形状計測装置、及びパタン光照射方法
JP5522893B2 (ja) * 2007-10-02 2014-06-18 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
WO2009124118A1 (en) * 2008-04-01 2009-10-08 Perceptron, Inc. Contour sensor incorporating mems mirrors
JP5161024B2 (ja) * 2008-10-10 2013-03-13 富士フイルム株式会社 3次元形状計測用撮影装置および方法並びにプログラム
US20100268069A1 (en) * 2009-04-16 2010-10-21 Rongguang Liang Dental surface imaging using polarized fringe projection
JP5578844B2 (ja) * 2009-12-21 2014-08-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP5693001B2 (ja) * 2009-12-28 2015-04-01 キヤノン株式会社 計測システム、画像補正方法、及びコンピュータプログラム
JP5460341B2 (ja) * 2010-01-06 2014-04-02 キヤノン株式会社 3次元計測装置及びその制御方法
JP5576726B2 (ja) * 2010-06-29 2014-08-20 キヤノン株式会社 三次元計測装置、三次元計測方法、及びプログラム
WO2012172870A1 (ja) * 2011-06-14 2012-12-20 日産自動車株式会社 距離計測装置及び環境地図生成装置
EP2821748B1 (en) * 2012-03-01 2019-07-31 Nissan Motor Co., Ltd Range finding device and range finding method
JP6192297B2 (ja) * 2013-01-16 2017-09-06 キヤノン株式会社 被検体情報取得装置、表示制御方法、およびプログラム
JP2014186206A (ja) * 2013-03-25 2014-10-02 Hitachi Media Electoronics Co Ltd 光照射装置

Also Published As

Publication number Publication date
JP2015010844A (ja) 2015-01-19
US20150003685A1 (en) 2015-01-01
US9714829B2 (en) 2017-07-25

Similar Documents

Publication Publication Date Title
JP6144976B2 (ja) 情報処理装置、組み付け装置、情報処理方法、及びプログラム
US11115633B2 (en) Method and system for projector calibration
JP6139017B2 (ja) 光源の特性を決定する方法及びモバイルデバイス
JP5132832B1 (ja) 計測装置および情報処理装置
JP4791595B2 (ja) 画像撮影装置、画像撮影方法および画像撮影プログラム
EP3761772A1 (en) Method for inspecting mounting state of component, printed circuit board inspection apparatus, and computer readable recording medium
CN110740676B (zh) 内窥镜系统、内窥镜图像处理方法以及记录介质
JP2012215394A (ja) 三次元計測装置および三次元計測方法
JP2016186469A (ja) 情報処理装置、情報処理方法、プログラム
US9659379B2 (en) Information processing system and information processing method
JP6351201B2 (ja) 距離計測装置および方法
JP2020123118A (ja) 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター
JP6420530B2 (ja) 情報処理装置、計測システム、制御システム、光量決定方法、プログラム及び記憶媒体
JP2020123115A (ja) 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター
JP2008032608A (ja) 三次元形状測定装置及び三次元形状測定方法
US10748301B2 (en) Corneal reflex position detection device, eye-gaze tracking device, and corneal reflex position detection method
WO2022205827A1 (zh) 结构光图像处理方法、障碍物检测方法、模组及设备
JP6412372B2 (ja) 情報処理装置、情報処理システム、情報処理装置の制御方法およびプログラム
JP2020160808A (ja) 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター
JP6432968B2 (ja) 物体形状推定装置及びプログラム
JP7424800B2 (ja) 制御装置、その制御方法、及び制御システム
JP6500493B2 (ja) 視差画像生成システム、ピッキングシステム、視差画像生成方法およびプログラム
JP2005337870A (ja) 検出システム及び標識体
JP2020193945A (ja) 計測装置、把持システム、計測装置の制御方法及びプログラム
JP2016176723A (ja) 計測装置

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160316

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170414

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170512

R151 Written notification of patent or utility model registration

Ref document number: 6144976

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151