JP2017100242A - 検査ロボットシステム - Google Patents
検査ロボットシステム Download PDFInfo
- Publication number
- JP2017100242A JP2017100242A JP2015235412A JP2015235412A JP2017100242A JP 2017100242 A JP2017100242 A JP 2017100242A JP 2015235412 A JP2015235412 A JP 2015235412A JP 2015235412 A JP2015235412 A JP 2015235412A JP 2017100242 A JP2017100242 A JP 2017100242A
- Authority
- JP
- Japan
- Prior art keywords
- inspection
- robot
- unit
- image
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Manipulator (AREA)
Abstract
【課題】ロボットを利用して効率よく製品検査を行う。【解決手段】製品検査を行う検査ロボットシステムを、検査ツールを脱着可能な複数の多関節腕を有する検査ロボットと、検査ロボットによる検査方法を設定した検査情報を検査ロボットに送信すると共に、検査ロボットが取得した検査データを受信して検査結果を判定する制御部とによって構成し、検査ロボットに、検査情報に基づいて、複数種類の検査ツールの中から検査ツールを選択して各腕部に装着し、検査ツールをそれぞれ検査対象箇所に合わせて設定された位置及び角度に配置して検査データを取得し、取得した検査データを制御部へ送信させる。【選択図】図1
Description
この発明は、複数の多関節腕を有するロボットを利用して製品の検査を行う検査ロボットシステムに関する。
従来、製品の製造組立等にロボットが利用されている。ロボットの腕を多関節型とすることで、様々な作業を実現することができる。例えば、特許文献1〜4には、製品の製造組立に利用可能なロボットに関する技術が開示されている。また、製品の製造組立を行う現場では、製品の品質を維持するための検査が行われる。例えば、特許文献5には、ベルトコンベヤによって搬送される製品を照明装置で照らしながらテレビカメラで撮影して、製品へのゴミの付着がないかを検査する検査装置が開示されている。これらの技術を利用して製品の組立や検査を自動化することにより作業効率を改善することができる。
しかしながら、製品検査の現場には、上記従来技術を利用しても自動化することができず、人間が行わなければならない作業が多く残っている。例えば、複雑な形状や構造を有する製品については、ベルトコンベヤ近傍に固定設置されたカメラを利用しても、検査対象となる位置や部品をうまく撮像できず、人間が目視確認しながら検査する必要があった。特に、多品種少量生産を行う現場では、様々な製品を検査対象として熟練工による検査が行われており、検査工程の自動化が求められていた。
本発明は、上述した従来技術による問題点を解消するためになされたもので、ロボットを利用して製品の検査を効率よく行うことができる検査ロボットシステムを提供することを目的とする。
上述した課題を解決し、目的を達成するため、本発明は、製品検査を行う検査ロボットシステムであって、検査ツールを脱着可能な複数の多関節腕を有する検査ロボットと、前記検査ロボットによる検査方法を設定した検査情報を前記検査ロボットに送信すると共に、前記検査ロボットが取得した検査データを受信して検査結果を判定する制御部とを備え、前記検査ロボットは、前記検査情報に基づいて、複数種類の検査ツールの中から検査ツールを選択して各腕部に装着し、前記検査ツールをそれぞれ検査対象箇所に合わせて設定された位置及び角度に配置して検査データを取得し、取得した検査データを前記制御部へ送信することを特徴とする。
また、本発明は、上記発明において、前記制御部は、前記検査ロボットが取得した検査データと、該検査データに対応して予め準備されている検査基準データとに基づいて検査結果を判定することを特徴とする。
また、本発明は、上記発明において、前記検査ロボットは、各検査ツールを、前記検査基準データの作成時と同じ位置、姿勢になるように配置して前記検査データを取得することを特徴とする。
また、本発明は、上記発明において、前記検査情報には、1つの製品について設定された複数の検査対象箇所と、各検査対象箇所の検査に利用する検査ツールの種類及び検査方法とが設定されており、前記検査ロボットは、検査対象箇所に応じて、各腕部に装着する検査ツール及び検査方法を変更しながら、全ての検査対象箇所の検査データを取得することを特徴とする。
また、本発明は、上記発明において、前記検査情報は、製品の種類及び組立工程に合わせて準備されており、前記制御部は、検査する製品の種類及び組立工程に対応する検査情報を前記検査ロボットに送信することを特徴とする。
また、本発明は、上記発明において、前記検査ロボットは、検査データの取得を阻害する対象物を移動させて前記検査データを取得可能な状態にしてから前記検査データを取得することを特徴とする。
また、本発明は、上記発明において、前記制御部が検査対象箇所の検査結果を不合格とした場合に、前記検査ロボットが前記検査対象箇所を検査に合格できる状態にすることを特徴とする。
また、本発明は、上記発明において、前記検査ロボットは、カメラユニット及びライトユニットを検査ツールとして利用して、前記ライトユニットで検査対象箇所に対して所定の距離及び角度から光を照射しながら、前記カメラユニットで所定の距離及び角度から前記検査対象箇所を撮像して、撮像した画像を検査データとして前記制御部へ送信することを特徴とする。
また、本発明は、上記発明において、前記検査ロボットは移動可能な台座部の上に設置されており、前記台座部には複数種類の検査ツールを載置するためのテーブルが設けられていることを特徴とする。
また、本発明は、製品の画像を撮像して製品検査を行う検査ロボットシステムであって、検査ツールを脱着可能な2本の多関節腕を有する検査ロボットと、前記検査ロボットで製品を撮像した画像を該画像に対応して予め準備されているマスター画像と比較して検査結果を判定する制御部とを備え、前記検査ロボットは、複数種類の検査ツールの中から検査に適したカメラユニット及びライトユニットを選択して各腕部に装着し、前記カメラユニット及び前記ライトユニットをそれぞれ検査対象箇所に合わせた位置及び角度に配置して、前記ライトユニットから所定の光を照射しながら前記カメラユニットで前記検査対象箇所を撮像した画像を前記制御部へ出力することを特徴とする。
また、本発明は、上記発明において、前記検査ロボットは、各腕部に装着するカメラユニット及びライトユニットの種類と、前記カメラユニット及び前記ライトユニットの配置位置とを検査対象箇所に応じて変更しながら、複数の検査対象箇所の画像を撮像して、前記制御部は、各検査対象箇所の検査結果を判定することを特徴とする。
また、本発明は、上記発明において、前記制御部は、検査対象箇所を指定して該検査対象箇所の検査方法の設定を指示する命令を受けると、前記検査対象箇所を撮像して得られる画像を評価しながらカメラユニットの種類、位置及び角度と、ライトユニットの種類、位置及び角度とを決定すると共に、決定結果に基づいて前記検査対象箇所を撮像したマスター画像を生成することを特徴とする。
本発明によれば、検査対象箇所に応じて、検査に利用するカメラやライト等の検査ツールと、検査ツールを利用して検査データを取得する方法とを、予め検査情報として設定しておいて、検査ロボットで検査情報に基づく製品検査を行わせることができるので効率よく製品検査を実施することができる。
また、本発明によれば、例えば、複雑な形状を有する製品の画像を撮像して検査を行うような場合でも、検査対象箇所に応じて、カメラの種類やライトの種類を変更したり、カメラの位置及び角度、ライトの位置及び角度を変更したりすることができるので、高品質な画像を撮像して精度よく製品検査を実施することができる。
以下に、添付図面を参照して、本発明に係る検査ロボットシステムについて詳細に説明する。図1は、本実施形態に係る検査ロボットシステムの概要を説明する模式図である。また、図2は、検査ロボットシステムの機能構成概略を示すブロック図である。
検査ロボットシステムは、検査ロボット100と、検査ロボット100に接続された制御部10と、制御部10に接続された表示部20、操作部30及び記憶部40とを含んでいる。制御部10、表示部20、操作部30及び記憶部40を利用して、検査ロボット100による検査内容の設定や指示、検査結果の確認等を行うことができる。検査ロボット100と制御部10との間は、有線又は無線でネットワーク接続できるようになっている。
制御部10は、例えばコンピュータ装置から成り、検査を行うために必要な検査情報を検査ロボット100へ送信したり、検査ロボット100が取得した検査データを受信して検査結果を判定したりする機能を有する。表示部20は、例えば液晶表示装置から成り、テキストや画像等の各種情報を出力表示するために利用する。操作部30は、例えばマウスとキーボード等から成り、表示部20に表示された情報を確認しながら、検査に関する設定や指示を行う各種情報を入力するために利用する。
記憶部40は、例えば不揮発性の記憶装置から成る。図2に示すように、記憶部40には、検査情報データ41、マスターデータ42及び検査データ43が保存されている。検査情報データ41は、検査ロボット100を利用して、検査対象から検査データを得るための検査情報を含んでいる。マスターデータ42は、検査ロボット100で得られた検査データを評価するための検査基準データを含んでいる。検査データ43は、検査ロボット100を利用して行った検査に関する情報や、検査で得られた検査結果を含んでいる。また、記憶部40は、制御部10の動作に必要となるプログラムの保存やデータの一時保存にも利用される。
検査ロボット100は、図1に示すように、頭部、胴体部、右腕部及び左腕部を有している。これら各部を関節で接続すると共に、各部が関節を含む構成とすることで、各部を所定範囲内で自由に動かせるようになっている。図1には示していないが、検査ロボット100は、底面にキャスターを設けた台座の上に固定されている。また、検査ツールとして利用するカメラユニット200bやライトユニット210等のエンドエフェクタを載置するテーブル50も台座に設けられており、台座を移動させることによって、検査ロボット100及びエンドエフェクタを移動できるようになっている。
検査ロボット100は、図2に示すように、ロボット制御部110と、頭部を駆動する頭部駆動部120と、頭部に設けられた頭部カメラ121と、胴体部を駆動する胴体部駆動部130と、右腕部及び左腕部を駆動する腕部駆動部140と、右腕部及び左腕部のそれぞれに設けられた腕部カメラ141と、右腕部及び左腕部のそれぞれに接続された各エンドエフェクタを駆動するエンドエフェクタ駆動部150とを有している。
制御部10が、予め検査情報データ41に準備されている検査情報をロボット制御部110へ送信すると、ロボット制御部110は、検査情報に基づいて各部120〜150を制御して検査を実行し、得られた検査データを制御部10へ送信する。そして、制御部10が、検査ロボット100で得られた検査データと、この検査データに対応して予めマスターデータ42に準備されている検査基準データとを比較して検査結果の判定を行うようになっている。
検査ロボット100の右腕部の先端及び左腕部の先端には接続部が設けられており、頭部カメラ121及び腕部カメラ141を利用して、この接続部に対応して準備されたエンドエフェクタを腕部に脱着できるようになっている。
検査ロボット100の頭部には、人間の両目の間隔と同程度に距離を離して配置された2つの頭部カメラ121が設けられている。また、検査ロボット100の右腕部には腕部カメラ141が設けられ、左腕部にも腕部カメラ141が設けられている。ロボット制御部110は、頭部駆動部120を制御して頭部を動かしながら頭部カメラ121によって周囲を撮像し、各腕部の接続部とエンドエフェクタとの位置関係を認識する。そして、腕部駆動部140を制御して腕部をエンドエフェクタへ近付けて、腕部カメラ141でエンドエフェクタをとらえると、腕部カメラ141を利用して接続部とエンドエフェクタとの位置関係を認識する。そして、腕部駆動部140を制御して接続部の先端にエンドエフェクタを装着する。腕部からエンドエフェクタを取り外す際にも、同様に、頭部カメラ121及び腕部カメラ141を利用して、腕部、腕部の接続部及びエンドエフェクタと、テーブル50との位置関係を認識し、テーブル50上でエンドエフェクタを取り外す。
このように、検査ロボット100は、頭部カメラ121を利用して周囲の様子を認識しながら右腕部及び左腕部を物体に近付ける。そして、各腕部の腕部カメラ141を利用して物体の位置や物体までの距離を認識しながら各腕部の動きを制御することにより、エンドエフェクタの脱着や検査を行う。
図1に示すテーブル50は、検査ロボット100が、エンドエフェクタを取扱可能な領域内に設けられている。カメラユニット200(200a、200b)、ライトユニット210(210a、210b)、ハンドユニット220等の複数種類のエンドエフェクタを、検査ツールとしてテーブル50上に配置すれば、ロボット制御部110が各部を制御して、作業内容に応じて必要なエンドエフェクタを選択し、これを右腕部及び左腕部のそれぞれに装着して利用することができる。また、検査内容や作業内容に応じて、エンドエフェクタを交換することもできる。
各腕部にエンドエフェクタを装着すると、エンドエフェクタへの電源供給が開始され、ロボット制御部110とエンドエフェクタとの間でデータ通信可能な状態となる。例えば、エンドエフェクタが、モータと、モータの回転を制御するエンドエフェクタ駆動部150とを含む場合には、このエンドエフェクタを腕部に接続すると、ロボット制御部110がエンドエフェクタ駆動部150に制御信号を送信してモータを制御できるようになる。また、エンドエフェクタが、ライトと、ライトの光量、波長、発光方法等を制御するエンドエフェクタ駆動部150とを含む場合には、このエンドエフェクタを腕部に接続すると、ロボット制御部110がエンドエフェクタ駆動部150に制御信号を送信してライトを制御できるようになる。また、エンドエフェクタが、カメラと、カメラのズーミングやピント調整を制御するエンドエフェクタ駆動部150とを含む場合には、このエンドエフェクタを腕部に接続すると、ロボット制御部110がエンドエフェクタ駆動部150に制御信号を送信してカメラを制御できるようになる。
これにより、図1に示すように、カメラユニット200を腕部に装着した場合には、カメラで静止画像や動画像等の画像を撮像し、制御部10へ入力することが可能となる。また、ライトユニット210を腕部に装着した場合には、ライトから照射する光の種類、光量、発光方法等を調整することができる。
多関節腕を有するロボットの基本的な機能及び動作については従来技術を利用することができるので詳細な説明は省略し、以下では、説明を簡単にするため、ロボット制御部110、頭部駆動部120、頭部カメラ121、胴体部駆動部130、腕部駆動部140、腕部カメラ141、エンドエフェクタ駆動部150によって実現する機能及び動作を、検査ロボット100によるものとして記載する。また、以下では、エンドエフェクタとして、図1に示すカメラユニット200、ライトユニット210及びハンドユニット220を利用する場合を例に検査ロボット100による製品検査の方法について説明する。
検査ロボット100がエンドエフェクタを利用して作業を行える範囲内に、検査対象とする製品300を図1に示すように設置して、製品検査を開始する。検査を開始すると、検査ロボット100は、頭部カメラ121によって製品300を撮像した画像を制御部10へ出力する。なお、図1では、製品300と検査ロボット100との間にテーブル50が配置された例を示しているが、テーブル50の位置は、検査ロボット100の側方や後方へ変更することもできる。
制御部10は、検査ロボット100で得られた画像から製品300の種類を認識すると共に、記憶部40の検査情報データ41を参照して、この製品300に対応する検査情報を取得する。検査情報データ41には、製品の種類毎に予め準備された検査情報が含まれている。検査情報には、製品に設定された検査対象箇所の位置、検査に必要となるエンドエフェクタの種類、検査時に各エンドエフェクタを配置する位置及び角度(姿勢)、エンドエフェクタを利用して取得する検査データの種類、検査データの取得方法等の情報が含まれている。すなわち、検査情報には、検査ロボット100が、どのエンドエフェクタを利用して、製品のどこをどのように検査すべきであるかを示す情報が含まれている。
制御部10が、記憶部40から取得した検査情報を検査ロボット100に入力すると、検査ロボット100は、製品300の検査を開始する。検査ロボット100は、まず、製品300の位置や向きを認識する。
例えば、検査情報には、製品300に含まれる所定部品の位置及び形状に関する情報が含まれている。検査ロボット100は、頭部カメラ121及び腕部カメラ141を利用して、基準となる部品を認識する。そして、認識した部品の位置及び形状に基づいて所定の座標空間を設定することにより、検査情報で指定された位置に、指定された角度で、エンドエフェクタを配置できるようになる。
なお、製品300がターンテーブル上に設置されている場合には、製品300が検査ロボット100と正対するように、検査ロボット100がターンテーブルを回転させるよう設定することもできる。検査ロボット100は、製品300の筐体や所定部品の認識結果に基づいて製品300との位置関係を認識し、ターンテーブルを回転させる。この場合は、ターンテーブルが回転して、製品300が検査ロボット100と正対する位置となった後、基準となる所定部品の位置及び形状を認識して所定の座標空間を設定する処理を実行する。また、図1に示すように、製品300の前面扉を開いて内部を検査するような場合には、検査ロボット100に前面扉の位置を認識させて、前面扉が検査を阻害する位置にある場合には、検査を阻害しない位置へ前面扉を移動させるように設定することもできる。
検査情報には、検査に利用するカメラユニット200及びライトユニット210の種類を指示する情報と、カメラユニット200及びライトユニット210をそれぞれ左右いずれの腕部に装着するかを指示する情報とが含まれている。検査ロボット100は、これらの指示情報に基づいて、例えば図1に示すように、指定のカメラユニット200a及びライトユニット210aを、それぞれ指定された腕部に装着する。
また、検査情報には、製品300について設定された座標空間内のどの位置でどの角度からライトユニット210aの光を照射するかを指示する情報と、どの位置でどの角度からカメラユニット200aで画像を撮像するかを指示する情報とが含まれている。検査ロボット100は、これらの指示情報に基づいて、カメラユニット200a及びライトユニット210aをそれぞれ所定位置に所定の姿勢で配置して、製品300を撮像する。
検査ロボット100は、3次元空間内で右腕部及び左腕部を自由に動かすことができる。このため、検査対象箇所の位置や向きに応じて、カメラユニット200及びライトユニット210を適切な位置へ移動させることができる。図3は、検査対象箇所と検査時のエンドエフェクタとの位置関係の例を示す模式図である。図3では、製品300の一部領域を側方から見た断面を模式的に示している。
例えば、図3(a)に示すように、上面301bに設定された検査対象箇所302bを撮像する際には、カメラユニット200及びライトユニット210を検査対象箇所302bの上方へ移動させて、検査対象箇所302bにある部品等を撮像することができる。また、正面301a(図面右側)に設定された検査対象箇所302aを撮像する際には、カメラユニット200及びライトユニット210を検査対象箇所302aの正面(図面右側)へ移動させて、検査対象箇所302aにある部品等を撮像することができる。このように、検査対象箇所302a、302bの位置に応じて、カメラユニット200及びライトユニット210を適切な位置へ移動させることができるので、製品検査に利用可能な高品質な画像を撮像することができる。
また、例えば、図3(a)に示すように、ドロア301cの内部にある部品302cは、外部から撮像しようとしても、ドロア301cによって阻害され画像を取得することができない。このような場合に、検査ロボット100は、図1に示すハンドユニット220を利用して、図3(b)に示すようにドロア301cを手前側に引き出す。そして、エンドエフェクタをカメラユニット200及びライトユニット210に交換して、ライトユニット210でドロア301cの内部を照らしながら、カメラユニット200で部品302cを撮像する。このように、ドロア301c内に所定部品302cが組み付けられているか否かを検査したい場合にも、検査対象箇所をドロア301c内に設定して検査を行うことができる。また、検査後には、再びエンドエフェクタをハンドユニット220に交換して、ドロア301cを閉じて図3(a)に示す状態へ戻してから検査を終了することもできる。このような検査ロボット100の動作は、全て検査情報で設定することができる。
検査ロボット100は、検査対象箇所として設定された領域の大きさ、検査ロボット100から検査対象箇所までの距離等に応じて、検査対象箇所の撮像に適したカメラユニット200及びライトユニット210を選択して利用する。図4は、検査対象箇所に応じて設定されたカメラユニット200及びライトユニット210の例を示す模式図である。図4では、カメラユニット200による撮像範囲を実線で示し、ライトユニット210(210a〜210c)による光の照射範囲を破線で示している。
例えば、凹凸のある部品を対象として検査対象箇所を設定して、この部品のエッジが明確となるように画像を撮像したい場合には、図4(a)に示すように、複数のLED光源を環状に配置したリングライトから成るライトユニット210aを、検査対象箇所303へ近付けて配置して、検査対象箇所303を周囲から照らしながら、カメラユニット200による撮像を行う。また、例えば、サイズの大きい部品を対象として検査対象箇所を設定して撮像する場合等、広範囲を撮像したい場合には、図4(b)に示すように、リングライトから成るライトユニット210bを検査対象箇所304から離れた位置に配置して、検査対象箇所304全体を照らしながら撮像する。
検査ロボット100では、検査対象箇所303、304の位置や状態にバラツキがある場合でも、検査時にカメラユニット200から出力される画像を評価しながら、カメラユニット200の位置や角度を調整したり、ライトユニット210の位置や角度を調整したりすることができる。検査情報で指定された位置及び角度にカメラユニット200及びライトユニット210を配置した後、カメラユニット200で得られた画像の品質に基づいて、カメラユニット200及びライトユニット210の配置位置を調整すれば、白飛びや黒つぶれを抑えて焦点が合った高品質な画像を取得することができる。このような検査ロボット100によるエンドエフェクタの位置調整動作についても、検査情報で設定することができる。
また、例えば、製品筐体の傷や汚れを確認したい場合には、図4(c)に示すように、複数のLED光源を線上に配置したライトユニット210cで、斜め方向から筐体へ光を照射しながら画像を撮像する。これにより、撮像した画像に、筐体表面を引っ掻いた傷305や筐体表面に付着した汚れの影等が写りやすくなる。
検査時には、例えば、ライトユニット210cの配置位置を固定した状態でカメラユニット200の位置や角度を変更したり、カメラユニット200の配置位置を固定した状態でライトユニット210cの位置や角度を変更したりすることで、筐体表面の傷や汚れの有無を詳細に検査することができる。また、ライトユニット210c及びカメラユニット200を移動させながら筐体を走査するように画像を撮像すれば、筐体全面の品質検査を行うことができる。このような検査ロボット100による検査時の動作についても、検査情報で設定することができる。
このように、カメラユニット200及びライトユニット210の種類、位置、角度等を検査対象箇所に合わせて設定し、設定した情報を検査情報として予め準備しておくことで、検査時には検査対象箇所の種類、及び検査したい内容に応じて撮像した高品質画像を取得することができる。
また、検査時のカメラユニット200及びライトユニット210の位置及び角度の指定については、固定された位置を指定して1枚の画像を撮像する態様の他、カメラユニット200及びライトユニット210の少なくともいずれか一方を、所定の範囲内で動かしながら、各位置で画像を撮像するように指定したり、所定の範囲内で撮像した画像の中から所定条件を満たす画像を検査対象画像とするように指定したりする態様であっても構わない。同じ検査対象箇所に対して、撮像条件を変更しながら複数枚の画像を撮像して、各画像の白飛び、黒つぶれ、合焦状態等を評価し、最良の画像を選択して検査画像とするよう設定する。また、例えば、同じ検査対象箇所に対して、撮像条件を変更しながら複数枚の画像を撮像して、検査基準データとして予め準備されているマスター画像との類似度が最大値となる画像を選択して検査画像とするよう設定する。
こうして検査ロボット100が検査対象箇所を撮像した検査画像が得られると、制御部10は、検査画像と、検査画像に対応して予め準備されているマスター画像とを比較して検査結果の判定を行う。記憶部40のマスターデータ42には、検査情報で設定されている各検査対象箇所に対応するマスター画像が予め準備されている。製品300を撮像して得られた検査画像と、マスター画像とを比較して、所定の範囲内で一致すれば検査結果は合格と判定され、一致しなければ不合格と判定される。
図5は、マスター画像400及び検査画像500の例を示す図である。図5に示すマスター画像400は、2つの検査対象箇所401a、401bに含まれるネジが、忘れずに製品300に組み付けられていることを検査するための画像である。
図5(a)に示すように、検査ロボットシステムでは、1つのマスター画像400上で、複数の検査対象箇所401a、401bを設定できるようになっている。マスター画像400と、マスター画像400について設定された各検査対象箇所401a、401bの位置及びサイズを示す情報は、検査情報データ41の検査情報に含まれている。
図5の例では、製品300を撮像した検査画像500の中に、マスター画像400に設定された検査対象箇所401a、401bに対応して2本のネジが存在すれば検査結果は合格となり、ネジが1本しか存在しない場合及びネジが1本も存在しない場合には不合格となる。なお、マスター画像400と検査画像500との比較は、例えば、正規化相関を利用して類似度を算出することによって行うが、これについては従来技術を利用することができるので以下では検査方法の概略を説明する。
制御部10は、製品300の検査を開始して、図5(b)に示す検査画像500が得られると、記憶部40のマスターデータ42を参照して、この検査画像500に対応して保存されている図5(a)のマスター画像400を読み出す。また、制御部10は、検査情報データ41を参照して、マスター画像400上に設定されている検査対象箇所401a、401bの位置及びサイズを認識する。
そして、制御部10は、図5(b)に示す検査画像500上で、同図(a)に示す検査対象箇所401aに対応する領域を設定した後、この領域の中心位置はそのままに縦横のサイズを2倍に拡大した探索領域501aを設定する。続いて、制御部10は、マスター画像400から切り出した検査対象箇所401aの部分画像で探索領域501a内を走査して、検査対象箇所401aに対応する部分領域502aを特定する。マスター画像400に設定されているもう1つの検査対象箇所401bについても、同様に、検査画像500上に、縦横のサイズを拡大した探索領域501bを設定して、この探索領域501b内で、検査対象箇所401bに対応する部分領域502bを特定する。なお、探索領域501a、501b内での部分領域502a、502bの探索は、テンプレートマッチング等の技術を利用して行う。
このように、検査画像500上に、マスター画像400に設定された検査対象箇所401a、401bよりも広い探索領域501a、501bを設定して、検査対象箇所401a、401bに対応する部分領域502a、502bを探索することにより、製品300の部品や組立に起因するバラツキがある場合でも、検査対象とする領域を特定して正確に検査を行うことができる。なお、図5では、検査対象箇所401a、401bに対して探索領域501a、501bの縦横を2倍に拡大する例を示しているが、探索領域の拡大率は検査対象や検査画像に応じて設定される。各検査対象箇所に対応する拡大率についても、検査情報で設定することができる。
検査画像500上で、マスター画像400に設定された各検査対象箇所401a、401bに対応する部分領域502a、502bを特定すると、制御部10は、各検査対象箇所401a、401bの画像と、特定した各部分領域502a、502bの画像とを比較して検査結果の判定を行う。
図6は、マスター画像400及び検査画像500に基づく検査結果の例を説明するための図である。図6(a)左側の画像は、マスター画像400から、検査対象箇所401aとして設定された部分領域を切り出した部分画像411aを示している。図6(a)右側の画像は、検査画像500から、検査対象箇所401aに対応する部分領域502aを切り出した部分画像512aを示している。これらの2つの部分画像411a、512aを、正規化相関を利用して評価すると、予め設定された所定の閾値を超える類似度が得られるので、検査結果は合格、すなわち忘れずにネジが組み付けられていると判定される。
図6(b)左側の画像は、マスター画像400から、検査対象箇所401bとして設定された部分領域を切り出した部分画像411bを示している。図6(b)右側の画像は、検査画像500から、検査対象箇所401bに対応する部分領域502bを切り出した部分画像512bを示している。これらの2つの部分画像411b、512bを、正規化相関を利用して評価すると、予め設定された所定の閾値より低い類似度が得られるので、検査結果は不合格、すなわちネジの組み忘れがあると判定される。この結果、図5に示す検査画像500に基づく検査結果は不合格となる。
このように、製品検査用に予め準備されているマスター画像400と、検査ロボット100を利用してマスター画像400と比較可能に撮像した検査画像500とに基づいて、ネジの組み忘れ等を発見する検査を行うことができる。
この他、部品の組み忘れや組付不良、シールの貼り忘れや貼付不良等の検査についても、同様にマスター画像及び検査画像を利用して行うことができる。例えば、図7は、製品に貼り付けられたシールを検査した検査結果の例を示す図である。図7(a)は、マスター画像を示し、同図(b)は検査画像を示している。これら2つの画像を比較して得られる類似度は、予め設定された所定の閾値より低くなる。このため、検査結果は不合格となり、図7(b)に示すように、シールの一部が浮いた状態で貼り付けられた貼付不良を検査によって発見することができる。
なお、注意書きや説明書き等の文字を含むシールの検査については、正規化相関等を利用した画像比較によって判定を行う態様の他、検査基準データとして、シールに含まれる所定文字列の内容を準備しておいて、製品300を撮像した検査画像から、同一の文字列を読み取れるか否かに応じて検査を行うようにしてもよい。
また、シールを検査する際には、貼付位置の検査を行うこともできる。貼付位置の検査を行う場合には、例えば、筐体の一部と、シールとが同じ画像内に含まれるように画像を撮像して、筐体とシールの位置関係からシールの貼付位置を評価して検査結果を判定する。
次に、券売機を検査対象とする場合を例に、検査ロボットシステムの具体的な動作例について説明する。制御部10を起動すると、表示部20の画面上には、初期画面として、メニュー画面が表示される。
図8は、検査ロボットシステムのメニュー画面を示す図である。このメニュー画面で、登録モード又は検査モードを選択して実行することができる。登録モードは、検査対象箇所の検査情報、検査基準データ等を設定して、記憶部40の検査情報データ41及びマスターデータ42に登録するためのモードである。検査モードは、記憶部40の検査情報データ41及びマスターデータ42を参照して、予め登録されている検査情報及び検査基準データに基づいて製品検査を行うためのモードである。
まず、券売機を例に、登録モードについて説明する。図9は、券売機330の外観を示す模式図である。また、図10は、券売機330の前面を開いて内部を露出した状態を示す模式図である。図1に示すように、検査ロボット100の正面側に設定された所定領域内に券売機330を設置して、図8に示すメニュー画面上で登録モードを選択して、検査情報及び検査基準データの設定を開始する。なお、マスター画像等、検査に合格する基準となる検査基準データを取得するため、登録モードでは、検査に合格する券売機330を利用して設定操作を行う。
登録モードを選択すると、検査時に、登録モードで設定した検査位置を正確に再現できるように、券売機330の内外に検査用の座標空間を設定するための基準設定が行われる。例えば、図10に示すように、券売機330の前面を開いて内部を検査する際には、券売機330の本体前面下部に組み付けられる所定部品340を基準として座標空間を決めるように設定する。この座標空間を利用してカメラユニット200やライトユニット210の空間座標を設定すれば、検査時には、まず所定部品340の位置及び形状を認識して座標空間を設定して、登録モードで設定したカメラユニット200及びライトユニット210の位置を再現することができる。
例えば、図10に示すように、券売機330内に貼り付けられている注意書きや説明書きのシール380の貼付不良を検査するための検査情報及び検査基準データを設定する場合には、シール380の大きさや、シール380から検査ロボット100までの距離に応じて、カメラユニット200及びライトユニット210の種類を選択する。そして、選択したカメラユニット200及びライトユニット210で、白飛びや黒つぶれがなく合焦したシール380の画像を撮像できるように、シール380を照らすライトユニット210の位置及び角度と、シール380を撮像するカメラユニット200の位置及び角度とを設定する。こうして設定したカメラユニット200及びライトユニット210の種類、カメラユニット200及びライトユニット210の位置及び角度を、検査情報として、記憶部40の検査情報データ41に登録する。また、この登録内容に基づいて撮像したシール380の画像を、マスター画像として、記憶部40のマスターデータ42に登録する。券売機330の内部に組み付けられている部品360やネジ370についても、同様に、組み忘れを発見するための検査情報やマスター画像を記憶部40に登録することができる。
また、図9に示す券売機330の前面を対象に検査内容を設定することもできる。この場合も、筐体350等を基準に座標空間を決定するように設定した後、検査情報及び検査基準データの設定を開始する。
例えば、エンドエフェクタとして、鍵を掴んで鍵穴335に差し込み、鍵を回転する際に鍵に作用する回転トルクを計測可能なユニットを準備する。そして、このユニットで掴んだ鍵を、図9に示す券売機330の鍵穴335に差し込んで解錠及び施錠を行う際のトルクを計測するように検査情報を設定して、記憶部40の検査情報データ41に登録する。また、計測したトルクの値を合格と判定する数値範囲を設定して、検査基準データとして、記憶部40のマスターデータ42に登録する。これにより、製品検査では、所定のトルクで、鍵による解錠及び施錠ができるか否かを検査することができる。
また、例えば、エンドエフェクタとして、テスト用の硬貨及び紙幣を掴んで、券売機330の硬貨投入口333及び紙幣投入口334のそれぞれに投入可能なユニットを準備する。そして、このユニットで掴んだ硬貨や貨幣を券売機330に投入して、対応するLED331及びボタン336の画像を撮像するように検査情報を設定して、記憶部40の検査情報データ41に登録する。また、この登録内容に基づいて撮像した画像を、マスター画像として、記憶部40のマスターデータ42に登録する。これにより、製品検査では、券売機330に貨幣を投入した際に、対応するLED331や、ボタン336に内蔵されているLEDが点灯するか否かを検査することができる。
また、貨幣を投入した後に続いて返却ボタン332を操作して、硬貨取出口337の内部及び紙幣投入口334を撮像するように検査情報を設定して、記憶部40の検査情報データ41に登録する。そして、撮像した画像が硬貨及び紙幣を含む画像となっていれば検査結果を合格とするように検査基準データを設定して、記憶部40のマスターデータ42に登録する。これにより、製品検査では、返却ボタン332を操作することにより、硬貨が硬貨取出口337に返却され、紙幣が紙幣投入口334から返却されることを検査することができる。なお、硬貨取出口337には、硬貨の飛び出しを防止するカバーが設けられているが、一方の腕部に装着したハンドユニット220でカバーを開いて、他方の腕部に装着したカメラユニット200で内部の硬貨の画像を撮像するよう検査情報を設定することができる。また、硬貨取出口337に返却された硬貨及び紙幣投入口334に返却された紙幣を回収して検査を終えるように検査情報を設定することもできる。
また、例えば、実際の券売機330の使用を再現して、券取出口338に所定の情報が印字された券を発券させて、発券時の液晶表示部339の画像と、発券された券の画像とを撮像するように検査情報を設定して、記憶部40の検査情報データ41に登録する。そして、検査合格となる液晶表示部339の画像と、検査合格となる券を撮像した画像とを、マスター画像として、記憶部40のマスターデータ42に登録する。これにより、製品検査では、実際に発券処理を行って、液晶表示部339の動作や、発券処理の動作を検査することができる。
検査ロボットシステムでは、検査に必要なエンドエフェクタを準備して、検査時に検査ロボット100の右腕部及び左腕部に装着する各エンドエフェクタの種類、各エンドエフェクタの動かし方、各エンドエフェクタを利用して行う検査データの取得方法、取得した検査データの判定方法を設定することにより、様々な検査を行うことができる。例えば、検査画像の撮像方法を設定する際には、白飛びや黒つぶれがなく、焦点が合い、検査に適した高品質画像を得られるように、撮像に利用するカメラユニット200及びライトユニット210の種類を選択し、カメラユニット200及びライトユニット210の位置や角度等、検査画像の撮像方法を設定する。例えば、従来、熟練工が行っていた検査内容を参考に撮像方法を設定すれば、従来同様の検査を、検査ロボット100を利用して効率よく行うことができる。
検査ロボットシステムでは、検査情報及び検査基準データの登録を、検査ロボット100、表示部20及び操作部30を利用しながら手動で行うが、検査画像及びマスター画像を利用して行う検査については、部品やネジ等を対象とする検査対象箇所の位置を指定して、検査対象箇所に応じた検査情報及び検査基準データを自動設定させることも可能となっている。
図11は、図8に示すメニュー画面で登録モードを選択した際に表示される設定画面の例を示す図である。図11に示す画面を確認しながら、操作部30を操作して、機種、仕様及びユニットの項目に、それぞれ券売機330の機種名、仕様及びユニットの情報を入力する。なお、ユニットとは券売機330の製造組立の工程を示す情報である。工程によって券売機330の組立状況が異なるため、工程に応じた検査内容を設定できるようになっている。
券売機330に関する情報を入力した後、図11に示す画面の検査位置の項目に、券売機330に設定された検査対象箇所を示す番号を入力する。そして、画面上で手動設定ボタンを押せば、上述したように、エンドエフェクタの種類や検査方法等を含む検査情報と、マスター画像等の検査基準データとを手動設定することができる。
一方、図11に示す画面上で検査対象箇所を指定して自動設定ボタンを押せば、自動設定を開始することができる。具体的には、検査ロボット100の頭部カメラ121や腕部カメラ141を利用して、図10に示す券売機330内部を撮像する。そして、図11に示すように、撮像した画像601を表示部20の画面上に表示した状態で、操作部30を操作して、検査対象箇所を囲うように領域602を指定する。領域602を指定した状態で画面上の自動設定ボタンを押すと、制御部10は、指定領域602を検査するための検査情報及び検査基準データを自動設定する処理を開始する。なお、図11の例は、券売機330内部に貼り付けられたシールを検査対象として指定した場合を示している。
まず、制御部10は、検査ロボット100の頭部カメラ121や腕部カメラ141を利用して、図10に示す券売機330の内部を撮像し、指定領域602のシールの位置を認識する。そして、制御部10は、検査ロボット100から指定領域602までの距離や、指定領域602の大きさ等に基づいて、撮像に適したカメラユニット200及びライトユニット210の種類を選択する。また、制御部10は、検査ロボット100と指定領域602との位置関係に基づいて、選択したカメラユニット200及びライトユニット210をそれぞれ右腕部及び左腕部のいずれに装着するかを決定する。
続いて、右腕部及び左腕部のそれぞれに、選択したカメラユニット200及びライトユニット210を装着した検査ロボット100は、検査対象箇所として指定された指定領域602を撮像する。制御部10は、検査ロボット100を制御して、カメラユニット200及びライトユニット210を配置する位置や角度を変更しながら指定領域602にあるシールを撮像して、得られた画像で画像の歪、白飛び、黒つぶれ、合焦状態等を評価する。このとき、カメラユニット200及びライトユニット210の位置や角度を変更しても検査に利用できる高品質な画像が得られない場合には、制御部10は、右腕部と左腕部との間でカメラユニット200とライトユニット210を持ちかえたり、カメラユニット200の種類やライトユニット210の種類を変更したりするなどして、得られる画像の改善を試みる。そして、検査に利用可能な、最良の画像を取得できるカメラユニット200及びライトユニット210の種類、カメラユニット200の位置及び角度、ライトユニット210の位置及び角度等の条件を決定すると、制御部10は、決定した条件と、この条件で撮像した画像とを表示部20に表示する。
図12は、自動設定を行って得られた結果が表示された画面の例を示す図である。図12に示すように、画面右側には、左腕部について設定されたライトユニット210の種類、ライトユニット210の位置及び角度等の情報が表示される。また、同様に、右腕部について設定されたカメラユニット200の種類、カメラユニット200の位置及び角度等の情報が表示される。そして、これらの設定情報の左側には、設定された条件で撮像した画像603が表示される。
こうして制御部10によって自動設定された条件と、この条件で撮像された画像603とを画面上で確認して、問題がなければ、画面上の登録ボタンを押す。これにより、指定領域602を検査対象箇所として自動設定した条件を、検査情報として、記憶部40の検査情報データ41に登録することができる。また、登録した検査情報に基づいて指定領域602を撮像した画像603を、マスター画像として、記憶部40のマスターデータ42に登録することができる。
一方、自動設定された条件や画像603に問題があると判断した場合には、図12に示す画面上で、左腕部について設定された条件、右腕部について設定された条件を手動で変更することができる。条件を変更すると、制御部10から検査ロボット100へ変更情報が送信される。そして、検査ロボット100が変更後の条件で指定領域602を撮像した画像603が、表示部20の画面上に表示される。この画像603を確認して、マスター画像として利用可能になったと判断した場合には、登録ボタンを押して、変更後の条件で、検査情報及びマスター画像データを登録することができる。
なお、検査情報及びマスター画像を記憶部40に登録する際には、先に入力した券売機330の機種、仕様、ユニット、及び検査位置を示す情報と関連付けられた状態で登録される。すなわち、図12に示す各情報が関連付けられた状態で登録される。
自動設定された検査情報及びマスター画像の登録を終えると、図11に示す画面に戻る。このとき、画面上の検査位置の番号が「2」に変更され、2つ目の検査対象箇所を登録する画面となる。一方、図12に示す画面上でキャンセルボタンを押して自動設定をキャンセルした場合には、図11に示す画面に戻り、番号「1」の1つ目の検査対象箇所について設定をやり直すことになる。
図11及び図12に示す画面で操作を行いながら、手動設定又は自動設定で、部品、ネジ、シール、筐体等について検査情報及び検査基準データを設定する。全ての検査対象箇所についての設定を終えると、図11に示す終了ボタンを押して登録モードの動作を終了する。登録モードを終了すると、表示部20の画面は図8に示すメニュー画面に戻る。なお、図11に示す画面でキャンセルボタンを押すと、登録モードで行った全ての操作をキャンセルしてメニュー画面に戻ることができる。
次に、券売機330を例に、検査モードについて説明する。登録モードで、手動設定又は自動設定により券売機330を検査するための検査情報及び検査基準データの登録を行った後、登録内容を利用して、券売機330の検査を行えるようになる。図1に示すように、検査ロボット100の正面側に設定された所定領域内に、検査対象とする券売機330を設置して、図8に示すメニュー画面で検査モードを選択して検査を開始すると、表示部20の画面上には図13に示す画面が表示される。
図13は、メニュー画面で検査モードを選択した際に表示される画面の例を示す図である。画面上部にある機種、仕様及びユニットの項目に、検索したい情報を入力して検索ボタンを押せば、検査可能な機種、仕様及びユニットが検索され、検索結果が画面下側に一覧表示される。
券売機330の内部を検査したい場合には、図13に示すように、実行したい検査に対応する検査情報のチェックボックスにチェックを入れて、画面上の選択ボタンを押す。このとき、同じ製品について実施可能な2種類の検査内容が設定されている場合には、図13に示す画面上で複数のチェックボックスにチェックを入れて検査を開始することも可能となっている。なお、図13に示す画面でキャンセルボタンを押すと、検査モードの実行がキャンセルされて、図8に示すメニュー画面に戻るようになっている。
図13に示す画面上で選択ボタンを押すと、制御部10は、検査を担当する担当者と、検査対象とする券売機330の製造番号の入力を求める情報を表示部20の画面上に表示する。図14は、検査担当者及び検査対象装置に関する情報入力を求める画面の例である。検査を開始した担当者が、図14に示す画面で操作部30を操作して、担当者氏名又は担当者を特定可能な識別番号等の情報と、検査対象とする券売機330の製造番号とを入力して検査開始ボタンを押すと、検査ロボット100による券売機330の検査が開始される。
検査が開始されると、制御部10は、記憶部40の検査情報データ41及びマスターデータ42を参照して、図13に示す画面で選択された検査情報と、検査情報に対応して保存されている検査基準データとを読み出す。そして、検査情報を検査ロボット100に送信する。
具体的には、制御部10が、図10に示す券売機330内部を検査するために設定された検査情報を検査ロボット100へ入力する。これを受けて、検査ロボット100が、図1〜図7を参照しながら説明したように、右腕部及び左腕部のそれぞれに、指定されたカメラユニット200及びライトユニット210を装着する。そして、検査ロボット100は、ライトユニット210を指定位置へ移動させて指定角度から光を照射する。また、検査ロボット100は、カメラユニット200を指定位置へ移動させて指定角度から画像を撮像する。
1つ目の検査対象箇所の撮像を終えた後、2つ目の検査対象箇所を撮像するために、右腕部及び左腕部の間でカメラユニット200及びライトユニット210を持ち替えたり、画像撮像に使用するカメラユニット200の種類やライトユニット210の種類を変更したりする必要がある場合には、検査ロボット100は、カメラユニット200及びライトユニット210の持ち替え、カメラユニット200及びライトユニット210の種類の変更等、必要な動作を行った後、2つ目の検査対象箇所の撮像を行う。
こうして、検査ロボット100が、予め設定されている検査対象箇所を撮像すると、得られた検査画像が、表示部20の画面上に表示される。図15は、検査中に表示される画面の例を示す図である。1つ目の検査対象箇所を撮像した検査画像が「検査位置1」として表示され、2つ目の検査対象箇所を撮像した検査画像が「検査位置2」として表示される。こうして、検査情報に設定されている各検査対象箇所を撮像する度に、得られた検査画像が画面上に表示されるようになっている。画面上には、機種、仕様、ユニット、製造番号及び検査担当者を示す情報も表示される。
また、制御部10が、検査画像と、これに対応するマスター画像とを比較して、不合格と判定した検査対象箇所(画面上の「検査位置」)が発生すると、図15に示すように、検査不合格となった検査対象箇所の発生を示す情報604が画面上に表示される。また、画面上では、検査不合格となった検査位置の画像上に、検査不合格となった検査対象箇所を特定する情報が表示される。
図15に示す例では「検査位置2」の検査画像が、検査不合格となった検査対象箇所を含むため、「検査位置2」の文字が他の検査位置と異なる態様で示されている。また、この検査画像上で、検査不合格となったUSBマークのシール(検査対象箇所)を特定できるように、このシールを示す枠が、他のネジ等(検査対象箇所)を示す枠と異なる態様で示されている。
なお、図15では、図示の都合上、検査不合格を示す情報604及び検査不合格となった検査位置を示す文字を黒地に白文字で示し、検査不合格となった検査対象箇所を囲う枠を黒地に白の枠で示しているが、実際の画面上では、これらの文字、文字の背景及び枠を、赤等の目立つ色で表示したり点滅させたりすることができる。
検査情報で設定されている全ての検査対象箇所について検査を終えると、画面上には、検査終了を示す情報が表示される。この表示を受けて図15に示す画面上の終了ボタンを押すと、表示部20には、検査不合格となった検査対象箇所の検査結果を確認するための画面が表示される。
図16は、検査不合格となった検査対象箇所の検査結果を確認する画面の例を示す図である。図16に示すように、画面上には、不合格となった検査位置を示す情報と、この検査位置で得られた検査画像と、検査不合格となった検査対象箇所に対応するマスター画像とが表示される。また、2つの画像の下側に、検査結果に関する情報が一覧表示される。
図16の例では「検査位置2」で得られた検査画像に、3つの検査対象箇所が含まれるが、これらのうち検査不合格となった検査対象箇所が、枠で囲まれた状態で表示される。また、検査結果の一覧表示では、3つの検査対象箇所が検査領域として示されるが、これらのうち検査不合格となった検査領域の番号が他の番号と異なる態様で表示される。また、一覧表示では、検査情報で設定されている検査項目、規格値及び判定結果の内容が表示される。
なお、図16では、図示の都合上、検査不合格となった検査領域の番号を黒地に白文字で示しているが、実際の画面上では、これらの文字又は背景を赤等の目立つ色で表示したり点滅させたりして表示することができる。また、図16の例では、検査不合格となった検査対象箇所が1箇所のみの場合を示しているが、検査不合格となった検査対象箇所が複数ある場合には、画面上部にある、検査位置を示す番号の右側に、送りボタン及び戻りボタンが表示される。これらのボタンを操作することにより、検査画像及びマスター画像と、検査結果の一覧表示とを変更して、他の検査対象箇所の検査結果を確認できるようになっている。
検査担当者は、図16に示す画面上で、検査不合格となった検査対象箇所(画面上の「検査領域」)の検査結果を目視確認し、必要に応じて、券売機330で検査対象箇所の実物を目視確認する。このとき、検査ロボット100の腕部に装着されているライトユニット210を、画面上の検査画像を撮像した券売機330の撮像位置に近付けて、この撮像位置を照らすように設定することも可能となっている。検査ロボット100が、券売機330で撮像位置を示す動作を行うことで、検査担当者は、検査不合格となった検査対象箇所の実物の位置を容易に認識することができる。
検査担当者は、確認作業を行って、実際には不合格とされた検査対象箇所に問題はなく、不合格とした検査結果が誤判定であったと判断すると、図16に示す一覧表示の修正の項目に検査結果を変更する情報を入力する。また、検査担当者は、修正理由の項目に検査結果の修正理由を示す情報を入力する。具体的には、図16に示すように、不合格であるとして「NG」とされた判定結果を、合格を示す「OK」に変更するため、修正の項目に「OK」と入力する。そして、修正理由の項目には、検査担当者が目視確認して検査結果を修正したことが後で分かるように「目視確認OK」と入力する。検査不合格となった検査対象箇所が複数存在する場合には、各検査結果を確認して、必要に応じて検査結果を修正する操作を行う。そして、検査結果の確認及び修正の処理を終えた後、図16に示す画面上で修正登録ボタンを押すと、検査ロボット100を利用して得られた検査結果が、手作業で修正した結果に変更される。そして、表示部20には、再び図8に示すメニュー画面が表示される。
なお、検査ロボット100を利用して得られた検査結果に問題がない場合には、図16に示す画面上で、検査結果を変更する操作を行わずにキャンセルボタンを押してメニュー画面へ戻る。また、検査結果に、検査不合格となった検査対象箇所が含まれていない場合には、図15に示す画面で終了ボタンを押した際にメニュー画面へ戻ることになる。
検査を終えてメニュー画面へ戻る際には、検査結果が、記憶部40の検査データ43に登録されるようになっている。検査データ43には、検査を行った日時を示す情報と、図15に示す機種、仕様、ユニット、製造番号及び担当者を示す情報と、検査で得られた全ての検査画像と、全ての検査対象箇所について判定された検査結果とが保存される。また、検査結果を手修正した場合には、手修正されたことを示す情報と、図16に示す修正理由とが、検査結果と共に保存される。
このように、検査ロボットシステムでは、検査ロボット100の右腕部及び左腕部に装着するエンドエフェクタの種類、検査ロボット100が右腕部及び左腕部に装着した各エンドエフェクタを利用して行う検査方法等を、検査情報として、記憶部40の検査情報データ41に予め登録しておくことにより、検査ロボット100で検査を実行させることができる。また、検査の合格基準を示す検査基準データを、記憶部40のマスターデータ42に予め登録しておくことにより、制御部10は、検査ロボット100で取得した検査データと検査基準データとを比較して検査結果の合否を判定することができる。
本実施形態では、検査ロボット100が、検査対象箇所に可視光を照射して、可視光画像を撮像する例を示したが、検査対象箇所及び検査内容によって、赤外光や紫外光等の所定波長の光を照射して画像を撮像する態様であっても構わない。なお、本実施形態では、グレースケールの画像を示したが、検査ロボットシステムでは、カラー画像を取得することもできる。
また、本実施形態では、主に、検査ロボット100の右腕部及び左腕部にカメラユニット200及びライトユニット210を装着して検査を行う例を示したが、検査に利用するエンドエフェクタの種類は特に限定されず、検査内容に応じて適宜設定される。
例えば、ハンマーユニット及びマイクユニットをエンドエフェクタとして利用する態様であってもよい。例えば、一方の腕部に装着したハンマーユニットで、検査対象箇所の所定位置を所定方向から所定の強さで叩き、他方の腕部に装着したマイクユニットを所定の位置及び角度で配置して検査対象箇所から発生した音を測定するように検査情報を設定して、検査情報データ41に登録する。また、検査に合格する状態の検査対象箇所を、検査情報で設定したようにハンマーユニットで叩いて、検査情報で設定した配置位置のマイクユニットで測定した音の時間軸波形、この音から生成した周波数波形、オクターブ解析で得られた所定周波数域の音圧等を、検査基準データとして、マスターデータ42に登録する。これにより、検査時には、検査情報に基づいて検査対象箇所で測定した音から所定の検査データを取得して検査を行うことができる。例えば、部品の組み付け状態によって音圧、音の減衰波形、音の周波数分布等が変化する検査対象箇所がある場合に、これらの変化を検出できるように検査情報及び検査基準データを登録しておけば、音に基づく検査を行うことができる。
この他、例えば、電流値や抵抗値等を測定可能なテスターユニットをエンドエフェクタとして利用する態様であってもよい。例えば、検査対象箇所に電圧を印加した際の電流値や抵抗値をテスターユニットで測定するように検査情報を設定して検査情報データ41に登録する。また、合格と判定する電流値の範囲や抵抗値の範囲を、検査基準データとしてマスターデータ42に登録する。これにより、検査時には、テスターユニットで得られた電流値や抵抗値に基づいて検査を行うことができる。
また、本実施形態が検査のみを行う態様に限定されるものではなく、検査を行った後、検査結果に応じて、検査ロボット100に所定処理を実行させる態様であっても構わない。例えば、制御部10が検査不合格とした検査対象箇所を、検査ロボット100によって、検査に合格する状態にできる場合には、検査結果が合格となるように検査ロボット100に所定処理を実行させる。具体的には、例えば、ネジの締め付けトルクを測定可能なトルク測定ユニットをエンドエフェクタとして利用して、各ネジの締め付けトルクを測定するように検査情報を設定して検査情報データ41に登録する。また、各ネジの締め付けトルクを合格と判定するトルクの範囲を、検査基準データとしてマスターデータ42に登録する。そして、検査時に得られたネジの締め付けトルクが、検査基準データとして設定されたトルクの範囲外にあり不合格とされた場合には、検査ロボット100が、エンドエフェクタをドライバに持ち替えて、ネジの締め付けトルクが、検査基準データとして設定されたトルクの範囲内となるようにネジの締め付けトルクを調整する。このように、検査ロボット100により、検査不合格となった検査対象箇所の状態を、検査に合格する状態に修正することができれば、検査後の修正処理を行う担当者の作業負荷を軽減することができる。
また、本実施形態では、人型の双腕型ロボットを検査ロボット100として利用する例を説明したが、検査ロボット100が人型に限定されるものではないし、腕部の数が3本以上であっても構わない。
上述してきたように、本実施形態に係る検査ロボットシステムでは、検査ロボット100を利用して製品検査を行うためのエンドエフェクタの種類や、エンドエフェクタを利用して行う検査方法、検査データの取得方法等を予め設定しておくことにより、この設定に基づいて検査ロボット100による製品検査を行うことができる。また、検査結果を判定するための基準となる検査基準データを予め準備しておくことにより、検査ロボット100で得られた検査データを判定して検査結果を得ることができる。検査を高精度に行うために、検査データを取得する際のエンドエフェクタの種類や、検査ロボット100によるエンドエフェクタの使い方を設定することができるので、従来、熟練工が行っていた検査工程を、検査ロボット100を利用して効率よく行うことが可能となる。
以上のように、本発明に係る検査ロボットシステムは、ロボットを利用して製品の検査を効率よく行うために有用である。
10 制御部
20 表示部
30 操作部
40 記憶部
50 テーブル
100 検査ロボット
110 ロボット制御部
120 頭部駆動部
121 頭部カメラ
130 胴体部駆動部
140 腕部駆動部
141 腕部カメラ
150 エンドエフェクタ駆動部
200、200a、200b カメラユニット
210、210a〜210c ライトユニット
220 ハンドユニット
330 券売機
20 表示部
30 操作部
40 記憶部
50 テーブル
100 検査ロボット
110 ロボット制御部
120 頭部駆動部
121 頭部カメラ
130 胴体部駆動部
140 腕部駆動部
141 腕部カメラ
150 エンドエフェクタ駆動部
200、200a、200b カメラユニット
210、210a〜210c ライトユニット
220 ハンドユニット
330 券売機
Claims (12)
- 製品検査を行う検査ロボットシステムであって、
検査ツールを脱着可能な複数の多関節腕を有する検査ロボットと、
前記検査ロボットによる検査方法を設定した検査情報を前記検査ロボットに送信すると共に、前記検査ロボットが取得した検査データを受信して検査結果を判定する制御部と
を備え、
前記検査ロボットは、前記検査情報に基づいて、複数種類の検査ツールの中から検査ツールを選択して各腕部に装着し、前記検査ツールをそれぞれ検査対象箇所に合わせて設定された位置及び角度に配置して検査データを取得し、取得した検査データを前記制御部へ送信する
ことを特徴とする検査ロボットシステム。 - 前記制御部は、前記検査ロボットが取得した検査データと、該検査データに対応して予め準備されている検査基準データとに基づいて検査結果を判定することを特徴とする請求項1に記載の検査ロボットシステム。
- 前記検査ロボットは、各検査ツールを、前記検査基準データの作成時と同じ位置、姿勢になるように配置して前記検査データを取得することを特徴とする請求項2に記載の検査ロボットシステム。
- 前記検査情報には、1つの製品について設定された複数の検査対象箇所と、各検査対象箇所の検査に利用する検査ツールの種類及び検査方法とが設定されており、
前記検査ロボットは、検査対象箇所に応じて、各腕部に装着する検査ツール及び検査方法を変更しながら、全ての検査対象箇所の検査データを取得する
ことを特徴とする請求項1〜3のいずれか1項に記載の検査ロボットシステム。 - 前記検査情報は、製品の種類及び組立工程に合わせて準備されており、
前記制御部は、検査する製品の種類及び組立工程に対応する検査情報を前記検査ロボットに送信する
ことを特徴とする請求項1〜4のいずれか1項に記載の検査ロボットシステム。 - 前記検査ロボットは、検査データの取得を阻害する対象物を移動させて前記検査データを取得可能な状態にしてから前記検査データを取得することを特徴とする請求項1〜5のいずれか1項に記載の検査ロボットシステム。
- 前記制御部が検査対象箇所の検査結果を不合格とした場合に、前記検査ロボットが前記検査対象箇所を検査に合格できる状態にすることを特徴とする請求項1〜6のいずれか1項に記載の検査ロボットシステム。
- 前記検査ロボットは、
カメラユニット及びライトユニットを検査ツールとして利用して、
前記ライトユニットで検査対象箇所に対して所定の距離及び角度から光を照射しながら、前記カメラユニットで所定の距離及び角度から前記検査対象箇所を撮像して、
撮像した画像を検査データとして前記制御部へ送信する
ことを特徴とする請求項1〜7のいずれか1項に記載の検査ロボットシステム。 - 前記検査ロボットは移動可能な台座部の上に設置されており、前記台座部には複数種類の検査ツールを載置するためのテーブルが設けられていることを特徴とする請求項1〜8のいずれか1項に記載の検査ロボットシステム。
- 製品の画像を撮像して製品検査を行う検査ロボットシステムであって、
検査ツールを脱着可能な2本の多関節腕を有する検査ロボットと、
前記検査ロボットで製品を撮像した画像を該画像に対応して予め準備されているマスター画像と比較して検査結果を判定する制御部と
を備え、
前記検査ロボットは、複数種類の検査ツールの中から検査に適したカメラユニット及びライトユニットを選択して各腕部に装着し、前記カメラユニット及び前記ライトユニットをそれぞれ検査対象箇所に合わせた位置及び角度に配置して、前記ライトユニットから所定の光を照射しながら前記カメラユニットで前記検査対象箇所を撮像した画像を前記制御部へ出力する
ことを特徴とする検査ロボットシステム。 - 前記検査ロボットは、各腕部に装着するカメラユニット及びライトユニットの種類と、前記カメラユニット及び前記ライトユニットの配置位置とを検査対象箇所に応じて変更しながら、複数の検査対象箇所の画像を撮像して、
前記制御部は、各検査対象箇所の検査結果を判定する
ことを特徴とする請求項10に記載の検査ロボットシステム。 - 前記制御部は、
検査対象箇所を指定して該検査対象箇所の検査方法の設定を指示する命令を受けると、
前記検査対象箇所を撮像して得られる画像を評価しながらカメラユニットの種類、位置及び角度と、ライトユニットの種類、位置及び角度とを決定すると共に、決定結果に基づいて前記検査対象箇所を撮像したマスター画像を生成する
ことを特徴とする請求項10又は11に記載の検査ロボットシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015235412A JP2017100242A (ja) | 2015-12-02 | 2015-12-02 | 検査ロボットシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015235412A JP2017100242A (ja) | 2015-12-02 | 2015-12-02 | 検査ロボットシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017100242A true JP2017100242A (ja) | 2017-06-08 |
Family
ID=59015798
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015235412A Pending JP2017100242A (ja) | 2015-12-02 | 2015-12-02 | 検査ロボットシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017100242A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020087298A (ja) * | 2018-11-30 | 2020-06-04 | ファナック株式会社 | 品質判定装置 |
CN111702806A (zh) * | 2020-05-12 | 2020-09-25 | 上海有个机器人有限公司 | 用于机器人的自动对接测试方法、装置及终端 |
JP2022509292A (ja) * | 2019-08-29 | 2022-01-20 | シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド | 通信方法および装置、電子機器並びに記憶媒体 |
WO2024204063A1 (ja) * | 2023-03-27 | 2024-10-03 | ソフトバンクグループ株式会社 | ロボットの制御システム、ロボット、ロボットの制御プログラム |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0819987A (ja) * | 1994-07-01 | 1996-01-23 | Ricoh Co Ltd | ロボットハンド |
JP2007527800A (ja) * | 2004-02-05 | 2007-10-04 | ダイムラークライスラー・アクチェンゲゼルシャフト | 工具、カメラ及び光源を装備したロボット装置 |
JP2010099755A (ja) * | 2008-10-21 | 2010-05-06 | Olympus Corp | 生産装置 |
JP2012042297A (ja) * | 2010-08-18 | 2012-03-01 | Kurabo Ind Ltd | 撮像光学検査装置 |
JP2012086285A (ja) * | 2010-10-15 | 2012-05-10 | Seiko Epson Corp | 追跡ロボット装置、追跡ロボット制御方法、追跡ロボット制御プログラム、ホモグラフィー行列取得装置、ホモグラフィー行列取得方法、およびホモグラフィー行列取得プログラム |
JP2013239503A (ja) * | 2012-05-14 | 2013-11-28 | Fuji Mach Mfg Co Ltd | 基板用作業装置 |
JP2015160271A (ja) * | 2014-02-27 | 2015-09-07 | セイコーエプソン株式会社 | 制御装置、ロボット、ロボットシステムおよび制御方法 |
-
2015
- 2015-12-02 JP JP2015235412A patent/JP2017100242A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0819987A (ja) * | 1994-07-01 | 1996-01-23 | Ricoh Co Ltd | ロボットハンド |
JP2007527800A (ja) * | 2004-02-05 | 2007-10-04 | ダイムラークライスラー・アクチェンゲゼルシャフト | 工具、カメラ及び光源を装備したロボット装置 |
JP2010099755A (ja) * | 2008-10-21 | 2010-05-06 | Olympus Corp | 生産装置 |
JP2012042297A (ja) * | 2010-08-18 | 2012-03-01 | Kurabo Ind Ltd | 撮像光学検査装置 |
JP2012086285A (ja) * | 2010-10-15 | 2012-05-10 | Seiko Epson Corp | 追跡ロボット装置、追跡ロボット制御方法、追跡ロボット制御プログラム、ホモグラフィー行列取得装置、ホモグラフィー行列取得方法、およびホモグラフィー行列取得プログラム |
JP2013239503A (ja) * | 2012-05-14 | 2013-11-28 | Fuji Mach Mfg Co Ltd | 基板用作業装置 |
JP2015160271A (ja) * | 2014-02-27 | 2015-09-07 | セイコーエプソン株式会社 | 制御装置、ロボット、ロボットシステムおよび制御方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020087298A (ja) * | 2018-11-30 | 2020-06-04 | ファナック株式会社 | 品質判定装置 |
JP7277118B2 (ja) | 2018-11-30 | 2023-05-18 | ファナック株式会社 | 品質判定装置 |
JP2022509292A (ja) * | 2019-08-29 | 2022-01-20 | シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド | 通信方法および装置、電子機器並びに記憶媒体 |
CN111702806A (zh) * | 2020-05-12 | 2020-09-25 | 上海有个机器人有限公司 | 用于机器人的自动对接测试方法、装置及终端 |
WO2024204063A1 (ja) * | 2023-03-27 | 2024-10-03 | ソフトバンクグループ株式会社 | ロボットの制御システム、ロボット、ロボットの制御プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5922572B2 (ja) | 実用型3dビジョンシステム装置およびその方法 | |
US11555265B2 (en) | Augmented reality system for stitching along a predetermined path | |
JP2017100242A (ja) | 検査ロボットシステム | |
JP2010210584A (ja) | 3次元視覚センサ | |
WO2018066576A1 (ja) | 外観検査方法 | |
US20220284699A1 (en) | System and method of object detection using ai deep learning models | |
US20240062363A1 (en) | Grading cosmetic appearance of a test object | |
WO2007020451A2 (en) | Handheld image processing apparatus | |
CN114705685B (zh) | 基于深度学习的ai视觉检测方法、系统及可读存储介质 | |
US20230115037A1 (en) | Ply templating for composite fabrication with ai quality control modules | |
CN108025435A (zh) | 具有自动校准的视觉系统 | |
JP6392922B1 (ja) | 検査システムの検査対象外となる領域を算出する装置、および検査対象外となる領域を算出する方法 | |
JP2019215240A (ja) | 外観検査装置の教師画像生成方法 | |
JPWO2017135107A1 (ja) | 結線検査作業支援システム | |
JP7440975B2 (ja) | 撮像装置と識別方法 | |
JP2020201158A (ja) | 立体物の外観検査装置および立体物の外観検査方法 | |
JP2011191170A (ja) | 画像処理装置 | |
JP6427754B2 (ja) | 部品認識データ検査システム及び部品認識データの検査方法 | |
JP7308436B2 (ja) | 情報管理装置及び情報管理方法 | |
CN112444283A (zh) | 车辆组合件的检测设备和车辆组合件生产系统 | |
US20240303982A1 (en) | Image processing device and image processing method | |
TW202434426A (zh) | 自動視覺檢測系統之靈活直觀配置系統 | |
CN112730440A (zh) | 电子元器件外壳缺陷检测方法及系统 | |
WO2023064400A1 (en) | Systems and methods for composite fabrication with ai quality control modules | |
CN116740553A (zh) | 自动视觉检测系统的灵活直观配置系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181114 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191119 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200526 |