[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2009269134A - 視覚検査装置のシミュレーション装置 - Google Patents

視覚検査装置のシミュレーション装置 Download PDF

Info

Publication number
JP2009269134A
JP2009269134A JP2008122185A JP2008122185A JP2009269134A JP 2009269134 A JP2009269134 A JP 2009269134A JP 2008122185 A JP2008122185 A JP 2008122185A JP 2008122185 A JP2008122185 A JP 2008122185A JP 2009269134 A JP2009269134 A JP 2009269134A
Authority
JP
Japan
Prior art keywords
robot
camera
workpiece
point
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008122185A
Other languages
English (en)
Inventor
Takeshi Ueyama
剛 植山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to JP2008122185A priority Critical patent/JP2009269134A/ja
Priority to DE102009020307A priority patent/DE102009020307A1/de
Priority to US12/453,341 priority patent/US20090281662A1/en
Publication of JP2009269134A publication Critical patent/JP2009269134A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B17/00Systems involving the use of models or simulators of said systems
    • G05B17/02Systems involving the use of models or simulators of said systems electric
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35346VMMC: virtual machining measuring cell simulate machining process with modeled errors, error prediction
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37208Vision, visual inspection of workpiece

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Image Input (AREA)

Abstract

【課題】視覚検査の対象となるワークや使用するカメラのレンズなどが決まっていなくとも、ワークの視覚検査ポイントの全てをカメラで撮影可能なロボットの設置位置などのレイアウトをユーザに提供できる。
【解決手段】ワークの三次元形状データ、複数のカメラのレンズ情報、使用するロボットの動作データなどを記憶しておき、ワークの複数の検査ポイントを撮影するカメラのレンズの焦点距離、カメラの撮影位置と姿勢、そのカメラの撮影位置と姿勢を取るためのロボットの動きなどをシミュレーションし、使用カメラの種類やロボットの設置位置などをユーザに提供する。
【選択図】図1

Description

本発明は、ロボットを使用してワークの検査ポイントをカメラにより撮影する視覚検査装置のシミュレーション装置に関する。
視覚検査装置のシミュレーション装置は、例えば特許文献1および特許文献2により公知である。特許文献1は、ワークのCADデータに基づいて、表示画面にワークの三次元図形を、視点を違えて表示することにより、ワークの検査ポイントを最も撮影するに適した視点位置を選択し、その視点位置をカメラの位置として当該カメラの位置からロボットの動作位置を設定しようとするものである。
特許文献2は、オフラインで、カメラ位置を決め、ロボットの動作位置を設定した場合、実際に工場に設置された視覚検査装置では、ロボットの動作位置を修正しなければならなくなることが多いという事情に鑑みて、ロボットの動作位置や姿勢などの修正を容易に行うことができるようにしたものである。
特開2005−52926号公報 特開2004−265041号公報
特許文献1,2のシミュレーション装置では、ロボットを設置する位置はワークとの関係で既に確定されており、ロボットに設けられるカメラは1台で、しかも、そのカメラのレンズは、ズームレンズではなく、単焦点のレンズであることを前提としている。
しかしながら、視覚検査装置を生産工程に組み込む前の段階では、未だどのような焦点のレンズを持つカメラを用いるかが決まっていない場合がある。この場合、1つのカメラを持つことを前提にシミュレーションする特許文献1,2の装置では、生産ラインに実際に視覚検査装置を組み込んだとき、教示の際に用いたカメラと実際にロボットに取り付けられたカメラとが異なり、その結果、教示されたロボットの動作位置では、カメラのレンズのピントがワークの検査ポイントに合わず、検査ポイントがぼやけて良好に見えないという不具合を生じ易いという不具合がある。
事前のシミュレーションと、実際の視覚検査装置とで、カメラのレンズが異なり、ピントが合わないという問題を生じた場合、ピント修正のためのロボットの動作位置や姿勢などの修正は、特許文献2のシミュレーション装置の技術を応用して行うことは可能である。しかし、これとて、最初にワークとロボットの設置位置を設定しておかければならないので、シミュレーション上で定めたロボットの設置位置が、実際の生産工場では、設置できない場所となったような場合、再度、ロボットの設置位置を変更して再度シミュレーションしなければならなくなるといった不具合を生ずる。
一方、視覚検査システムの販売側では、視覚検査システムの設計も一つのサービスとして提供したいという要望がある。しかし、視覚検査システムの設計段階では、使用するロボットは決まっていても、ロボットを設置する位置や使用するカメラなどは未定であることが多く、特許文献1,2の技術では対応できない。しかも、最近では、ロボットに複数のカメラを用いる提案もなされており、このことについても、特許文献1,2の技術では対応することができない。
本発明は上記の事情に鑑みてなされたもので、その目的は、実際の視覚検査装置でワークの検査ポイントにカメラのピントが合わないといった事態の発生を避けつつ、視覚検査装置システムの設計のためのシミュレーションを行うことができる視覚検査装置のシミュレーション装置を提供することにある。
請求項1の発明は、定位置に置かれたワークをロボット先端に設けられたカメラにより撮影し、その撮影画像によってワークの検査ポイントを検査する視覚検査装置を対象にして当該視覚検査装置のシミュレーションを行う装置において、ワークを表示手段に三次元表示し、表示手段に表示されたワークを視点位置を変更して表示することによってワークの検査ポイントを撮影する方向(カメラの光軸)を設定し、そして、検査ポイントを撮影するに適したレンズが選択されたとき、その選択されたレンズで検査ポイントを撮影する撮影ポイントを設定し、撮影方向と撮影ポイントに基づいて、カメラを取り付けるロボットのアーム先端の位置と姿勢とを求め、ロボットを表示手段に表示して当該ロボットを設置可能位置に設置した場合に、カメラが撮影ポイントに位置するように、アーム先端を移動させ得るか、その移動位置でカメラが検査ポイントを撮影できる姿勢となるように、アーム先端の姿勢を取り得るかを判断し、位置と姿勢を取り得る場合に、そのロボットの設置位置をロボット設置位置候補として出力するので、実際の視覚検査装置でワークの検査ポイントにカメラのピントが合わないといった事態の発生を避けつつ視覚検査装置システムの設計のためのシミュレーションを行うことができる。
請求項2の発明は、ロボット先端に取り付けられたワークを、定位置に置かれたカメラにより撮影し、その撮影画像によってワークの検査ポイントを検査する視覚検査装置を対象にして当該視覚検査装置のシミュレーションを行う装置において、ワークを表示手段に三次元表示し、表示手段に表示されたワークを視点位置を変更して表示することによってワークの検査ポイントを撮影する方向(カメラの光軸)を設定し、定位置に置かれたカメラの光軸にワークの検査ポイントを撮影する方向に合わせ、そして、検査ポイントを撮影するに適したレンズが選択されたとき、その選択されたレンズで検査ポイントを撮影する撮影ポイントを設定し、撮影方向と撮影ポイントに基づいて、ワークを取り付けるロボットのアーム先端の位置と姿勢とを求め、ロボットを表示手段に表示して当該ロボットを設置可能位置に設置した場合に、撮影ポイントにアーム先端を移動させ得るか、その移動位置で撮影する姿勢を取り得るかを判断し、位置と姿勢を取り得る場合に、そのロボットの設置位置をロボット設置位置候補として出力するので、実際の視覚検査装置でワークの検査ポイントにカメラのピントが合わないといった事態の発生を避けつつ視覚検査装置システムの設計のためのシミュレーションを行うことができる。
請求項3の発明は、ワークの検査ポイントが複数あるとき、ロボットが設置された位置において、アーム先端の原点位置から最も遠い撮影ポイントまでアーム先端を移動可能か否かを判断し、移動可能のとき、他の撮影ポイントまでアーム先端を移動可能か否かを判断するので、アーム先端の原点位置から最も遠い撮影ポイントまでアーム先端を移動不能のとき、その位置にはロボットを設置することができないのであるから、早くその位置への設置困難を判断することができる。
請求項4の発明は、ロボットを設置可能な位置として入力されている複数の設置可能位置の座標を平均して平均座標を算出し、その平均座標に最も近い設置可能位置にロボットを設置したとき、アーム先端を撮影ポイントまで移動させ得ない場合には、その平均座標よりも撮影ポイントまでの距離が短い他の設置可能位置を対象としてロボット設置位置候補となり得るか否かを判断するので、アーム先端を撮影ポイントまで移動させ得ない設置可能位置をロボット設置位置候補となり得るか否かの判断対象にしなくとも済む。
請求項5の発明は、ロボットを設置可能な位置として入力されている複数の設置可能位置のいずれかにロボットを設置したとき、アーム先端を撮影ポイントまで移動させ得ない場合には、その設置可能位置よりも撮影ポイントまでの距離が遠い他の設置可能位置をロボット設置位置候補となり得るか否かの判断対象から外すので、アーム先端を撮影ポイントまで移動させ得ない設置可能位置をロボット設置位置候補となり得るか否かの判断対象にしなくとも済む。
以下、本発明を実施形態によって説明する。なお、実施形態間で共通の部分は共通の符号を使用して説明するものとする。
(第1の実施形態)
図1〜図10は本発明の第1の実施形態を示す。本実施形態がシミュレーションの対象とする視覚検査装置は、組立工場などにおいて、検査ステーションの床部或いは天井部にロボットを設置し、そのロボットのアーム先端にカメラを取り付けて構成される。一方、検査ステーションには、搬送装置が設けられており、検査対象であるワークは、その搬送装置によって搬送されて検査位置に停止され、その位置にて外観検査が行われるようになっている。
このとき、ロボットは、コントローラにより、三次元の固有座標系に基づいて位置の制御がなされ、カメラを任意の位置および姿勢(向き)に自在に移動させることができるようになっている。そして、予め設定された一つの或いは複数の位置にカメラを移動させることによってワークの検査すべき箇所をカメラによって撮影し、その撮影画像を画像処理装置によって処理することにより、ワークの各部の外観検査(部品が正しく組み付けられているかどうかなど)が行われるようになっている。
本実施形態は、上述のような視覚検査装置において、ワークの外観検査を行うべき箇所は複数、ワークによっては数十にも及ぶこともあるので、そのようなワークに対して、各検査箇所について、どのような焦点距離を持つカメラで、どの位置からどの方向から撮影することが最適か、或いは、どのようなレイアウトでロボットを設置するか、といった模擬実験するもので、この模擬実験の結果をユーザに提示して視覚検査のための具体的設備やレイアウトの提案を行い、視覚検査装置を販売しようとするものである。
上記のシミュレーションを行うに際し、ワークの形状は三次元のCADデータ(三次元形状データ)として既に作成されており、また、ワークの外観検査を行うべき箇所、外観検査を行うためにワークを止める位置(検査位置)と、この検出位置でのワークの向き、使用するロボット、ロボットを設置できる位置或いは領域は、既に定まっているものとする。
シミュレーションを行うための装置は、図1に示すパソコン1によって構成されている。このパソコン1は、パソコン本体2に、出力装置(出力手段)として例えば三次元のグラフィック表示が可能な液晶ディスプレイからなる表示装置(表示手段)3を接続すると共に、入力装置として例えばキーボード4およびマウス5を接続してなる。パソコン本体2は、図2に示すように、CPU6、ROM7、RAM8、大容量記憶装置としてのハードディスク9、インターフェース10などを備えて構成され、インターフェース10に前記表示装置3、キーボード4およびマウス5が接続されている。
上記ハードディスク9には、シミュレーションのためのシミュレーションプログラムの他、ワークの三次元CADデータに基づいてワークを表示装置3に三次元表示するためのワーク表示プログラム、視覚検査に使用するロボットを三次元表示するためのロボット表示プログラム、ワークを三次元表示するための三次元座標系とロボットを三次元表示するための三次元座標系との間で座標変換するための座標変換プログラムなどが記録されている。
また、ハードディスク9には、カメラによる視覚検査の対象となるワークの三次元CADデータ(三次元形状データ)、視覚検査に使用するロボットの三次元形状データおよび緒元並びにロボットの動作のためのロボット動作プログラム、視覚検査に使用する複数のカメラ用レンズのレンズデータなどをインターフェース10を介して記録できるようになっている。なお、レンズデータは、焦点距離や画角などを含む。このようなデータを記録するハードディスク9は、ワークやロボットの形状データ記憶手段、レンズデータ記憶手段、ロボットの動作データ記憶手段として機能する。
CPU6は、上記ハードディスク9が記憶するプログラムのうち、ワーク表示プログラムを実行することで、CADデータに基づいてワークを表示装置3に三次元表示する(ワーク用表示制御手段)。このとき、CPU6は、オペレータのマウス5の操作に応じて、その視点位置(視点の向きや視野サイズ)を変更してワークを三次元表示する。従って、マウス5は、視点位置変更操作手段として機能する。なお、視点位置は、キーボード4の操作によって変更するようにしても良い。
更に、オペレータが視点位置を変えてワークを表示装置3に表示することによって、現在、表示装置3に表示されている画面がワークの視覚検査部分を見るに適した状態であるとし、この画面上で検査ポイントをマウス5の操作によって指定すると、CPU6は、その指定されたワーク上のポイントを検査ポイントとしてRAM8に記憶する。また、マウス5を操作して、検査ポイントを含む所望の範囲を画面上で指定すると、CPU6は、この範囲を視覚検査の際にカメラで撮影する範囲としてRAM8に記憶する。従って、マウス5は、検査ポイント入力手段および検査範囲入力手段として機能する。
そして、表示装置3に表示されている画面を、外観検査時におけるカメラの検査画像と仮定し、オペレータが検査点からの画像として適切と思われる表示画面が表示された状態で、入力装置(キーボード4やマウス5)を操作して指定すると、CPU6は、指定された表示画面の視点情報、つまりワークの三次元座標系上での視点の位置と前記検査ポイントを結ぶ直線を視線の向きとして算出する。この視線(直線)が、検査ポイント部分を撮影するカメラの光軸となる。従って、CPU6は、カメラ姿勢設定手段として機能する。
一方、ハードディスク9には、キーボード4からロボットを設置することが可能な領域を入力できるようになっている(ロボット設置可能位置入力手段)。このロボットの設置可能位置は、表示装置3の表示画面に予め設定されている三次元座標上の位置として入力する。なお、ロボット設置可能範囲は、ワークの三次元座標上の位置として入力することも可能である。
CPU6は、上記ハードディスク9が記憶する前記ロボット表示プログラムを実行することで、ロボットの三次元形状データに基づいて表示装置3にロボットを三次元表示する(ロボット用表示制御手段)。このとき、CPU6は、ロボットの緒元(アームの長さやアームの可動範囲など)を用いてロボット動作プログラムを動作させることにより、表示装置3に表示されたロボットを動かすことができるようになっている。
そして、ロボットを設置することが可能な領域の中に具体的にロボットを設置する位置が定められると、CPU6は、ハードディスク9に記憶された座標変換プログラムの実行により、ロボットの三次元座標(ロボット座標)とワークの三次元座標(ワーク座標)との間で座標変換できるようになる(ワーク‐ロボット座標変換手段)。つまり、画面の三次元座標(画面座標)上でのワーク座標の原点位置とXYZの3軸の傾き、同じく画面の三次元座標上でのロボット座標の原点位置とXYZの3軸の傾きが決められれば、両座標間での変換が可能となるのである。
次に上記構成のパソコン1(シミュレーション装置)を用いてシミュレーションを行う場合の作用を、図3〜図10をも参照しながら説明する。まず、ロボットは例えば図3に示す6軸の垂直多関節型ロボット11を使用するものとし、カメラ12は、そのロボット11のアーム先端に取り付けられる。即ち、ロボット11は、ベース13と、このベース13に水平方向に旋回可能に支持されたショルダ部14と、このショルダ部14に上下方向に旋回可能に支持された下アーム15と、この下アーム15に上下方向に旋回可能に且つ回転(捻り動作)可能に支持された上アーム16と、この上アーム16に上下方向に旋回可能に支持された手首17と、この手首17の先端部に回転(捻り動作)可能に設けられたフランジ18を備えている。そして、アーム先端であるフランジ18にカメラ12が取り付けられるのである。
ここで、各関節には、それぞれ三次元の座標が固定されている。このうち、不動のベース13の座標系がロボット座標とされており、他の座標系は各関節の回転によってロボット座標上での位置と姿勢(向き)が変化する。ロボット11の制御装置(図示せず)は、ロータリエンコーダなどの位置検出手段から入力されるショルダ部14、各アーム15,16、手首17およびフランジ18等の各関節の位置検出情報と、予め記憶されている各関節の長さ情報に基づいて、各関節の座標の位置と姿勢を、座標変換の演算機能によりロボット座標上での位置と姿勢に変換して認識することができるようになっている。
上記各関節の座標系のうち、フランジ18の座標系は、図4に示すように、フランジ18の先端面の中心P0を原点とし、フランジ18の先端面上に2つの座標軸が設定され、フランジ18の回転軸上で1つの座標軸が定められている。そして、アーム先端であるフランジ18の位置および姿勢のうち、位置はフランジ18の座標の原点P0であるフランジ18の先端面の中心が占めるロボット座標上の位置で示される。
また、フランジ18の姿勢は、図4に示すように、フランジ18の座標の原点P0からZf 軸に沿ってその負方向に突出する単位長さ「1」のアプローチベクトルAと、原点P0 からXf 軸に沿ってその正方向に突出する単位長さ「1」のオリエントベクトルOを定義し、フランジ18の座標系をその原点P0 がロボット座標の原点に合致するように平行移動させたとき、そのロボット座標上でのアプローチベクトルAとオリエントベクトルOの向きで表される。
ロボット11の制御装置は、フランジ18の位置と姿勢とが与えられると、各関節の動作を制御して、フランジ18をその与えられた位置と姿勢に制御するようになっている。前述のハードディスク9に記憶されたロボット動作プログラムは、上記ロボット11の制御装置と同様に、フランジ18の位置と姿勢とが決められると、各関節を動作させてフランジをその位置と姿勢となるように動作させる。
カメラ12は、図8(b)にも示すように、フランジ18に複数配設される。各カメラ12は、光軸L(レンズ中心を通る直線)がアプローチベクトルAと平行となるように配置される。複数のカメラ12のレンズ12aは、固定焦点で、互いに異なる焦点距離を有している。カメラ12は、図8(a)に示すように、レンズ12aの中心からその焦点距離d1だけ離れた位置に撮像部としてのCCD12bを備えている。CCD12bは、フランジ18の先端面から所定距離d2だけ離れている。従って、レンズ12aとフランジ18の先端面との距離Dは、カメラ12毎に異なる一定距離(d1+d2)となる。
そして、各カメラ12の光軸Lは、フランジ18の先端面とK点において交わっており、このK点からフランジ18の中心P0までのベクトル(距離と方向)は、予めハードディスク9にカメラ設置位置データとして、上記の距離Dと共に記憶されている。
さて、図10に示すフローチャートにおいて、オペレータは、まず表示装置3にワークWの三次元形状を表示し(ステップS1)、マウス5を操作して視点位置を変更し、ワークWの視覚検査する箇所を表示画面に表示すると共に、その検査する箇所を見るに適切な状態となるように視点位置を変更する。そして、検査する箇所を見るに適切な表示画面になったところで、マウス5を操作して図5に示すように視覚検査する箇所の例えば中心を検査ポイントCに指定する(ステップS2)。すると、CPU6は、ワークの三次元座標系上での同表示画面の視点の位置と検査ポイントCを結ぶ直線を、視線F(図7参照)として算出し(視点情報演算手段)、これを視点情報としてRAM8(視点情報記憶手段)に記憶する(ステップS3)。また、オペレータは、マウス5による範囲指定操作によって検査ポイントを含む所望の範囲を検査範囲として指定する(ステップS4)。すると、CPU6は、ワークの三次元座標系上において、指定された検査範囲をRAM8に記憶する(検査範囲記憶手段)。
このような検査ポイントと検査範囲の指定が、検査する全箇所について行われると(ステップS5で「YES」)、CPU6は、次のステップS6で、各検査ポイントについて、レンズ情報を参照して検査範囲の全体を写すことができる画角を持ったレンズを選択し(レンズ選択手段)、そのレンズを有するカメラ12を選択する(カメラ選択手段)。そして、CPU6は、選択したカメラ12のレンズ12aの焦点距離に応じた撮影ポイントを設定する(ステップS7:撮影ポイント設定手段)。撮影ポイントとは、選択したカメラ12のレンズ12aの光軸Lとフランジ18の先端面との交点Kのワーク座標上の位置を言うが、この撮影ポイントKの座標位置は、次のようなものである。
つまり、検査ポイントCのピントの合った像をCCD12b上に結ぶ場合、図8(a)に示すように、検査ポイントCからレンズ12aまでの距離Gは、その焦点距離によって一義的に決まる。そして、レンズ12aからフランジ18の先端面までの距離はDであるから、撮影ポイントKの座標位置は、検査ポイントCから視線(光軸L)に沿って(G+D)だけ離れた位置の座標となる。
各検査ポイントについて、撮影ポイントを生成した後、CPU6は、各撮影ポイントについての撮影時アーム先端位置、つまりフランジ18の中心P0のワーク座標上での位置(姿勢を含む)を計算する(ステップS8:撮影時アーム先端位置設定手段)。この撮影時アーム先端位置の座標計算は、各カメラ12についてのK点の位置とフランジ18の中心P0との関係はハードディスク9に記憶されているから、K点(撮影ポイント)の座標を基に、K点からフランジ18の中心P0までの距離と方向(ベクトル)とから演算することができる。
また、アプローチベクトルAが表示画面の視点位置と検査ポイントCを結ぶ直線Fと平行であることを前提に、K点とフランジ18の中心P0との位置関係からオリエントベクトルOの向きを演算することによって、撮影時アーム先端位置におけるフランジ18の姿勢も求めることができる。
以上のようにして各検査ポイントについて検査フランジ座標が求められると、次にロボット11の設置可能な位置を設置位置候補として求める。それには、まず、準備操作として、オペレータは、画面座標の水平面(XY座標面)を検査ステーションの床と仮定し、この画面座標上に、ワークが検査ステーションでとる位置と姿勢(向き)となるように、ワーク座標を固定する。
その上で、オペレータは、キーボード4を操作して、図10に示すように、画面座標上に、設置可能位置としてロボット11を設置できる位置または領域、ここでは領域Rを設定したとする(ステップA1)。すると、CPU6は、設置可能領域Rの中心座標を求め(中心位置設定手段)、設置可能領域R内にその中心座標から所定距離だけ上下左右に隔てた試し設置位置の座標を求める(ステップA2)。この試し設置位置がK箇所求められたとする。
次いで、CPU6は、第1番目の試し設置位置である中心座標にロボット11を設置(ロボット座標の原点を中心座標に一致)したものとして(ステップA3,4:初期位置設定手段)、ロボット11のベース13の初期姿勢を定める(ステップA5,6)。このときのベース13の初期姿勢は、第1軸であるショルダー部14の可動範囲の中間がワークWの方向を向くベース13の姿勢をいうものとする。ショルダー部14の可動範囲の中間とは、ショルダー部14のプラス側の最大可動角とマイナス側の最大可動角の中間、例えば+90°〜−90°ならば、中間は0°、+90°〜−30°ならば、中間は+30°となる。
このベース13の初期姿勢において、CPU6は、画面座標を仲介してワーク座標で示された各撮影時アーム先端位置をロボット座標上の位置に変換し、その上で、ロボット11のフランジ18の中心P0が各撮影時アーム先端位置へ到達し得るか(ロボット可動制御判断手段)、撮影時アーム先端位置へ到達した状態でカメラ12の光軸を検査ポイントに向ける姿勢を取り得るか(カメラ姿勢制御判断手段)否かを評価(検査ポイントの撮影可否評価)する(ステップA7)。
到達できない撮影時アーム先端位置やカメラ12の光軸を検査ポイントに向ける姿勢を取り得ない撮影時アーム先端位置がなかった場合(ステップA8で「NO」)、全ての撮影時アーム先端位置で検査ポイントを撮影可能として、試し設置位置(ここでは初期試し位置)、ベースの姿勢(ここでは初期姿勢)および撮影時アーム先端位置の数をRAM8に記憶する(ステップA9)。そして、その後、ベース13の姿勢(XY座標軸の方向)を、初期姿勢から+90度の範囲および−90度の範囲で所定角度ずつ変化させて(ステップA11で「YES」、ステップA12)、姿勢毎に上述の撮影時アーム先端位置への移動できるか否か、姿勢を取り得るか否かの評価を行い、試し設置位置とベース13の姿勢と撮影可能な撮影時アーム先端位置の数とをRAM8に記憶する。
一つの試し設置位置についてベースの姿勢を変えてステップA7の評価を行ったら、次の試し設置位置に変えて上述の評価を順次実行する。
ここで、上の説明では、フランジ18の中心P0が撮影時アーム先端位置へ到達し得るか、撮影時アーム先端位置へ到達した状態でカメラ12の光軸を検査ポイントに向ける姿勢を取り得るかの評価(ステップA7)を、全撮影時アーム先端位置について行った後、ステップA8の判断を行うように思われたであろうが、実際には、ロボットを設置するとした位置とベースの姿勢とを考慮した上で、ロボットから最も遠い撮影時アーム先端位置から順次ステップA7の評価を行い、そして、評価をした一つの撮影時アーム先端位置について、ステップA8で、フランジ18をその位置に移動できない、或いは、姿勢を取ることができないと判断されたときには、それよりも近い撮影時アーム先端位置についてのステップA7の評価を中止し、または、現在の試し設置位置よりもワークから遠くなる試し設置位置にロボットを設置してステップA7の評価を行うことを中止し、或いは、現在のベースの姿勢よりもアーム先端が遠くなるようなベースの姿勢でのステップA7の評価を中止するようにしている(以上、ステップA10)。これにより、フランジ18が到達できない撮影時アーム先端位置や撮影に必要な姿勢を取ることができないベースの姿勢についてまで評価することの無駄を省くことができる。
以上のようにして、全ての試し設置位置にてベースの姿勢を変化させてステップA7の評価を行った後、CPU6は、フランジ18を各撮影時アーム先端位置に移動させて撮影に必要な姿勢を取ることができる試し設置位置とベースの姿勢を、ロボット11の設置可能位置として表示装置3にリスト表示する(ステップA15)。
このように本実施形態によれば、ワークの三次元形状データがあり、視覚検査したい箇所、検査ステーションでのワークの位置と姿勢、使用するロボットの種類(諸元)、ロボットを設置可能な領域が定まっていれば、どのようなレンズのカメラを使用し、どの位置にロボット11を設置すれば視覚検査が可能であるといった資料をユーザに提供することができる。
(第2の実施形態)
図11〜図13は本発明の第2の実施形態を示す。本実施形態が上述の第1の実施形態と異なるところは、図12に示すように、カメラ12を定位置に固定し、ワークWをロボット11のアーム先端に取り付けた把持装置19に把持させるようにしたことにある。そして、ハードディスク9には、第1の実施形態の各種のプログラムに加えて、画面座標を仲介として後述するカメラ座標とロボット座標とを変換するプログラムなどが記憶されている。
この実施形態では、表示装置3にワークの三次元形状を表示し(ステップB1)、検査ポイント、視点情報の算出および検査範囲の指定を行い(ステップB2〜B5)、更に、レンズとカメラを選択し(ステップB6)、撮影ポイントを求める(ステップB7)ところまでは上記第1の実施形態と同様である。ここで、撮影ポイントとは、第1の実施形態ではK点として示されているポイントである。
上記検査ポイントと視点情報により、CPU6は、ワークの三次元座標系上において、指定された表示画面の視点の位置と検査ポイントを結ぶ直線を、カメラ12の光軸として設定する(カメラ光軸設定手段)と共に、その光軸の傾きを検出する(カメラ光軸傾度検出手段)。
その後、オペレータは、表示装置3の画面座標の水平面を検査ステーションと仮定し、この画面座標上に、カメラが検査ステーションでとる位置と姿勢(向き)となるようにカメラ座標Mを固定する。このとき、カメラ座標Mは、原点を第1の実施形態におけるフランジ18の中心P0とするフランジ18の座標に相当する。これにより、CPU6は、表示装置3にカメラ12を表示し(カメラ位置表示手段)、且つ、カメラ12の光軸の方向を画面座標上に設定する(カメラ位置設定手段)。
そして、CPU6は、画面座標を仲介にしてワーク座標上の前記撮影ポイントをカメラ座標上の位置と姿勢(光軸の傾度)に変換する(ステップB8:ワーク-カメラ座標変換手段)。次いで、CPU6は、各撮影ポイントについて光軸の傾度とワーク形状データとからカメラ座標上でのワークの中心(図13にHで示す)の座標を求める(ステップB9:中心座標演算手段)。
次に、例えばマウス5を操作してロボット11のフランジ18に把持装置19を取り付けた状態を設定し(ワーク取り付け操作手段)、この把持装置19に所望の姿勢でワークを把持したとして、ワークWの中心からフランジ18の中心P0までのベクトル(図13にVで示す)を演算する(座標間関係検出手段)。そして、例えばマウス5を操作して表示画面の画面座標上にロボット座標を表示し、画面座標を仲介にしてカメラ座標とロボット座標との間で座標変換を行い、各撮影ポイントについてのワークWの中心位置と、ワークWの中心からフランジ18の中心P0までのベクトルとから、フランジ18の中心P0の位置とフランジ18の姿勢をロボット座標上の位置に変換する(ステップB10:カメラ‐ロボット座標変換手段)。
以上のようにして各検査ポイントについて撮影時アーム先端位置を求めた後、第1の実施形態におけるステップA1以降のロボット設置位置候補を出力する動作を実行する。
(他の実施形態)
本発明は上記し且つ図面に示す実施形態に限定されるものではなく、以下のような拡張或いは変更が可能である。
ワークをインデックステーブルに載せ、検査ポイントに応じてワークを回転させるようにしても良い。この場合には、回転角度の情報からワーク座標をインデックステーブルと同じだけ回転させたとして座標変換を行えば良い。
入力する設置可能位置は1箇所でも、離れた複数個所でも良い。
使用するロボットは垂直多関節型のものに限られない。
使用するレンズ(カメラ)は1個だけも良い。
本発明の第1の実施形態におけるシミュレーション装置を示す斜視図 シミュレーション装置の電気的構成を示すブロック図 ロボットの斜視図 フランジの座標を示す斜視図 ワークの斜視図 ワークの検査ポイントと撮影する範囲を示す斜視図 検査ポイントを見る視線を示す図 (a)は検査ポイントと撮影ポイントとの関係を示す断面図、(b)は検査ポイントとアーム先端の位置との関係を示す斜視図 ロボットの設置可能領域を表示した画面を示す図 シミュレーションのフローチャート 本発明の第2の実施形態を示すシミュレーションのフローチャート ロボットの設置可能領域を表示した画面を示す図 定位置に設置されたカメラとロボットに把持されたワークの斜視図
符号の説明
図面中、1はシミュレーション装置、4は表示装置(表示手段、出力手段)、4はキーボード(ロボット設置可能位置入力手段)、5はマウス(視点位置変更操作手段、検査ポイント入力手段、検査範囲入力手段、ワーク取り付け操作手段)、6はCPU(ワーク用表示制御手段、カメラ姿勢設定手段、ロボット用表示制御手段、ワーク‐ロボット座標変換手段、カメラ光軸設定手段、レンズ選択手段、カメラ光軸傾度検出手段、カメラ位置表示手段、カメラ位置設定手段、ワーク-カメラ座標変換手段、撮影ポイント設定手段、撮影時アーム先端位置設定手段、ロボット可動制御判断手段、カメラ姿勢制御判断手段、カメラ光軸設定手段、カメラ光軸傾度検出手段、カメラ位置表示手段、カメラ位置設定手段、ワーク-カメラ座標変換手段、座標間関係検出手段)、9はハードディスク(形状記憶手段、レンズデータ記憶手段、動作データ記憶手段)を示す。

Claims (5)

  1. ワークの検査ポイントをロボットのアーム先端に取り付けられたカメラにより撮影し、その撮影画像によって前記検査ポイントを検査する視覚検査装置を対象にして、当該視覚検査装置のシミュレーションを行う装置において、
    表示手段と、
    複数のカメラ用レンズのレンズデータを記憶するレンズデータ記憶手段と、
    ワークの三次元形状データを記憶する形状データ記憶手段と、
    前記ワークの三次元形状データに基づいて、前記表示手段に、前記ワークを、視点位置を自在に変更して三次元表示可能なワーク用表示制御手段と、
    前記表示手段に表示される前記ワークの視点位置を変更するための視点位置変更操作手段と、
    前記表示手段に表示された前記ワークに対し、前記カメラによる撮影画像によって視覚検査すべき前記検査ポイントを入力する検査ポイント入力手段と、
    前記ワークの前記検査ポイントにおいて前記カメラが撮影する範囲を入力する検査範囲入力手段と、
    前記ワークの前記検査ポイントおよび前記カメラが撮影する範囲を入力したときの前記ワークの視点位置から前記検査ポイントを見た直線が光軸となるように前記カメラの姿勢を設定するカメラ姿勢設定手段と、
    前記レンズデータ記憶手段が有する前記レンズデータに基づき、前記検査範囲入力手段により入力された前記検査範囲を撮影するに適したレンズを選択するレンズ選択手段と、
    前記検査ポイント入力手段により入力された前記検査ポイントおよび前記カメラ姿勢設定手段により設定された前記カメラの姿勢に基づき、前記検査ポイントを通る前記カメラの光軸上において前記検査ポイントから離れる方向に前記レンズ選択手段により選択されたレンズに応じた距離だけ移動した位置を撮影ポイントとして設定する撮影ポイント設定手段と、
    前記撮影ポイント設定手段により設定された撮影ポイントから、予め設定された方向に予め設定された距離だけ変位したポイントを前記撮影ポイントについての撮影時アーム先端位置として設定する撮影時アーム先端位置設定手段と、
    前記ロボットの動作を前記表示手段に三次元表示するためのデータを記憶する動作データ記憶手段と、
    前記ロボットの設置可能位置を入力するためのロボット設置可能位置入力手段と、
    前記動作データ記憶手段に記憶されたデータに基づいて前記ロボットを前記表示手段に三次元表示するためのロボット用表示制御手段と、
    前記ロボットが前記設置可能位置に設置されたとき、前記表示手段に前記ワークを三次元表示するための座標により示される位置を前記設置可能位置に設置された前記ロボットの座標により示される位置に変換するワーク‐ロボット座標変換手段と、
    前記ロボット設定可能位置入力手段により入力された前記設置可能位置に前記ロボットを設置したとき、前記動作データ記憶手段により前記ロボットを動作させたとき、前記ロボットの前記カメラを取り付けた前記アーム先端が前記撮影時アーム先端位置まで移動可能か否かを判断するロボット可動制御判断手段と、
    前記ロボット可動制御手段が前記撮影時アーム先端位置まで移動可能と判断したとき、当該撮影時アーム先端位置で、前記ロボットのアーム先端が前記カメラ姿勢入力手段により入力された前記カメラ姿勢にすることが可能か否かを判断するカメラ姿勢制御判断手段と、
    前記カメラ姿勢制御判断手段が可能と判断した場合の前記設置可能位置をロボット設置位置候補として出力する出力手段と
    を具備してなる視覚検査装置のシミュレーション装置。
  2. ロボットのアーム先端に取り付けられたワークの検査ポイントを、定位置に設けられたカメラにより撮影し、その撮影画像によって前記検査ポイントを検査する視覚検査装置を対象にして、当該視覚検査装置のシミュレーションを行う装置において、
    表示手段と、
    複数のカメラ用レンズのレンズデータを記憶するレンズデータ記憶手段と、
    ワークの三次元形状データを記憶する形状データ記憶手段と、
    前記ワークの三次元形状データに基づいて、前記表示手段に、前記ワークを、視点位置を自在に変更して三次元表示可能なワーク用表示制御手段と、
    前記表示手段に表示される前記ワークの視点位置を変更するための視点位置変更操作手段と、
    前記表示手段に表示された前記ワークに対し、前記カメラによる撮影画像によって視覚検査すべき前記検査ポイントを入力する検査ポイント入力手段と、
    前記ワークの前記検査ポイントにおいて前記カメラが撮影する範囲を入力する検査範囲入力手段と、
    前記ワークの前記検査ポイントおよび前記カメラが撮影する範囲を入力したときの前記ワークの視点位置から前記検査ポイントを見た直線を前記カメラの光軸として設定するカメラ光軸設定手段と、
    前記ワークの座標上での前記カメラの光軸の傾きを検出するカメラ光軸傾度検出手段と、
    前記レンズデータ記憶手段が有する前記レンズデータに基づき、前記検査範囲入力手段により入力された前記検査範囲を撮影するに適したレンズを選択するレンズ選択手段と、
    前記検査ポイント入力手段により入力された前記検査ポイントおよび前記カメラ光軸設定手段により設定された前記カメラの光軸に基づき、前記検査ポイントを通る前記カメラの光軸上において前記検査ポイントから離れる方向に前記レンズ選択手段により選択されたレンズに応じた距離だけ移動した位置を撮影ポイントとして設定する撮影ポイント設定手段と、
    前記カメラを前記表示手段に表示するためのカメラ位置表示手段と、
    前記表示手段に表示された前記カメラの固定位置と当該カメラの光軸の方向とを設定するカメラ位置設定手段と、
    前記撮影ポイント設定手段により設定された前記撮影ポイントを、前記カメラの三次元座標の位置に変換するワーク‐カメラ座標変換手段と、
    前記ロボットの動作を前記表示手段に三次元表示するためのデータを記憶する動作データ記憶手段と、
    前記ロボットを前記表示手段に表示するためのロボット表示制御手段と、
    前記カメラの座標上の位置を前記ロボットの前記ロボット座標上の位置に変換するカメラ‐ロボット座標変換手段と、
    前記ロボットのアーム先端に前記ワークを取り付けた状態にするためのワーク取り付け操作手段と、
    前記ワーク取り付け操作手段により前記ワークが前記アーム先端に取り付けられたとき、アーム先端の座標に対する前記ワークの座標の位置関係および傾き関係を検出するための座標間関係検出手段と、
    前記前記撮影ポイント設定手段により設定された撮影ポイントから、前記座標間検出手段により検出された前記アームの先端の座標に対する前記ワークの座標の位置関係および傾き関係並びに前記カメラ光軸傾度検出手段により検出された前記ワークの座標上での前記カメラの光軸の傾きにより、前記アーム先端の位置を撮影時アーム先端位置として設定する撮影時アーム先端位置設定手段と、
    前記前記撮影ポイント設定手段により設定された撮影ポイントから、前記座標間検出手段により検出された前記アームの先端の座標に対する前記ワークの座標の位置関係および傾き関係により、前記アーム先端が前記ワークの前記検査ポイントを前記撮影ポイントに一致させるための前記アーム先端の姿勢を設定するアーム姿勢設定手段と、
    前記ロボットの設置可能位置を入力するためのロボット設置可能位置入力手段と、
    前記ロボット設定可能位置入力手段により入力された前記設置可能位置に前記ロボットを設置したとき、前記ロボットの前記カメラを取り付けたアーム先端が前記撮影時アーム先端位置まで移動可能か否かを判断するロボット可動制御判断手段と、
    前記ロボット可動制御手段が前記撮影時アーム先端位置まで移動可能と判断したとき、当該撮影時アーム先端位置で、前記アーム先端の姿勢を前記撮影ポイント設定手段により設定された前記撮影ポイントに向かせることが可能か否かを判断するフランジ姿勢制御判断手段と、
    前記フランジ姿勢制御判断手段が可能と判断した場合の前記設置可能位置をロボット設置位置候補として出力する出力手段と
    を具備してなる視覚検査装置のシミュレーション装置。
  3. 前記検査ポイントが複数入力されたとき、前記ロボット可動制御判断手段は、前記複数の各検査ポイントを撮影するための前記撮影時アーム先端位置のうち、前記ロボットの設置された位置における前記アーム先端の原点位置から最も遠い撮影時アーム先端位置まで、前記アーム先端を移動可能か否か判断し、移動可能と判断したとき、他の撮影時アーム先端位置まで前記アーム先端を移動可能か否か判断することを特徴とする請求項1または2記載の視覚検査装置のシミュレーション装置。
  4. 前記ロボット設定可能位置入力手段は、前記設置可能位置を複数入力可能で、
    前記ロボット可動制御判断手段は、前記複数の設置可能位置の座標を平均して平均座標を算出し、前記複数の設置可能位置のうちから前記平均座標に最も近い設置可能位置を初期ロボット位置とする初期位置設置手段を備え、前記初期ロボット位置に前記ロボットを設置したときに前記アーム先端が前記撮影時アーム先端位置まで移動できないと判断したときは、その移動できない撮影時アーム先端位置との距離が前記初期ロボット位置よりも短い設置可能位置を判断対象とし、長い設置可能位置を判断対象から除外することを特徴とする請求項1ないし3のいずれかに記載の視覚検査装置のシミュレーション装置。
  5. 前記設定可能位置入力手段は、前記設置可能位置を複数入力可能で、
    前記ロボット可動制御判断手段は、前記複数の設置可能位置のいずれかに前記ロボットを設置したときに前記アーム先端が前記撮影時アーム先端位置まで移動できないと判断したときは、その移動できない撮影時アーム先端位置との距離が現在のロボット位置よりも遠い設置可能位置を判断対象から除外することを特徴とする請求項1ないし4のいずれかに記載の視覚検査装置のシミュレーション装置。
JP2008122185A 2008-05-08 2008-05-08 視覚検査装置のシミュレーション装置 Pending JP2009269134A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008122185A JP2009269134A (ja) 2008-05-08 2008-05-08 視覚検査装置のシミュレーション装置
DE102009020307A DE102009020307A1 (de) 2008-05-08 2009-05-07 Simulator für eine Sichtprüfungsvorrichtung
US12/453,341 US20090281662A1 (en) 2008-05-08 2009-05-07 Simulator for visual inspection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008122185A JP2009269134A (ja) 2008-05-08 2008-05-08 視覚検査装置のシミュレーション装置

Publications (1)

Publication Number Publication Date
JP2009269134A true JP2009269134A (ja) 2009-11-19

Family

ID=41152904

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008122185A Pending JP2009269134A (ja) 2008-05-08 2008-05-08 視覚検査装置のシミュレーション装置

Country Status (3)

Country Link
US (1) US20090281662A1 (ja)
JP (1) JP2009269134A (ja)
DE (1) DE102009020307A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016194325A1 (ja) * 2015-06-03 2016-12-08 株式会社デンソー 医療行為支援システム
WO2023119442A1 (ja) * 2021-12-21 2023-06-29 ファナック株式会社 ロボットシステム及び撮像方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5912627B2 (ja) * 2012-02-14 2016-04-27 川崎重工業株式会社 撮像検査装置ならびにその制御装置および制御方法
EP2685403A3 (en) * 2012-07-09 2017-03-01 Technion Research & Development Foundation Limited Natural machine interface system
SG10201608757PA (en) * 2016-10-19 2018-05-30 Component Aerospace Singapore Pte Ltd Method and apparatus for facilitating part verification
JP6356845B1 (ja) * 2017-02-13 2018-07-11 ファナック株式会社 検査システムの動作プログラムを生成する装置および方法
CN108965690B (zh) 2017-05-17 2021-02-26 欧姆龙株式会社 图像处理系统、图像处理装置及计算机可读存储介质
JP7245603B2 (ja) * 2017-11-10 2023-03-24 株式会社安川電機 教示装置、ロボットシステムおよび教示方法
JP7326139B2 (ja) * 2019-12-09 2023-08-15 株式会社東芝 作業支援装置、作業支援方法、プログラム、および作業支援システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0962325A (ja) * 1994-12-06 1997-03-07 Toyota Motor Corp ロボット到達可否判断装置
JP2005022062A (ja) * 2003-07-03 2005-01-27 Fanuc Ltd ロボットオフラインシミュレーション装置
JP2005052926A (ja) * 2003-08-04 2005-03-03 Denso Corp 視覚検査装置の教示装置及び教示方法
JP2008021092A (ja) * 2006-07-12 2008-01-31 Fanuc Ltd ロボットシステムのシミュレーション装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1080886A (ja) * 1996-09-10 1998-03-31 Rekoode Onkyo:Kk 視覚制御ロボット
CA2369845A1 (en) * 2002-01-31 2003-07-31 Braintech, Inc. Method and apparatus for single camera 3d vision guided robotics
JP3708083B2 (ja) 2003-02-28 2005-10-19 ファナック株式会社 ロボット教示装置
JP4167940B2 (ja) * 2003-05-29 2008-10-22 ファナック株式会社 ロボットシステム
JP4167954B2 (ja) * 2003-09-02 2008-10-22 ファナック株式会社 ロボット及びロボット移動方法
JP4449972B2 (ja) 2006-11-10 2010-04-14 セイコーエプソン株式会社 検出装置、センサ及び電子機器

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0962325A (ja) * 1994-12-06 1997-03-07 Toyota Motor Corp ロボット到達可否判断装置
JP2005022062A (ja) * 2003-07-03 2005-01-27 Fanuc Ltd ロボットオフラインシミュレーション装置
JP2005052926A (ja) * 2003-08-04 2005-03-03 Denso Corp 視覚検査装置の教示装置及び教示方法
JP2008021092A (ja) * 2006-07-12 2008-01-31 Fanuc Ltd ロボットシステムのシミュレーション装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016194325A1 (ja) * 2015-06-03 2016-12-08 株式会社デンソー 医療行為支援システム
WO2023119442A1 (ja) * 2021-12-21 2023-06-29 ファナック株式会社 ロボットシステム及び撮像方法

Also Published As

Publication number Publication date
DE102009020307A1 (de) 2009-11-12
US20090281662A1 (en) 2009-11-12

Similar Documents

Publication Publication Date Title
JP4508252B2 (ja) ロボット教示装置
JP7490349B2 (ja) 入力装置、入力装置の制御方法、ロボットシステム、ロボットシステムを用いた物品の製造方法、制御プログラム及び記録媒体
JP2009269134A (ja) 視覚検査装置のシミュレーション装置
JP4844453B2 (ja) ロボットの教示装置及び教示方法
US11565427B2 (en) Robot system
JP5378374B2 (ja) リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム
JP4835616B2 (ja) 動作教示システム及び動作教示方法
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
CN107428009B (zh) 用于工业机器人调试的方法、使用该方法的工业机器人系统和控制系统
JP4167954B2 (ja) ロボット及びロボット移動方法
CN103770112A (zh) 机器人系统及加工件的制造方法
KR20140008262A (ko) 로봇 시스템, 로봇, 로봇 제어 장치, 로봇 제어 방법 및 로봇 제어 프로그램
JP2007160486A (ja) オフラインプログラミング装置
JP2018202514A (ja) ロボットの教示のための情報を表示するロボットシステム
JP6392922B1 (ja) 検査システムの検査対象外となる領域を算出する装置、および検査対象外となる領域を算出する方法
JP2010112731A (ja) ロボットの座標の結合方法
TWI807990B (zh) 機器人示教系統
JP7564327B2 (ja) 教示装置
KR20130075712A (ko) 레이저비전 센서 및 그 보정방법
JP2019113348A (ja) 物体検査システム及び物体検査方法
JP2013173191A (ja) ロボット装置、ロボット制御装置、ロボット制御方法及びロボット制御プログラム
JP2012061587A (ja) ロボットのティーチングシステム
JP2017113815A (ja) 対象物をロボットを用いて把持するロボットシステムの画像表示方法
JP2021058979A (ja) ロボットアーム試験装置
KR102718306B1 (ko) 용접선 검출 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120710