[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4949799B2 - 作業支援装置および方法 - Google Patents

作業支援装置および方法 Download PDF

Info

Publication number
JP4949799B2
JP4949799B2 JP2006281165A JP2006281165A JP4949799B2 JP 4949799 B2 JP4949799 B2 JP 4949799B2 JP 2006281165 A JP2006281165 A JP 2006281165A JP 2006281165 A JP2006281165 A JP 2006281165A JP 4949799 B2 JP4949799 B2 JP 4949799B2
Authority
JP
Japan
Prior art keywords
work
posture
work object
target
workpiece
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006281165A
Other languages
English (en)
Other versions
JP2008093814A (ja
Inventor
友孝 伊藤
豊 原田
永志 別府
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shizuoka University NUC
Azbil Corp
Original Assignee
Shizuoka University NUC
Azbil Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shizuoka University NUC, Azbil Corp filed Critical Shizuoka University NUC
Priority to JP2006281165A priority Critical patent/JP4949799B2/ja
Publication of JP2008093814A publication Critical patent/JP2008093814A/ja
Application granted granted Critical
Publication of JP4949799B2 publication Critical patent/JP4949799B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

この発明は、遠隔操作型の機構を利用し作業対象物の位置及び姿勢を目標位置及び目標姿勢へ一致させる位置決め作業を支援する作業支援装置および方法に関するものである。
従来より、遠隔操作により作業を行う際の支援方法として、作業環境もしくはロボットのモデル、あるいはその両方をシステム内に有し、様々な視点から見た作業状況を仮想映像として操作者に提示して操作を支援する手法や、カメラなどによる実際の映像に仮想映像を重畳して作業支援を行う手法が提案されている。
このシステムの一例として、特許文献1では、作業者の負担を軽減するために、作業対象物の最終組み付け位置および姿勢の外形をコンピュータグラフィックスで生成し、このコンピュータグラフィックスで生成した仮想画像を実画像に重畳表示することにより、ロボットによる作業対象物の目標位置への位置決め作業を支援するようにしている。
特許文献1に示されたロボット作業の支援方法の一例を図22を用いて説明する。図22は作業対象物1およびこの作業対象物1の目標位置に設けられたガイド2を含む作業環境をZ軸方向からカメラで捉えたモニタ画面上の画像を示す図である。この画像において、作業対象物1およびガイド2は実画像であり、この実画像に対して作業対象物1の最終組み付け位置および姿勢の外形をコンピュータグラフィックスで生成した仮想画像3が重ねて表示されている。
作業者は、このモニタ画面を見ながら、作業対象物1の実画像と仮想画像3とが重なるようにロボットを遠隔操作して、作業対象物1の位置決め作業を行う。なお、この例では、説明を簡単とするために、作業対象物1はそのZ軸回りの姿勢にのみ傾きが生じており、他の方向には傾きは生じていないものとする。
この場合、作業者は、Z軸方向から見た画面をみながら、作業対象物1の実画像と仮想画像3とが重なるように、作業対象物1のX軸方向およびY軸方向への位置決め作業を行う。そして、作業環境をX軸方向から見た画面に切り替えて(図23)、作業対象物1の実画像と仮想画像3とが重なるように、作業対象物1をZ軸方向へ移動する。
特開2003−311661号公報
しかしながら、上述した特許文献1のように作業対象物の最終組み付け位置および姿勢の外形を仮想画像としてモニタ画面に表示するだけでは、実画像と仮想画像とを重ね合わせるまでの作業対象物の位置決め作業の過程全てを人間の判断に頼らなければならず、作業者の負担軽減や非熟練作業者のスキルアップ,作業の効率化などの実現は難しい。特に、位置決め作業中の作業対象物の姿勢の修正および移動は難しく、目標位置での微調整には時間がかかる。
本発明は、このような課題を解決するためになされたもので、その目的とするところは、モニタ画面を見ながらの作業対象物の位置決め作業にかかる作業者の負担を軽減することが可能な作業支援装置および方法を提供することにある。
このような目的を達成するために本発明は、遠隔操作型の機構を利用し作業対象物の位置及び姿勢を目標位置及び目標姿勢へ一致させる位置決め作業を支援する作業支援装置において、作業対象物の実画像をモニタ画面上に表示する実画像表示手段と、作業対象物の目標姿勢と現在の姿勢とから演算された作業対象物の姿勢の修正方向あるいは作業対象物の目標位置と現在の位置とから演算された作業対象物の目標位置への移動方向から前記機構による作業対象物の少なくとも一方向への動きを拘束する拘束手段と、モニタ画面上に表示された作業対象物の実画像に対してその作業対象物の現在の拘束状態を示す指標をモニタ画面上に表示する拘束状態表示手段とを設けたものである。
この発明によれば、作業対象物の目標姿勢と現在の姿勢とから演算された作業対象物の姿勢の修正方向あるいは作業対象物の目標位置と現在の位置とから演算された作業対象物の目標位置への移動方向から、前記機構による作業対象物の少なくとも一方向への動きが拘束され、モニタ画面上の作業対象物の実画像に対してその作業対象物の現在の拘束状態を示す指標が表示される。例えば、作業対象物の姿勢を修正する場合、その姿勢の修正方向のみへの動きが許可され、その他の方向への動きが拘束され、モニタ画面上の作業対象物の実画像に対して、修正方向のみへの動きが許可されていることを示す指標が表示される。また、例えば、作業対象物を目標位置へ移動させる場合、その目標位置への移動方向のみへの動きが許可され、その他の方向への動きが拘束され、モニタ画面上の作業対象物の実画像に対して、目標位置への移動方向のみへの動きが許可されていることを示す指標が表示される。
本発明では、拘束状態を示す指標として、例えば、作業対象物の姿勢の修正方向を示すラインを表示したり、作業対象物の目標位置への移動を案内するラインを表示したり、作業対象物の移動可能な範囲を囲む壁を表示したり、前記機構を操作することが可能な範囲を塗り潰した軌道を表示したりする。
なお、本発明は、作業支援装置としてではなく、作業支援方法としても実現することが可能である。本願の請求項5〜8に係る発明は、請求項1〜4の作業支援装置に係る発明を方法としたものである。
本発明によれば、作業対象物の目標姿勢と現在の姿勢とから演算された作業対象物の姿勢の修正方向あるいは作業対象物の目標位置と現在の位置とから演算された作業対象物の目標位置への移動方向から、前記機構による作業対象物の少なくとも一方向への動きを拘束し、モニタ画面上の作業対象物の実画像に対してその作業対象物の現在の拘束状態を示す指標を表示するようにしたので、作業対象物の現在の拘束状態をモニタ画面上で確認しながら作業対象物を許可された方向のみへ動かすようにして、位置決め作業中の作業対象物の姿勢の修正や目標位置への移動を短時間で行うことができるようになり、作業者の負担軽減、非熟練作業者のスキルアップ、作業の効率化などを実現することが可能となる。
以下、本発明の実施の形態を図面に基づいて説明する。先ず、本発明の実施の形態の概要について説明する。
〔概要〕
図1(a)は作業対象物(以下、ワークと呼ぶ)1およびこのワーク1の目標位置に設けられたガイド2を含む作業環境をZ軸方向からカメラで捉えたモニタ画面上の画像を示す図である。
この画像において、ワーク1およびガイド2は実画像であり、この実画像に対して仮想画像3が重ねて表示されている点は、従来例と同じである。従来例と異なる点は、ワーク1のZ軸回りの回転だけを許可し、他の方向への動きを拘束するとともに、ワーク1の実画像に対して、ワーク1の現在の拘束状態を示す指標としてガイドラインL1と支点PMを表示するようにしたことにある。
作業者は、このモニタ画面を見ながら、ロボットを遠隔操作し、ワーク1の姿勢の修正と移動を行い、ワーク1の実画像を仮想画像3と重ね合わせる。なお、この例においても、従来例と同様、ワーク1はZ軸回りの姿勢にのみ傾きが生じており、他の方向には傾きは生じていないものとする。
〔姿勢の修正〕
作業者は、先ず、ワーク1の姿勢を修正する。この場合、ロボットを遠隔操作し、ワーク1を支点PMを中心として、ガイドラインL1の位置まで回転させる。ワーク1をガイドラインL1の位置まで回転させると、ガイドラインL1と支点PMが消える(図1(b))。このガイドラインL1と支点PMの消失により、作業者は、ワーク1のZ軸回りの姿勢の修正が完了したことを知る。作業者は、この姿勢の修正作業中、ワーク1のZ軸回りの回転だけが許可され、他の方向への動きが拘束されているので、簡単かつ短時間にワーク1をガイドラインL1の位置に合わせることができる。
〔移動(X軸方向およびY軸方向)〕
ガイドラインL1と支点PMが消失すると、モニタ画面には、図1(c)に示すように、ワーク1の現在の拘束状態を示す指標として2本のガイドラインL2が表示される。この場合、ワーク1は、ガイドラインL2に沿う方向への動きだけが許可される。作業者は、ロボットを遠隔操作し、ガイドラインL2に沿ってワーク1を目標位置(X−Y平面内の目標位置)へ移動させる(図1(d))。ワーク1が目標位置に達すると、ガイドラインL2が消える(図1(e))。このガイドラインL2の消失により、作業者は、ワーク1のX軸方向およびY軸方向への位置決め作業が完了し、ワーク1がX−Y平面内の目標位置に達したことを知る。
〔移動(Z軸方向)〕
作業者は、ワーク1をX−Y平面内の目標位置に位置させた後、ワーク1をZ軸方向へ移動させる。この場合、モニタ画面に、作業環境をX軸方向からカメラで捉えた画像を表示させる。この画像には、図2(a)に示すように、拘束状態を示す指標として2本のガイドラインL3が表示される。作業者は、ロボットを遠隔操作し、ガイドラインL3に沿ってワーク1を目標位置(Y−Z平面内の目標位置)へ移動させる(図2(b))。ワーク1が目標位置に達すると、ガイドラインL3が消える(図2(c))。このガイドラインL3の消失により、作業者は、ワーク1のZ軸方向への位置決め作業が完了し、ワーク1がY−Z平面内の目標位置に達したことを知る。
この場合、ワーク1は、そのX−Y平面内の位置が既に目標位置に合わせられていることから、X−Z平面内の目標位置にも位置することになる。これにより、ガイドラインL3が消えた時点で、ワーク1がXYZ空間内の目標位置に位置し、ワーク1の位置決め作業が完了する。
なお、以上の説明においては、ワーク1の最終組み付け位置および姿勢の外形をコンピュータグラフィックスで生成した仮想画像3をモニタ画面上に表示するようにしたが、仮想画像3は必ずしも表示しなくてもよい。
また、上述においては、ガイドラインL1に対して支点PMしか表示しなかったが、図3(a)に示すように、ワーク1の実画像にそのエッジを強調する強調ライン(仮想画像)1aを重ねて表示するようにし、この強調ライン1aとガイドラインL1とを重ねるようにして、ワーク1の姿勢を修正するようにしてもよい。
また、上述においては、ワーク1を動かすことが可能な方向を示すガイドとしてガイドラインL2やL3を表示するようにしたが、図3(b),(c)や図4(a),(b)に示すように、ワーク1を動かすことが可能な範囲を示すガイドとしてガイド壁S2およびS3を表示するようにしてもよい。
また、上述においては、X−Y平面でのワーク1の移動方向を1方向としたが、図5に示すようにX軸方向とY軸方向とに分け、ワーク1をX軸方向へ移動させる場合にはガイド壁S2Xを表示するようにし、ワーク1をY軸方向へ移動させる場合にはガイド壁S2Yを表示するようにしてもよい。
また、図6(a)に示すように、ワーク1の実画像に対して、その許可された回転方向を示す矢印Y1を表示するようにしてもよい。また、図6(b)や図7(a)に示すように、ワーク1の実画像に対して、その許可された移動方向を示す矢印Y2やY3を表示するようにしてもよい。この場合、矢印Y1およびY2,Y3は、図6(c)や図7(b)に示すように、ワーク1の姿勢の修正量や移動量に応じてその長さを変えるようにするとよい。
〔実施の形態〕
図8は本発明に係る作業支援装置の一実施の形態を用いた遠隔操作型システムのシステム構成図である。同図において、4はロボット、5はロボット4に指令を与えるための操縦デバイス、6は作業モニタ、7はロボット4と操縦デバイス5および作業モニタ6との間に設けられた処理装置、8はワーク1が載置されたトレイ、9はワーク1の組み付け位置に設けられた組立治具(ステージ)である。ステージ9にはガイド2が設けられている。
ロボット4は、ロボット本体41と、このロボット本体41から延びるアーム42とを備え、アーム42の先端部(ロボット先端部)43には力センサ44を介してハンド45が設けられている。また、ロボット先端部43には、ハンド45の下方の領域(Z軸方向から見た領域)を画像として捉えるカメラ46が設けられている。力センサ44は、ハンド45に加わる力のX軸方向成分、Y軸方向成分、Z軸方向成分を検出し、処理装置7へ送る。
トレイ8には、そのトレイ面の縦横方向に並んで、ワーク1が多数載置されている。ステージ9には、ガイド2を含む領域を正面(X軸方向)から画像として捉えるカメラ10と、ガイド2を含む領域を側面(Y軸方向)から画像として捉えるカメラ11とが設けられている。
本実施の形態では、カメラ46のカメラ番号をNO.1、カメラ10のカメラ番号をNO.2、カメラ11のカメラ番号をNO.3とする。このカメラ46、カメラ10、カメラ11が捉える画像は処理装置7へ送られる。
処理装置7は、カメラ46、カメラ10、カメラ11から入力する画像を切替えるカメラ切替え機72と、それらの画像に変更方向を示す指標などの仮想画像を重畳してモニタに表示させるCG合成機73とからなるハードウェアと、操縦デバイス5を介する作業者からの指令に応じてロボット4の動作を制御するロボットコントローラ71とを備えている。また、これらのハードウェアと協働して処理装置としての各種機能を実現させるプログラムを備え、本実施の形態特有の機能としてモニタ画面上でロボットの作業を支援する作業支援機能を有している。以下、図9〜図12に示すフローチャートに従って、処理装置7が有する作業支援機能について説明する。
〔実画像とモデルとの位置合わせ〕
先ず、作業支援機能の初期設定として、実画像とモデルとの位置合わせを行う。処理装置7のメモリには、トレイ8の配置状態を示すトレイモデルとステージ9の配置状態を示すステージモデルが事前に作成され、作業環境のモデルとして記憶されている。
トレイモデルおよびステージモデルは、トレイ8およびステージ9の設計上の配置状態を示し、トレイ8およびステージ9の実際の配置状態との間にずれが生じている虞れがある。そこで、本実施の形態では、作業支援機能の初期設定として、実画像とモデルとの位置合わせを行い、トレイ8およびステージ9の実際の配置状態とトレイモデルおよびステージモデルとのずれを補正する。なお、トレイモデルおよびステージモデルは、トレイ8の輪郭表示やステージ9におけるガイド2のエッジ表示などに用いる。
この実画像とモデルとの位置合わせは、適宜人間が介入し、補正ポイントをモニタ画面上で直接指定することにより行う。この場合、作業者は、操縦デバイス5を操作し、ロボット先端部43をトレイ8の上方に位置させ、作業モニタ6の画面上にカメラ46が捉えるトレイ8の画像(実画像)を表示させる(ステップ101(図9))。
そして、このトレイ8の実画像において(図13参照)、トレイ8の対向する角部P1,P2を補正ポイントとして指定する(ステップ102)。すると、処理装置7は、補正ポイントP1,P2を結ぶ線の中央をトレイ8の中心点P0として算出し、トレイモデルの中心点P0’と点P0との位置関係から実画像とモデルとの間のX軸方向へのずれ量Δx、Y軸方向へのずれ量Δyを、P1、P2を結ぶ線の傾きとP1’、P2’を結ぶ線の傾きからZ軸回りのずれ量Δθを計算する(ステップ103)。そして、この計算したずれ量Δx,Δy,Δθに基づいて、トレイモデルを修正する(ステップ104)。
次に、作業者は、操縦デバイス5を操作し、ロボット先端部43をステージ9の上方に位置させ、作業モニタ6の画面上にカメラ46が捉えるガイド2を含むステージ9の画像(実画像)を表示させる(ステップ105)。
そして、このガイド2を含むステージ9の実画像において(図14参照)、ガイド2の角部P3,P4を補正ポイントとして指定する(ステップ106)。すると、処理装置7は、補正ポイントP3,P4を結ぶ線とステージモデルにおける対応するポイントP3’,P4’を結ぶ線との位置関係から、実画像とモデルとの間のX軸方向へのずれ量Δx、Y軸方向へのずれ量Δy、Z軸回りのずれ量Δθを計算する(ステップ107)。そして、この計算したずれ量Δx,Δy,Δθに基づいて、ステージモデルを修正する(ステップ108)。
〔位置決め作業の開始〕
作業者は、このようにして実画像とモデルとの位置合わせを終えた後、トレイ8に載置されたワーク1のステージ9への位置決め作業を開始する。なお、この実施の形態では、説明を簡単とするために、ワーク1はZ軸回りの姿勢にのみ傾きが生じており、他の方向には傾きは生じていないものとする。
作業者は、先ず、操縦デバイス5を操作し、ロボット先端部43をトレイ8の上方に位置させ、作業モニタ6の画面上にカメラ46が捉えるワーク1の画像(実画像)を表示させる(ステップ201(図10))。そして、このワーク1の実画像において(図15参照)、ワーク8の対向する角部P1,P2を補正ポイントとして指定する(ステップ202)。
すると、処理装置7は、補正ポイントP1,P2を結ぶ線の中央をワーク1の中心点P0として算出し、モデルにおけるワーク1の中心点P0’とP0点との位置関係から実画像とモデルとの間のX軸方向へのずれ量Δx、Y軸方向へのずれ量Δyを、P1、P2を結ぶ線と、モデルにおけるワーク1の補正ポイントに対応した点P1’、P2’を結ぶ線の傾きからZ軸回りのずれ量Δθを計算する(ステップ203)。そして、この計算したずれ量Δx,Δy,Δθに合わせて、P0点を中心としてワーク1をハンド45でつかむ(ステップ204)。
また、処理装置7は、ワーク1の目標姿勢と現在の姿勢とからワーク1の姿勢の修正方向および修正量を算出し、ワーク1の実画像に対して姿勢修正用のガイドラインL1を表示する(図16(a):ステップ205)。また、ワーク1の実画像に対して、その時のワーク1の回転中心を示す支点PMを表示する。また、ワーク1のエッジを強調する強調ライン1aを表示する。また、ハンド45によるワーク1のZ軸回りの動きだけを許可し、他の方向への動きを全て拘束する(ステップ206)。
〔姿勢の修正〕
作業者は、このモニタ画面を見ながら、ロボット4を遠隔操作し、ハンド45でワーク1を持ち上げ、支点PMを中心としてワーク1を回転させる(ステップ207:図16(b))。この回転によって、ワーク1の実画像に対して表示されている強調ライン1aがガイドラインL1に一致すると、ガイドラインL1が消える(図16(c))。これにより、作業者に、ワーク1のZ軸回りの姿勢の修正が完了したことが知らされる。
〔移動(X軸方向およびY軸方向)〕
ガイドラインL1が消えると(ステップ208のYES)、処理装置7は、ワーク1の目標位置(X−Y平面内の目標位置)と現在の位置とからワーク1の移動方向および移動量を算出し、ワーク1の実画像に対してXY軸方向移動用のガイド壁S2を表示する(図16(c):ステップ209)。また、ハンド45によるワーク1のガイド壁S2で囲まれた範囲の動きだけを許可し、他の方向への動きを全て拘束する(ステップ210(図11))。
作業者は、このモニタ画面を見ながら、ロボット4を遠隔操作し、ワーク1をガイド壁S2に沿って移動させる(ステップ211)。ワーク1をガイド壁S2に沿って移動させると、画面内にガイド2の実画像が入るようになり(図16(d))、やがてガイド壁S2が消える(図16(e))。これにより、作業者に、ワーク1のX軸方向およびY軸方向への位置決め作業が完了し、ワーク1がX−Y平面内の目標位置に達したことが知らされる。なお、図16(d)および(e)において、2aはガイド2のエッジを強調する強調ライン(仮想画像)である。
〔移動(Z軸方向)〕
ガイド壁S2が消えると(ステップ212のYES)、処理装置7は、モニタ画面に表示する画像をカメラ46からカメラ10へ切り替える(ステップ213)。そして、ワーク1の目標位置(Y−Z平面内の目標位置)と現在の位置とからワーク1の移動方向および移動量を算出し、ワーク1の実画像に対してZ軸方向移動用のガイド壁S3を表示する(図17(a):ステップ214)。また、ハンド45によるワーク1のガイド壁S3で囲まれた範囲の動きだけを許可し、他の方向への動きを全て拘束する(ステップ215)。
作業者は、このモニタ画面を見ながら、ロボット4を遠隔操作し、ワーク1をガイド壁S3に沿って移動させる(ステップ216)。ワーク1をガイド壁S3に沿って移動させ(図17(b))、ワーク1が目標位置に達すると、ガイド壁S3が消える(図17(c))。これにより、作業者に、ワーク1のZ軸方向への位置決め作業が完了し、ワーク1がXYZ空間内の目標位置に達したことが知らされる。
〔力ベクトルの表示〕
ワーク1のガイド壁S3に沿っての移動中、ワーク1がガイド2に当たり、ワーク1を目標位置まで移動させることができないことがある。この場合、処理装置7は、力センサ44からの検出信号によりハンド45に加わる力を察知し、この力の方向および大きさを示す矢印YF(力ベクトル)をワーク1の実画像に対して表示する(図17(c))。
作業者は、力ベクトルYFが表示されると(ステップ217のYES)、ワーク1のX軸方向およびY軸方向への位置の調整を行う(ステップ218)。この場合、処理装置7は、先ず、ワーク1のY軸方向への動きだけを許可し、作業者によるワーク1のY軸方向への位置の調整を可能とする。次に、モニタ画面に表示する画像をカメラ10からカメラ11へ切り替えて、ワーク1のX軸方向への動きだけを許可し、作業者によるワーク1のX軸方向への位置の調整を可能とする。
〔微調整〕
処理装置7は、ガイド壁S3が消えると(ステップ219(図12)のYES)、ワーク1からハンド45を離す(ステップ220)。そして、モニタ画面に表示する画像をカメラ10からカメラ46へ切り替える(ステップ221)。これにより、モニタ画面には、図18に示すように、ワーク1の実画像に対して、ハンド45を操作することが可能な範囲を示す指標として模範軌道SMが表示される(ステップ222)。
この模範軌道SMは、作業を進める上でのポイントとなる操作を熟練者の経験的知識などから抽出して定められたものであり、ハンド45の軌道拘束状態と合わせて、ワーク1への効果的な押し当てを実現するための接触ポイントや接触方向などを示すものである。
作業者は、この模範軌道SMに沿ってハンド45を移動させ、ワーク1をガイド2へ押し付ける(ステップ223)。バイラテラル方式により、ハンド45に加わった外力を操縦デバイス5にフィードバックすることで、作業者は作業力を感じながら操作を行うことが可能となる。
作業者は、このような操作を模範軌道SMに沿って繰り返し、ワーク1をガイド2に突き当てる(ステップ224)。X軸方向およびY軸方向への位置の微調整が完了すると(ステップ225のYES)、処理装置7は、ロボット先端部43を位置決め作業の開始位置まで戻し(ステップ226)、次のワーク1の位置決め作業に備える。
〔運動特性モデルの表示〕
遠隔操作型のロボットを用いた作業では、コンピュータ制御技術によりロボットに対して様々な運動特性を持たせることができる。それにより、例えば、作業に適した座標系や運動特性をロボットに設定して、人間の作業を効果的に支援することが可能となる。このコンピュータ制御技術では、運動や力の空間を制御によって歪めて作業支援を行うものであるため、現在どのような支援特性が機能しているかを視覚的にも操作者に直感的に伝える必要がある。
運動特性モデルとしては、例えば、図19に示すように、円筒状の物体12に対してハンド2を一定の距離間隔で動かすような場合、このハンド2の制御状態(追従制御の状態)を示す仮想リンク機構LNを実画像に重ねて表示するようにしてもよい。このような運動特性モデルを表示することにより、自分の操作に応じて仮想機構が運動・変化して行くため、支援の様子を手に取るように把握することができるようになる。
このように、本実施の形態によれば、ロボット4によるワーク1の少なくとも一方向への動きを拘束し、モニタ画面上のワーク1の実画像に対してそのワーク1の現在の拘束状態を示す指標としてガイドラインY1やガイド壁S2,S3などを表示するようにしたので、ワーク1の現在の拘束状態をモニタ画面上で確認しながらワーク1を許可された方向のみへ動かすようにして、位置決め作業中のワーク1の姿勢の修正や目標位置への移動を短時間で行うことができるようになり、作業者の負担軽減、非熟練作業者のスキルアップ、作業の効率化などを実現することが可能となる。
なお、上述した実施の形態では、説明を簡単とするために、位置決め作業の開始時、ワーク1はZ軸回りの姿勢にのみ傾きが生じており、他の方向には傾きは生じていないものとしたが、X軸回りの姿勢やY軸回りの姿勢にも傾きが生じている場合にも、Z軸回りの姿勢に傾きが生じていた場合と同様にして、ワーク1の姿勢を修正することができる。例えば、X軸回りの姿勢に傾きが生じていた場合、カメラ10でワーク1を捉えた画像には、図20(a),(b)に示すように、ワーク1のX軸回りの姿勢修正用のガイドラインL1やワーク1のZY軸方向移動用のガイド壁S2が表示されるので、このガイドラインL1やガイド壁S2を頼りにワーク1の姿勢の修正と目標位置への移動を行う。
また、図21に示すように、最初はPM1を拘束ポイントとして全方向への姿勢の修正を可能とし(図21(a))、次に拘束ポイントPM2を定め(図21(b))、このPM1点とPM2点とを結ぶ線を拘束ラインとして、ワーク1の姿勢の修正を段階的に行うようにしてもよい(図21(c))。
本発明の概要を説明するための作業対象物(ワーク)およびガイドを含む作業環境をZ軸方向からカメラで捉えたモニタ画面上の実画像に重畳表示されるガイドラインL1,L2を示す図である。 本発明の概要を説明するための作業対象物(ワーク)およびガイドを含む作業環境をX軸方向からカメラで捉えたモニタ画面上の実画像に重畳表示されるガイドラインL3を示す図である。 ガイドラインL2に代えてガイド壁S2を表示するようにした例を示す図である。 ガイドラインL3に代えてガイド壁S3を表示するようにした例を示す図である。 X軸方向とY軸方向に分けてワークを移動するようにした場合のガイド壁S2(S2X,S2Y)の表示例を示す図である。 許可された回転方向を示す矢印Y1および許可された移動方向を示す矢印Y2を表示するようにした例を示す図である。 許可された移動方向を示す矢印Y3を表示するようにした例を示す図である。 本発明に係る作業支援装置の一実施の形態を用いた遠隔操作型システムのシステム構成図である。 このシステムにおける処理装置が有する作業支援機能の初期設定(実画像とモデルとの位置合わせ)を説明するためのフローチャートである。 このシステムにおける処理装置が有する作業支援機能を説明するためのフローチャートである。 図10に続くフローチャートである。 図11に続くフローチャートである。 トレイモデルと実画像との位置合わせを説明する図である。 ステージモデルと実画像との位置合わせを説明する図である。 ハンドによってワークをつかむ際の位置合わせを説明する図である。 作業対象物をZ軸方向からカメラで捉えたモニタ画面上の実画像に重畳表示されるガイドラインおよびガイド壁を示す図である。 作業対象物をX軸方向からカメラで捉えたモニタ画面上の実画像に重畳表示されるガイド壁S3を示す図である。 ワークの位置を微調整する場合に拘束状態を示す指標として表示されるハンドの模範軌道を示す図である。 ハンドの運動特性モデルの例として仮想リンク機構を示す図である。 作業対象物をX軸方向からカメラで捉えたモニタ画面上の実画像に重畳表示されるガイドラインおよびガイド壁を例示する図である。 モニタ画面上の作業対象物に対し拘束ポイントを段階的に定めて姿勢を修正して行く様子を示す図である。 作業対象物およびガイドを含む作業環境をZ軸方向からカメラで捉えたモニタ画面上の画像に重畳される従来の仮想画像の表示例を示す図である。 作業対象物およびガイドを含む作業環境をX軸方向からカメラで捉えたモニタ画面上の画像に重畳される従来の仮想画像の表示例を示す図である。
符号の説明
1…作業対象物(ワーク)、1a…強調ライン、2…ガイド、2a…強調ライン、3…仮想画像、L1,L2,L3…ガイドライン、S2,S3…ガイド壁、Y1,Y2,Y3…矢印、YF…矢印(力ベクトル)、PM、PM1、PM2…支点、4…ロボット、5…操縦デバイス、6…作業モニタ、7…処理装置、8…トレイ、9…組立治具(ステージ)、10,11,46…カメラ、41…ロボット本体、42…アーム、43…ロボット先端部、44…力センサ。45…ハンド、71…ロボットコントローラ、72…カメラ切替え機、73…CG合成機、SM…模範軌道、LN…仮想リンク機構。

Claims (8)

  1. 遠隔操作型の機構を利用し作業対象物の位置及び姿勢を目標位置及び目標姿勢へ一致させる位置決め作業を支援する作業支援装置において、
    前記作業対象物の実画像をモニタ画面上に表示する実画像表示手段と、
    前記作業対象物の前記目標姿勢と現在の姿勢とから演算された前記作業対象物の姿勢の修正方向あるいは前記作業対象物の前記目標位置と現在の位置とから演算された前記作業対象物の前記目標位置への移動方向から前記機構による前記作業対象物の少なくとも一方向への動きを拘束する拘束手段と、
    前記モニタ画面上に表示された前記作業対象物の実画像に対してその作業対象物の現在の拘束状態を示す指標を前記モニタ画面に表示する拘束状態表示手段と
    を備えることを特徴とする作業支援装置。
  2. 請求項1に記載された作業支援装置において、
    前記拘束状態表示手段は、前記指標として前記作業対象物を動かすことが可能な方向を示すラインを表示する
    ことを特徴とする作業支援装置。
  3. 請求項1に記載された作業支援装置において、
    前記拘束状態表示手段は、前記指標として前記作業対象物を動かすことが可能な範囲を囲む壁を表示する
    ことを特徴とする作業支援装置。
  4. 請求項1に記載された作業支援装置において、
    前記拘束状態表示手段は、前記指標として前記機構を操作することが可能な範囲を塗り潰した軌道を表示する
    ことを特徴とする作業支援装置。
  5. 遠隔操作型の機構を利用し作業対象物の位置及び姿勢を目標位置及び目標姿勢へ一致させる位置決め作業を支援する作業支援方法において、
    前記作業対象物の実画像を前記モニタ画面上に表示する第1ステップと、
    前記作業対象物の前記目標姿勢と現在の姿勢とから演算された前記作業対象物の姿勢の修正方向あるいは前記作業対象物の前記目標位置と現在の位置とから演算された前記作業対象物の前記目標位置への移動方向から前記機構による前記機構による前記作業対象物の少なくとも一方向への動きを拘束する第2ステップと、
    前記モニタ画面上に表示された前記作業対象物の実画像に対してその作業対象物の現在の拘束状態を示す指標を前記モニタ画面に表示する第3ステップと
    を備えることを特徴とする作業支援方法。
  6. 請求項5に記載された作業支援方法において、
    前記第3ステップは、前記指標として前記作業対象物の操作可能な方向を示すラインを表示する
    ことを特徴とする作業支援方法。
  7. 請求項5に記載された作業支援方法において、
    前記第3ステップは、前記指標として前記作業対象物を動かすことが可能な範囲を囲む壁を表示する
    ことを特徴とする作業支援方法。
  8. 請求項5に記載された作業支援方法において、
    前記第3ステップは、前記指標として前記機構を操作することが可能な範囲を塗り潰した軌道を表示する
    ことを特徴とする作業支援方法。
JP2006281165A 2006-10-16 2006-10-16 作業支援装置および方法 Expired - Fee Related JP4949799B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006281165A JP4949799B2 (ja) 2006-10-16 2006-10-16 作業支援装置および方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006281165A JP4949799B2 (ja) 2006-10-16 2006-10-16 作業支援装置および方法

Publications (2)

Publication Number Publication Date
JP2008093814A JP2008093814A (ja) 2008-04-24
JP4949799B2 true JP4949799B2 (ja) 2012-06-13

Family

ID=39377202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006281165A Expired - Fee Related JP4949799B2 (ja) 2006-10-16 2006-10-16 作業支援装置および方法

Country Status (1)

Country Link
JP (1) JP4949799B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5203037B2 (ja) * 2008-05-09 2013-06-05 アズビル株式会社 教示装置及び教示方法
JP6416560B2 (ja) * 2014-09-11 2018-10-31 株式会社デンソー 位置決め制御装置
JP6409605B2 (ja) * 2015-02-09 2018-10-24 トヨタ自動車株式会社 ロボットシステム
JP2020066505A (ja) * 2018-10-24 2020-04-30 株式会社豊田自動織機 フォークリフトの遠隔操作システム
JP7114521B2 (ja) * 2019-03-29 2022-08-08 株式会社東芝 遠隔操作ロボットの作業支援システム及び作業支援方法
JP2020175453A (ja) * 2019-04-15 2020-10-29 株式会社Ihi 遠隔操作装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63139689A (ja) * 1986-11-28 1988-06-11 株式会社日立製作所 遠隔マニピユレ−シヨン・システムの画像表示装置
JP3712693B2 (ja) * 2002-05-21 2005-11-02 株式会社東芝 医療用マニピュレータ
JP2004223128A (ja) * 2003-01-27 2004-08-12 Hitachi Ltd 医療行為支援装置および方法
JP2006000977A (ja) * 2004-06-17 2006-01-05 National Univ Corp Shizuoka Univ ロボット環境間力作用状態呈示装置
JP2006113858A (ja) * 2004-10-15 2006-04-27 Mitsubishi Heavy Ind Ltd 移動体の遠隔操作支援方法及びシステム
JP2006192564A (ja) * 2004-12-16 2006-07-27 Toyota Motor Corp 作業補助装置と作業補助方法
JP2006167889A (ja) * 2004-12-17 2006-06-29 Akito Sano 操作子の移動装置と移動方法とそのためのプログラム

Also Published As

Publication number Publication date
JP2008093814A (ja) 2008-04-24

Similar Documents

Publication Publication Date Title
JP6843051B2 (ja) 遠隔操作ロボットシステム
JP6420229B2 (ja) 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
JP4949799B2 (ja) 作業支援装置および方法
EP1462896B1 (en) Robot teaching device
CN109834709B (zh) 设定微动坐标系的机器人控制装置
JP6445092B2 (ja) ロボットの教示のための情報を表示するロボットシステム
JP2004351570A (ja) ロボットシステム
CN109834697B (zh) 示教操作盘以及机器人控制系统
JP2014065100A (ja) ロボットシステム、及びロボットのティーチング方法
US11618166B2 (en) Robot operating device, robot, and robot operating method
JP7564184B2 (ja) 直接教示操作を受け付け可能な制御装置、教示装置、および制御装置のコンピュータプログラム
CN114055460B (zh) 示教方法及机器人系统
JP3940998B2 (ja) ロボット装置
US20230292000A1 (en) Remote control device
TW202233368A (zh) 教示裝置
JP4949798B2 (ja) 作業支援装置および方法
JP2000042960A (ja) マニピュレータの遠隔操作装置
JP2009274191A (ja) 作業用ロボットおよび同作業用ロボットに適用されるコンピュータプログラム
WO2022230854A1 (ja) データ処理装置、データ処理方法及びデータ処理システム
JP2003127078A (ja) 作業ロボットの教示装置および教示方法。
JPH05123989A (ja) 検査装置の座標表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110301

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111011

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120306

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120308

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees