[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2013091114A - インタラクション操作システム - Google Patents

インタラクション操作システム Download PDF

Info

Publication number
JP2013091114A
JP2013091114A JP2011232305A JP2011232305A JP2013091114A JP 2013091114 A JP2013091114 A JP 2013091114A JP 2011232305 A JP2011232305 A JP 2011232305A JP 2011232305 A JP2011232305 A JP 2011232305A JP 2013091114 A JP2013091114 A JP 2013091114A
Authority
JP
Japan
Prior art keywords
robot
unit
operator
information
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011232305A
Other languages
English (en)
Inventor
Susumu Tate
▲すすむ▼ 舘
Kota Minamisawa
孝太 南澤
Masahiro Furukawa
正紘 古川
Katsunari Sato
克成 佐藤
Takashi Wada
貴志 和田
Toru Tanaka
徹 田中
Akiyoshi Ueda
明寿 上田
Yoshinori Murakami
慶典 村上
Shinya Ikeda
真也 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyokko Denki KK
Original Assignee
Kyokko Denki KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyokko Denki KK filed Critical Kyokko Denki KK
Priority to JP2011232305A priority Critical patent/JP2013091114A/ja
Publication of JP2013091114A publication Critical patent/JP2013091114A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】 操作者の動作とロボットの検知する感覚情報が互いに影響しあう非拘束、かつ、直観的連動的なロボット操作システムの提供
【解決手段】 ロボット側には感覚情報を検出する感覚情報検出部と、感覚情報を伝送する感覚情報出力部と、ロボットを駆動させるロボット駆動装置を備え、操作者にはロボットから伝送された前記感覚情報を操作者に付与する感覚情報付与部、並びに多関節構造体、制御装置及び教示情報出力部より成るロボット教示装置を装着し、前記多関節構造体は可動部に変化量検出センサを有する関節を含む関節群とセンサ信号を処理する処理部と処理されたデータを伝送する通信部とにより構成されることにより、操作者の動作を拘束せず、かつ、操作者の身体的条件を問わずにロボットの操作を行うことができるシステムが実現する。
【選択図】 図1

Description

本発明は、ロボット各部の位置及び姿勢の変化に対応して直観的かつ非拘束な態様でロボットを操作するシステムに関するものである。
ロボット各部の操作方法としては、ロボットに配設した感覚を検出する感覚情報検出器の情報を操作者に伝送し、操作者は操作者周囲の感覚情報を遮断された状態で伝送された感覚情報を受け取ることで、操作者に臨場感に満ちたロボットの操縦を可能にする技術がある(特許文献1)。
本技術は、操作者が対象物に直接作業を行う感覚を持たせるという効果を有する。また、操作者自身の身体動作により直観的にロボットを操作することが可能である。しかし、操作者に装着されるロボット操縦装置は大掛かりなものが多い。又、人間の身体構造とは異なる構造の操縦装置であることにより操作者の操作を妨げる場合があり、操作者の腕等の可動スペースの制限によりロボットの操縦が円滑に行えない場合がある。さらに、操作者は操縦装置を周囲に配した操縦席に座って操作を行うので、自由に歩行しながら操作を行うことができない。このように操作における拘束性が問題となる。
一方、操作者の身体動作に連動した多関節構造体の形状変化に伴う関節の変化量をロボットに伝送することによりロボットを駆動させる教示装置が提案されている(特許文献2)。
本発明は、操作者が自分の身体を動作させることにより、直観的にロボットの部分を移動させることができる。しかし、本発明はロボットの部分を移動させた後の状況を外部から視認するのみで、ロボット自体の視点で確認することができない。このように、ロボットの置かれた状況を的確に判断できない場合があった。
特昭62−29296号公報
特開2011−31327号公報
本発明はこれらの問題点に鑑みてなされたものである。操作者は自らの身体を外部による拘束を受けることなく動作させることにより直観的かつ連動的にロボットを操作し、操作されたロボットの新たな状況における感覚の検知を連動して操作者に伝送することにより、操作者とロボットが互いに影響しあう非拘束、かつ、直観的連動的なロボット操作システムを提供することを目的とする。
かかる課題を解決するために、操作者の動作とロボットが検知する感覚情報によるインタラクション操作システムであって、視覚情報、聴覚情報及び/又は触覚情報を含む感覚情報を検出する感覚情報検出部と、感覚情報を伝送する感覚情報出力部と、ロボットを駆動させるロボット駆動装置をロボットに備えると共に
ロボットから伝送された前記感覚情報を操作者に付与する感覚情報付与部、並びに可動部に変化量検出センサを有する関節を含む関節群とセンサ信号を処理する処理部と処理されたデータを伝送する通信部とにより構成される多関節構造体、制御装置及び教示情報出力部より成るロボット教示装置を操作者に装着し、
前記ロボット教示装置は、前記操作者の動作を拘束することなく前記操作者の動作に連動して形状を変化させる多関節構造体の、当初操作基準点における特定された1又は複数の関節の位置及び/又は姿勢に対する形状変化後の操作基準点における前記1又は複数の関節の位置及び/又は姿勢を計測すると共に計測され又は制御部により修正された位置及び/又は姿勢情報を前記ロボット駆動装置に伝送し、
前記ロボットは、ロボット駆動装置により、前記多関節構造体の特定された1又は複数の関節に対応する1又は複数の部分を、当初駆動基準点における位置及び/又は姿勢に対する前記伝送された位置及び/又は姿勢へと追随変動させると共に追随移動に伴い前記感覚情報検出部が新たに検出する感覚情報を前記感覚情報付与部に伝送し、
前記操作者は、前記感覚情報付与部が付与する新たな感覚情報に基づいて動作を行うことを特徴とするインタラクション操作システムが提供される。
ロボットの受ける現場における視覚、聴覚、触覚等の感覚情報が伝送され、操作者は装着する感覚情報付与部により視覚、聴覚、触覚等のロボットの感覚検知部において検知した感覚情報を感知することができる。操作者が操作者自身の身体で感知した作業現場の状況にマッチした最適な動作を行うと、操作者の動作に連動して操作者に装着した多関節構造体の形状が変化し、多関節構造体を構成する1又は複数の関節の位置及び姿勢が変化する。操作者は、密着した多関節構造体により動作を制限されることなく、したがって、多関節構造体の存在を意識することなく動作を行うことができる。多関節構造体を関節群の中で特定した1又は複数の関節の変化量を計測して、計測値を教示情報としてロボット駆動装置に伝送する。ロボット駆動装置は、多関節構造体における特定の関節の変化量と同一の変化量または制御部で調整した変化量を、対応するロボットの特定部分に付与するようにロボットを駆動する。ロボットを駆動した結果、視覚情報検出部、聴覚情報検出部、触覚情報検出部等の感覚情報検出部の位置及び姿勢が変動し、変動に伴う新たな感覚情報が検出され、検出された新たな感覚情報が操作者に伝送される。操作者は新たな感覚情報に基づく最適な動作を行う。
ロボットの感覚情報に基づく操作者の教示動作及びその教示動作に基づく多関節構造体の関節の変化と多関節構造体の変化情報に基づくロボットの駆動及びその駆動に基づく感覚情報の変化が、一連の動的なサイクルとして相互に影響し合ってロボットの操作システムとして構築されることとなる。ロボットの感覚情報はそのままのレベルで操作者に伝送せずに一定のリミットを設けて伝送することにより操作者を保護したり、拡張して伝送することにより微細な感覚情報の取得を可能としたりする態様を採用することも可能である。
また、前記ロボットにロボットの特定部分が受ける外力情報を検出する手段を備え、かつ、前記操作者における前記ロボットの特定部分に対応する部分に前記外力重情報に対応する力覚情報を付与する手段を備えたことを特徴とするインタラクション操作システムが提供される。
ロボットの一部に荷重等の外力が加わる場合、ロボットは外力によりその動作に制限を受ける。一方、操作者はかかる制限を受けず自由に動作をすることができるので、操作者の動作ぶりとロボットの動作ぶりにギャップが生じる。外力が加わったロボットの一部に相当する操作者の身体部分にロボットに加わる外力と同程度の力覚を付与することにより、操作者も動作が不自由になり、ロボットと同様に制限を受けた動作ぶりとなる。なお、操作者を保護するために、操作者に加える負荷レベルはロボットに加わる外力を調整したものである。また、一定限度にリミットを設けることも可能である。
また、前記感覚情報付与部が付与する感覚に対応する操作者自らの感覚器による感覚について、前記感覚情報付与部からの感覚情報と操作者周囲の実際の感覚情報とを択一的に又は重畳的に感知することを特徴とするインタラクション操作システムが提供される。
操作者の頭部をHMD(ヘッドマウントディスプレイ)等の感覚情報付与部で覆って操作者の実際の外部環境からの感覚情報を遮断する現場のみの感覚情報検知、実際の外部環境からの感覚情報を遮断する感覚情報検知と感覚情報付与部からの情報をオフとして実際の外部環境からの感覚情報のみとする感覚情報検知とを適宜切り替える感覚情報検知、両方の情報を重畳的に感知するようにする感覚情報検知を選択する構成となる。実際の外部環境からの感覚情報を取得するために、ライブカメラを利用することも可能である。
また、前記多関節構造体を操作者の背中、腕、手指及び頭部に装着したことを特徴とするインタラクション操作システムが提供される。
また、前記操作基準点及び/又は前記駆動基準点について、固定基準点と移動基準点の2の基準点を設けると共に固定基準点に対する移動基準点の方向及び2点間の距離についての計測部及び計測値出力部を設け、前記多関節構造体全体及び/又は前記ロボット全体が移動した場合に、一方の前記固定基準点から前記移動基準点への移動距離及び移動方向を他方に伝送することを特徴とするインタラクション操作システムが提供される。
通常の操作基準点の位置は、操作者に装着する多関節構造体中の端部関節の位置に決定されるが、それと別個に操作者以外の固定物にも操作基準点を設ける構成とすることができる(前者を移動操作基準点、後者を固定操作基準点という。)同様に、ロボット側にもロボットに配設する駆動基準点(移動駆動基準点)と固定物に配設する駆動基準点(固定駆動基準点)を設ける構成とすることができる。
また、前記固定基準点から前記移動基準点への移動距離及び移動方向の伝送を選択的に行うことを特徴とするインタラクション操作システムが提供される。
操作者における固定基準点から移動基準点への移動についてロボットへの駆動教示の要否に応じて移動情報のオンオフを選択的に行う構成とすることができる。ロボットにおける固定基準点から移動基準点への移動についても同様である。
また、前記ロボットの構成又は前記操作者の身体的条件に適合させるべく前記多関節構造体における前記特定の1又は複数の関節を選択することを特徴とするインタラクション操作システムが提供される。
たとえば、ロボットの関節部の数が3の場合、多関節構造体においては3個の特定の中間関節を選択し、その3個の中間関節の変動に追随してロボットの3個の関節を変動させることができる。また、操作者の体の大きさが異なる場合があるが、操作者自身の関節位置に一致する位置にある多関節構造体の特定の関節を選択し、選択された特定の関節の位置及び姿勢情報をロボットに伝送すれば良い。なお、ロボットが大型又は小型であって、操作者が示す絶対的な変動にそのまま追随することが適切でない場合は、操作者の動作に基づく多関節構造体の特定された1又は複数の関節の変動距離を拡張又は圧縮制御した情報を伝送すれば良い。
また、マイクロフォンを前記操作者に装着すると共にスピーカーを前記ロボットに備え、操作者の声を前記ロボットを介して発することを特徴とするインタラクション操作システムが提供される。
また、前記操作者の教示動作に起因する前記ロボットの変動に伴って前記感覚情報検出部が検出する新たな感覚情報に基づいて、操作者がロボットを駆動させる教示動作を行い、操作者の教示動作に連動して形状を変化させた前記多関節構造体の1又は複数の関節の位置及び/又は姿勢の変化に追随して、前記ロボットの対応する1又は複数の部分の位置及び/又は姿勢を変動させることを特徴とする操作者の教示動作とロボットの感覚情報によるインタラクション操作方法が提供される。
本発明に係るインタラクション操作システムにより、操作者は時々刻々変化するロボットの検知する視覚、聴覚、触覚等のいずれか又は複数の感覚を共有しつつ、ロボットを操縦しようと意識することなしに直観的連動的に操作することができる。すなわち、ロボットの新たな感覚情報はそのままストレートに操作者に伝送されて操作者自身の受け取る感覚情報として認識され、操作者は新たな感覚情報を加えた現場環境における作業動作を違和感なく行うことができる。また、多関節構造体は簡易軽量な構造であり、背部・後頭部・側腕部等の操作者の動作の邪魔にならないように密着配設されているので、操作者は拘束感なく動作を行うことができる。従来は実現できなかったスポーツを行う際のような高速の動きも、歩きながら・走りながらの動作も可能となった。かかる操作者の作業動作は多関節構造体の形状変化に反映され、多関節構造体の形状変化はロボット駆動装置によってロボットの各部の位置及び姿勢変化に直結する。そして、ロボット各部の位置及び姿勢変化は操作者の新たな感覚情報となって操作者に伝送される。なお、各人の体格差や体のゆがみ等があっても、手先や肘等特定の部位のみの状況のみを取り扱うので、特定の部位以外の長さ・向き等の状況の影響を受けることはない。
ロボットがワークを手で保持している場合等ロボットの一部に外力が加わっている場合に、操作者の腕等においてもロボットと同じ方向に同一又は対応する力覚を付与することで、操作者とロボットの置かれる条件が同一となる。操作者が素早く腕を跳ね上げるのに対し、ワークを保持するロボットの腕は緩慢な動作で追随するという不一致は生ぜず、操作者の動作に対するロボットの動作の追随性が向上する。
操作者が検知する感覚情報について、ロボットの感覚情報検出部による感覚情報と操作者自身が検知する感覚情報を適宜選択することにより、より適切に、かつ、安全に操作することができる。ロボットの感覚情報のみを検知する場合は現場没入感をより高めることができる。ロボットの感覚情報検出部による感覚情報と操作者自身が検知する実際の感覚情報とを交互に切り替えることにより、操作者周囲の障害物等の状況を適宜認識させ、障害物との接触等に対する注意を喚起させることができる。両者の情報を重畳的に検知することを選択することにより、常時、操作者周囲の環境に留意しながらロボットの操作をすることができる。また、ライブカメラを介して操作者周囲の実際の情景を映し出すことにより、強烈な発光から操作者を保護することができる。
背中、腕、手指外側に装着するのは、操作者の自由な動きを妨げずにロボットに効率的に教示を行うため、後頭部に装着するのは、ロボットの視覚、聴覚情報検出部の情報検出を適切に行うためである。たとえば、ワークへの作業の合間に操作者が首を左右に振ることによりロボットの左右の環境についての情報を入手することができ、ロボットに対する危険を未然に防止することができる。
ロボットが車輪等の移動手段を有している場合、操作者およびロボットのそれぞれに移動距離及び方向を計測する手段を有することにより、適切な移動情報の教示が可能となる。操作者はロボットを目視しつつ歩いて、ロボットを作業位置まで誘導することができる。また、予め作業位置までの距離が判明していて、かつ、操作者が狭い範囲を歩く場合には、上記と逆に、ロボットからの移動情報を基にして残りの歩く距離を算出することができる。
ロボットを作業地点まで移動する必要のない場合は、移動情報の伝送は行わない設定に切り替え、操作者は自由に移動しつつ動作を行うことができる。
選択する関節を適宜変更することにより容易に操作者の体格等身体的条件の相違に適合することができ、多関節構造体の全体構成を操作者の身体条件によって延長したり、短縮する必要はない。また、同様にロボットの構造に容易に適合させて適切に教示することができる。
操作者の肉声をロボットを介して発することにより、操作者の指示等の情報について、より注意を払って聴取させることができる。
本発明に係るインタラクション操作システムは、操作者が操作するロボット教示装置を用いてロボットに動作を教示するインタラクション操作システムにおいて、前記ロボットは、物体を把持するための手指部、前記物体を検出し、物体検出情報を生成する物体検出部であって、前記手指部に配置される物体検出部、前記ロボットを駆動させるロボット駆動装置、を有し、前記ロボット教示装置は、前記ロボットから伝送された前記物体検知情報に基づき、前記物体検知情報に対応する感覚を前記操作者に提供する物体検知感覚提供部、を有し、前記物体検出部は、前記手指部が前記物体を把持する際に、前記物体が位置する方向である把持物体存在方向に前記検知光を投光する投光部、前記把持物体存在方向から前記反射光を受光する受光部、受光した前記反射光に基づいて前記物体検知情報を生成する物体検知情報生成部、を有すること、を特徴とする。
これにより、ロボット教示装置の使用者は、ロボットの手指部における物体の検知を、所定の感覚を介して、知ることができる。
本発明に係るインタラクション操作システムでは、前記物体検知感覚提供部は、前記操作者の指に配置され、回転部、前記回転部に両端が固定され、前記操作者の前記指を配置するための指配置空間を形成するベルト部、前記回転部を回転させる回転制御部であって、前記物体検知情報に基づき、前記回転部を回転させる回転制御部、を有すること、を特徴とする。
これにより、ロボット教示装置の使用者は、ロボットの手指部における物体の検知を、操作者の指に対する所定の感覚を介して、知ることができる。
本発明に係るインタラクション操作システムでは、前記投光部及び前記受光部は、ナロー型であること、を特徴とする。
これにより、物体が存在する方向をより正確に判断することができる。
本発明に係るインタラクション操作システムでは、前記投光部及び前記受光部は、前記手指部の先端に配置されること、 を特徴とする。
これにより、ロボットの手指部の先端で物体を検知することができる。
本発明に係るインタラクション操作システムでは、前記ロボットは、さらに、少なくとも触覚情報を含む前記感覚情報を検出する感覚情報検出部であって、前記手指部に配置される感覚情報検出部、を有し、前記ロボット教示装置は、さらに、前記ロボットから伝送された前記感覚情報に基づき、前記感覚情報に対応する感覚を前記操作者に提供する感覚情報付与部、を有し、前記感覚情報付与部は、さらに、前記操作者の指に配置され、回転部、前記回転部に両端が固定され、前記操作者の前記指を配置するための指配置空間を形成するベルト部、前記回転部を回転させる回転制御部であって、前記物体検知情報に基づき、前記回転部を回転させる回転制御部、を有すること、を特徴とする。
これにより、ロボットの手指部が物体に接触したことによって得られる感覚を、ロボット教示装置の使用者は、指に対する所定の感覚を介して知ることができる。
本発明に係るインタラクション操作システムでは、前記感覚情報検出部は、さらに、前記手指部が前記物体に与えた力の反力を検出すること、を特徴とする。
これにより、ロボット教示装置の使用者は、ロボットが物体に対して与えた力を容易に知ることができる。
本発明に係るインタラクション操作システムでは、前記感覚情報検出部は、タッチパッドであること、を特徴とする。
これにより、容易に物体からの反力を検知できる。
本発明に係る物体検知装置は、ロボットの物体を把持するための手指部に配置される物体検出装置であって、前記物体を検出し、物体検出情報を生成する物体検出部であって、前記手指部に配置される物体検出部、を有し、前記物体検出部は、前記手指部が前記物体を把持する際に、前記物体が位置する方向である把持物体存在方向に前記検知光を投光する投光部、前記把持物体存在方向から前記反射光を受光する受光部、受光した前記反射光に基づいて前記物体検知情報を生成する物体検知情報生成部、を有すること、を特徴とする。
これにより、ロボットは、手指部において物体を検知し、物体の検知を物体検知情報として提供することができる。
ロボットとワークの概念図 操作者が感覚情報付与部とロボット教示装置を装着している概念図 多関節構造体の関節の構成図 ロボットとロボット教示装置の概念図 視覚及び聴覚情報検出部と視覚及び聴覚情報付与部の対比図(A:側面図、B:正面図) 触覚情報検出部と触覚情報付与部の対比図 移動型ロボットにおける教示概念図 視覚情報検出部からの映像と周囲の実際の景色を重畳的に表示した図 体格の小さな操作者が多関節構造体を装着した概念図 外力情報検出部と力覚情報付与部の対比図 ロボット100の手指部118の構成を示す図である。 手指部118の第三指部118cの先端部の構成を示した図であり、Aは図11における平面P11での第三指部118cの断面を示し、Bは第三指部118cを指の腹側から見た状態を示している。 検知光投受光ユニット618Uの構成を示す図である。 ロボット教示装置400の触覚情報付与部320の構成を示す図である。 物体検出部618による物体検知情報の生成の概要を説明するための図である。 触覚情報検出部122の動作の概要を説明するための図である。 触覚情報付与部320による操作者への感覚の提供動作の概要を説明するための図である。 触覚情報付与部320のその他の構成を示した図である。
以下、本発明の実施例について、図面を参照しながら詳細に説明していく。
図1は、ロボット100とワーク500の概念図である。ロボット100は、ロボット本体110と感覚情報検出部120と感覚情報出力部130と駆動部140と駆動基準点150より構成され、ワークに対向して配されている。ロボット本体110は、胴部111、頭部112、首部113、肩部114、腕部115、肘部116、手首部117、手指部118、ベース部119より成る。頭部112は前頭部が上下方向に回転して視覚情報検出部を傾斜させ、首部113は左右方向に回転して頭部全体の向きを水平に変化させる。ベース部119の位置は固定されている。又、感覚情報検出部120は、視覚情報検出部121、触覚情報検出部122、聴覚情報検出部123より成る。駆動基準点150は後述する多関節構造体410の操作基準点440に対応させて首部の下に配置されている。
図2は、操作者200が感覚情報付与部300とロボット教示装置400を装着している概念図である。感覚情報付与部300は、視覚情報付与部310と触覚情報付与部320と聴覚情報付与部330より成る。ロボット教示装置400は、多関節構造体410と制御部420と教示情報出力部430より成る。制御部420は、ロボット教示装置本体と分離せずに一体的に配置しても良い。
多関節構造体410について、図2及び図3に基づいて説明する。多関節構造体410は、多数の関節411により構成される。各関節間にはX方向、Y方向及びZ方向に回転する可動部412が交互に装着されており、可動部に隣接する関節にはその可動部の角度の変化量(回転量)を計測するポテンショメータ413が配されている。また、全関節の一部の関節にはCAN通信機能付きCPU414が配置されている。なお、可動部の自由度は2以上であっても良く、各方向に回転する可動部を交互に並べず任意の並べ方としても良い。さらに、すべての関節間に可動部を配置せずに一部の関節間にのみ可動部を配置することも可能である。
ロボット100と感覚情報付与部300及びロボット教示装置400を装着した操作者が相互に影響を及ぼしあいつつロボットを操作する動作について説明する。
多関節構造体410は操作者の背中、後頭部、腕、手指に密着して装着されていて、操作者の動作に連動して多関節構造体410全体の形状が変化し、個々の関節間についてはX軸、Y軸又はZ軸方向の角度が変化する。各関節について、操作基準点440との当初の位置及び姿勢に対する動作後の位置及び姿勢が角度変化数値としてポテンショメータ413で検出・データ化され、数個の単位のデータが近接するCPU414に送信・集積される。CPU414はCAN通信機能を有しており、多関節構造体全体で1つのCANネットワークが構成されているので、すべてのCPUから集積されたデータが制御部420に直接送信される。
制御部420は、送信されたデータに基づいて、操作者に装着された多関節構造体410の特定の関節についての位置及び姿勢を算出し、算出されたデータを教示情報として教示装置出力部430を通じて駆動部140に伝送する。教示情報を伝送された駆動部140は、多関節構造体410の形状変化に追随してロボットの特定部分の位置及び姿勢を変化させる。変化した位置及び姿勢に基づく感覚情報は感覚情報検出部120で検出されて感覚情報出力部130を通じて感覚情報付与部に伝送されて、操作者の動作に影響を与える。なお、駆動部140には、コントローラ、ドライバが含まれている。減速機、モータ等は図示していない。
図4は、ロボット100の構成の一部とロボット教示装置400の構成を対比した図である。操作者が装着した多関節構造体410の形状変化について、制御部は肩部に位置する関節404、肘部に位置する関節406、手首部に位置する関節407の位置及び姿勢の変化が算出・伝送され、ロボット駆動装置によりロボットの肩関節、肘関節、手首関節(本図では回転軸1のみ)が回転する。
ロボット100がワーク500を把持する動作について説明する。操作者は頭部を傾斜させる。連動して多関節構造体410における操作者の頭部に位置する各関節の位置及び姿勢が変化して角度変化情報が制御部420に送信される。制御部420は頭部の最先端の関節の位置及び姿勢を算出し、駆動部140に伝送する。駆動部140は、頭部112の前部を下方に回転させて視覚情報検出部121を下方に傾斜させる。
視覚情報検出部121が検出するワークの新たな映像は感覚情報出力部130を通じて伝送され、操作者は感覚情報付与部によりワークの正面に映った映像を認識する。操作者は、新たなワーク映像に基づいてワークを把持する動作を行う。すなわち、操作者の頭部を傾斜することによって視線の角度、ワークまでの距離から割り出される腕を伸ばす適切な角度、適切な距離が変化することとなり、修正した認識に基づいて調整した適切な動作を無意識に行うこととなるのである。
操作者の調整した動作は、多関節構造体410の変化に連動し、多関節構造体410における肩部、肘部、手首部及び手指部に位置する各関節の位置及び姿勢が変化して角度変化情報が駆動部140に伝送され、ロボットの肩部114、肘部116、手首部117、手指部118の位置及び姿勢が変化して手指部118がワークを適切に把持する。なお、手指部118の画像は視覚情報検出部121、感覚情報出力部130、視覚情報付与部310を通じて操作者が認識することができるので、ワークを把持するための微妙な位置調整を行うことも容易である。
図6はワークを把持する場合のロボット100と操作者を示している。ロボット100の手指部118がワークを把持することによるワークの反力は、触覚情報検出部122で検出され、触覚情報付与部320による操作者の指の一部の締め付けにより同一の感覚として認識される。操作者は、締め付け力が強すぎる場合はワークを破壊しないように脱力し、弱すぎる場合はワークの落下を防止するため力を入れる動作を自然に行い、その動作はロボットの手指部の動作に反映し、反映した動作は再び操作者の認識する感覚となる。
ロボット100がクローラ等の移動手段を有する場合について説明する。図7は移動型ロボットにおける教示概念図で、操作者が歩行することによりロボットを追随移動させる場合を示している。操作者の装着する多関節構造体410の起点関節は操作移動基準点442であり、背中中央部に配置されている。操作者が通常操作を行う椅子には操作固定基準点441を配置している。また、ロボット100には、背中中央部に駆動移動基準点152が配置され、ロボットが通常作業を行う位置には駆動固定基準点151を配置している。なお、操作者側、ロボット側にはそれぞれ固定基準点から移動基準点までの方向及び距離を計測して伝送する機器が備えられているが図示していない。
操作者はロボット100を図示していないワーク500まで移動させてからワーク把持動作を教示する。操作者は、歩行してロボット100をワーク500近辺まで誘導する。操作者の歩行に伴う操作移動基準点の位置と方向の変化情報は、操作固定基準点に対する操作移動基準点の位置及び方向の計測により算出される。算出された情報は駆動部140に伝送され、クローラの駆動により操作者の歩行と同一の位置にロボット100を移動させる。ワーク500に接近した後は、視覚情報検出部121から伝送される情報に基づいて、操作者は正確な作業地点に到達するように歩行を微調整することができる。
操作者の歩行によるワーク500までの方向と距離の情報の伝送と予め設定されたワーク500までの方向と距離の情報の伝送を選択可能としても良い。操作者は歩行することなくロボットの移動を指示することができ、途中経路の安全を確認しつつ誘導することが必要な場合には歩行しつつ誘導することができる。また、歩行による誘導についてON/OFF切替え可能としても良い。誘導途中に操作者が誘導とは無関係の歩行を行う場合には、誘導をOFFとしてロボットの無駄な移動を防止することができる。
図9は、体の小さな操作者がロボット教示装置400を装着した概念図である。多関節構造体の腕に装着する長さは操作者の腕よりかなり長い。このような場合には、固定具450で操作者の肘部及び手首部に多関節構造体の任意の関節を固定することにより適切に教示することができる。操作者の肩部204に位置する関節404から操作者の肘部に位置する関節406までの関節群は垂れ下がって連結されているが、各関節間の変化量を合算した肘部の関節406の位置及び姿勢は直線的に連結されている場合と同じである。
したがって、多関節構想体の関節数を操作者の体に適合させて、延長又は短縮する必要はない。また、ロボットの関節の数が操作者の関節の数と一致していない場合には、ロボットの関節数に適合させて適切な位置にある関節を選択し、選択された特定の関節についての変化情報を制御部420から駆動部140に伝送すれば良い。
多関節構造体において可動部を有しない関節を適宜配置しても良い。一定の位置にある関節の変化のみを伝送すれば十分な場合は、それ以外の関節に可動部を有さない構成とすることにより、変化量の算出を迅速に行うことができ、コストを削減することが可能である。
図5は視覚情報検出部121と聴覚情報検出部123及び操作者の装着した視覚情報付与部310と聴覚情報付与部330の正面図及び側面図である。視覚情報検出部121と聴覚情報検出部123は人間の目及び耳の位置と同様の位置に配置しており、頭部の上下回転と首部の左右回転により人間の頭部姿勢の変化と同様の姿勢の変化を可能にしている。また、視覚情報付与部310と聴覚情報付与部330は、操作者の目及び耳を覆う態様で装着したHMDに組み込まれている。
操作者自身の目による視覚情報及び耳による聴覚情報の取得がHMDにより遮断されている場合には、実際の周囲の環境に左右されることなくロボット操作の作業に没入することができる。
一方、HMDの覆いを解除可能とし、操作者自身の感覚情報の取得の遮断の有無を選択的に行う構成とした場合は、操作者の周辺情報を適宜取得できる。操作者周囲の安全確認を時々実施しながらロボット操作の作業を行うことができる。
視覚情報検出部121と聴覚情報検出部123による情報を感知しつつ、操作者周辺の実際の周辺情報を常時、重畳的に感知することも可能である。図8は視覚情報検出部121からの映像と周囲の実際の情景600を重畳的に表示した図で、ワーク500の映像に重ねて操作者周囲の映像が映し出されている。たとえば、視覚情報検出部からの視覚情報は左右の視覚情報付与部の側面に映写される画像を屈折させて操作者の目に入光するようにしつつ、操作者の目の正面のガラスの一部又はカメラを通して実際の視覚による情報を取得することができる。
図10は、ロボットがワークをハンド部で保持している図である。ワークによる下向きの荷重は肘部及び手指部に配設されている外力情報検出部124により計測され、操作者の肘部及び手指部に装着された力覚情報付与部340に伝送される。力覚情報付与部340は減速機付モーターにより構成され、モーターの両端を短絡・開放することでモーター軸の回転に抵抗を加え、それを操作者の肘部及び手指部の力覚として感知させる。短絡と開放のピッチをPWM制御で制御することによって力覚の大きさを細かく調整することができ、電力の消費も少ない。なお、力覚付与は本実施例以外の方法で行うことも可能であり、本実施例に限定されない。
本実施例におけるインタラクション操作システム600は、ロボット100の手指部118において、物体であるワークを把持した際の触覚を検出するとともに、ワークの存在を検出するものである。以下において、インタラクション操作システム600について説明する。なお、実施例1〜実施例5と同様の構成については、同一の符号を付し、その詳細な説明については省略する。
第1 構成
インタラクション操作システム600の構成は、実施例1におけるインタラクション操作システム100と同様である。ただし、ロボット100は、手指部118(図1参照)に物体検出部618を有している。手指部118は、ワークWを把持する機能を有している。
1.ロボット100の構成
ロボット100の手指部118の構成について図11を用いて説明する。図11は、ロボット100の手指部118が、ワークWを把持しようとする状態を示したものである。なお、図11においては、ワークWの一部を点線で示している。
手指部118は、第一指部118a〜第五指部118eのそれぞれの先端に、検知光投受光用開口619を有している。検知光投受光用開口619は、第一指部118a〜第五指部118eの指の腹に対応する部分に配置される。
次に、手指部118の第三指部118cの先端部の構成について図12を用いて説明する。図12Aは、図11における平面P11での第三指部118cの断面を示したものである。また、図12Bは、第三指部118cを指の腹側から見た状態を示している。以下においては、第三指部118cを例に説明するが、他の指部についても同様である。
図12Aに示すように、手指部118の第三指部118cは、先端に、物体検知部618及び触覚情報検出部122を有している。以下において、物体検知部618及び触覚情報付与部320の構成を説明する。
(1)物体検知部618の構成
物体検知部618は、検知光投受光ユニット618Uを有している。検知光投受光ユニット618Uの構成について図13を用いて説明する。検知光投受光ユニット618Uは、投光部LE、受光部REを有している。投光素子LEとしては、例えば近赤外LED等を利用することができる。受光素子REとしては、例えばフォトトランジスタやフォトダイオード、増幅回路内蔵受光素子等を利用することができる。なお、フォトダイオードを使用する場合は、増幅回路やフィルター回路を、受光素子REと合わせて配置するようにしてもよい。
投光素子LEは、所定の投光角度αで検知光を投光する。また、受光素子REは、所定の受光角度βで反射光を受光する。投光素子LE及び受光素子REは、それぞれ投光角度α、受光角度βが狭いナロー型、つまり指向性が強いものが用いられる。これにより、検知対象が存在する方向を正確に判断することができる。
投光素子LEは、検知光を投光するタイミングを指示する投光開始情報を受信すると、検知光を投光する、受光素子REは、受光した検知光の量と、検知光投受光ユニット118Uが配置されている位置、例えば、左の手指部118の第三指部118c、とを関連づけた受光情報を感覚情報出力部130へ送信する。
なお、感覚情報出力部130は、受信した受光情報を用いて、手指部118の第一指部118a〜第五指部118eと把持しようとするワークWとの位置関係を示す物体検知情報を生成し、ロボット教示装置400(図2参照)の触覚情報付与部320へ送信する。なお、物体検知情報の生成の概要については後述する。
図12Bに示すように、検知光投受光ユニット618Uの投光素子LE、ロボット100の第三指118cの先端に設けられる検知光投受光用開口619から、検知光を外部に向かって投光できる位置に配置される。また、受光素子REは、検知光投受光用開口619を介して反射光を受光できる位置に配置される。
これにより、投光素子LEは、手指部118がワークWを把持する際に、ワークWが位置する方向(以下、把持物体存在方向とする。)、つまり指の腹の方向に検知光を投光することができる。また、受光素子REは、把持物体存在方向から反射光を受光することができる。
(2)触覚情報検出部122の構成
図12Aに示すように、触覚情報検出部122は、タッチパッド122aを有している。タッチパッド122aは、所定の方向からの圧力を検出する。また、タッチパッド122aは、検出した圧力と自らを特定する情報とを関連づけて感覚情報として感覚情報出力部130へ送信する。
2.ロボット教示装置400の構成
次に、ロボット教示装置400の触覚情報付与部320の構成について図14を用いて説明する。触覚情報付与部320は、ロボット教示装置400の操作者の指に配置される。触覚情報付与部320は、ロボット100から伝送された物体検知情報に基づき、物体検知情報に対応する感覚を操作者に提供する。
触覚情報付与部320は、一対の回転部320a、ベルト部320b、回転制御部320c、及び回転駆動部320dを有している。回転部320aは、回転駆動部320dのモータの中心軸に固定されている。ベルト部320bは、それぞれの回転部320aに両端が固定されている。これにより、操作者の指を配置するための空間である指配置空間Fを形成する。
回転制御部320cは、物体検知情報に基づき、回転駆動部320dの回転を制御する。これにより、回転制御部320cは、回転駆動部320dを介して、物体検知情報に基づき回転部320aを回転させる。また、回転制御部320cは、感覚情報に基づき、回転駆動部320dの回転を制御する。これにより、回転制御部320cは、回転駆動部320dを介して、感覚情報に基づき回転部320aを回転させる。回転駆動部320dは、一対のモータを有している。
触覚情報付与部320は、物体検知情報又は感覚情報に基づき、回転部320aの回転を制御することによって、ベルト部320bの動作を制御することによって、操作者の指に所定の感覚を提供する。
第2 物体検知情報の生成
次に、物体検出部618による物体検知情報の生成の概要について図15を用いて説明する。図15は、図11における手指部118及びワークWを矢印a11方向から見た状態を示している。図15Aは、ワークWに対して第一指部118a及び第二指部118bが近接して位置しており、各検知光がワークWにほぼ垂直に投光される状態を示している。
この場合、第一指部118aでは、投光素子LE(図示せず)が投光した検知光は、ワークWの表面にて反射され、投光された検知光の大部分が反射光として受光素子RE(図示せず)によって受光される。よって、第一指118aの受光素子REの受光量は大きいものとなる。第二指部118bについても同様である。
図15Bは、ワークWに対して第一指部118a及び第二指部118bが近接して位置しているが、各検知光がワークWに垂直に投光されない状態、つまり、ワークWが適切な把持位置に存在しない状態を示している。
この場合、第一指部118aでは、投光素子LE(図示せず)が投光した検知光は、ワークWの表面にて検知光を投光した方向とは異なる方向に反射され、投光された検知光の大部分は反射光として受光素子RE(図示せず)に受光されない。よって、第一指部118aの受光素子REの受光量は小さいものとなる。第二指部118bについても同様である。
図15Cは、ワークWに対して第一指部118a及び第二指部118bが遠隔に位置している状態、つまり、ワークWを即座に把持できない状態を示している。
この場合、第一指部118aでは、投光素子LE(図示せず)が投光した検知光は、ワークWに到達するまでに散乱し、同様に、反射光も散乱する。よって、第一指118aの受光素子REの受光量は小さいものとなる。第二指部118bについても同様である。
このように、物体検知部618は、受光素子REで検知した受光量を用いることによって、第一指部118a〜第五指部118eと把持しようとするワークWとの位置関係を示す物体検知情報を生成する。
生成された物体検知情報は、ロボット教示装置400の触覚情報付与部320に送信される。触覚情報付与部320は、ロボット100から送信された物体検知情報に基づき、物体検知情報に対応する感覚をロボット教示装置400の操作者に提供する。つまり、触覚情報付与部320は、物体検知感覚提供部として機能する。ロボット教示装置400の操作者は、触覚情報付与部320から提供される所定の感覚によって、ワークWが手指部118の第一指部118a〜第五指部118eに対して近い位置あるか否かを知ることができる。これにより、ワークWとロボット100の手指部118との位置関係が把握できず、ロボット100に対して必要以上の動作をさせてしまい、ワークWを、倒してしまったり、破壊したりして、把持できないことを防止することができる。なお、触覚情報付与部320が、ロボット教示装置の操作者に提供する所定の感覚については後述する。
第3 感覚情報の生成
触覚情報検出部122の動作の概要について図16を用いて説明する。図16は、第三指部118cがワークWに接触し、把持している状態を示している。この場合、ロボット100は、第三指部118cを介して、ワークWに対して所定の圧力PW1をかけている。一方、第三指部118cは、ワークWに対してかけた圧力と同じだけの反力PW3をワークWから受ける。タッチパッド122aは、検出した圧力に基づき反力PW3を検出する。タッチパッド122aは、検出した圧力と自らを特定する情報とを関連づけて感覚情報として、ロボット教示装置400へ送信する。
このように、タッチパッド122aでの反力PW3の検出によって、ロボット100の手指部118の第一指118a〜第五指118eが、ワークWと接触したか否かを判断することができる。
第4 触覚情報付与部320による感覚の提供動作の概要
触覚情報付与部320による操作者への感覚の提供動作の概要について図17を用いて説明する。図17は、操作者が触覚情報付与部320を所定の指に装着した状態を示している。図17Aに示すように、操作者は、ベルト部320bによって形成される指配置空間(図14参照)に指fを配置し、ベルト部320bを動作させて指fとベルト部320bとを接触させる。これにより、操作者は、ベルト部320bを介して種々の感覚を得ることができる。
例えば、触覚情報付与部320は、回転駆動部320dの2つのモータをベルト部320bを巻き取る方向(矢印a171方向及び矢印a173方向)に回転させると、操作者に指を押す力PW11(以下、垂直力PW11とする。)を提供することができる。また、図17Bに示すように、回転駆動部320dの2つのモータを同一方向(矢印a175方向及び矢印a177方向)に回転させると、操作者に指を横に引く力PW13(以下、せん断力PW13とする。)を提供することができる。
触覚情報付与部320は、物体検知情報を取得すると、ワークWとロボット100の手指部118との位置関係に基づく感覚を操作者に提供する。例えば、図15Aに示すように、ワークWがロボット100の手指部118の第一指部118a〜第五指部118eに近い位置に存在する場合には、比較的短い時間間隔で垂直力PW11を繰り返し提供する。一方、図15Cに示すように、ワークWがロボット100の手指部118の第一指部118a〜第五指部118eから遠い位置に存在する場合には、比較的長い時間間隔で垂直力PW11を提供する。
このように、ワークWと手指部118との位置関係にしたがい操作者に異なる感覚を提供することによって、操作者は、ワークWと手指部118との位置関係を容易に把握することができる。例えば、操作者は、ワークWが手指部118に近い位置に存在することを知れば、手指部118がよりゆっくり動作するようにロボット教示装置400を操作することができる。これにより、ワークWを手指部118の把持によって破壊したり、倒してしまったりすることを防止することができる。
触覚情報付与部320は、感覚情報を取得すると、感覚情報に応じた感覚を操作者に提供する。例えば、ロボット100の手指部118の各指部がワークWに接触すると、触覚情報付与部320は、操作者に垂直力PW11を提供する。これにより、操作者は、ワークWがロボット100の手指部118の各指部に接触したことを知ることができる。
[その他の実施例]
(1) 図5では、操作者はマイクロフォンを装着しロボットは頭部の口部分に内蔵のスピーカーを備えている。操作者は、ロボットの作業環境を感覚情報付与部を介してリアルタイムに取得しているのでロボット周囲の危険情報をいち早く察知することができる。このような場合に、操作者が駆けつけるのは時間のロスが大きく、作業場内のスピーカーから流すためにはそのための操作が必要である。そのままの姿勢でロボットに内蔵したスピーカーから操作者の声を発することが最も早く、かつ、何の特別な操作も必要とせずに情報を伝達できることとなる。また、ロボットに障害物が接近している場合等には、当該ロボットから危険情報を発することにより、危険の迫っている場所も併せて知らせる効果がある。
(2)前述の実施例6においては、多関節構造体を用いたロボット教示装置400を示したが、ロボットに動作を教示できるものであれば、例示のものに限定されない。例えば、従来の産業用ロボットの教示装置として使用されているいわゆるティーチングペンダントや、ジョイスティクなどのブリップ型教示装置であってもよい。この場合、その操作者の手の指が当接する箇所に触覚情報付与部を備えることにより、同様の効果を得ることができる。
(3)前述の実施例6においては、触覚情報検出部122としてタッチパッド122aを用いたが、手指部118の各指部の先端での物体の接触を検知できるものであれば、その検出原理、配置等には限定されない。
例えば、その原理としては、静電容量方式によるもの、圧力抵抗変化方式によるもの、光学カメラ方式によるもの、半導体による圧力センサーであってもよい。また、その配置位置として、手のひら/手の甲/手の側面/指の腹/指の甲/指の側面、指の第1関節/指の第2関節であっても、その有用性を限定するものではない。
(4)同様に、前述の実施例6においては、物体検知部618は、手指部118の各指部の先端に配置されるが、物体を検知する必要があるとこであれば、例示の場所に限定されない。例えば、手指部118の掌に相当する場所であってもよい。
(5)前述の実施例6においては、図14及び図17において、触覚情報付与部320には、2つの回転部320a及び回転駆動部320dに2つのモータを有することとしたが、垂直力PW11だけを提供する場合においては、1つの回転部320a及び回転駆動部320dに1つのモータとしてもよい。この場合、図18に示すように、ベルト部320bの両端を1つの回転部320aに取り付けるようにすればよい。これにより、2つのモータを有する場合と、同様の効果を得ることができる。
(6)前述の実施例6においては、ロボット教示装置400の操作者に対して提供する所定の感覚として、操作者の指に提供する垂直力やせん断力を示したが、操作者が認識できる感覚であれば例示のものに限定されない。例えば、「ワークが近くに存在します」、「ワークが右にずれて存在します」等、音声のように聴覚を介して操作者に提供するようにしてもよい。また、ワークと手指部との位置関係を表すグラフィックス、文字情報等を表示した画像のように視覚を介して操作者に提供するようにしてもよい。
(7)前述の実施例6においては、触覚情報付与部320が物体検知情報に対応する感覚及び感覚情報に対応する感覚を提供するとしたが、いずれか一方を提供するようにしてもよい。例えば、感覚情報に対応する感覚は触覚情報付与部320が提供し、物体検知情報に対応する感覚は音声を介した聴覚として提供するようにしてもよい。
本発明は、ロボットの感覚情報と操作者の動作に基づく位置及び姿勢の変化情報が相互に動的に影響し合って迅速かつ正確なロボット教示システムを提供するもので、産業上の利用可能性は高い。
100 ロボット
110 ロボット本体
120 感覚情報検出部
121 視覚情報検出部
122 触覚情報検出部
123 聴覚情報検出部
124 外力情報検出部
130 感覚情報出力部
140 駆動部
150 駆動基準点
151 駆動固定基準点
152 駆動移動基準点
200 操作者
300 感覚情報付与部
310 視覚情報付与部
320 触覚情報付与部
330 聴覚情報付与部
340 力覚情報付与部
400 ロボット教示装置
410 多関節構造体
411 関節
412 可動部
413 ポテンショメータ
414 通信機能付きCPU
420 制御部
430 教示情報出力部
440 操作基準点
441 操作固定基準点
442 操作移動基準点
450 固定具
500 ワーク
600 周囲の情景
700 マイクロフォン
710 内蔵スピーカー
618 物体検知部
618U 検知光投受光ユニット
LE 投光素子
RE 受光素子
619 検知光投受光用開口
122a タッチパッド
320a 回転部
320b ベルト部
320c 回転制御部
320d 回転駆動部

Claims (12)

  1. 操作者が操作するロボット教示装置を用いてロボットに動作を教示するインタラクション操作システムにおいて、
    前記ロボットは、
    物体を把持するための手指部、
    前記物体を検出し、物体検出情報を生成する物体検出部であって、前記手指部に配置される物体検出部、
    前記ロボットを駆動させるロボット駆動装置、
    を有し、
    前記ロボット教示装置は、
    前記ロボットから伝送された前記物体検知情報に基づき、前記物体検知情報に対応する感覚を前記操作者に提供する物体検知感覚提供部、
    を有し、
    前記物体検出部は、
    前記手指部が前記物体を把持する際に、前記物体が位置する方向である把持物体存在方向に前記検知光を投光する投光部、
    前記把持物体存在方向から前記反射光を受光する受光部、
    受光した前記反射光に基づいて前記物体検知情報を生成する物体検知情報生成部、
    を有すること、
    を特徴とするインタラクション操作システム。
  2. 請求項1に係るインタラクション操作システムにおいて、
    前記物体検知感覚提供部は、
    前記操作者の指に配置され、
    回転部、
    前記回転部に両端が固定され、前記操作者の前記指を配置するための指配置空間を形成するベルト部、
    前記回転部を回転させる回転制御部であって、前記物体検知情報に基づき、前記回転部を回転させる回転制御部、
    を有すること、
    を特徴とするインタラクション操作システム。
  3. 請求項1又は請求項2に係るインタラクション操作システムにおいて、
    前記投光部及び前記受光部は、
    ナロー型であること、
    を特徴とするインタラクション操作システム。
  4. 請求項1〜請求項3に係るインタラクション操作システムのいずれかにおいて、
    前記投光部及び前記受光部は、
    前記手指部の先端に配置されること、
    を特徴とするインタラクション操作システム。
  5. 請求項1〜請求項4に係るインタラクション操作システムのいずれかにおいて、
    前記ロボットは、さらに、
    少なくとも触覚情報を含む前記感覚情報を検出する感覚情報検出部であって、前記手指部に配置される感覚情報検出部、
    を有し、
    前記ロボット教示装置は、さらに、
    前記ロボットから伝送された前記感覚情報に基づき、前記感覚情報に対応する感覚を前記操作者に提供する感覚情報付与部、
    を有し、
    前記感覚情報付与部は、さらに、
    前記操作者の指に配置され、
    回転部、
    前記回転部に両端が固定され、前記操作者の前記指を配置するための指配置空間を形成するベルト部、
    前記回転部を回転させる回転制御部であって、前記物体検知情報に基づき、前記回転部を回転させる回転制御部、
    を有すること、
    を特徴とするインタラクション操作システム。
  6. 請求項5に係るインタラクション操作システムにおいて、
    前記感覚情報検出部は、さらに、
    前記手指部が前記物体に与えた力の反力を検出すること、
    を特徴とするインタラクション操作システム。
  7. 請求項6に係るインタラクション操作システムにおいて、
    前記感覚情報検出部は、
    タッチパッドであること、
    を特徴とするインタラクション操作システム。
  8. 請求項1〜請求項7に係るインタラクション操作システムのいずれかにおいて、
    前記ロボット教示装置は、
    前記操作者が装着するものであり、さらに、
    可動部に変化量検出センサを有する関節を含む関節群とセンサ信号を処理する処理部と処理されたデータを伝送する通信部とにより構成される多関節構造体、
    制御装置、
    及び、教示情報出力部、
    を有し、
    前記ロボット教示装置は、
    前記操作者の動作を拘束することなく前記操作者の動作に連動して形状を変化させる多関節構造体の、当初操作基準点における特定された1又は複数の関節の位置及び/又は姿勢に対する形状変化後の操作基準点における前記1又は複数の関節の位置及び/又は姿勢を計測すると共に計測され又は制御部により修正された位置及び/又は姿勢情報を前記ロボット駆動装置に伝送し、
    前記ロボットは、
    ロボット駆動装置により、前記多関節構造体の特定された1又は複数の関節に対応する1又は複数の部分を、当初駆動基準点における位置及び/又は姿勢に対する前記伝送された位置及び/又は姿勢へと追随変動させると共に追随移動に伴い前記感覚情報検出部が新たに検出する感覚情報を前記感覚情報付与部に伝送すること、
    を特徴とするインタラクション操作システム。
  9. 請求項8に係るインタラクション操作システムにおいて、
    前記操作基準点及び/又は前記駆動基準点について、固定基準点と移動基準点の2の基準点を設けると共に固定基準点に対する移動基準点の方向及び2点間の距離についての計測部及び計測値出力部を設け、前記多関節構造体全体及び/又は前記ロボット全体が移動した場合に、一方の前記固定基準点から前記移動基準点への移動距離及び移動方向を他方に伝送すること、
    を特徴とするインタラクション操作システム。
  10. 請求項9に記載のインタラクション操作システムにおいて、
    前記固定基準点から前記移動基準点への移動距離及び移動方向の伝送を選択的に行うこと、
    を特徴とするインタラクション操作システム。
  11. 請求項8〜請求項10に係るインタラクション操作システムのいずれかにおいて、
    前記ロボットの構成又は前記操作者の身体的条件に適合させるべく前記多関節構造体における前記特定の1又は複数の関節を選択すること、
    を特徴とするインタラクション操作システム。
  12. ロボットの物体を把持するための手指部に配置される物体検出装置であって、
    前記物体を検出し、物体検出情報を生成する物体検出部であって、前記手指部に配置される物体検出部、
    を有し、
    前記物体検出部は、
    前記手指部が前記物体を把持する際に、前記物体が位置する方向である把持物体存在方向に前記検知光を投光する投光部、
    前記把持物体存在方向から前記反射光を受光する受光部、
    受光した前記反射光に基づいて前記物体検知情報を生成する物体検知情報生成部、
    を有すること、
    を特徴とする物体検出装置。
JP2011232305A 2011-10-05 2011-10-21 インタラクション操作システム Pending JP2013091114A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011232305A JP2013091114A (ja) 2011-10-05 2011-10-21 インタラクション操作システム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011220752 2011-10-05
JP2011220752 2011-10-05
JP2011232305A JP2013091114A (ja) 2011-10-05 2011-10-21 インタラクション操作システム

Publications (1)

Publication Number Publication Date
JP2013091114A true JP2013091114A (ja) 2013-05-16

Family

ID=48614659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011232305A Pending JP2013091114A (ja) 2011-10-05 2011-10-21 インタラクション操作システム

Country Status (1)

Country Link
JP (1) JP2013091114A (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015168056A (ja) * 2014-03-04 2015-09-28 サルコス・エルシー 協調的なロボット制御
US9409292B2 (en) 2013-09-13 2016-08-09 Sarcos Lc Serpentine robotic crawler for performing dexterous operations
WO2017033381A1 (ja) * 2015-08-25 2017-03-02 川崎重工業株式会社 ロボットシステム
WO2017175867A1 (ja) * 2016-04-07 2017-10-12 国立研究開発法人科学技術振興機構 触覚情報変換装置、触覚情報変換方法、および、触覚情報変換プログラム
WO2017175868A1 (ja) * 2016-04-07 2017-10-12 国立研究開発法人科学技術振興機構 触覚情報変換装置、触覚情報変換方法、および、触覚情報変換プログラム、並びに、素子配置構造体
WO2018146825A1 (ja) * 2017-02-13 2018-08-16 オムロン株式会社 状態判定装置、学習装置、状態判定方法及びプログラム
WO2018190345A1 (ja) 2017-04-11 2018-10-18 川崎重工業株式会社 ロボットシステム及びその運転方法
JP2019063952A (ja) * 2017-10-02 2019-04-25 株式会社オカムラ 管理システム及び制御方法
WO2020003727A1 (ja) * 2018-06-28 2020-01-02 ソニー株式会社 復号装置、復号方法、プログラム
CN110914022A (zh) * 2017-08-10 2020-03-24 罗伯特·博世有限公司 直接教导机器人的系统和方法
CN111687847A (zh) * 2020-07-09 2020-09-22 深圳市多够机器人技术有限公司 一种足式机器人的远程操控装置和操控交互方式
CN112313042A (zh) * 2018-06-29 2021-02-02 国立研究开发法人科学技术振兴机构 远程操作系统
JP2021519476A (ja) * 2018-03-23 2021-08-10 ウィアート エッセ.エッレ.エッレ. 触覚リング
US20210272426A1 (en) * 2018-06-28 2021-09-02 Sony Corporation Encoding device, encoding method, decoding device, decoding method, and program
JP2022509410A (ja) * 2018-10-26 2022-01-20 フランカ エーミカ ゲーエムベーハー ロボット
WO2023188388A1 (ja) * 2022-03-31 2023-10-05 株式会社ソニー・インタラクティブエンタテインメント 圧覚装置及び操作装置
US11823557B2 (en) 2018-07-03 2023-11-21 Sony Corporation Encoding apparatus, encoding method, decoding apparatus, decoding method, transmission system, receiving apparatus, and program

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61260988A (ja) * 1985-05-14 1986-11-19 工業技術院長 マスタ・スレ−ブ制御指
US4980626A (en) * 1989-08-10 1990-12-25 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method and apparatus for positioning a robotic end effector
JPH06182712A (ja) * 1991-04-09 1994-07-05 Kagoshima Pref Gov 展開竹平板の製造方法及びその製造装置
JPH06335887A (ja) * 1993-05-28 1994-12-06 Sanyo Electric Co Ltd ロボットハンドによる把持対象物の認識方法
JPH08257947A (ja) * 1994-04-15 1996-10-08 Yaskawa Electric Corp 3次元力触覚ディスプレイ装置
JPH09300251A (ja) * 1996-05-15 1997-11-25 Nec Corp マニピュレータ操作装置
JP2000501033A (ja) * 1995-11-30 2000-02-02 ヴァーチャル テクノロジーズ インコーポレイテッド 触覚をフィードバックする人間/機械インターフェース
JP2006503721A (ja) * 2002-10-21 2006-02-02 エフエスアイ インターナショナル インコーポレイテッド 触覚センサを有するロボットの教育
JP2008108054A (ja) * 2006-10-25 2008-05-08 Canon Inc 接触提示装置及び方法
JP2009011802A (ja) * 2007-06-04 2009-01-22 Max Co Ltd 栄養剤圧出装置
JP2009096408A (ja) * 2007-10-19 2009-05-07 Fuji Kiko Co Ltd 電動テレスコステアリング装置
JP2009527765A (ja) * 2006-02-21 2009-07-30 サーク・コーポレーション 容量タッチパッド技術を用いて、ロボット把持メカニズムに接触感覚を得させるシステム
JP2009196040A (ja) * 2008-02-21 2009-09-03 Panasonic Corp ロボットシステム
JP2009274204A (ja) * 2008-05-13 2009-11-26 Samsung Electronics Co Ltd ロボット、ロボットハンド及びロボットハンドの制御方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61260988A (ja) * 1985-05-14 1986-11-19 工業技術院長 マスタ・スレ−ブ制御指
US4980626A (en) * 1989-08-10 1990-12-25 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method and apparatus for positioning a robotic end effector
JPH06182712A (ja) * 1991-04-09 1994-07-05 Kagoshima Pref Gov 展開竹平板の製造方法及びその製造装置
JPH06335887A (ja) * 1993-05-28 1994-12-06 Sanyo Electric Co Ltd ロボットハンドによる把持対象物の認識方法
JPH08257947A (ja) * 1994-04-15 1996-10-08 Yaskawa Electric Corp 3次元力触覚ディスプレイ装置
JP2000501033A (ja) * 1995-11-30 2000-02-02 ヴァーチャル テクノロジーズ インコーポレイテッド 触覚をフィードバックする人間/機械インターフェース
JPH09300251A (ja) * 1996-05-15 1997-11-25 Nec Corp マニピュレータ操作装置
JP2006503721A (ja) * 2002-10-21 2006-02-02 エフエスアイ インターナショナル インコーポレイテッド 触覚センサを有するロボットの教育
JP2009527765A (ja) * 2006-02-21 2009-07-30 サーク・コーポレーション 容量タッチパッド技術を用いて、ロボット把持メカニズムに接触感覚を得させるシステム
JP2008108054A (ja) * 2006-10-25 2008-05-08 Canon Inc 接触提示装置及び方法
JP2009011802A (ja) * 2007-06-04 2009-01-22 Max Co Ltd 栄養剤圧出装置
JP2009096408A (ja) * 2007-10-19 2009-05-07 Fuji Kiko Co Ltd 電動テレスコステアリング装置
JP2009196040A (ja) * 2008-02-21 2009-09-03 Panasonic Corp ロボットシステム
JP2009274204A (ja) * 2008-05-13 2009-11-26 Samsung Electronics Co Ltd ロボット、ロボットハンド及びロボットハンドの制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
南澤孝太,外4名: "バーチャルな物体の質量および内部ダイナミクスを提示する装着型触力覚ディスプレイ", 日本バーチャルリアリティ学会論文誌, vol. 13, no. 1, JPN6016016337, 31 March 2008 (2008-03-31), JP, pages 18, ISSN: 0003316676 *

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9409292B2 (en) 2013-09-13 2016-08-09 Sarcos Lc Serpentine robotic crawler for performing dexterous operations
US9566711B2 (en) 2014-03-04 2017-02-14 Sarcos Lc Coordinated robotic control
JP2015168056A (ja) * 2014-03-04 2015-09-28 サルコス・エルシー 協調的なロボット制御
EP3342546A4 (en) * 2015-08-25 2019-10-09 Kawasaki Jukogyo Kabushiki Kaisha ROBOT SYSTEM
WO2017033381A1 (ja) * 2015-08-25 2017-03-02 川崎重工業株式会社 ロボットシステム
US10842578B2 (en) 2015-08-25 2020-11-24 Kawasaki Jukogyo Kabushiki Kaisha Robot system
CN107921621A (zh) * 2015-08-25 2018-04-17 川崎重工业株式会社 机器人系统
JPWO2017033381A1 (ja) * 2015-08-25 2018-06-07 川崎重工業株式会社 ロボットシステム
CN108885500A (zh) * 2016-04-07 2018-11-23 国立研究开发法人科学技术振兴机构 触觉信息转换装置、触觉信息转换方法、及触觉信息转换程序
US10621837B2 (en) 2016-04-07 2020-04-14 Japan Science And Technology Agency Tactile information conversion device, tactile information conversion method, tactile information conversion program, and element arrangement structure
KR102278456B1 (ko) 2016-04-07 2021-07-19 재팬 사이언스 앤드 테크놀로지 에이전시 촉각 정보 변환 장치, 촉각 정보 변환 방법, 및, 촉각 정보 변환 프로그램, 및, 소자 배치 구조체
KR20180123525A (ko) * 2016-04-07 2018-11-16 재팬 사이언스 앤드 테크놀로지 에이전시 촉각 정보 변환 장치, 촉각 정보 변환 방법, 및, 촉각 정보 변환 프로그램, 및, 소자 배치 구조체
CN109074157B (zh) * 2016-04-07 2021-05-11 国立研究开发法人科学技术振兴机构 触觉信息转换装置、触觉信息转换方法、及触觉信息转换程序、以及元件配置结构体
CN109074157A (zh) * 2016-04-07 2018-12-21 国立研究开发法人科学技术振兴机构 触觉信息转换装置、触觉信息转换方法、及触觉信息转换程序、以及元件配置结构体
JPWO2017175868A1 (ja) * 2016-04-07 2019-02-21 国立研究開発法人科学技術振興機構 触覚情報変換装置、触覚情報変換方法、および、触覚情報変換プログラム、並びに、素子配置構造体
JPWO2017175867A1 (ja) * 2016-04-07 2019-02-21 国立研究開発法人科学技術振興機構 触覚情報変換装置、触覚情報変換方法、および、触覚情報変換プログラム
WO2017175867A1 (ja) * 2016-04-07 2017-10-12 国立研究開発法人科学技術振興機構 触覚情報変換装置、触覚情報変換方法、および、触覚情報変換プログラム
US11281296B2 (en) 2016-04-07 2022-03-22 Japan Science And Technology Agency Tactile information conversion device, tactile information conversion method, and tactile information conversion program
US10739858B2 (en) 2016-04-07 2020-08-11 Japan Science And Technology Agency Tactile information conversion device, tactile information conversion method, and tactile information conversion program
WO2017175868A1 (ja) * 2016-04-07 2017-10-12 国立研究開発法人科学技術振興機構 触覚情報変換装置、触覚情報変換方法、および、触覚情報変換プログラム、並びに、素子配置構造体
JP2018132329A (ja) * 2017-02-13 2018-08-23 オムロン株式会社 状態判定装置、学習装置、状態判定方法及びプログラム
WO2018146825A1 (ja) * 2017-02-13 2018-08-16 オムロン株式会社 状態判定装置、学習装置、状態判定方法及びプログラム
US11358286B2 (en) 2017-04-11 2022-06-14 Kawasaki Jukogyo Kabushiki Kaisha Robot system and method of operating the same
CN110505947A (zh) * 2017-04-11 2019-11-26 川崎重工业株式会社 机器人系统及其运行方法
CN110505947B (zh) * 2017-04-11 2022-10-11 川崎重工业株式会社 机器人系统及其运行方法
WO2018190345A1 (ja) 2017-04-11 2018-10-18 川崎重工業株式会社 ロボットシステム及びその運転方法
CN110914022A (zh) * 2017-08-10 2020-03-24 罗伯特·博世有限公司 直接教导机器人的系统和方法
CN110914022B (zh) * 2017-08-10 2023-11-07 罗伯特·博世有限公司 直接教导机器人的系统和方法
JP2019063952A (ja) * 2017-10-02 2019-04-25 株式会社オカムラ 管理システム及び制御方法
JP7366117B2 (ja) 2018-03-23 2023-10-20 ウィアート エッセ.エッレ.エッレ. 触覚リング
JP2021519476A (ja) * 2018-03-23 2021-08-10 ウィアート エッセ.エッレ.エッレ. 触覚リング
US20210272426A1 (en) * 2018-06-28 2021-09-02 Sony Corporation Encoding device, encoding method, decoding device, decoding method, and program
WO2020003727A1 (ja) * 2018-06-28 2020-01-02 ソニー株式会社 復号装置、復号方法、プログラム
JPWO2020003727A1 (ja) * 2018-06-28 2021-08-02 ソニーグループ株式会社 復号装置、復号方法、プログラム
CN112313604A (zh) * 2018-06-28 2021-02-02 索尼公司 解码设备、解码方法和程序
US11922797B2 (en) 2018-06-28 2024-03-05 Sony Corporation Encoding device, encoding method, decoding device, decoding method, and program
CN112313042A (zh) * 2018-06-29 2021-02-02 国立研究开发法人科学技术振兴机构 远程操作系统
CN112313042B (zh) * 2018-06-29 2024-05-10 国立研究开发法人科学技术振兴机构 远程操作系统
US11823557B2 (en) 2018-07-03 2023-11-21 Sony Corporation Encoding apparatus, encoding method, decoding apparatus, decoding method, transmission system, receiving apparatus, and program
JP2022509410A (ja) * 2018-10-26 2022-01-20 フランカ エーミカ ゲーエムベーハー ロボット
CN111687847A (zh) * 2020-07-09 2020-09-22 深圳市多够机器人技术有限公司 一种足式机器人的远程操控装置和操控交互方式
CN111687847B (zh) * 2020-07-09 2024-02-02 广东鹏行智能有限公司 一种足式机器人的远程操控装置和操控交互方式
WO2023188388A1 (ja) * 2022-03-31 2023-10-05 株式会社ソニー・インタラクティブエンタテインメント 圧覚装置及び操作装置

Similar Documents

Publication Publication Date Title
JP2013091114A (ja) インタラクション操作システム
WO2017202081A1 (zh) 导航装置及方法
JP6314134B2 (ja) ロボット訓練のためのユーザインターフェース
JP6678832B2 (ja) 遠隔制御マニピュレータシステムおよび制御装置
JP6567563B2 (ja) 衝突回避および軌道復帰能力を有する人型ロボット
US20200055195A1 (en) Systems and Methods for Remotely Controlling a Robotic Device
EP2917001B1 (en) Hybrid gesture control haptic system
JP5969626B2 (ja) 高められたジェスチャ・ベースの対話のためのシステム及び方法
CN112158734B (zh) 建筑机械
JP2003337963A (ja) 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体
KR20190085160A (ko) 양팔 로봇의 교시 시스템 및 양팔 로봇의 교시 방법
Luo et al. Team Northeastern's approach to ANA XPRIZE Avatar final testing: A holistic approach to telepresence and lessons learned
JP2020196060A (ja) 教示方法
JP2007181888A (ja) コミュニケーションロボットシステム
US20240302908A1 (en) Virtual, Augmented and Mixed Reality Systems with Physical Feedback
US20230302650A1 (en) Detection and mitigation of predicted collisions of objects with user control system
CN108062102A (zh) 一种手势控制具有辅助避障功能的移动机器人遥操作系统
JP6142306B2 (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
KR101485075B1 (ko) 원격로봇 시스템
CN114905478B (zh) 双边遥操作系统及控制方法
JP7384647B2 (ja) ロボットシステム
JP7535968B2 (ja) ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム
KR20180089602A (ko) 복수의 컨트롤러를 이용한 로봇 제어 시스템 및 장치
JP2019063905A (ja) ロボット制御システム、ロボット制御方法およびロボット制御システム用ユーザ機器
TW202037465A (zh) 機器人系統

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160118

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160517