JP7114521B2 - WORK SUPPORT SYSTEM AND WORK SUPPORT METHOD FOR REMOTE-CONTROLLED ROBOT - Google Patents
WORK SUPPORT SYSTEM AND WORK SUPPORT METHOD FOR REMOTE-CONTROLLED ROBOT Download PDFInfo
- Publication number
- JP7114521B2 JP7114521B2 JP2019065753A JP2019065753A JP7114521B2 JP 7114521 B2 JP7114521 B2 JP 7114521B2 JP 2019065753 A JP2019065753 A JP 2019065753A JP 2019065753 A JP2019065753 A JP 2019065753A JP 7114521 B2 JP7114521 B2 JP 7114521B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- robot
- data
- work
- jig
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Manipulator (AREA)
Description
本発明の実施形態は、対象物に対する作業をガイドするために仮想空間に設けられる仮想治具を用いてロボットの作業を支援する遠隔操作ロボットの作業支援システム及び作業支援方法に関する。 TECHNICAL FIELD Embodiments of the present invention relate to a work support system and a work support method for a remote-controlled robot that support the work of a robot using a virtual jig provided in a virtual space to guide work on an object.
遠隔操作ロボットの一つとして、放射線環境など人が立ち入ることができない場所での作業に用いられるマスタースレーブロボットがある。このマスタースレーブロボットは、オペレータ(操作者)がマスターロボットを操作することで、対象物に対する作業をスレーブロボットに実行させるものである。マスターロボットとスレーブロボットの双方の情報は通信により伝送されるため、オペレータが操作したマスターロボットの動作が、スレーブロボットでリアルタイムに再現される特色がある。マスターロボットとスレーブロボットの駆動軸数や軸配置が同じ同構造タイプのほか、マスターロボットは人が操作しやすいようにスレーブロボットとは構造が異なる異構造タイプもある。 One of the remote-controlled robots is a master-slave robot that is used for work in places where humans cannot enter, such as radiation environments. The master-slave robot is operated by an operator (manipulator) to cause the slave robot to perform work on an object. Since the information of both the master robot and the slave robot is transmitted by communication, there is a feature that the action of the master robot operated by the operator is reproduced in real time by the slave robot. In addition to the same structure type in which the number of drive axes and the axis arrangement of the master robot and slave robot are the same, there is also a different structure type in which the master robot has a different structure from the slave robot so that it is easier for people to operate.
マスタースレーブロボットを用いての遠隔作業は、スレーブロボット側に取り付けられたカメラ映像などを基に、オペレータがマスターロボットを操作するのであるが、作業性が悪いことが課題である。例えばピンを穴に挿入するような作業は、遠隔操作では距離感の把握が難しく、更に反力や触覚等の力覚情報が十分得られない場合には、作業自体はおろか対象物への位置決めさえも困難になることがある。 In remote work using a master-slave robot, an operator operates the master robot based on images from a camera attached to the slave robot, but the problem is poor workability. For example, for tasks such as inserting a pin into a hole, it is difficult to grasp the sense of distance with remote control. even can be difficult.
一方、マスターロボットの操作により生成したロボット動作データを用いて、実際の作業空間には存在しない仮想物体モデルにより干渉を検出し、検出結果を反力としてオペレータへ提示する第1の従来システムが提案されている。このシステムにより、目標位置の穴の周囲をコーン形状の仮想ガイドで覆うことで、スレーブロボットの手先で把持しているピンを、仮想ガイドに沿って穴の位置へ誘導することができる。 On the other hand, a first conventional system has been proposed that uses robot motion data generated by the operation of a master robot to detect interference with a virtual object model that does not exist in the actual work space, and presents the detection result to the operator as a reaction force. It is With this system, by covering the hole at the target position with a cone-shaped virtual guide, the pin gripped by the hand of the slave robot can be guided to the hole position along the virtual guide.
また、遠隔操作における自律機能とマニュアル操作機能を組み合わせる手法として、予め登録された作業モデルと物体モデルをオペレータが選択することで、ロボットに搭載されたステレオカメラによって距離画像を計測し、この計測により得られた作業空間内の物体モデルに対して作業を自律的に行う第2の従来システムが提案されている。 In addition, as a method of combining autonomous functions and manual operation functions in remote control, the operator selects a pre-registered work model and object model, and the distance image is measured by the stereo camera mounted on the robot. A second conventional system has been proposed that works autonomously on an object model in the obtained workspace.
ところが、第1の従来システムでは、位置情報を示すマーカーを操作開始前に対象物に配置し、カメラによりマーカーを撮像して位置を計測することで、仮想ガイドの位置を修正する処理を行っている。このため、事前の準備が必要になり、放射線環境下などのように対象物に事前準備を行えない環境下では成立し得ない。 However, in the first conventional system, the position of the virtual guide is corrected by placing a marker indicating position information on the target object before starting the operation, and measuring the position by imaging the marker with a camera. there is For this reason, advance preparation is required, and it cannot be established in an environment such as a radiation environment in which advance preparation cannot be performed for the object.
また、第2の従来システムでは、事前の準備をすることなしに対象となる物体に作業を行うことが可能である。ところが、この第2の従来システムでは、遠隔操作と自律作業をある程度明確に区別する必要があり、事前に準備した対象となる物体モデルに対する作業データだけが自律作業の対象になり、試行錯誤しながらの遠隔作業には適さない。また、例え作業を細かく分解して登録したとしても、物体モデルに対する作業データの指示をオペレータが選択することになり、作業効率が低下してしまうと考えられる。 Also, in the second conventional system, it is possible to work on the object of interest without prior preparation. However, in this second conventional system, it is necessary to clearly distinguish between remote operation and autonomous work to some extent. not suitable for remote work. Further, even if the work is broken down into smaller parts and registered, the operator will have to select the instruction of the work data for the object model, which may reduce work efficiency.
本発明の実施形態は、上述の事情を考慮してなされたものであり、仮想治具及び仮想ロボットの支援によりマスターロボットを操作して対象物に対する作業をスレーブロボットに実行させる際に、仮想治具の設置に関する操作者の負担を軽減して作業効率を向上できる遠隔操作ロボットの作業支援システム及び作業支援方法を提供することを目的とする。 The embodiments of the present invention have been made in consideration of the above circumstances. It is an object of the present invention to provide a work support system and a work support method for a remotely controlled robot capable of reducing the burden on an operator for installing tools and improving work efficiency.
本発明の実施形態における遠隔操作ロボットの作業支援システムは、対象物を含む周囲環境を計測する環境計測部と、前記環境計測部の環境計測データから、前記対象物を検出すると共に、前記対象物を含む3次元位置データを作成する環境計測処理部と、前記対象物及び工具に関するデータを格納する対象物データベースと、前記対象物に対する作業に関するデータを格納する作業データベースと、前記3次元位置データに基づき仮想空間を作成し、スレーブロボットの位置及び動作データに基づき仮想ロボットを生成し、前記仮想空間に前記仮想ロボットを統合処理するロボット制御部と、前記対象物に対する前記作業をガイドするために前記仮想空間に設けられる仮想治具を、1もしくは複数種類生成または取得する仮想治具生成・取得部と、前記対象物に対応する仮想対象物を含む前記仮想空間、前記仮想ロボット、及び前記仮想治具を表示する表示装置とを有し、マスターロボットが操作されることで、前記対象物に対する前記作業を前記スレーブロボットに実行させる遠隔操作ロボットの作業支援システムであって、前記ロボット制御部は、前記3次元位置データ、前記対象物データベースから選択された前記対象物及び工具に関するデータ、前記作業データベースから選択された前記作業に関するデータ、並びに前記スレーブロボットの位置及び動作データに基づいて、前記仮想治具の種類、形状、寸法及び設置位置の少なくとも一つを決定するよう構成されたことを特徴とするものである。 A work support system for a remote-controlled robot according to an embodiment of the present invention includes an environment measurement unit that measures a surrounding environment including an object, detects the object from environmental measurement data of the environment measurement unit, and an environment measurement processing unit that creates three-dimensional position data including: an object database that stores data on the object and tools; a work database that stores data on work on the object; a robot control unit that creates a virtual space based on the position and motion data of the slave robot, generates a virtual robot based on the position and motion data of the slave robot, and integrates the virtual robot into the virtual space; a virtual jig generation/acquisition unit that generates or acquires one or more types of virtual jigs provided in the virtual space; a display device for displaying tools, and a work support system for a remote-controlled robot that causes the slave robot to perform the work on the object by operating a master robot, wherein the robot control unit comprises: The virtual jig based on the three-dimensional position data, data on the object and tool selected from the object database, data on the work selected from the work database, and position and motion data of the slave robot. It is characterized in that it is configured to determine at least one of the type, shape, size and installation position of the fixture.
本発明の実施形態における遠隔操作ロボットの作業支援方法は、対象物を含む周囲環境を計測する環境計測部の環境計測データから、対象物を検出すると共に、前記対象物を含む3次元位置データを作成するステップと、前記3次元位置データに基づき仮想空間を作成し、スレーブロボットの位置及び動作データに基づき仮想ロボットを生成し、前記仮想空間に前記仮想ロボットを統合処理するステップと、前記対象物及び工具に関するデータを対象物データベースから、前記対象物に対する作業に関するデータを作業データベースから、それぞれ選択して取り込むステップと、前記対象物に対する前記作業をガイドするために前記仮想空間に設けられる仮想治具を複数種類生成または取得するステップと、前記仮想治具の種類、形状、寸法及び設置位置を、前記3次元位置データ、前記対象物データベースから選択された前記対象物及び工具に関するデータ、前記作業データベースから選択された前記作業に関するデータ、並びに前記スレーブロボットの位置及び動作データに基づいて選択して決定するステップと、前記仮想ロボット及び前記仮想治具の支援によりマスターロボットを操作することで、前記対象物に対する前記作業を前記スレーブロボットに実行させるステップと、を有することを特徴とするものである。 A work support method for a remote-controlled robot according to an embodiment of the present invention detects an object from environment measurement data of an environment measurement unit that measures the surrounding environment including the object, and calculates three-dimensional position data including the object. creating a virtual space based on the three-dimensional position data, generating a virtual robot based on the position and motion data of the slave robot, integrating the virtual robot into the virtual space; a step of selecting and importing data on tools and data from an object database and data on work on the object from a work database; and a virtual jig provided in the virtual space for guiding the work on the object. and the type , shape, size and installation position of the virtual jig, the three-dimensional position data, the data on the object and tool selected from the object database , and the work database selecting and determining based on data related to the work selected from and the position and motion data of the slave robot; and causing the slave robot to perform the work on the object.
本発明の実施形態によれば、仮想治具及び仮想ロボットの支援によりマスターロボットを操作して対象物に対する作業をスレーブロボットに実行させる際に、仮想治具の設置に関する操作者の負担を軽減して作業効率を向上できる。 According to the embodiment of the present invention, when the master robot is operated with the assistance of the virtual jig and the virtual robot to cause the slave robot to perform the work on the target object, the operator's burden regarding installation of the virtual jig is reduced. can improve work efficiency.
以下、本発明を実施するための形態を、図面に基づき説明する。 EMBODIMENT OF THE INVENTION Hereinafter, the form for implementing this invention is demonstrated based on drawing.
[A]第1実施形態(図1~図6)
図1は、第1実施形態に係る遠隔操作ロボットの作業支援システムを示すブロック図である。また、図2は、図1の遠隔操作ロボットの作業支援システムが適用されたマスタースレーブロボットシステムの構成を示す構成図である。マスタースレーブロボットシステム10に適用される遠隔操作ロボットの作業支援システム20は、マスターロボット11が操作者(オペレータ)1により操作されることで、対象物(例えば図3に示す配管フランジ2のボルト3)に対する遠隔操作をスレーブロボット12に実行させるシステムである。遠隔操作ロボットの作業支援システム20は、環境計測部22、環境計測処理部23、対象物データベース24、作業データベース25、仮想治具生成・取得部26、ロボット制御部27、及び表示装置としてのディスプレイ28を有して構成される。
[A] First embodiment (Figs. 1 to 6)
FIG. 1 is a block diagram showing a work support system for remote-controlled robots according to the first embodiment. FIG. 2 is a configuration diagram showing the configuration of a master-slave robot system to which the work support system for remote-controlled robots of FIG. 1 is applied. A work support system 20 for a remote-controlled robot applied to a master-
このうちのロボット制御部27は、マスターロボット制御部31、スレーブロボット制御部32、仮想空間作成部33、仮想ロボット生成部34、仮想治具決定部35、仮想治具絞込部36及び接触力演算部37を備えてなる。このロボット制御部27は、1台のコンピュータで構成されてもよいが、マスターロボット制御部31とスレーブロボット制御部32とを別々のコンピュータで構成し、これらのいずれかのコンピュータにより仮想空間作成部33、仮想ロボット生成部34、仮想治具決定部35、仮想治具絞込部36、接触力演算部37がそれぞれ機能するように構成されてもよい。
The robot control unit 27 includes a master
ここで、マスタースレーブロボットシステム10では、図2に示すように、操作者1がマスターロボット11を操作したときの操作データは、マスターロボット11に接続されたマスターロボット制御部31に送信され、このマスターロボット制御部31から通信回線13を経てスレーブロボット制御部32に送信される。なお、通信回線13は、データを双方向に送信可能な通信回線である。スレーブロボット制御部32は、スレーブロボット12に接続されており、上述の操作データに基づいてスレーブロボット12を制御する。
Here, in the master-
マスターロボット11及びスレーブロボット12は本第1実施形態ではマニピュレータであり、スレーブロボット12の先端部にエンドエフェクタ14が設けられている。このエンドエフェクタ14に、作業に応じて多指ハンドやグリッパ、インパクトレンチ、丸鋸などの工具(作業ツール)が装着される。対象物が例えば図3に示す配管フランジ2のボルト3である場合には、エンドエフェクタ14にインパクトレンチ15が装着される。スレーブロボット12は、インパクトレンチ15をボルト3に位置決めし回転させることで、ボルト3の着脱作業を行なう。
The
また、スレーブロボット12には、対象物(例えばボルト3)を含む周囲環境を計測する環境計測部22が設置されている。この環境計測部22は、スレーブロボット12の周囲環境を撮像するためのカメラ、スレーブロボット12のエンドエフェクタ14部分を撮像するためのカメラ、またはスレーブロボット12の周囲環境を、点群データとして計測するための距離画像計測装置などである。この環境計測部22は、図1及び図2に示すように、環境計測処理部23を介してロボット制御部27の例えばスレーブロボット制御部32に接続される。環境計測部22がカメラの場合には、このカメラからの画像データが環境計測処理部23にて圧縮されて、例えばスレーブロボット制御部32へ送信される。
Also, the
一方、マスターロボット11付近にはディスプレイ28が設置される。このディスプレイ28は、ロボット制御部27の例えばマスターロボット制御部31に接続される。ディスプレイ28には、環境計測部22のカメラからの画像データが直接、または環境計測処理部23、スレーブロボット制御部32及びマスターロボット制御部31を経て送信されて表示される。
On the other hand, a
カメラ画像による遠隔操作の場合には、操作者1は、ディスプレイ28の画像を視認しながらマスターロボット11を操作して、スレーブロボット12に対象物に対する作業を実行させる。ところが、このカメラ画像による遠隔操作の場合には、特に、スレーブロボット12のエンドエフェクタ14に装着されたインパクトレンチ15等の工具とボルト3などの対象物との位置決めが、奥行き情報やカメラの死角の影響で不十分になる恐れがある。
In the case of remote control using a camera image, the operator 1 operates the
そこで、本第1実施形態では、カメラ画像による遠隔操作と併用してまたは単独で、仮想治具を用いた遠隔操作を実施可能とする。この仮想治具を用いた遠隔操作は、仮想空間上の仮想ロボット及び仮想治具21(図4)の支援によりマスターロボット11が操作者1により操作されることで、対象物(例えばボルト3)に対する遠隔作業をスレーブロボット12に実行させる操作である。以下、この仮想治具を用いた遠隔操作について述べる。
Therefore, in the first embodiment, remote operation using a virtual jig can be performed in combination with remote operation using a camera image or alone. The remote operation using this virtual jig is performed by the operator 1 operating the
図1に示す環境計測処理部23は、環境計測部22の距離画像計測装置からの環境計測データである点群データから、対象物(例えば配管フランジ2のボルト3)を検出すると共に、点群データをノイズフィルタリング処理して3次元位置データに変換する。この3次元位置データは、環境計測部22の距離画像計測装置にて計測した点群データによるものに限らず、図面などから事前に作成したものであってもよい。環境計測処理部23にて作成された3次元位置データは、ロボット制御部27を経てまたは直接ディスプレイ28へ送信される。なお、環境計測処理部23は、ロボット制御部27に組み込まれて構成されてもよい。
The environment
ロボット制御部27の仮想空間作成部33は、環境計測処理部23にて作成された3次元位置データに基づき、仮想空間(不図示)を作成する。この仮想空間には、対象物に対応した仮想対象物(例えば図4及び図5の仮想ボルト30A)が含まれる。また、図1に示すロボット制御部27の仮想ロボット生成部34は、スレーブロボット制御部32が保有するスレーブロボット12の位置及び動作データに基づいて、スレーブロボット12に対応する仮想ロボット(不図示)を生成し更新する。ロボット制御部27は、仮想ロボット生成部34にて生成された仮想ロボットを、仮想空間作成部33により作成された仮想空間に統合する。
A virtual
対象物データベース24は、図3に示すボルト3や図7に示す配管4、図9に示す構造物5などの対象物に関するデータ、及びこの対象物に対する作業を実施するためにスレーブロボット12のエンドエフェクタ14に装着される工具(例えば図3に示すインパクトレンチ15、図7に示す丸鋸16、図9に示すグリッパ17など)に関するデータを格納するデータベースである。また、作業データベース25は、対象物に対して行なう作業、例えば位置決め作業、ボルト回転作業、配管切断作業などに関するデータを格納したデータベースである。
The
対象物データベース24の対象物及び工具に関するデータ、並びに作業データベース25の作業に対するデータは、ディスプレイ28に表示される。操作者1がディスプレイ28に表示された対象物、工具及び作業を表す表示部分を、タッチパネル入力、キーボード入力、マウス入力、音声入力などにより選択すると、この選択された対象物、工具、作業がロボット制御部27へ送信される。
Data relating to objects and tools in the
仮想治具生成・取得部26は、対象物に対する作業をガイドするために仮想空間に設けられる仮想治具21(図4)を、1種類もしくは複数種類生成する。または、仮想治具生成・取得部26は、予め生成された仮想冶具群を格納した仮想治具データベースを備え、仮想治具群から仮想冶具を取得する。この仮想治具21の生成または取得は、対象物データベース24から操作者1により選択された対象物及び工具に関するデータ、並びに作業データベース25から操作者1により選択された作業に関するデータに基づいて実施される。例えば、図3に示す配管フランジ2のボルト3(対象物)を着脱作業する場合には、スレーブロボット12に装着されたインパクトレンチ15(工具)のボルト3への位置決め作業をガイドするための仮想治具21と、インパクトレンチ15の回転作業をガイドするための仮想治具(不図示)とが生成または取得される。
The virtual jig generation/acquisition unit 26 generates one or a plurality of types of virtual jigs 21 (FIG. 4) provided in the virtual space to guide the work on the object. Alternatively, the virtual jig generation/acquisition unit 26 has a virtual jig database that stores pre-generated virtual jig groups, and acquires virtual jigs from the virtual jig groups. The generation or acquisition of this
仮想治具生成・取得部26により生成または取得された仮想治具21と、仮想ロボット生成部34にて生成された仮想ロボットとの接触力は、ロボット制御部27の接触力演算部37にて演算される。この接触力は、マスターロボット制御部31を介してマスターロボット11へ出力され、操作者1に対し力覚や触覚などの情報として提示される。これにより、操作者1は、仮想治具21に接触する感覚を得ることが可能になる。
The contact force between the
ディスプレイ28は、前述の如く、環境計測部22であるカメラからの画像を表示すると共に、仮想空間作成部33にて作成された仮想空間(仮想対象物を含む)に、仮想ロボット生成部34にて生成された仮想ロボットと、仮想治具生成・取得部26にて生成または取得され且つ仮想治具決定部35にて後述のように決定された仮想治具21とが統合された画像を表示する。
As described above, the
ロボット制御部27の仮想治具決定部35は、環境計測処理部23にて生成された3次元位置データ、対象物データベース24から操作者1により選択された対象物及び工具に関するデータ、作業データベース25から操作者1により選択された作業に関するデータ、並びにスレーブロボット制御部32が保有するスレーブロボット12の位置及び動作データに基づいて、仮想治具21の種類、形状、寸法及び設置位置の少なくとも一つを選択する。
The virtual jig determination unit 35 of the robot control unit 27 receives the three-dimensional position data generated by the environment
例えば、仮想治具決定部35は、3次元位置データ、作業に関するデータ、並びにスレーブロボット12の位置及び動作データから、図3及び図4に示すように、スレーブロボット12に装着された工具(インパクトレンチ15)が対象物(ボルト3)に接近していると判断した場合には、位置決め用のコーン形状の仮想治具21を決定し、また、対象物及び工具に関するデータからの工具の寸法データから仮想治具21の形状及び寸法を決定し、更に、3次元位置データから仮想治具21の設置位置を決定する。この仮想治具21は、対象物に対応して仮想空間に設けられる仮想対象物(仮想ボルト30A)の全てに設置される。
For example, the virtual jig determination unit 35 determines a tool (impact tool) attached to the
図1に示すロボット制御部27の仮想治具絞込部36は、環境計測処理部23にて作成された3次元位置データ、並びにスレーブロボット制御部32が保有するスレーブロボット12の位置及び動作データに基づいて、図3及び図4に示すように、環境計測処理部23で検出された複数の対象物(例えばボルト3)に対して、スレーブロボット12(またはこのスレーブロボット12のエンドエフェクタ14に装着されたインパクトレンチ15)に最も近傍の対象物(ボルト3)に対応する仮想対象物(仮想ボルト30A)に設置された仮想治具21を優先して「有効」に設定し、仮想治具21の絞り込みを行なう。
The virtual
例えば、図3及び図5に示すように、仮想治具絞込部36は、スレーブロボット12に装着されたインパクトレンチ15に最も近傍のボルト3に対応する仮想ボルト30AXに設置された仮想治具21Xを「有効」に設定し、他の複数の仮想ボルト21を「無効」に設定する。「無効」に設定された仮想治具21であっても、スレーブロボット12に装着されたインパクトレンチ15に対して最も近傍のボルト3に対応した仮想ボルト30Aになった場合には、この仮想ボルト30Aに設置された仮想治具21が仮想治具絞込部36により「有効」に設定されることになる。
For example, as shown in FIGS. 3 and 5, the virtual jig narrowing-down
次に、遠隔操作ロボットの作業支援システム20が仮想治具21を用いた遠隔操作を実施する場合の作用について、特に図6により説明する。
環境計測処理部23は、環境計測部22が計測した環境計測データ(例えば点群データ)から対象物(例えば配管フランジ2のボルト3)を検出すると共に、対象物の位置データを含む3次元位置データを作成する(S1)。
Next, the action when the work support system 20 for the remote controlled robot performs remote control using the
The environment
次に、ロボット制御部27の仮想空間作成部33は、環境計測処理部23からの3次元位置データに基づいて仮想空間を作成する(S2)。また、ロボット制御部27の仮想ロボット生成部34は、スレーブロボット制御部32が保有するスレーブロボット12の位置及び動作データに基づき仮想ロボットを生成する。この仮想ロボットは、仮想ロボット生成部34またはロボット制御部27により仮想空間に統合される(S3)。
Next, the virtual
ロボット制御部27は、操作者1により選択された対象物データベース24からの対象物及び工具に関するデータと作業データベース25からの作業に関するデータとを入力する(S4)。これらの入力された対象物及び工具に関するデータ、並びに作業に関するデータに基づいて、仮想治具生成・取得部26は、対象物に対する作業をガイドするために仮想空間に設けられる仮想治具21を、1種類または複数種類生成しまたは取得する(S5)。
The robot control unit 27 inputs the data on the object and the tool from the
次に、ロボット制御部27の仮想治具決定部35は、環境計測処理部23にて生成された3次元位置データ、対象物データベース24から操作者1により選択された対象物及び工具に関するデータ、作業データベース25から操作者1により選択された作業に関するデータ、並びにスレーブロボット制御部32が保有するスレーブロボット12の位置及び動作データに基づいて、仮想治具21の種類、形状及び寸法の少なくとも一つを決定し、この決定した仮想治具21を、仮想ロボットが統合された仮想空間上で、仮想対象物(例えば仮想ボルト30A)の位置に設置する(S6)。
Next, the virtual jig determination unit 35 of the robot control unit 27 obtains the three-dimensional position data generated by the environment
次に、ロボット制御部27の仮想治具絞込部36は、複数の仮想対象物(例えば仮想ボルト30A)のそれぞれに仮想治具21が設置されている場合には、スレーブロボット12に最も近傍の対象物に対応する仮想対象物に設置された仮想治具21、つまり、仮想ロボットに最も近傍の仮想対象物(例えば仮想ボルト30AX)に設置された仮想治具21を「有効」として、仮想治具21の絞り込みを行う(S7)。
Next, the virtual
その後、操作者1は、仮想空間、仮想ロボット及び仮想治具21が表示されたディスプレイ28を視認しながらマスターロボット11を操作して、仮想空間上で仮想ロボットを仮想治具21のガイドにより仮想対象物(例えば仮想ボルト30A)に対して動作させることで、現実空間においてスレーブロボット12を対象物(例えばボルト3)に対して作業(例えば位置決め作業)させる(S8)。
After that, the operator 1 operates the
以上のように構成されたことから、本第1実施形態によれば、次の効果(1)及び(2)を奏する。
(1)図1、図3及び図4に示すように、対象物(例えばボルト3)に対する作業(例えば位置決め作業)をガイドするために仮想空間に設けられる仮想治具21は、仮想治具生成・取得部26により、対象物データベース24から操作者1により選択された対象物及び工具に関するデータ、並びに作業データベース25から操作者1により選択された作業に関するデータに基づいて生成または取得される。そして、仮想治具21の種類、形状、寸法及び設置位置の少なくとも一つは、ロボット制御部27の仮想治具決定部35により、環境計測処理部23にて作成された3次元位置データ、対象物データベース24から操作者1により選択された対象物及び工具に関するデータ、作業データベース25から操作者1により選択された作業に関するデータ、並びにスレーブロボット制御部32が保有するスレーブロボット12の位置及び動作データに基づいて決定される。
With the configuration as described above, according to the first embodiment, the following effects (1) and (2) are obtained.
(1) As shown in FIGS. 1, 3 and 4, a
従って、仮想治具21の例えば設置位置を決定するために、マーカーを事前に配置したり、操作者1が仮想治具21の設置位置に関して指示を与えたりする必要がない。この結果、仮想治具21の設置に関する操作者の負担を軽減でき、マスターロボット11の操作によりスレーブロボット12を対象物(例えばボルト3)に対して作業(例えば位置決め作業)させる遠隔作業の作業効率を向上させることができる。
Therefore, in order to determine, for example, the installation position of the
(2)図1、図3及び図5に示すように、複数の仮想対象物(例えば仮想ボルト30A)にそれぞれ設置された複数の仮想治具21は、ロボット制御部27の仮想治具絞込部36により、環境計測処理部23にて作成された3次元位置データ、並びにスレーブロボット制御部32が保有するスレーブロボット12の位置及び動作データに基づいて、スレーブロボット12に最も近傍の対象物(例えばボルト3)に対応する仮想対象物(例えば仮想ボルト30A)に設置された仮想治具21(即ち、仮想ロボットに最も近傍の仮想対象物に設置された仮想治具21)が優先して「有効」に設定されて絞り込まれる。このため、仮想治具21が複数存在する場合にも、操作者1が作業の度に仮想治具21を指定する必要がないので、この点からも、操作者1の負担を軽減でき、マスターロボット11の操作によるスレーブロボット12の遠隔作業の作業効率を、より一層向上させることができる。また、不要な仮想冶具21は有効としないことで、演算負荷を軽減することができる。
(2) As shown in FIGS. 1, 3, and 5, a plurality of
なお、操作者1が作業データベース25から作業に関するデータを選択する代わりに、ロボット制御部27の仮想治具決定部35は、マスターロボット11にジェスチャーを実行させたときのマスターロボット11の動作データに基づいて作業を推測して作業に関するデータを求め、これにより、仮想治具21の種類、形状、寸法及び設置位置の少なくとも一つを決定してもよい。
Note that instead of the operator 1 selecting work-related data from the
また、仮想治具生成・取得部26は、スレーブロボット12に設置された接触センサ(不図示)からのデータや、スレーブロボット12自身に作用する負荷(例えばモータ電流など)のデータに基づいて、一度接触した箇所に、次回の接触を禁止させる壁(ブロック)のような仮想治具を生成してもよい。この場合、制御ロボット27の仮想治具決定部35は、3次元位置データ、及び上述の接触センサのデータ等に基づいて、次回接触禁止用の仮想治具を、スレーブロボット12が一度接触した箇所に設置する。これにより、ディスプレイ28に表示される仮想空間には、スレーブロボット12が一度接触した箇所に上述の仮想治具が自動で設定されるので、操作者1は、この仮想治具を視認することで、スレーブロボット12が一度接触した箇所を再び接触させることなく、スレーブロボット12に作業を実施させることができる。
In addition, the virtual jig generation/acquisition unit 26, based on data from a contact sensor (not shown) installed in the
[B]第2実施形態(図1、図7、図8)
図7は、第2実施形態に係る遠隔操作ロボットの作業支援システムが適用されたマスタースレーブロボットシステムによる丸鋸を用いた配管切断作業を説明する説明図である。この第2実施形態において第1実施形態と同様な部分については、第1実施形態と同一の符号を付すことにより説明を簡略化し、または省略する。
[B] Second embodiment (Figs. 1, 7 and 8)
FIG. 7 is an explanatory diagram for explaining pipe cutting work using a circular saw by a master-slave robot system to which the work support system for remote-controlled robots according to the second embodiment is applied. In the second embodiment, the same parts as in the first embodiment are denoted by the same reference numerals as in the first embodiment, so that the explanation is simplified or omitted.
本第2実施形態の遠隔操作ロボットの作業支援システム40が前記第1実施形態と異なる点は、対象物が配管4であり、工具が丸鋸16であり、作業が、丸鋸16を用いて配管4を切断する配管切断作業であり、仮想治具41(図8)が、丸鋸16を配管4の同一箇所に同一姿勢(傾き)で繰り返し接触させて切断させる際にガイドとなる平面形状の仮想治具である点である。
The work support system 40 for a remote-controlled robot of the second embodiment differs from the first embodiment in that the object is the pipe 4, the tool is the
本第2実施形態の遠隔操作ロボットの作業支援システム40(図1)におけるロボット制御部42の仮想治具生成・取得部43は、対象物を配管4とし、工具を丸鋸16とする対象物及び工具データ、並びに配管切断作業を内容とする作業データに基づいて、平面形状の仮想治具41を生成し、または仮想治具データベースから該当する仮想治具41を取得する。
The virtual jig generation/acquisition unit 43 of the robot control unit 42 in the work support system 40 ( FIG. 1 ) for the remote-controlled robot of the second embodiment uses the piping 4 as the target object and the
また、ロボット制御部42の仮想治具決定部44は、仮想治具41の種類、形状、寸法及び設置位置の少なくとも一つを、環境計測処理部23にて作成された3次元位置データ、対象物データベース24から操作者1により選択された対象物及び工具に関するデータ、作業データベース25から操作者1により選択された作業に関するデータ、スレーブロボット制御部32が保有するスレーブロボット12の位置及び動作データ、並びにスレーブロボット12の作業動作により取得されたデータに基づいて決定する。
In addition, the virtual jig determination unit 44 of the robot control unit 42 determines at least one of the type, shape, size, and installation position of the
つまり、仮想治具決定部44は、配管切断作業を内容とする作業に関するデータから、配管切断をガイドする種類の仮想治具、即ち仮想治具41を決定する。また、仮想治具決定部44は、3次元位置データと、スレーブロボット12が丸鋸16を用いて配管4を最初に切削したときのスレーブロボット12の作業動作により得られた切削痕18の位置データとから、仮想治具41の設置位置を決定する。この仮想治具41の設置位置は、配管4に対応した仮想対象物としての仮想配管30B(図8)における上記切削痕18に対応した仮想切削痕位置19である。
In other words, the virtual jig determining unit 44 determines the type of virtual jig that guides the cutting of the pipe, ie, the
なお、切削痕18の位置データは、具体的には、環境計測22により計測されたデータ、またはスレーブロボット12に設置されたセンサ(不図示)により丸鋸16が配管4に接触したことを検知したときのスレーブロボット12の位置データ等から求められる。
The position data of the
また、仮想治具決定部44は、配管4及び丸鋸16の直径データを内容とする対象物及び工具に関するデータから仮想治具41の寸法を決定する。更に、仮想治具決定部44は、スレーブロボット12が丸鋸16を用いて配管4を最初に切断したときのスレーブロボット12の姿勢データ(即ち丸鋸16の傾きデータ)を内容とするスレーブロボット12の位置及び動作データに基づいて、仮想治具41の形状、即ち仮想治具41の傾きを決定する。
The virtual jig determination unit 44 also determines the dimensions of the
以上のように構成されたことから、本第2実施形態によれば、第1実施形態の効果(1)と同様な効果を奏するほか、次の効果(3)を奏する。 With the configuration as described above, according to the second embodiment, the following effect (3) can be obtained in addition to the same effect as the effect (1) of the first embodiment.
(3)操作者1が、スレーブロボット12を動作させて配管4に丸鋸16の切削痕18を最初に形成すれば、この最初に切削痕18を形成したときの丸鋸16の傾きと同一の傾きの平面形状の仮想治具41が仮想治具生成・取得部43により生成または取得され、この仮想治具41が仮想治具決定部44により、配管4に対応した仮想配管30Bにおいて切削痕18に対応した仮想切削痕位置19に設置される。
(3) If the operator 1 operates the
従って、操作者1は、ディスプレイ28に表示された仮想空間上で、スレーブロボット12に対応する仮想ロボットに設けられた丸鋸16に対応する仮想工具を仮想治具41に沿って繰り返し動作させれば、現実空間における丸鋸16を、配管4の切削痕18の位置に同一の傾きを保持して繰り返し投入して、配管4を切断できる。この結果、丸鋸16を用いた配管4の切断作業を、操作者1が丸鋸16の位置及び傾きを細かく調整することなく、容易且つ確実に実施できる。
Therefore, the operator 1 repeatedly operates the virtual tool corresponding to the
[C]第3実施形態(図9)
図9は、第3実施形態に係る遠隔操作ロボットの作業支援システムが適用されたマスタースレーブロボットシステムによる通過禁止領域を表す仮想治具を示す説明図である。この第3実施形態において第1実施形態と同様な部分については、第1実施形態と同一の符号を付すことにより説明を簡略化し、または省略する。
[C] Third embodiment (Fig. 9)
FIG. 9 is an explanatory diagram showing a virtual jig representing a passage prohibited area by a master-slave robot system to which the work support system for remote-controlled robots according to the third embodiment is applied. In the third embodiment, parts similar to those in the first embodiment are denoted by the same reference numerals as those in the first embodiment, thereby simplifying or omitting the description.
本第3実施形態の遠隔操作ロボットの作業支援システム50が第1実施形態と異なる点は、対象物が、狭隘空間を有して隣接配置された構造物5であり、作業が、スレーブロボット12のエンドエフェクタ14に装着されたグリッパ17などの工具及びスレーブロボット12を構造物5間の狭隘空間内で作業させるものであり、仮想治具51が、工具及びスレーブロボット12の寸法よりも狭い狭隘空間に対して工具及びスレーブロボット12の通過を禁止するための通過禁止領域を表す仮想治具である点である。
A work support system 50 for a remote-controlled robot according to the third embodiment differs from the first embodiment in that the target object is the
本第3実施形態の遠隔操作ロボットの作業支援システム50(図1)におけるロボット制御部52の仮想治具生成・取得部53は、狭隘空間を有して隣接配置された構造物5を対象物とする対象物及び工具データ、並びにスレーブロボット12に装着された工具及びスレーブロボット12を、隣接配置された構造物5間の狭隘空間内で作業させることを内容とする作業データに基づいて、工具(例えばグリッパ17)及びスレーブロボット12の上記狭隘空間への通過禁止領域を表す仮想治具51を生成し、または仮想治具データベースから該当する仮想治具51を取得する。
The virtual jig generation/acquisition unit 53 of the robot control unit 52 in the work support system 50 (FIG. 1) for a remote-controlled robot according to the third embodiment selects the
ロボット制御部52の仮想治具決定部54は、工具及びスレーブロボット12の通過禁止領域を表す仮想治具51の種類、形状、寸法及び設置位置の少なくとも一つを、環境計測処理物23にて作成された3次元位置データ、対象物データベース24から操作者1により選択された対象物及び工具に関するデータ、作業データベースから操作者1により選択された作業に関するデータ、スレーブロボット制御部32が保有するスレーブロボット12の位置及び動作データ、並びにスレーブロボット12の寸法に関するデータに基づいて決定する。
The virtual jig determination unit 54 of the robot control unit 52 determines at least one of the type, shape, size, and installation position of the
つまり、仮想治具決定部54は、スレーブロボット12のエンドエフェクタ14に装着された工具及びスレーブロボット12を、隣接配置された構造物5間の狭隘空間内で作業させることを内容とする作業に関するデータから、構造物5間の狭隘空間への工具(例えばグリッパ17)及びスレーブロボット12の通過を禁止する通過禁止領域を表す種類の仮想治具51を決定する。
In other words, the virtual jig determining unit 54 is related to the operation of making the
また、仮想治具決定部54は、スレーブロボット12の位置及び動作データと3次元位置データとから、スレーブロボット12の周囲に存在する構造物5間の狭隘空間の寸法に関するデータを求める。そして、仮想治具決定部54は、上記狭隘空間の寸法に関するデータと、対象物及び工具に関するデータからの工具(例えばグリッパ17)の寸法に関するデータと、スレーブロボット12の寸法に関するデータとを用いて、工具及びスレーブロボット12の少なくとも一方の寸法が上記狭隘空間の寸法よりも大きいか否かを判断する。
The virtual jig determining unit 54 also obtains data on the dimensions of the narrow space between the
工具(例えばグリッパ17)及びスレーブロボット12の少なくとも一方の寸法が構造物5間の狭隘空間寸法よりも大きい場合に、仮想治具決定部54は、工具及びスレーブロボット12の当該狭隘空間への通過を禁止する通過禁止領域を表す仮想治具51の設置位置を決定する。この設置位置は、工具(例えばグリッパ17)及びスレーブロボット12の少なくとも一方の寸法よりも小さな寸法の狭隘空間を有する隣接した構造物5に対応する仮想対象物としての仮想構造物30C間の狭隘空間である。
If the dimension of at least one of the tool (for example, the gripper 17) and the
更に、仮想治具決定部54は、3次元位置データから、仮想治具51が設置される狭隘空間を有する仮想構造物30Cに対応した現実空間の構造物5間の狭隘空間の寸法を求め、この狭隘空間の寸法に基づき仮想治具51の形状及び寸法を決定する。
Furthermore, the virtual jig determining unit 54 obtains the dimensions of the narrow space between the
以上のように構成されたことから、本第3実施形態においても、第1実施形態の効果(1)と同様な効果を奏するほか、次の効果(4)を奏する。 Due to the configuration as described above, the third embodiment also has the same effect as the effect (1) of the first embodiment, and also has the following effect (4).
(4)スレーブロボット12に工具(例えばグリッパ17)を装着して隣接配置された構造物5間の狭隘空間内で作業する場合、構造物5間の狭隘空間の寸法よりもスレーブロボット12と工具の少なくとも一方の寸法が大きいときには、上記狭隘空間を有する構造物5に対応する仮想空間上の仮想構造物30Cの狭隘空間に仮想治具51が設置される。このため、操作者1は、上記仮想空間が表示されたディスプレイ28を視認して、仮想ロボット及び仮想工具を仮想治具51に接触しないように動作させることで、現実空間においてスレーブロボット12及び工具を構造物5に干渉させることなく、構造物5間の狭隘空間内で作業させることができる。
(4) When a tool (for example, a gripper 17) is attached to the
なお、本第3実施形態を走行移動型のマスタースレーブロボットに適用してもよい。例えば、走行移動するスレーブロボットの寸法が扉の寸法よりも大きな場合には、上記扉に対応する仮想空間上の仮想扉に通過禁止を表す仮想治具を設置する。これにより、仮想空間において仮想ロボットが上記仮想治具に接触しないようにすることで、現実空間において、移動するスレーブロボットが通過不可能な扉に干渉する事態を回避できる。 Note that the third embodiment may be applied to a running movement type master-slave robot. For example, when the size of the slave robot that runs and moves is larger than the size of the door, a virtual jig indicating passage prohibition is installed on the virtual door in the virtual space corresponding to the door. Thus, by preventing the virtual robot from contacting the virtual jig in the virtual space, it is possible to prevent the moving slave robot from interfering with a door that cannot pass through in the real space.
[D]第4実施形態(図1)
この第4実施形態において第1実施形態と同様な部分については、第1実施形態と同一の符号を付すことにより説明を簡略化し、または省略する。
[D] Fourth Embodiment (Fig. 1)
In the fourth embodiment, the same parts as in the first embodiment are denoted by the same reference numerals as in the first embodiment to simplify or omit the description.
本第4実施形態の遠隔操作ロボットの作業支援システム60では、ロボット制御部11は、環境計測処理部23にて生成された3次元位置データ、対象物データベース24から操作者1により選択された対象物及び工具に関するデータ、作業データベース25から操作者1により選択された作業に関するデータ、並びにスレーブロボット制御部32が保有するスレーブロボット12の位置及び動作データに基づいて、仮想治具を生成または取得し且つこの仮想治具の種類、形状、寸法及び設置位置の少なくとも一つを決定するための一連の作業データを学習させ、または予め規定することで、仮想治具の生成または取得処理と、仮想治具の種類、形状、寸法及び設置位置の少なくとも一つの決定処理とを自律的に実行可能に構成させてもよい。ここで、上記学習は、ディープラーニング等の機械学習や強化学習である。
In the remote controlled robot work support system 60 of the fourth embodiment, the
これにより、対象物(例えばボルト3)及び工具(例えばインパクトレンチ15)を決め、且つスレーブロボット12の位置及び動作データが決まった状況下では、複数の作業(例えば位置決め作業、ボルト回転作業、周囲の構造物に干渉させないでの狭隘空間内の作業)を操作者1が選択しなくても、ロボット制御部61はその作業を推定できる。更に、ロボット制御部61は、その推定した作業に対応する種類の仮想治具(位置決め用仮想治具、対象物と工具の回転軸を一致させるための仮想治具、通過禁止領域を表す仮想治具など)を自律的に生成または取得し、その仮想治具の種類、形状、寸法及び設置位置の少なくとも一つを自律的に決定することができる。
Thus, in a situation where the object (for example, the bolt 3) and the tool (for example, the impact wrench 15) have been determined, and the position and motion data of the
以上、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができ、また、それらの置き換えや変更は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments of the invention have been described above, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention, and these replacements and changes can be made. is included in the scope and gist of the invention, and is included in the scope of the invention described in the claims and its equivalents.
1…操作者、3…ボルト(対象物)、4…配管(対象物)、5…構造物(対象物)、10…マスタースレーブロボットシステム、11…マスターロボット、12…スレーブロボット、15…インパクトレンチ(工具)、16…丸鋸(工具)、18…切削痕、20…遠隔操作ロボットの作業支援システム、21、21X…仮想治具、22…環境計測部、23…環境計測処理部、24…対象物データベース、25…作業データベース、26…仮想治具生成・取得部、27…ロボット制御部、28…ディスプレイ(表示装置)、30A、30AX…仮想ボルト(仮想対象物)、30B…仮想配管(仮想対象物)、30C…仮想構造物(仮想対象物)、31…マスターロボット制御部、32…スレーブロボット制御部、33…仮想空間作成部、34…仮想ロボット生成部、35…仮想治具決定部、36…仮想治具絞込部、40…遠隔操作ロボットの作業支援システム、41…仮想治具、43…仮想治具生成・取得部、44…仮想治具決定部、50…遠隔操作ロボットの作業支援システム、51…仮想治具、53…仮想治具生成・取得部、54…仮想治具決定部、60…遠隔操作ロボットの作業支援システム、61…ロボット制御部
DESCRIPTION OF SYMBOLS 1... Operator, 3... Bolt (object), 4... Piping (object), 5... Structure (object), 10... Master-slave robot system, 11... Master robot, 12... Slave robot, 15... Impact Wrench (tool) 16 Circular saw (tool) 18 Cut marks 20 Work support system for remote-controlled
Claims (6)
前記環境計測部の環境計測データから、前記対象物を検出すると共に、前記対象物を含む3次元位置データを作成する環境計測処理部と、
前記対象物及び工具に関するデータを格納する対象物データベースと、
前記対象物に対する作業に関するデータを格納する作業データベースと、
前記3次元位置データに基づき仮想空間を作成し、スレーブロボットの位置及び動作データに基づき仮想ロボットを生成し、前記仮想空間に前記仮想ロボットを統合処理するロボット制御部と、
前記対象物に対する前記作業をガイドするために前記仮想空間に設けられる仮想治具を、1もしくは複数種類生成または取得する仮想治具生成・取得部と、
前記対象物に対応する仮想対象物を含む前記仮想空間、前記仮想ロボット、及び前記仮想治具を表示する表示装置とを有し、
マスターロボットが操作されることで、前記対象物に対する前記作業を前記スレーブロボットに実行させる遠隔操作ロボットの作業支援システムであって、
前記ロボット制御部は、前記3次元位置データ、前記対象物データベースから選択された前記対象物及び工具に関するデータ、前記作業データベースから選択された前記作業に関するデータ、並びに前記スレーブロボットの位置及び動作データに基づいて、前記仮想治具の種類、形状、寸法及び設置位置の少なくとも一つを決定するよう構成されたことを特徴とする遠隔操作ロボットの作業支援システム。 an environment measurement unit that measures the surrounding environment including the object;
an environment measurement processing unit that detects the object from the environment measurement data of the environment measurement unit and creates three-dimensional position data including the object;
an object database that stores data about the objects and tools;
a work database that stores data related to work on the object;
a robot control unit that creates a virtual space based on the three-dimensional position data, generates a virtual robot based on the position and motion data of the slave robot, and integrates the virtual robot into the virtual space;
a virtual jig generation/acquisition unit that generates or acquires one or more types of virtual jigs provided in the virtual space to guide the work on the object;
a display device for displaying the virtual space including the virtual object corresponding to the object, the virtual robot, and the virtual jig;
A work support system for a remote-controlled robot that causes the slave robot to perform the work on the object by operating the master robot,
The robot controller controls the three-dimensional position data, data on the object and tool selected from the object database, data on the work selected from the work database, and position and motion data of the slave robot. A work support system for a remote-controlled robot, wherein at least one of the type, shape, size and installation position of the virtual jig is determined based on the above.
前記3次元位置データに基づき仮想空間を作成し、スレーブロボットの位置及び動作データに基づき仮想ロボットを生成し、前記仮想空間に前記仮想ロボットを統合処理するステップと、
前記対象物及び工具に関するデータを対象物データベースから、前記対象物に対する作業に関するデータを作業データベースから、それぞれ選択して取り込むステップと、
前記対象物に対する前記作業をガイドするために前記仮想空間に設けられる仮想治具を複数種類生成または取得するステップと、
前記仮想治具の種類、形状、寸法及び設置位置を、前記3次元位置データ、前記対象物データベースから選択された前記対象物及び工具に関するデータ、前記作業データベースから選択された前記作業に関するデータ、並びに前記スレーブロボットの位置及び動作データに基づいて選択して決定するステップと、
前記仮想ロボット及び前記仮想治具の支援によりマスターロボットを操作することで、前記対象物に対する前記作業を前記スレーブロボットに実行させるステップと、を有することを特徴とする遠隔操作ロボットの作業支援方法。 a step of detecting an object from environment measurement data of an environment measurement unit that measures the surrounding environment including the object and creating three-dimensional position data including the object;
a step of creating a virtual space based on the three-dimensional position data, generating a virtual robot based on the position and motion data of the slave robot, and integrating the virtual robot into the virtual space;
a step of selecting and importing data on the object and the tool from an object database and data on work on the object from a work database;
a step of generating or acquiring a plurality of types of virtual jigs provided in the virtual space to guide the work on the object;
The type, shape, size, and installation position of the virtual jig, the three-dimensional position data, the data regarding the object and tool selected from the object database , the data regarding the work selected from the work database , and selecting and determining based on position and motion data of the slave robot;
and a step of causing the slave robot to perform the work on the object by operating the master robot with the assistance of the virtual robot and the virtual jig.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019065753A JP7114521B2 (en) | 2019-03-29 | 2019-03-29 | WORK SUPPORT SYSTEM AND WORK SUPPORT METHOD FOR REMOTE-CONTROLLED ROBOT |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019065753A JP7114521B2 (en) | 2019-03-29 | 2019-03-29 | WORK SUPPORT SYSTEM AND WORK SUPPORT METHOD FOR REMOTE-CONTROLLED ROBOT |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020163511A JP2020163511A (en) | 2020-10-08 |
JP7114521B2 true JP7114521B2 (en) | 2022-08-08 |
Family
ID=72714087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019065753A Active JP7114521B2 (en) | 2019-03-29 | 2019-03-29 | WORK SUPPORT SYSTEM AND WORK SUPPORT METHOD FOR REMOTE-CONTROLLED ROBOT |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7114521B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113386142A (en) * | 2021-07-07 | 2021-09-14 | 天津大学 | Grinding and cutting integrated processing system and method of teleoperation robot based on virtual clamp |
WO2024020733A1 (en) * | 2022-07-25 | 2024-02-01 | 上海非夕机器人科技有限公司 | Teleoperation method for robot, and robot and storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004322244A (en) | 2003-04-23 | 2004-11-18 | Toyota Motor Corp | Robot operation regulating method, its device and robot having this device |
JP2008093814A (en) | 2006-10-16 | 2008-04-24 | Yamatake Corp | Operation support device and method thereof |
US20130169423A1 (en) | 2011-12-29 | 2013-07-04 | Mako Surgical Corp. | Systems and methods for selectively activating haptic guide zones |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63139689A (en) * | 1986-11-28 | 1988-06-11 | 株式会社日立製作所 | Picture display unit for remote manipulation-system |
JPH0760342B2 (en) * | 1987-10-26 | 1995-06-28 | 株式会社日立製作所 | Robot support system |
JP2621803B2 (en) * | 1994-07-14 | 1997-06-18 | 日本電気株式会社 | Master-slave type robot arm device and arm positioning guidance method |
JPH10264065A (en) * | 1997-03-27 | 1998-10-06 | Mitsubishi Electric Corp | Remote operation support device for robot |
-
2019
- 2019-03-29 JP JP2019065753A patent/JP7114521B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004322244A (en) | 2003-04-23 | 2004-11-18 | Toyota Motor Corp | Robot operation regulating method, its device and robot having this device |
JP2008093814A (en) | 2006-10-16 | 2008-04-24 | Yamatake Corp | Operation support device and method thereof |
US20130169423A1 (en) | 2011-12-29 | 2013-07-04 | Mako Surgical Corp. | Systems and methods for selectively activating haptic guide zones |
Also Published As
Publication number | Publication date |
---|---|
JP2020163511A (en) | 2020-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10112297B2 (en) | Robot control apparatus, robot, and robot system | |
US11207777B2 (en) | Robot controlling device and automatic assembling system | |
CN105583826B (en) | Industrial robot and the method for controlling industrial robot | |
JP6570742B2 (en) | Robot motion evaluation apparatus, robot motion evaluation method, and robot system | |
CN108145709B (en) | Method and apparatus for controlling robot | |
JP6420296B2 (en) | Robot controller that automatically sets the robot interference area | |
CN110076751B (en) | Robot control device and robot system | |
CN108748152B (en) | Robot teaching method and system | |
US10960549B2 (en) | Vibration analyzer and vibration analysis method | |
KR20040103382A (en) | Robot system | |
JP7114521B2 (en) | WORK SUPPORT SYSTEM AND WORK SUPPORT METHOD FOR REMOTE-CONTROLLED ROBOT | |
CN110405729B (en) | Robot control device | |
US20190160688A1 (en) | Robot | |
CN118269089A (en) | Method for motion simulation of manipulator | |
Burrell et al. | Towards a cooperative robotic system for autonomous pipe cutting in nuclear decommissioning | |
US12077414B2 (en) | Work support device and work support method | |
US11392106B2 (en) | Servomotor adjustment device and servomotor adjustment method | |
WO2017141569A1 (en) | Control device, control system, control method, and program | |
JP2017077600A (en) | Manipulator device | |
KR102686459B1 (en) | Apparatus and method for boundary plane setting | |
Tanzini et al. | A novel human-machine interface for working machines operation | |
West et al. | A vision-based positioning system with inverse dead-zone control for dual-hydraulic manipulators | |
US20230066114A1 (en) | Image analysis device, control device, mechanical system, image analysis method, and computer program for image analysis | |
JP3560216B2 (en) | Work support device | |
JP2015197847A (en) | Work analysis system, work analysis method, and work analysis program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210315 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220628 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220727 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7114521 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |