[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7155664B2 - Simulation equipment, controllers and robots - Google Patents

Simulation equipment, controllers and robots Download PDF

Info

Publication number
JP7155664B2
JP7155664B2 JP2018122974A JP2018122974A JP7155664B2 JP 7155664 B2 JP7155664 B2 JP 7155664B2 JP 2018122974 A JP2018122974 A JP 2018122974A JP 2018122974 A JP2018122974 A JP 2018122974A JP 7155664 B2 JP7155664 B2 JP 7155664B2
Authority
JP
Japan
Prior art keywords
virtual
robot
virtual object
simulation
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018122974A
Other languages
Japanese (ja)
Other versions
JP2019081242A5 (en
JP2019081242A (en
Inventor
正信 西谷
努 萩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Publication of JP2019081242A publication Critical patent/JP2019081242A/en
Publication of JP2019081242A5 publication Critical patent/JP2019081242A5/ja
Application granted granted Critical
Publication of JP7155664B2 publication Critical patent/JP7155664B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Description

本発明は、シミュレーション装置、制御装置およびロボットに関する。 The present invention relates to a simulation device, control device and robot.

基台と、複数のアーム(リンク)を有するロボットアームとを備えるロボットが知られている。ロボットアームの隣り合う2つのアームのうちの一方のアームは、関節部を介して、他方のアームに回動可能に連結され、最も基端側(最も上流側)のアームは、関節部を介して、基台に回動可能に連結されている。関節部はモーターにより駆動され、その関節部の駆動により、アームが回動する。また、最も先端側(最も下流側)のアームには、エンドエフェクターとして、例えば、着脱可能にハンドが装着される。そして、ロボットは、例えば、ハンドで対象物を把持し、その対象物を所定の場所へ移動させ、組立等の所定の作業を行う。このようなロボットでは、実際に作業を行う前に、ロボットに対して教示を行う必要がある。 A robot is known which includes a base and a robot arm having a plurality of arms (links). One of the two adjacent arms of the robot arm is rotatably connected to the other arm via a joint, and the most proximal (most upstream) arm is connected via the joint. and is rotatably connected to the base. The joint is driven by a motor, and the arm is rotated by driving the joint. Also, for example, a hand is detachably attached as an end effector to the arm closest to the distal end (most downstream). Then, the robot, for example, grips an object with a hand, moves the object to a predetermined place, and performs predetermined work such as assembly. In such a robot, it is necessary to teach the robot before actually performing the work.

特許文献1には、ロボットのシミュレーションを行うロボットシミュレーターが開示されている。 Patent Literature 1 discloses a robot simulator for simulating a robot.

特許文献1に記載のロボットシミュレーターでは、ハンドによりワークを把持し、そのワークを移動させる場合、ハンド側に設定されたニードル(座標軸)と、ワーク側に設定された立体座標とが交差するか否かに応じて、ハンドによるワークの把持の成否を判断するようになっている。このロボットシミュレーターを用いて、ロボットに対してオフラインで教示(オフラインティーチング)を行うことが可能である。 In the robot simulator described in Patent Document 1, when a work is gripped by a hand and the work is moved, it is determined whether or not the needle (coordinate axis) set on the hand side intersects with the three-dimensional coordinates set on the work side. Whether or not the hand has grasped the workpiece is determined according to whether the hand has grasped the workpiece successfully or not. Using this robot simulator, it is possible to teach the robot offline (offline teaching).

特開2010-214571号公報JP 2010-214571 A

特許文献1に記載のロボットシミュレーターでは、シミュレーションにおいてハンドがワークを把持できるようにするために、実機にはない仮想のニードルをハンド側に設定する作業を行う必要があり、その作業に多大な労力および時間を要する。 In the robot simulator described in Patent Document 1, in order for the hand to be able to grip a workpiece in the simulation, it is necessary to set a virtual needle, which is not present in the actual machine, on the hand side. and time consuming.

本発明は、前述した課題の少なくとも一部を解決するためになされたものであり、以下により実現することが可能である。 The present invention has been made to solve at least part of the problems described above, and can be realized by the following.

本発明のシミュレーション装置は、ロボットを仮想化した仮想ロボットによるシミュレーションを行うシミュレーション装置であって、
前記仮想ロボットと仮想対象物とを連動させて動作させるか否かに関する情報の入力と、前記仮想ロボットに前記仮想対象物を取り付ける取付部分に関する情報の入力とを受け付ける受付部と、
前記仮想ロボットと、前記受付部が受け付けた前記取付部分に取り付けられた前記仮想対象物とを表示部に表示させ、前記仮想ロボットと前記仮想対象物とを連動させて動作させる入力を前記受付部が受け付けた場合、前記仮想ロボットの動作に連動して、前記仮想対象物を動作させる制御部と、を備えることを特徴とする。
A simulation device of the present invention is a simulation device that performs a simulation using a virtual robot that is a virtualized robot,
a reception unit that receives input of information regarding whether or not to operate the virtual robot and the virtual object in conjunction with each other, and input of information regarding a mounting portion for mounting the virtual object on the virtual robot;
displaying on a display unit the virtual robot and the virtual object attached to the mounting portion accepted by the accepting unit, and receiving an input to operate the virtual robot and the virtual object in conjunction with each other; and a control unit that moves the virtual object in conjunction with the motion of the virtual robot when receiving the motion.

このようなシミュレーション装置によれば、仮想ロボットと仮想対象物とを連動させて動作させるか否かに関する情報の入力と、仮想ロボットに仮想対象物を取り付ける取付部分に関する情報の入力とを行うことにより、容易に、仮想対象物を取付部分に取り付け、仮想ロボットの動作に連動して仮想対象物を動作させることができる。これにより、容易に、実機に即したシミュレーションを行うことができる。 According to such a simulation apparatus, by inputting information regarding whether or not to operate the virtual robot and the virtual object in conjunction with each other and inputting information regarding the attachment portion for attaching the virtual object to the virtual robot, , the virtual object can be easily attached to the attachment portion, and the virtual object can be moved in conjunction with the motion of the virtual robot. As a result, it is possible to easily perform a simulation suitable for the actual machine.

本発明のシミュレーション装置では、前記取付部分に取り付けられた前記仮想対象物は、前記取付部分から位置を変更可能であることが好ましい。
これにより、仮想対象物を取付部分から離間した位置に配置させることができる。
In the simulation device of the present invention, it is preferable that the position of the virtual object attached to the attachment portion can be changed from the attachment portion.
Thereby, the virtual object can be arranged at a position spaced apart from the mounting portion.

本発明のシミュレーション装置では、前記取付部分は、前記仮想ロボットが有する仮想関節を含むことが好ましい。
これにより、仮想対象物を仮想ロボットの仮想関節に取り付けることができる。
In the simulation device of the present invention, it is preferable that the attachment portion includes virtual joints of the virtual robot.
Thereby, the virtual object can be attached to the virtual joints of the virtual robot.

本発明のシミュレーション装置では、前記受付部は、前記仮想ロボットが有する複数の座標系からの1つの座標系の選択を受付可能であり、
前記制御部は、前記仮想ロボットと前記仮想対象物とを連動させて動作させる入力を前記受付部が受け付けた場合、前記選択された座標系の原点と、前記仮想対象物が有する座標系の原点とを一致させた状態で、前記表示部に表示させることが好ましい。
これにより、容易に、仮想対象物を適切な位置に配置させることができる。
In the simulation device of the present invention, the receiving unit can receive selection of one coordinate system from a plurality of coordinate systems possessed by the virtual robot,
When the receiving unit receives an input to operate the virtual robot and the virtual object in conjunction with each other, the control unit controls the origin of the selected coordinate system and the origin of the coordinate system of the virtual object. It is preferable to display on the display section in a state in which .
As a result, the virtual object can be easily arranged at an appropriate position.

本発明のシミュレーション装置では、前記制御部は、前記仮想ロボットと前記仮想対象物とを連動させて動作させる入力を前記受付部が受け付けた場合、前記取付部分とは異なる仮想物体と、前記仮想対象物とが干渉した場合、前記取付部分とは異なる前記仮想物体と前記仮想対象物とが干渉したことを前記表示部に表示させることが好ましい。 In the simulation apparatus according to the aspect of the invention, when the reception unit receives an input to cause the virtual robot and the virtual object to operate in conjunction with each other, the control unit causes the virtual object different from the attachment portion to move to the virtual object. When the object interferes with the object, it is preferable that the display unit displays that the virtual object different from the attachment portion and the virtual object interfere with each other.

これにより、容易に、取付部分とは異なる仮想物体と仮想対象物とが干渉したことを把握することができる。これによって、実機の作成前に、周辺機器の配置の検証、動作経路の検証等を容易に行うことができる。 As a result, it is possible to easily grasp that the virtual object different from the attachment portion interferes with the virtual object. This makes it possible to easily verify the arrangement of peripheral devices, verify the operation paths, etc., before creating an actual machine.

本発明のシミュレーション装置では、前記仮想対象物は、仮想力覚センサーを含むことが好ましい。
これにより、仮想力覚センサーを取付部分に取り付けることができる。
In the simulation device of the present invention, it is preferable that the virtual object includes a virtual force sensor.
Thereby, the virtual force sensor can be attached to the attachment portion.

本発明のシミュレーション装置では、前記仮想対象物は、仮想エンドエフェクターを含み、
前記制御部は、前記仮想エンドエフェクターが前記仮想ロボットに取り付けられた状態で、前記仮想力覚センサーを前記仮想ロボットに取り付ける場合、前記仮想エンドエフェクターの位置を変更し、前記仮想力覚センサーを前記仮想ロボットと前記仮想エンドエフェクターとの間に取り付けた状態で前記表示部に表示させることが好ましい。
In the simulation device of the present invention, the virtual object includes a virtual end effector,
When the virtual force sensor is attached to the virtual robot while the virtual end effector is attached to the virtual robot, the control unit changes the position of the virtual end effector and attaches the virtual force sensor to the virtual robot. It is preferable that the display is displayed in a state of being attached between the virtual robot and the virtual end effector.

これにより、容易に、実機と同様の位置に、仮想力覚センサーおよび仮想エンドエフェクターを配置させることができる。 As a result, the virtual force sensor and the virtual end effector can be easily arranged at the same positions as the actual machine.

本発明のシミュレーション装置では、前記制御部は、前記仮想力覚センサーが有する力覚センサー座標系を前記表示部に表示させることが好ましい。 In the simulation device of the present invention, it is preferable that the control unit causes the display unit to display a force sensor coordinate system of the virtual force sensor.

これにより、力覚センサー座標系を把握することができる。この力覚センサー座標系の各軸は、仮想力覚センサーが検出する力の検出軸である。 This makes it possible to grasp the force sensor coordinate system. Each axis of this force sensor coordinate system is a force detection axis detected by the virtual force sensor.

本発明のシミュレーション装置では、前記仮想対象物は、仮想エンドエフェクターを含み、
前記制御部は、前記仮想エンドエフェクターまたは前記仮想エンドエフェクターが保持する仮想保持対象物が、他の仮想物体に作用する作用点を原点としたフォース座標系を前記表示部に表示させることが好ましい。
In the simulation device of the present invention, the virtual object includes a virtual end effector,
Preferably, the control unit causes the display unit to display a force coordinate system whose origin is an action point of the virtual end effector or the virtual object held by the virtual end effector acting on another virtual object.

これにより、仮想エンドエフェクターまたは仮想エンドエフェクターが保持する仮想保持対象物の作用点と、フォース座標系とを把握することができる。このフォース座標系は、仮想力覚センサーで検出される力を用いた機能を実行するための座標系であり、フォース座標系の各軸は、前記作用点に加わる力の各成分の方向を向いている。 As a result, the point of action of the virtual end effector or the virtual object held by the virtual end effector and the force coordinate system can be grasped. This force coordinate system is a coordinate system for executing a function using the force detected by the virtual force sensor, and each axis of the force coordinate system points in the direction of each force component applied to the point of action. ing.

本発明のシミュレーション装置では、前記制御部は、前記作用点に作用する力の大きさを前記表示部に表示させることが好ましい。 In the simulation device of the present invention, it is preferable that the control section causes the display section to display the magnitude of the force acting on the point of action.

これにより、仮想エンドエフェクターまたは仮想エンドエフェクターが保持する仮想保持対象物の作用点に加わる力を把握することができる。 Thereby, it is possible to grasp the force applied to the point of action of the virtual end effector or the virtual object held by the virtual end effector.

本発明のシミュレーション装置では、前記力の大きさは、矢印の大きさで表されることが好ましい。 In the simulation device of the present invention, it is preferable that the size of the force is represented by the size of the arrow.

これにより、仮想エンドエフェクターまたは仮想エンドエフェクターが保持する仮想保持対象物の作用点に加わる力を容易に把握することができる。 This makes it possible to easily grasp the force applied to the point of action of the virtual end effector or the virtual object held by the virtual end effector.

本発明の制御装置は、本発明のシミュレーション装置によるシミュレーション結果に基づいてロボットを制御することを特徴とする。 The control device of the present invention is characterized by controlling the robot based on the simulation result by the simulation device of the present invention.

このような制御装置によれば、シミュレーション装置で作成した動作プログラムを用いてロボットに適切な動作を行わせることができる。 According to such a control device, it is possible to cause the robot to perform an appropriate motion using the motion program created by the simulation device.

本発明のロボットは、対象物を取り付けることが可能な取付部分を有し、
本発明の制御装置によって制御されることを特徴とする。
The robot of the present invention has an attachment portion to which an object can be attached,
It is characterized by being controlled by the control device of the present invention.

このようなロボットによれば、制御装置の制御により、適切な動作を行うことができる。 According to such a robot, it is possible to perform appropriate actions under the control of the control device.

本発明のシミュレーション装置は、ロボットを仮想化した仮想ロボットによるシミュレーションを行うシミュレーション装置であって、
プロセッサーを備え、
前記プロセッサーは、前記仮想ロボットと仮想対象物とを連動させて動作させるか否かに関する情報の入力と、前記仮想ロボットに前記仮想対象物を取り付ける取付部分に関する情報の入力とを受け付け、かつ、前記仮想ロボットと、受け付けた前記取付部分に取り付けられた前記仮想対象物とを表示部に表示させ、前記仮想ロボットと前記仮想対象物とを連動させて動作させる入力を受け付けた場合、前記仮想ロボットの動作に連動して、前記仮想対象物を動作させることを特徴とする。
A simulation device of the present invention is a simulation device that performs a simulation using a virtual robot that is a virtualized robot,
equipped with a processor
The processor receives an input of information regarding whether or not to interlock the virtual robot and the virtual object and an input of information regarding a mounting portion for mounting the virtual object on the virtual robot, and When the virtual robot and the virtual object attached to the received attachment portion are displayed on the display unit, and an input to operate the virtual robot and the virtual object in conjunction with each other is received, the virtual robot The virtual object is moved in conjunction with the motion.

このようなシミュレーション装置によれば、仮想ロボットと仮想対象物とを連動させて動作させるか否かに関する情報の入力と、仮想ロボットに仮想対象物を取り付ける取付部分に関する情報の入力とを行うことにより、容易に、仮想対象物を取付部分に取り付け、仮想ロボットの動作に連動して仮想対象物を動作させることができる。これにより、容易に、実機に即したシミュレーションを行うことができる。 According to such a simulation apparatus, by inputting information regarding whether or not to operate the virtual robot and the virtual object in conjunction with each other and inputting information regarding the attachment portion for attaching the virtual object to the virtual robot, , the virtual object can be easily attached to the attachment portion, and the virtual object can be moved in conjunction with the motion of the virtual robot. As a result, it is possible to easily perform a simulation suitable for the actual machine.

第1実施形態に係るロボットシステムを示す図である。1 is a diagram showing a robot system according to a first embodiment; FIG. 図1に示すロボットシステムのブロック図である。2 is a block diagram of the robot system shown in FIG. 1; FIG. 表示装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a display apparatus. 表示装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a display apparatus. 表示装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a display apparatus. 表示装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a display apparatus. 表示装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a display apparatus. 表示装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a display apparatus. 表示装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a display apparatus. 表示装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a display apparatus. 表示装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a display apparatus. 図1に示すロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。2 is a diagram showing an example of a simulation performed by the robot system simulation device shown in FIG. 1; FIG. 図1に示すロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。2 is a diagram showing an example of a simulation performed by the robot system simulation device shown in FIG. 1; FIG. 図1に示すロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。2 is a diagram showing an example of a simulation performed by the robot system simulation device shown in FIG. 1; FIG. 図1に示すロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。2 is a diagram showing an example of a simulation performed by the robot system simulation device shown in FIG. 1; FIG. 図1に示すロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。2 is a diagram showing an example of a simulation performed by the robot system simulation device shown in FIG. 1; FIG. 第2実施形態に係るロボットシステムの表示装置に表示される画面の一例を示す図である。FIG. 11 is a diagram showing an example of a screen displayed on the display device of the robot system according to the second embodiment; FIG. 第2実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。It is a figure which shows an example of the simulation which the simulation apparatus of the robot system based on 2nd Embodiment performs. 第2実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。It is a figure which shows an example of the simulation which the simulation apparatus of the robot system based on 2nd Embodiment performs. 第2実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。It is a figure which shows an example of the simulation which the simulation apparatus of the robot system based on 2nd Embodiment performs. 第2実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。It is a figure which shows an example of the simulation which the simulation apparatus of the robot system based on 2nd Embodiment performs. 第2実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。It is a figure which shows an example of the simulation which the simulation apparatus of the robot system based on 2nd Embodiment performs. 第2実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。It is a figure which shows an example of the simulation which the simulation apparatus of the robot system based on 2nd Embodiment performs. 第3実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。It is a figure which shows an example of the simulation which the simulation apparatus of the robot system based on 3rd Embodiment performs. 第3実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。It is a figure which shows an example of the simulation which the simulation apparatus of the robot system based on 3rd Embodiment performs. 第4実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。It is a figure which shows an example of the simulation which the simulation apparatus of the robot system based on 4th Embodiment performs. 第4実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。It is a figure which shows an example of the simulation which the simulation apparatus of the robot system based on 4th Embodiment performs. 第5実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。FIG. 11 is a diagram showing an example of a simulation performed by a robot system simulation apparatus according to a fifth embodiment; 第5実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。FIG. 11 is a diagram showing an example of a simulation performed by a robot system simulation apparatus according to a fifth embodiment; 第5実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。FIG. 11 is a diagram showing an example of a simulation performed by a robot system simulation apparatus according to a fifth embodiment; 第5実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。FIG. 11 is a diagram showing an example of a simulation performed by a robot system simulation apparatus according to a fifth embodiment; 第5実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。FIG. 11 is a diagram showing an example of a simulation performed by a robot system simulation apparatus according to a fifth embodiment; 第5実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。FIG. 11 is a diagram showing an example of a simulation performed by a robot system simulation apparatus according to a fifth embodiment; 第5実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。FIG. 11 is a diagram showing an example of a simulation performed by a robot system simulation apparatus according to a fifth embodiment; 第6実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。FIG. 14 is a diagram showing an example of a simulation performed by a robot system simulation device according to a sixth embodiment; 第6実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。FIG. 14 is a diagram showing an example of a simulation performed by a robot system simulation device according to a sixth embodiment; ロボットシステムの他の構成例を示す図(ブロック図)である。FIG. 11 is a diagram (block diagram) showing another configuration example of the robot system; ロボットシステムの他の構成例を示す図(ブロック図)である。FIG. 11 is a diagram (block diagram) showing another configuration example of the robot system;

以下、本発明のシミュレーション装置、制御装置およびロボットを添付図面に示す実施形態に基づいて詳細に説明する。 DETAILED DESCRIPTION OF THE INVENTION A simulation device, a control device, and a robot according to the present invention will be described in detail below based on embodiments shown in the accompanying drawings.

<第1実施形態>
≪ロボットシステム≫ 図1は、実施形態に係るロボットシステムを示す図である。図2は、図1に示すロボットシステムのブロック図である。図3~図11は、それぞれ、表示装置に表示される画面の一例を示す図である。図12~図16は、図1に示すロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。
<First Embodiment>
<<Robot System>> FIG. 1 is a diagram showing a robot system according to an embodiment. FIG. 2 is a block diagram of the robot system shown in FIG. 3 to 11 are diagrams showing examples of screens displayed on the display device. 12 to 16 are diagrams showing examples of simulations performed by the robot system simulation apparatus shown in FIG.

また、図1には、互いに直交する3つの軸としてxr軸、yr軸およびzr軸が図示されており、各軸を示す矢印の先端側を「+(正)」、基端側を「-(負)」とする。また、図1中のzr軸方向を「鉛直方向」とし、xr-yr平面に沿った方向を「水平方向」とする。また、+zr軸側を「上方」とし、-zr軸側を「下方」とする。 In addition, in FIG. 1, xr-axis, yr-axis and zr-axis are illustrated as three axes orthogonal to each other. (negative)”. Also, the zr-axis direction in FIG. 1 is defined as the “vertical direction”, and the direction along the xr-yr plane is defined as the “horizontal direction”. Also, the +zr axis side is defined as "upper" and the -zr axis side is defined as "lower".

また、以下では、説明の都合上、図1および図3中の上側を「上」または「上方」、下側を「下」または「下方」と言う。また、図1および図3中の基台側を「基端」または「上流」、その反対側を「先端」または「下流」と言う。また、図1および図3中の上下方向が鉛直方向である。 Further, hereinafter, for convenience of explanation, the upper side in FIGS. 1 and 3 is called "upper" or "upper", and the lower side is called "lower" or "lower". In addition, the base side in FIGS. 1 and 3 is called the "proximal end" or "upstream", and the opposite side is called the "distal end" or "downstream". Moreover, the vertical direction in FIGS. 1 and 3 is the vertical direction.

また、本明細書において、「水平」とは、完全に水平な場合のみならず、水平に対して±5°以内で傾斜している場合も含む。同様に、本明細書において、「鉛直」とは、完全に鉛直な場合のみならず、鉛直に対して±5°以内で傾斜している場合も含む。また、本明細書において、「平行」とは、2つの線(軸を含む)または面が、互いに完全な平行である場合のみならず、±5°以内で傾斜している場合も含む。また、本明細書において、「直交」とは、2つの線(軸を含む)または面が、互いに完全な直交である場合のみならず、±5°以内で傾斜している場合も含む。 Moreover, in this specification, the term “horizontal” includes not only a completely horizontal case but also a case of being inclined within ±5° with respect to the horizontal. Similarly, in this specification, "vertical" includes not only completely vertical but also inclined within ±5° with respect to the vertical. In this specification, the term “parallel” includes not only the case where two lines (including axes) or planes are completely parallel to each other, but also the case where they are inclined within ±5°. In this specification, the term "perpendicular" includes not only the case where two lines (including axes) or planes are completely perpendicular to each other, but also the case where they are inclined within ±5°.

図1に示すロボットシステム100は、ロボット1と、ロボット1の動作(駆動)を制御するロボット制御装置2(制御装置)と、ロボット制御装置2と通信可能なシミュレーション装置5と、を有する。 A robot system 100 shown in FIG. 1 includes a robot 1 , a robot control device 2 (control device) that controls the operation (driving) of the robot 1 , and a simulation device 5 that can communicate with the robot control device 2 .

以下、ロボットシステム100が有する各部を順次説明する。
〈ロボット〉 ロボット1は、いわゆる6軸の垂直多関節ロボットであり、例えば、精密機器等を製造する製造工程等で用いられ、精密機器や部品等の保持対象物(図示せず)の保持や搬送等の作業を行う。ロボット1は、基台110と、基台110に接続されたロボットアーム10(可動部)とを有する。なお、保持対象物としては、ロボット1が行う作業で用いられるものであればよく、特に限定されない。
Each part of the robot system 100 will be described in order below.
<Robot> The robot 1 is a so-called 6-axis vertical articulated robot, and is used, for example, in manufacturing processes for manufacturing precision equipment and the like, and is used to hold objects (not shown) such as precision equipment and parts. Carry out work such as transportation. The robot 1 has a base 110 and a robot arm 10 (movable part) connected to the base 110 . Note that the object to be held is not particularly limited as long as it is used in the work performed by the robot 1 .

基台110は、ロボット1を例えば床等の任意の設置箇所70に取り付ける部分である。ロボットアーム10は、アーム11(第1アーム)、アーム12(第2アーム)、アーム13(第3アーム)、アーム14(第4アーム)、アーム15(第5アーム)およびアーム16(第6アーム)を有する。また、アーム15およびアーム16によりリストが構成されている。また、アーム16は、円盤状をなしており、そのアーム16の先端には、エンドエフェクター17(保持部)を着脱可能に設ける(取り付ける)ことが可能になっている。これらアーム11~16は、基台110側からエンドエフェクター17側に向かってこの順に連結されている。また、各アーム11~16は、隣り合うアームまたは基台110に対して回動可能になっている。すなわち、基台110とアーム11とは、関節171(ジョイント)を介して連結されている。また、アーム11とアーム12とは、関節172(ジョイント)を介して連結されている。また、アーム12とアーム13とは、関節173(ジョイント)を介して連結されている。また、アーム13とアーム14とは、関節174(ジョイント)を介して連結されている。また、アーム14とアーム15とは、関節175(ジョイント)を介して連結されている。また、アーム15とアーム16とは、関節176(ジョイント)を介して連結されている。 The base 110 is a part for attaching the robot 1 to an arbitrary installation location 70 such as a floor. The robot arm 10 includes an arm 11 (first arm), an arm 12 (second arm), an arm 13 (third arm), an arm 14 (fourth arm), an arm 15 (fifth arm) and an arm 16 (sixth arm). arm). Also, the arm 15 and the arm 16 constitute a wrist. Further, the arm 16 has a disc shape, and an end effector 17 (holding portion) can be detachably provided (attached) to the tip of the arm 16 . These arms 11 to 16 are connected in this order from the base 110 side toward the end effector 17 side. Also, each arm 11 to 16 is rotatable with respect to the adjacent arm or base 110 . That is, the base 110 and the arm 11 are connected via a joint 171 (joint). Also, the arm 11 and the arm 12 are connected via a joint 172 (joint). Also, the arm 12 and the arm 13 are connected via a joint 173 (joint). Also, the arm 13 and the arm 14 are connected via a joint 174 (joint). Also, the arm 14 and the arm 15 are connected via a joint 175 (joint). Also, the arm 15 and the arm 16 are connected via a joint 176 (joint).

エンドエフェクター17としては、保持対象物を保持、解放(保持の解除)することが可能なもの(装置)であれば特に限定されないが、本実施形態では、エンドエフェクター17として、保持対象物を吸着(保持)、解放することが可能な吸着ヘッド(吸着装置)が用いられている。また、エンドエフェクター17の他の構成例としては、例えば、保持対象物を把持(保持)、解放することが可能なハンド等が挙げられる。また、保持対象物を保持するとは、保持対象物を移動または保持対象物の姿勢を変更させることが可能なように、保持対象物を持つことであり、例えば、把持(掴む)、吸着、載置等が含まれる。
また、エンドエフェクター17の先端中心をツールセンターポイントPという。
The end effector 17 is not particularly limited as long as it can hold and release (cancel holding) the object to be held. A suction head (suction device) capable of (holding) and releasing is used. Another configuration example of the end effector 17 is, for example, a hand capable of gripping (holding) and releasing an object to be held. Further, to hold a holding object means to hold the holding object so as to be able to move the holding object or change the posture of the holding object. Placement, etc. are included.
Also, the tip center of the end effector 17 is called a tool center point P.

また、図2に示すように、ロボット1は、一方のアームを他方のアーム(または基台110)に対して回動させるモーターおよび減速機等を備える駆動部130を有する。モーターとしては、例えば、ACサーボモーター、DCサーボモーター等のサーボモーターを用いることができる。減速機としては、例えば、遊星ギア型の減速機、波動歯車装置等を用いることができる。また、ロボット1は、モーターまたは減速機の回転軸の回転角度を検出する角度センサー140を有する。角度センサー140としては、例えば、ロータリーエンコーダー等を用いることができる。また、駆動部130および角度センサー140は、各アーム11~16に対応して設けられており、本実施形態では、ロボット1は、6つの駆動部130および6つの角度センサー140を有する。 Further, as shown in FIG. 2, the robot 1 has a driving section 130 including a motor, a speed reducer, etc. for rotating one arm with respect to the other arm (or the base 110). As the motor, for example, a servomotor such as an AC servomotor or a DC servomotor can be used. As the speed reducer, for example, a planetary gear type speed reducer, a wave gear device, or the like can be used. The robot 1 also has an angle sensor 140 that detects the rotation angle of the rotation shaft of the motor or speed reducer. As the angle sensor 140, for example, a rotary encoder or the like can be used. Driving units 130 and angle sensors 140 are provided corresponding to the respective arms 11 to 16, and the robot 1 has six driving units 130 and six angle sensors 140 in this embodiment.

また、各駆動部130は、図示はしないが、例えば図1に示す基台110に内蔵されたモータードライバーと電気的に接続(以下、単に「接続」とも言う)されている。各駆動部130は、対応するモータードライバーを介してロボット制御装置2により制御される。また、各角度センサー140は、ロボット制御装置2に電気的に接続されている。また、エンドエフェクター17を駆動する駆動部(図示せず)は、ロボット制御装置2により制御される。 Further, although not shown, each drive unit 130 is electrically connected (hereinafter also simply referred to as "connection") to a motor driver built in the base 110 shown in FIG. 1, for example. Each drive unit 130 is controlled by the robot controller 2 via a corresponding motor driver. Also, each angle sensor 140 is electrically connected to the robot controller 2 . A drive unit (not shown) that drives the end effector 17 is controlled by the robot controller 2 .

以上、ロボット1の構成について簡単に説明した。このようなロボット1は、後述するロボット制御装置2によって制御される。これにより、ロボット1は、適切な動作を行うことができる。 The configuration of the robot 1 has been briefly described above. Such a robot 1 is controlled by a robot control device 2, which will be described later. Thereby, the robot 1 can perform appropriate actions.

なお、ロボット1は、図示はしないが、例えばエンドエフェクター17に加わる力(モーメントを含む)を検出する6軸力覚センサー等で構成された力検出装置(力検出部)を備えていてもよい。力検出装置は、例えば、アーム16とエンドエフェクター17との間に配置され、ロボット制御装置2に電気的に接続される。力検出装置を設けることにより、例えば、インピーダンス制御等の力制御を行うことが可能になる。 Although not shown, the robot 1 may include a force detection device (force detection unit) configured by a 6-axis force sensor or the like for detecting the force (including moment) applied to the end effector 17. . The force detection device is arranged, for example, between the arm 16 and the end effector 17 and electrically connected to the robot controller 2 . By providing the force detection device, for example, force control such as impedance control can be performed.

〈ロボット制御装置〉 ロボット制御装置2は、ロボット1の動作を制御する。このロボット制御装置2は、ロボット1が有する各部の機能をつかさどるロボットコントローラーで構成されており、ロボット1およびシミュレーション装置5に対して通信可能に接続されている。 <Robot Control Device> The robot control device 2 controls the motion of the robot 1 . The robot control device 2 is composed of a robot controller that controls the functions of each part of the robot 1, and is connected to the robot 1 and the simulation device 5 so as to be able to communicate with each other.

ロボット制御装置2とロボット1とは、例えばケーブル等を用いて有線方式で通信可能に接続されていてもよく、また、無線方式で通信可能に接続されていてもよい。また、ロボット制御装置2は、ロボット1と別体であってもよく、また、ロボット1(例えば、基台110等)にその一部または全部が内蔵されていてもよい。 The robot control device 2 and the robot 1 may be communicably connected in a wired manner using a cable or the like, or may be communicably connected in a wireless manner. Further, the robot control device 2 may be separate from the robot 1, or part or all of it may be built in the robot 1 (for example, the base 110 or the like).

また、ロボット制御装置2とシミュレーション装置5とは、例えばケーブル等を用いて有線方式で通信可能に接続されていてもよく、また、無線方式で通信可能に接続されていてもよい。 Further, the robot control device 2 and the simulation device 5 may be communicably connected in a wired manner using a cable or the like, or may be communicably connected in a wireless manner.

図2に示すように、ロボット制御装置2は、プロセッサーを備える制御部21と、制御部21に通信可能に接続されたメモリー等を備える記憶部22と、外部インターフェース(I/F)を備える外部入出力部23(受付部)と、を含む。外部入出力部23は、ロボット制御装置2の受付部の一例である。ロボット制御装置2の各構成要素は、種々のバスを介して相互通信可能に接続されている。 As shown in FIG. 2, the robot control device 2 includes a control unit 21 having a processor, a storage unit 22 having a memory or the like connected to the control unit 21 in a communicable manner, and an external interface (I/F). and an input/output unit 23 (accepting unit). The external input/output unit 23 is an example of a receiving unit of the robot control device 2 . Each component of the robot controller 2 is interconnected via various buses so as to be able to communicate with each other.

制御部21は、記憶部22に記憶された各種プログラム等を実行する。これにより、ロボット1の動作の制御や各種演算および判断等の処理を実現できる。 The control unit 21 executes various programs and the like stored in the storage unit 22 . As a result, it is possible to control the motion of the robot 1 and to perform processing such as various calculations and judgments.

記憶部22には、制御部21により実行可能な各種プログラムが保存(記憶)されている。また、記憶部22には、外部入出力部23で受け付けた各種データの保存が可能である。記憶部22は、例えばRAM(Random Access Memory)等の揮発性メモリーや、ROM(Read Only Memory)等の不揮発性メモリー等を含んで構成されている。なお、記憶部22は、非着脱式に限らず、着脱式の外部記憶装置(図示せず)を有する構成であってもよい。 Various programs executable by the control unit 21 are saved (stored) in the storage unit 22 . Various data received by the external input/output unit 23 can be stored in the storage unit 22 . The storage unit 22 includes, for example, a volatile memory such as a RAM (Random Access Memory) and a non-volatile memory such as a ROM (Read Only Memory). Note that the storage unit 22 is not limited to a non-detachable type, and may be configured to have a detachable external storage device (not shown).

各種プログラムとしては、シミュレーション装置5から出力された動作プログラムや、動作プログラムの修正や変更をするプログラム等が挙げられる。各種データとしては、例えば、ツールセンターポイントPの位置姿勢、各アーム11~16の回動角度等に関するデータ等が挙げられる。 Examples of various programs include an operation program output from the simulation device 5, a program for correcting or changing the operation program, and the like. The various data include, for example, data relating to the position and orientation of the tool center point P, rotation angles of the arms 11 to 16, and the like.

外部入出力部23は、外部インターフェース(I/F)を備え、ロボット1およびシミュレーション装置5の各接続のために用いられる。 The external input/output unit 23 has an external interface (I/F) and is used for each connection between the robot 1 and the simulation device 5 .

このようなロボット制御装置2は、後述するシミュレーション装置5によるシミュレーション結果(動作プログラム)に基づいて(を用いて)ロボット1を制御する。これにより、シミュレーション装置5で作成した動作プログラムを用いて、ロボット1に適切な動作を行わせることができる。また、シミュレーション装置5で作成した動作プログラムを用いてロボット1を動作させることができるので、実機でのティーチング作業を省略することができる。そのため、作業者(ユーザー)が実際にロボット1を動作させてティーチングすることに比べ、ティーチング時間を大幅に短縮することができる。 Such a robot control device 2 controls the robot 1 based on (using) a simulation result (operation program) by a simulation device 5, which will be described later. As a result, the robot 1 can be made to perform an appropriate motion using the motion program created by the simulation device 5 . In addition, since the robot 1 can be operated using the operation program created by the simulation device 5, teaching work on the actual machine can be omitted. Therefore, the teaching time can be greatly shortened compared to teaching by an operator (user) actually operating the robot 1 .

なお、ロボット制御装置2は、前述した構成に加えて、さらに他の構成が付加されていてもよい。また、ロボット制御装置2には、ディスプレイ等を有する表示装置や、例えばマウスやキーボード等の入力装置が接続されていてもよい。また、記憶部22に保存されている各種プログラムやデータ等は、予め記憶部22に記憶されたものであってもよいし、例えばCD-ROM等の記録媒体(図示せず)に格納されており、この記録媒体から提供されたものでもよいし、ネットワーク等を介して提供されたものであってもよい。 It should be noted that the robot control device 2 may have other configurations added in addition to the configuration described above. Further, the robot control device 2 may be connected to a display device having a display or the like, or an input device such as a mouse or a keyboard. Various programs and data stored in the storage unit 22 may be stored in advance in the storage unit 22, or may be stored in a recording medium (not shown) such as a CD-ROM. It may be provided from this recording medium or may be provided via a network or the like.

〈シミュレーション装置〉 シミュレーション装置5は、仮想空間上で、実機であるロボット1を仮想化した仮想ロボット1Aを動作させ、実機であるロボット1の動作のシミュレーションを行う(図3等参照)。 <Simulation Apparatus> The simulation apparatus 5 operates a virtual robot 1A, which is a virtualization of the real robot 1, in a virtual space to simulate the motion of the real robot 1 (see FIG. 3, etc.).

仮想ロボット1Aは、前述した実機であるロボット1に対応している(図1および図3参照)。具体的には、仮想ロボット1Aは、仮想基台110Aと、仮想基台110Aに接続された仮想ロボットアーム10A(仮想可動部)とを有する。また、仮想ロボットアーム10Aは、仮想アーム11A(仮想第1アーム)、仮想アーム12A(仮想第2アーム)、仮想アーム13A(仮想第3アーム)、仮想アーム14A(仮想第4アーム)、仮想アーム15A(仮想第5アーム)および仮想アーム16A(仮想第6アーム)を有する。
また、各仮想アーム11A~16Aは、隣り合う仮想アームまたは仮想基台110Aに対して回動可能になっている。すなわち、仮想基台110Aと仮想アーム11Aとは、仮想関節171A(仮想ジョイント)を介して連結されている。また、仮想アーム11Aと仮想アーム12Aとは、仮想関節172A(仮想ジョイント)を介して連結されている。また、仮想アーム12Aと仮想アーム13Aとは、仮想関節173A(仮想ジョイント)を介して連結されている。また、仮想アーム13Aと仮想アーム14Aとは、仮想関節174A(仮想ジョイント)を介して連結されている。また、仮想アーム14Aと仮想アーム15Aとは、仮想関節175A(仮想ジョイント)を介して連結されている。また、仮想アーム15Aと仮想アーム16Aとは、仮想関節176A(仮想ジョイント)を介して連結されている。また、仮想アーム16Aの先端には、仮想エンドエフェクター17A(仮想保持部)を着脱可能に設けることが可能になっている。
The virtual robot 1A corresponds to the actual robot 1 described above (see FIGS. 1 and 3). Specifically, the virtual robot 1A has a virtual base 110A and a virtual robot arm 10A (virtual movable part) connected to the virtual base 110A. The virtual robot arm 10A includes a virtual arm 11A (virtual first arm), a virtual arm 12A (virtual second arm), a virtual arm 13A (virtual third arm), a virtual arm 14A (virtual fourth arm), and a virtual arm. 15A (virtual fifth arm) and virtual arm 16A (virtual sixth arm).
Further, each virtual arm 11A to 16A is rotatable with respect to the adjacent virtual arm or virtual base 110A. That is, the virtual base 110A and the virtual arm 11A are connected via a virtual joint 171A (virtual joint). Also, the virtual arm 11A and the virtual arm 12A are connected via a virtual joint 172A (virtual joint). Also, the virtual arm 12A and the virtual arm 13A are connected via a virtual joint 173A (virtual joint). Also, the virtual arm 13A and the virtual arm 14A are connected via a virtual joint 174A (virtual joint). Also, the virtual arm 14A and the virtual arm 15A are connected via a virtual joint 175A (virtual joint). Also, the virtual arm 15A and the virtual arm 16A are connected via a virtual joint 176A (virtual joint). A virtual end effector 17A (virtual holder) can be detachably attached to the tip of the virtual arm 16A.

このように、各部の符号については、シミュレーション装置5(シミュレーション)では、符号の最後に「A」を付けて表記し、実機では、符号に「A」を付けないで表記する。また、各部の名称については、シミュレーション装置5では、名称の最初に「仮想」を付けて表記し、実機では、名称に「仮想」を付けない。例えば、仮想ロボット1A(ロボット1)以外においては、実機での保持対象物は、シミュレーション装置5では、仮想保持対象物80Aとする。したがって、シミュレーション装置5と実機とのいずれか一方で説明したことは、他方ではそれに対応する説明は省略する。なお、ツールセンターポイントP、取付部分、各座標系等、一部については、シミュレーション装置5で、「A」、「仮想」の記載を省略している。 In this way, the reference numerals of the respective parts are indicated by adding "A" to the end of the reference numerals in the simulation device 5 (simulation), and are indicated without adding "A" to the reference numerals in the actual device. Further, the name of each part is indicated by adding "virtual" to the beginning of the name in the simulation device 5, and not adding "virtual" to the name in the real machine. For example, except for the virtual robot 1A (robot 1), the holding object in the real machine is assumed to be the virtual holding object 80A in the simulation device 5. FIG. Therefore, what has been described for either the simulation device 5 or the actual machine will not be described for the other. It should be noted that the description of "A" and "virtual" in the simulation device 5 is omitted for some of the tool center point P, the mounting portion, each coordinate system, and the like.

図2に示すシミュレーション装置5は、例えばPC(Personal Computer)等の種々のコンピューターで構成されており、ロボット制御装置2に対して通信可能に接続されている。 The simulation device 5 shown in FIG. 2 is composed of various computers such as a PC (Personal Computer), and is connected to the robot control device 2 in a communicable manner.

シミュレーション装置5は、プロセッサーを備える制御部51と、制御部51に通信可能に接続されたメモリー等を備える記憶部52と、外部I/F(インターフェース)を備える外部入出力部53(受付部)と、を含む。外部入出力部53は、シミュレーション装置5の受付部の一例である。シミュレーション装置5の各構成要素は、種々のバスを介して相互通信可能に接続されている。 The simulation device 5 includes a control unit 51 including a processor, a storage unit 52 including a memory connected to the control unit 51 so as to be communicable, and an external input/output unit 53 (accepting unit) including an external I/F (interface). and including. The external input/output unit 53 is an example of a receiving unit of the simulation device 5 . Each component of the simulation device 5 is interconnected via various buses so as to be able to communicate with each other.

制御部51は、記憶部52に記憶された各種プログラム等を実行する。これにより、仮想ロボット1Aの動作の制御や各種演算および判断等の処理を実現できる。 The control unit 51 executes various programs and the like stored in the storage unit 52 . As a result, it is possible to realize control of the motion of the virtual robot 1A and processing such as various calculations and judgments.

記憶部52には、制御部51により実行可能な各種プログラムが保存されている。また、記憶部52には、外部入出力部53で受け付けた各種データの保存が可能である。記憶部52は、例えばRAM(Random Access Memory)等の揮発性メモリーや、ROM(Read Only Memory)等の不揮発性メモリー等を含んで構成されている。なお、記憶部52は、非着脱式に限らず、着脱式の外部記憶装置(図示せず)を有する構成であってもよい。 Various programs executable by the control unit 51 are stored in the storage unit 52 . Various data received by the external input/output unit 53 can be stored in the storage unit 52 . The storage unit 52 includes, for example, a volatile memory such as a RAM (Random Access Memory) and a non-volatile memory such as a ROM (Read Only Memory). Note that the storage unit 52 is not limited to a non-detachable type, and may be configured to have a detachable external storage device (not shown).

各種プログラムとしては、仮想ロボット1Aによるオフラインティーチング(ロボット1のティーチング作業を、実機であるロボット1を使用しないで行うティーチング)の設定および実行に関するプログラム等が挙げられる。当該プログラムには、仮想ロボット1Aを動作させる動作命令や、表示装置31に表示させる信号を出力する出力命令等が含まれる。各種データとしては、例えば、ツールセンターポイントPの位置姿勢、各仮想アーム11A~16Aの回動角度等に関するデータ等が挙げられる。 Examples of the various programs include programs related to setting and execution of off-line teaching by the virtual robot 1A (teaching performed by the robot 1 without using the actual robot 1). The program includes an operation command for operating the virtual robot 1A, an output command for outputting a signal to be displayed on the display device 31, and the like. The various data include, for example, data relating to the position and orientation of the tool center point P, rotation angles of the virtual arms 11A to 16A, and the like.

外部入出力部53は、外部I/F(インターフェース)を備え、ロボット制御装置2、表示装置31および入力装置32との各接続のために用いられる。したがって、外部入出力部53は、作業者による入力装置32の操作(指令)を受け付ける受付部としての機能を有する。また、外部入出力部53は、表示装置31のモニターに各種画面(例えば、図3の画面WD1等)に関する信号を出力する出力部としての機能を有する。 The external input/output unit 53 has an external I/F (interface) and is used for each connection with the robot control device 2 , the display device 31 and the input device 32 . Therefore, the external input/output unit 53 functions as a receiving unit that receives an operation (command) of the input device 32 by the operator. The external input/output unit 53 also functions as an output unit that outputs signals related to various screens (for example, the screen WD1 in FIG. 3, etc.) to the monitor of the display device 31 .

なお、シミュレーション装置5は、前述した構成に加えて、さらに他の構成が付加されていてもよい。また、記憶部52に保存されている各種プログラムやデータ等は、予め記憶部52に記憶されたものであってもよいし、例えばCD-ROM等の記録媒体(図示せず)に格納されており、この記録媒体から提供されたものでもよいし、ネットワーク等を介して提供されたものであってもよい。 In addition to the configuration described above, the simulation device 5 may have other configurations added. Various programs and data stored in the storage unit 52 may be stored in advance in the storage unit 52, or may be stored in a recording medium (not shown) such as a CD-ROM. It may be provided from this recording medium or may be provided via a network or the like.

〈表示装置および入力装置〉 図2に示す表示装置31(表示部)は、ディスプレイを備えており、例えば図3に示す画面WD1等の各種画面を表示する機能を有する。したがって、作業者は、表示装置31を介して仮想ロボット1Aの動作等を確認することができる。また、表示装置31としては、特に限定されず、例えば、液晶表示装置、有機EL表示装置等の直視型の表示装置、プロジェクター等の投射型表示装置等が挙げられる。 <Display Device and Input Device> The display device 31 (display unit) shown in FIG. 2 includes a display, and has a function of displaying various screens such as the screen WD1 shown in FIG. 3, for example. Therefore, the operator can confirm the operation of the virtual robot 1A through the display device 31. FIG. The display device 31 is not particularly limited, and examples thereof include a direct-view display device such as a liquid crystal display device and an organic EL display device, and a projection display device such as a projector.

入力装置32(入力部)は、例えばマウスやキーボード等を含んで構成されている。したがって、作業者は、入力装置32を操作することで、シミュレーション装置5に対して各種の処理等の指示(入力)を行うことができる。 The input device 32 (input unit) includes, for example, a mouse and a keyboard. Therefore, by operating the input device 32 , the operator can give instructions (inputs) to the simulation device 5 regarding various processes and the like.

具体的には、作業者は、表示装置31に表示される各種画面(ウィンドウ等)に対して入力装置32のマウスでクリックする操作や、入力装置32のキーボードで文字や数字等を入力する操作により、シミュレーション装置5に対する指示を行うことができる。以下、この作業者による入力装置32を用いた指示(入力装置32による入力)を「操作指示」とも言う。この操作指示は、入力装置32により、表示装置31に表示された内容から所望の内容を選択する選択操作や、入力装置32により、文字や数字等を入力する入力指示等を含む。また、入力には、選択も含まれる。 Specifically, the operator performs an operation of clicking on various screens (windows, etc.) displayed on the display device 31 with the mouse of the input device 32, or an operation of inputting characters, numbers, etc. with the keyboard of the input device 32. , it is possible to issue an instruction to the simulation device 5 . Hereinafter, this instruction by the operator using the input device 32 (input by the input device 32) is also referred to as "operation instruction". This operation instruction includes a selection operation for selecting desired contents from the contents displayed on the display device 31 by the input device 32, an input instruction for inputting characters, numbers, etc. by the input device 32, and the like. Input also includes selection.

なお、シミュレーション装置5には、表示装置31および入力装置32がそれぞれ1つ接続されていてもよいし、それぞれ複数接続されていてもよい。また、表示装置31および入力装置32の代わりに、表示装置31および入力装置32の機能を兼ね備えた表示入力装置(図示せず)を用いてもよい。表示入力装置としては、例えばタッチパネル等を用いることができる。 One display device 31 and one input device 32 may be connected to the simulation device 5, or a plurality of each may be connected. Also, instead of the display device 31 and the input device 32, a display input device (not shown) having the functions of the display device 31 and the input device 32 may be used. For example, a touch panel or the like can be used as the display input device.

以上、ロボットシステム100の基本的な構成について簡単に説明した。かかるロボットシステム100は、シミュレーション装置5と、シミュレーション装置5によるシミュレーション結果(動作プログラム)に基づいてロボット1の動作の制御を行うロボット制御装置2と、ロボット制御装置2により制御されるロボット1と、を有する。このようなロボットシステム100(シミュレーション装置5)によれば、実機であるロボット1を用いることなく、表示装置31が有するディスプレイ上(シミュレーション上の空間)で、仮想ロボット1Aに対して所定の作業を教示(ティーチング)し、その教示された作業を検証することができる。そのため、実機であるロボット1を用いずとも、例えば、ロボット1による作業におけるサイクルタイム等を検討することができる。 The basic configuration of the robot system 100 has been briefly described above. The robot system 100 includes a simulation device 5, a robot control device 2 that controls the motion of the robot 1 based on a simulation result (operation program) by the simulation device 5, the robot 1 controlled by the robot control device 2, have According to such a robot system 100 (simulation device 5), the virtual robot 1A can perform a predetermined work on the display (simulated space) of the display device 31 without using the robot 1 as a real machine. Able to teach and verify the work taught. Therefore, even without using the robot 1 which is an actual machine, for example, the cycle time and the like in the work by the robot 1 can be examined.

≪シミュレーション≫ 次に、シミュレーション装置5が行うシミュレーションについて説明する。 <<Simulation>> Next, a simulation performed by the simulation device 5 will be described.

シミュレーション装置5の制御部51は、表示装置31の駆動を制御し、表示装置31が有するディスプレイに画面WD1を表示し(図3参照)、その画面WD1に、仮想ロボット1A、仮想対象物71A、72A等を表示する(図12~図16参照)。すなわち、制御部51は、表示装置31に仮想ロボット1Aによるシミュレーションを表示させる。 The control unit 51 of the simulation device 5 controls driving of the display device 31, displays a screen WD1 on the display of the display device 31 (see FIG. 3), and displays the virtual robot 1A, the virtual object 71A, 72A etc. are displayed (see FIGS. 12 to 16). That is, the control unit 51 causes the display device 31 to display the simulation by the virtual robot 1A.

この場合、作業者は、入力装置32で所定の操作(操作指示)を行うことにより、画面WD1に仮想対象物71A、72Aを表示することができる。また、入力装置32で所定の操作(操作指示)を行うことにより、仮想対象物71A、72Aは、それぞれ、仮想ロボット1Aの取付部分に配置される(取り付けられる)。また、仮想ロボット1Aの取付部分と仮想対象物71Aとは、接触していてもよく、また、離間していてもよい。また、仮想ロボット1Aの取付部分と仮想対象物72Aとは、接触していてもよく、また、離間していてもよい。 In this case, the operator can display the virtual objects 71A and 72A on the screen WD1 by performing a predetermined operation (operation instruction) with the input device 32 . Further, by performing a predetermined operation (operation instruction) with the input device 32, the virtual objects 71A and 72A are respectively arranged (attached) to the attachment portions of the virtual robot 1A. Also, the mounting portion of the virtual robot 1A and the virtual object 71A may be in contact with each other or may be separated from each other. Also, the mounting portion of the virtual robot 1A and the virtual object 72A may be in contact with each other or may be separated from each other.

また、仮想対象物71A、72Aとしては、それぞれ、仮想ロボット1Aに取り付けることが可能なものであれば特に限定されず、例えば、仮想エンドエフェクター(例えば、仮想ハンド、仮想吸着ヘッド等)、仮想ワーク、仮想カメラ、仮想エクステンションチューブ、仮想レンズ、仮想力覚センサー、仮想バルブ(例えば、仮想エアーバルブ等)、仮想チューブ(例えば、仮想エアーチューブ等)、仮想配線(仮想ケーブル)、仮想配管等が挙げられる。このような仮想対象物71A、72Aは、それぞれ、例えば、CADファイルを読み込んでなるCADオブジェクト、シミュレーション装置5で生成したオブジェクト(例えば、直方体、球、角柱、円柱、角錐、円錐、面等)等で構成することができる。以下の説明では、代表的に、仮想対象物71Aが仮想ワーク、仮想対象物72Aが仮想カメラ(取り付け用の治具を含む)の場合を例に挙げて説明する。なお、仮想対象物71A、72Aに対応する実機における対象物の具体的な例示は省略するが、前記に挙げたものから「仮想」を除去すればよい。 The virtual objects 71A and 72A are not particularly limited as long as they can be attached to the virtual robot 1A. , virtual camera, virtual extension tube, virtual lens, virtual force sensor, virtual valve (e.g., virtual air valve, etc.), virtual tube (e.g., virtual air tube, etc.), virtual wiring (virtual cable), virtual piping, etc. be done. Such virtual objects 71A and 72A are, for example, CAD objects obtained by reading CAD files, objects generated by the simulation device 5 (for example, cuboids, spheres, prisms, cylinders, pyramids, cones, surfaces, etc.). can be configured with In the following description, as a representative example, the virtual object 71A is a virtual work, and the virtual object 72A is a virtual camera (including a mounting jig). Although specific examples of objects in the real machine corresponding to the virtual objects 71A and 72A are omitted, "virtual" may be removed from the above.

また、仮想ロボット1Aの取付部分としては、仮想ロボット1Aにおいて、仮想対象物71Aを取り付けることが可能な部分(シミュレーションであるので、仮想ロボット1Aと仮想対象物71Aとが接触していてもよく、また、離間していてもよい)であれば特に限定されず、例えば、仮想アーム11A~仮想アーム16A、仮想関節171A~仮想関節176A、仮想エンドエフェクター17A等が挙げられる。以下の説明では、代表的に、仮想対象物71Aの取付部分が仮想エンドエフェクター17Aの先端、仮想対象物72Aの取付部分がアーム14Aとアーム15Aとを連結する仮想関節175Aの場合を例に挙げて説明する。 Also, as the attachment portion of the virtual robot 1A, the portion of the virtual robot 1A to which the virtual object 71A can be attached (Since this is a simulation, the virtual robot 1A and the virtual object 71A may be in contact with each other. Also, it is not particularly limited as long as it is spaced apart), and examples thereof include virtual arms 11A to 16A, virtual joints 171A to 176A, and virtual end effector 17A. In the following description, as a representative example, the attachment portion of the virtual object 71A is the tip of the virtual end effector 17A, and the attachment portion of the virtual object 72A is the virtual joint 175A connecting the arm 14A and the arm 15A. to explain.

なお、仮想対象物の数は、本実施形態では、2つであるが、これに限定されず、例えば、1つでもよく、また、3つ以上でもよい。 Note that the number of virtual objects is two in this embodiment, but is not limited to this, and may be, for example, one, or three or more.

まず、概要を説明すると、制御部51は、仮想ロボット1Aと、仮想対象物71Aとを表示装置31に表示させる(図12参照)。 First, to explain the outline, the control unit 51 causes the display device 31 to display the virtual robot 1A and the virtual object 71A (see FIG. 12).

次に、入力装置32により、仮想ロボット1Aと仮想対象物71Aとを連動させて動作させるか否かに関する情報の入力(操作指示)と、仮想ロボット1Aに仮想対象物71Aを取り付ける取付部分に関する情報の入力(操作指示)とを行う。 Next, the input device 32 is used to input information (operation instruction) regarding whether or not to interlock the virtual robot 1A and the virtual object 71A, and information regarding the attachment portion for attaching the virtual object 71A to the virtual robot 1A. input (operation instruction).

外部入出力部53が仮想ロボット1Aと仮想対象物71Aとを連動させて動作させるか否かに関する情報の入力と、仮想ロボット1Aに仮想対象物71Aを取り付ける取付部分に関する情報の入力とを受け付ける。 The external input/output unit 53 accepts input of information regarding whether or not to interlock the virtual robot 1A and the virtual object 71A, and input of information regarding the attachment portion for attaching the virtual object 71A to the virtual robot 1A.

そして、制御部51は、外部入出力部53が受け付けた取付部分に仮想対象物71Aを配置する。すなわち、制御部51は、仮想ロボット1Aと、外部入出力部53が受け付けた取付部分に配置された仮想対象物71A、72Aとを表示装置31に表示させる(図13参照)。 Then, the control unit 51 arranges the virtual object 71A at the attachment portion received by the external input/output unit 53 . That is, the control unit 51 causes the display device 31 to display the virtual robot 1A and the virtual objects 71A and 72A arranged at the attachment portion received by the external input/output unit 53 (see FIG. 13).

また、制御部51は、仮想ロボット1Aと仮想対象物71Aとを連動させて動作させる入力(操作指示)を外部入出力部53が受け付けた場合、仮想ロボット1Aの動作に連動して、仮想対象物71Aを動作させる。すなわち、仮想対象物71Aの取付部分と仮想対象物71Aとを連動(一体的に動作)させる。これにより、仮想対象物71Aの取付部分が移動すると、その取付部分とともに仮想対象物71Aが移動し、取付部分の姿勢が変更されると、その取付部分とともに仮想対象物71Aの姿勢が変更される。 In addition, when the external input/output unit 53 receives an input (operation instruction) for interlocking the virtual robot 1A and the virtual object 71A to operate, the control unit 51 interlocks with the operation of the virtual robot 1A to operate the virtual object 71A. Operate object 71A. That is, the mounting portion of the virtual object 71A and the virtual object 71A are interlocked (moved integrally). Accordingly, when the mounting portion of the virtual object 71A moves, the virtual object 71A moves along with the mounting portion, and when the orientation of the mounting portion changes, the orientation of the virtual object 71A changes along with the mounting portion. .

ここで、「仮想ロボット1A(取付部分)と仮想対象物71Aとを連動させる」とは、仮想ロボット1Aが動作した場合、取付部分に対する仮想対象物71の位置(相対位置)および姿勢(相対姿勢)を保持したまま、仮想対象物71Aを仮想ロボット1Aとともに動作させることを言う。 Here, "linking the virtual robot 1A (mounting portion) and the virtual object 71A" means that when the virtual robot 1A operates, the position (relative position) and orientation (relative orientation) of the virtual object 71 with respect to the mounting portion ), the virtual object 71A is moved together with the virtual robot 1A.

仮想対象物72Aについては、仮想対象物71Aと同様であるので、その説明は省略する。 Since the virtual object 72A is the same as the virtual object 71A, the explanation thereof is omitted.

次に、作業者の操作手順および表示装置31の表示等を説明する。
まず、仮想ロボット1Aに仮想対象物71Aを取り付ける場合について説明する。
Next, the operating procedure of the operator, the display of the display device 31, and the like will be described.
First, the case of attaching the virtual object 71A to the virtual robot 1A will be described.

図3に示すように、制御部51は、表示装置31に、画面WD1を表示させる。
また、図12に示すように、制御部51は、表示装置31の画面WD1に仮想対象物71Aを表示させる。この仮想対象物71Aは、仮想ワークであり、その形状は、立方体である。
As shown in FIG. 3, the control unit 51 causes the display device 31 to display a screen WD1.
Further, as shown in FIG. 12, the control unit 51 causes the screen WD1 of the display device 31 to display a virtual object 71A. This virtual object 71A is a virtual work, and its shape is a cube.

作業者は、画面WD1の図3中の左側のオブジェクトツリー(図4参照)で、対象とするオブジェクトである[SBox1]を選択する操作指示を行う。外部入出力部53が前記操作指示を受け付けると、図4に示すように、制御部51は、表示装置31に、コンテキストメニュー41を表示させる。 The operator gives an operation instruction to select the target object [SBox1] from the object tree (see FIG. 4) on the left side of FIG. 3 on the screen WD1. When the external input/output unit 53 receives the operation instruction, the control unit 51 causes the display device 31 to display the context menu 41 as shown in FIG.

次に、作業者は、コンテキストメニュー41で、[Part/Mounted Device Setting]411を選択する操作指示を行う。外部入出力部53が前記操作指示を受け付けると、図5に示すように、制御部51は、ダイアログ42を表示する。 Next, the operator gives an operation instruction to select [Part/Mounted Device Setting] 411 in the context menu 41 . When the external input/output unit 53 receives the operation instruction, the control unit 51 displays a dialog 42 as shown in FIG.

また、作業者は、前記ダイアログ42を表示させる操作に代えて、例えば、オブジェクトツリーの図3中の下側のプロパティーグリッド(図6参照)において、[Type]プロパティーのドロップダウンリスト431で、[Part]または[Mounted Device]を選択する操作指示を行ってもよい。外部入出力部53が前記操作指示を受け付けると、制御部51は、ダイアログ42を表示する。また、ドロップダウンリスト431で[Part]を選択した場合は、ダイアログ42では、タイプ(Type)として、[Part]が選択された状態になる。また、ドロップダウンリスト431で[Mounted Device]を選択した場合は、ダイアログ42では、タイプ(Type)として、[Mounted Device]が選択された状態になる。 Alternatively, instead of displaying the dialog 42, for example, in the property grid (see FIG. 6) on the lower side of the object tree in FIG. An operation instruction to select [Part] or [Mounted Device] may be given. When external input/output unit 53 receives the operation instruction, control unit 51 displays dialog 42 . When [Part] is selected from the drop-down list 431, [Part] is selected as the type (Type) in the dialog 42. FIG. When [Mounted Device] is selected from the drop-down list 431, [Mounted Device] is selected as the type (Type) in the dialog 42. FIG.

次に、図7に示すように、作業者は、ダイアログ42のドロップダウンリスト421で、タイプ(Type)として、[Layout]、[Part]、[Mounted Device]のうちのいずれか1つを選択する操作指示を行う。 Next, as shown in FIG. 7, the worker selects one of [Layout], [Part], and [Mounted Device] as the type (Type) from the drop-down list 421 of the dialog 42. to perform the operation instruction.

[Part]は、仮想対象物が仮想パーツ(仮想ワーク)等の場合に選択される。また、[Mounted Device]は、仮想対象物が仮想アーム取付機器(例えば、仮想カメラ)等の場合に選択される。また、[Layout]は、Typeの初期値として登録されており、[Layout]が登録されている場合は、仮想対象物71Aは、仮想ロボット1Aが動作しても動作せず、その位置および姿勢を変更しない(静止し続ける)。 [Part] is selected when the virtual object is a virtual part (virtual work) or the like. [Mounted Device] is selected when the virtual object is a virtual arm-mounted device (for example, a virtual camera). [Layout] is registered as the initial value of Type. When [Layout] is registered, the virtual object 71A does not move even if the virtual robot 1A moves, and its position and orientation does not change (keep stationary).

ここでは、仮想対象物71Aが仮想ワークであるので、タイプ(Type)は、それに合わせて、[Part]を選択する。以下、[Part]を選択した場合を例に挙げて説明する。外部入出力部53が前記操作指示を受け付けると、制御部51は、Typeとして、[Part]を設定する。そして、後述するボタン441(図8参照)が押されると、制御部51は、Typeとして、[Part]を登録する(記憶部52に記憶する)。
ここで、[Part]が選択された場合は、後述する仮想対象物71Aを取り付ける取付部分として、「Joint」は選択できず、「Tool」のみが選択可能である。また、このような選択の制限がなされないようにしてもよい。
Here, since the virtual object 71A is a virtual work, [Part] is selected as the type (Type) accordingly. A case where [Part] is selected will be described below as an example. When the external input/output unit 53 receives the operation instruction, the control unit 51 sets [Part] as the Type. Then, when a later-described button 441 (see FIG. 8) is pressed, the control unit 51 registers [Part] as the Type (stores it in the storage unit 52).
Here, when [Part] is selected, "Joint" cannot be selected and only "Tool" can be selected as a mounting portion for mounting a virtual object 71A, which will be described later. Alternatively, such selection restrictions may not be imposed.

次に、図8に示すように、作業者は、ダイアログ42のドロップダウンリスト422で、仮想ロボット(Robot)を「1」、「2」、・・・の番号で選択する操作指示を行
う。
Next, as shown in FIG. 8, the operator gives an operation instruction to select a virtual robot (Robot) with numbers "1", "2", . . .

ここで、複数の仮想ロボット(例えば、仮想垂直多関節ロボット、仮想スカラーロボット等の仮想水平多関節ロボット)は、それぞれ、前記番号と対応付けがなされている。例えば、「1」は、図3に示す仮想ロボット1Aに対応している。以下、「1」を選択した場合、すなわち、仮想ロボット1Aを選択した場合を例に挙げて説明する。外部入出力部53が前記操作指示を受け付けると、制御部51は、仮想ロボットとして、「仮想ロボット1A」を設定する。そして、後述するようにボタン441(図8参照)が押されると、制御部51は、仮想ロボットとして、「仮想ロボット1A」を登録する。 Here, a plurality of virtual robots (for example, virtual horizontal articulated robots such as virtual vertical articulated robots and virtual scalar robots) are associated with the numbers. For example, "1" corresponds to the virtual robot 1A shown in FIG. A case where "1" is selected, that is, a case where the virtual robot 1A is selected will be described below as an example. When the external input/output unit 53 receives the operation instruction, the control unit 51 sets "virtual robot 1A" as the virtual robot. When a button 441 (see FIG. 8) is pressed as will be described later, the controller 51 registers "virtual robot 1A" as a virtual robot.

次に、作業者は、ダイアログ42のドロップダウンリスト423で、仮想対象物71Aを取り付ける取付部分(Tool)、すなわち、取付部分に設けられているツール座標系(座標系)を「0」、「1」、「2」、・・・の番号で選択する操作指示を行う。 Next, the operator selects the mounting portion (Tool) for mounting the virtual object 71A, that is, the tool coordinate system (coordinate system) provided in the mounting portion, in the drop-down list 423 of the dialog 42, from "0" to " 1”, “2”, . . .

ここで、仮想ロボット1Aには、互いに直交する3軸を有する複数のツール座標系(座標系)が設定されており、各ツール座標系のうちの少なくとも一部は、それぞれ、前記番号と対応付けがなされている。例えば、「1」は、エンドエフェクター17Aの先端中心を原点とするツール座標系41A(図12参照)に対応している。以下、「1」を選択した場合、すなわち、取付部分として仮想エンドエフェクター17Aの先端(仮想エンドエフェクター17Aに設けられているツール座標系41A)を選択した場合を例に挙げて説明する。外部入出力部53が前記操作指示を受け付けると、制御部51は、取付部分として、「仮想エンドエフェクター17Aの先端(ツール座標系41A)」を設定する。これにより、図13に示すように、制御部51は、仮想対象物71Aを仮想エンドエフェクター17Aの先端に配置する。そして、後述するようにボタン441(図8参照)が押されると、制御部51は、取付部分として、「仮想エンドエフェクター17Aの先端(ツール座標系41A)」を登録する。これにより、制御部51は、仮想対象物71Aを仮想エンドエフェクター17Aの先端に保持させる(取り付ける)。すなわち、制御部51は、仮想ロボット1Aが動作した場合、仮想エンドエフェクター17Aの先端と仮想対象物71Aとを連動させる。 Here, a plurality of tool coordinate systems (coordinate systems) having three mutually orthogonal axes are set in the virtual robot 1A, and at least a part of each tool coordinate system is associated with the number. is done. For example, "1" corresponds to the tool coordinate system 41A (see FIG. 12) whose origin is the tip center of the end effector 17A. Hereinafter, a case where "1" is selected, that is, a case where the tip of the virtual end effector 17A (the tool coordinate system 41A provided in the virtual end effector 17A) is selected as the attachment portion will be described as an example. When the external input/output unit 53 receives the operation instruction, the control unit 51 sets the "tip of the virtual end effector 17A (tool coordinate system 41A)" as the attachment portion. Thereby, as shown in FIG. 13, the controller 51 places the virtual object 71A at the tip of the virtual end effector 17A. When a button 441 (see FIG. 8) is pressed as will be described later, the controller 51 registers the "tip of the virtual end effector 17A (tool coordinate system 41A)" as the attachment portion. Thereby, the control unit 51 holds (attaches) the virtual object 71A to the tip of the virtual end effector 17A. That is, when the virtual robot 1A operates, the controller 51 interlocks the tip of the virtual end effector 17A and the virtual object 71A.

また、[Offset From Selected Tool or Joint]46で、ドロップダウンリスト423で選択した[Tool]に対する仮想対象物71Aの位置(相対位置)および姿勢(相対姿勢)を設定(登録)することができる。すなわち、仮想エンドエフェクター17Aの先端に配置された仮想対象物71Aは、仮想エンドエフェクター17Aの先端から位置およびを変更可能になっている。 Also, in [Offset From Selected Tool or Joint] 46, the position (relative position) and orientation (relative orientation) of the virtual object 71A with respect to the [Tool] selected in the drop-down list 423 can be set (registered). That is, the virtual object 71A placed at the tip of the virtual end effector 17A can change its position and position from the tip of the virtual end effector 17A.

まず、[Offset From Selected Tool or Joint]46の[Position]および[Rotation]の各数字が「0」の場合は、仮想対象物71Aは、仮想対象物71Aの後述する原点座標系46Aと、ドロップダウンリスト423で選択したツール座標系41Aとが一致するように配置される(図13参照)。すなわち、仮想対象物71Aは、仮想対象物71Aの原点座標系46Aの原点とツール座標系41Aの原点とが一致し、原点座標系46Aの姿勢とツール座標系41Aの姿勢とが同じになるように配置される。したがって、制御部51は、仮想ロボット1Aと仮想対象物71Aとを連動させて動作させる入力を外部入出力部53が受け付けた場合は、仮想対象物71Aの原点座標系46Aの原点とツール座標系41Aの原点とを一致させた状態で、表示装置31に表示させる。これにより、容易に、仮想対象物71Aを適切な位置に配置させることができる。 First, when each number of [Position] and [Rotation] of [Offset From Selected Tool or Joint] 46 is "0", the virtual object 71A is positioned between the origin coordinate system 46A described later of the virtual object 71A and the drop position. It is arranged so as to match the tool coordinate system 41A selected in the down list 423 (see FIG. 13). That is, the virtual object 71A is arranged so that the origin of the origin coordinate system 46A of the virtual object 71A coincides with the origin of the tool coordinate system 41A, and the posture of the origin coordinate system 46A and the posture of the tool coordinate system 41A become the same. placed in Therefore, when the external input/output unit 53 receives an input to operate the virtual robot 1A and the virtual object 71A in conjunction with each other, the control unit 51 controls the origin of the origin coordinate system 46A of the virtual object 71A and the tool coordinate system. It is displayed on the display device 31 in a state in which the origin of 41A is matched. This makes it possible to easily arrange the virtual object 71A at an appropriate position.

そして、作業者が[Offset From Selected Tool or Joint]46の[Position]および[Rotation]の各数字を入力する操作指示を行い、外部入出力部53が前記操作指示を受け付けると、制御部51は、仮想対象物71Aの原点座標系46Aがドロップダウンリスト423で選択したツール座標系41Aに対して、[Position]に入力された各数値の分、対応する各軸方向に移動(離間)し、[Rotation]に入力された各数値の分、対応する各軸周りに回転するように、仮想対象物71Aを表示装置31に表示させる。これにより、仮想対象物71Aを仮想エンドエフェクター17Aの先端から離間した位置に配置させることができる。 Then, the operator gives an operation instruction to input each number of [Position] and [Rotation] of [Offset From Selected Tool or Joint] 46, and when the external input/output unit 53 receives the operation instruction, the control unit 51 , the origin coordinate system 46A of the virtual object 71A moves (separates) from the tool coordinate system 41A selected in the drop-down list 423 in the respective axial directions corresponding to the numerical values entered in [Position], The virtual object 71A is displayed on the display device 31 so as to rotate around each corresponding axis by each numerical value input in [Rotation]. Thereby, the virtual object 71A can be arranged at a position spaced apart from the tip of the virtual end effector 17A.

また、作業者が[Zero Clear]と表示されたボタン444に対する操作指示を行い(ボタン444を押し)、外部入出力部53が前記操作指示を受け付けると、制御部51は、[Position]、[Rotation]の各数字を全て「0」にし、それに対応するように、仮想対象物71Aを配置する。 Further, when the operator performs an operation instruction to the button 444 displayed as [Zero Clear] (presses the button 444) and the external input/output unit 53 receives the operation instruction, the control unit 51 performs [Position], [ Rotation] are all set to "0", and the virtual object 71A is arranged so as to correspond to it.

なお、同様に、[Offset From Selected Tool or Joint]46で、ドロップダウンリスト424で選択した[Joint]に対する仮想対象物72Aの位置(相対位置)および姿勢(相対姿勢)を設定(登録)することができる。 Similarly, in [Offset From Selected Tool or Joint] 46, the position (relative position) and orientation (relative orientation) of the virtual object 72A with respect to the [Joint] selected in the drop-down list 424 can be set (registered). can be done.

また、作業者が[Render Object Origin]と表示されたチェックボックス451にチェックを入れる操作指示を行い、外部入出力部53が前記操作指示を受け付けると、制御部51は、表示装置31に、仮想対象物71A(選択しているオブジェクト)の原点座標系46A(座標系)を表示させる。この原点座標系46Aは、仮想対象物71Aの所定の点を原点とし、互いに直交する3軸を有する座標系である。本実施形態では、原点座標系46Aの原点は、仮想対象物71Aの1つの面の中心に配置され、また、原点座標系46Aの2つの軸は、前記面の互いに直交する2辺と平行である。 In addition, when the operator issues an operation instruction to put a check in the check box 451 displayed as [Render Object Origin], and the external input/output unit 53 receives the operation instruction, the control unit 51 causes the display device 31 to display a virtual The origin coordinate system 46A (coordinate system) of the object 71A (selected object) is displayed. The origin coordinate system 46A is a coordinate system having a predetermined point on the virtual object 71A as the origin and three mutually orthogonal axes. In this embodiment, the origin of the origin coordinate system 46A is located at the center of one surface of the virtual object 71A, and the two axes of the origin coordinate system 46A are parallel to the two sides of the surface that are perpendicular to each other. be.

また、作業者が[Render Selected Tool]と表示されたチェックボックス452にチェックを入れる操作指示を行い、外部入出力部53が前記操作指示を受け付けると、制御部51は、表示装置31に、ドロップダウンリスト423で選択したツール座標系41Aを表示させる。 In addition, when the operator issues an operation instruction to put a check in the check box 452 displayed as [Render Selected Tool], and the external input/output unit 53 accepts the operation instruction, the control unit 51 causes the display device 31 to display the drop The tool coordinate system 41A selected from the down list 423 is displayed.

これにより、仮想対象物71Aの原点座標系46Aとツール座標系41Aとが一致していることを目視で確認することで、仮想ロボット1Aに対する仮想対象物71Aの位置合わせを容易かつ適確に行うことができる。 As a result, by visually confirming that the origin coordinate system 46A of the virtual object 71A and the tool coordinate system 41A match, the virtual object 71A can be easily and accurately aligned with the virtual robot 1A. be able to.

次に、作業者は、「Register」と表示されたボタン441に対する操作指示を行う(ボタン441を押す)。外部入出力部53が前記操作指示を受け付けると、制御部51は、前記各設定(各設定値)の登録を行う。これにより、制御部51は、仮想ロボット1Aが動作した場合、仮想対象物71の取付部部分である仮想エンドエフェクター17Aの先端と、仮想対象物71Aとを連動させる。すなわち、制御部51は、仮想ロボット1Aが動作した場合、仮想エンドエフェクター17Aに対する仮想対象物71の位置(相対位置)および姿勢(相対姿勢)を保持したまま、仮想対象物71Aを仮想ロボット1Aとともに動作させる。なお、仮想ロボット1Aを動作させる方法は、特に限定されず、例えば、ジョグ、コマンド、プログラム、表示装置31の画面で仮想ロボットアーム10A等をドラッグする方法等が挙げられる。 Next, the operator gives an operation instruction to the button 441 displayed as "Register" (presses the button 441). When the external input/output unit 53 receives the operation instruction, the control unit 51 registers each setting (each setting value). As a result, when the virtual robot 1A operates, the controller 51 causes the tip of the virtual end effector 17A, which is the attachment portion of the virtual object 71, to interlock with the virtual object 71A. That is, when the virtual robot 1A operates, the control unit 51 moves the virtual object 71A together with the virtual robot 1A while maintaining the position (relative position) and orientation (relative orientation) of the virtual object 71 with respect to the virtual end effector 17A. make it work. The method of operating the virtual robot 1A is not particularly limited, and examples thereof include a method of jogging, a command, a program, and a method of dragging the virtual robot arm 10A or the like on the screen of the display device 31.

また、前記登録後で、Typeとして[Part]または[Mounted Device]が登録されている場合は、図9に示すように、「UnRegister」と表示されたボタン442に対する操作指示を行う(ボタン442を押す)ことが可能になる。これにより、前記登録を解除することが可能になる。すなわち、作業者がボタン442に対する操作指示を行い、外部入出力部53が前記操作指示を受け付けると、制御部51は、前記登録を解除する。これにより、制御部51は、仮想ロボット1Aが動作しても仮想対象物71を動作させず、仮想対象物71の位置および姿勢を変更しない。 After the registration, if [Part] or [Mounted Device] is registered as the Type, as shown in FIG. press) becomes possible. This makes it possible to cancel the registration. That is, when the operator gives an operation instruction to the button 442 and the external input/output unit 53 receives the operation instruction, the control unit 51 cancels the registration. Accordingly, the control unit 51 does not move the virtual object 71 even if the virtual robot 1</b>A moves, and does not change the position and posture of the virtual object 71 .

また、作業者は、前記ボタン442を押して前記登録を解除する操作に代えて、例えば、オブジェクトツリーの図3中の下側のプロパティーグリッド(図6参照)において、[Type]プロパティーのドロップダウンリスト431で、[Layout]を選択する操作指示を行ってもよい。外部入出力部53が前記操作指示を受け付けると、制御部51は、Typeとして、[Layout]を登録する。これにより、制御部51は、仮想ロボット1Aが動作しても仮想対象物71を動作させず、仮想対象物71の位置および姿勢を変更しない。 Alternatively, instead of pressing the button 442 to cancel the registration, for example, in the property grid (see FIG. 6) on the lower side of the object tree in FIG. 3, the [Type] property drop-down list At 431, an instruction may be given to select Layout. When the external input/output unit 53 receives the operation instruction, the control unit 51 registers [Layout] as the Type. Accordingly, the control unit 51 does not move the virtual object 71 even if the virtual robot 1</b>A moves, and does not change the position and posture of the virtual object 71 .

また、前記登録後は、図10に示すように、「Update」と表示されたボタン443に対する操作指示を行う(ボタン443を押す)ことが可能になる。これにより、登録済みの各設定(各設定値)を変更することが可能になる。すなわち、作業者がボタン443に対する操作指示を行い、外部入出力部53が前記操作指示を受け付けると、制御部51は、登録済みの各設定を更新する。 Further, after the registration, as shown in FIG. 10, it becomes possible to give an operation instruction (press the button 443) to the button 443 displayed as "Update". This makes it possible to change each registered setting (each setting value). That is, when the operator gives an operation instruction to the button 443 and the external input/output unit 53 receives the operation instruction, the control unit 51 updates each registered setting.

次に、仮想ロボット1Aに仮想対象物72Aを取り付ける場合について、仮想対象物72Aを取り付ける場合との相違点を中心に説明する。 Next, the case of attaching the virtual object 72A to the virtual robot 1A will be described, focusing on the differences from the case of attaching the virtual object 72A.

図14に示すように、制御部51は、表示装置31に仮想対象物72Aを表示させる。
この仮想対象物72Aは、仮想カメラである。
As shown in FIG. 14, the control unit 51 causes the display device 31 to display a virtual object 72A.
This virtual object 72A is a virtual camera.

図7に示すように、作業者は、ダイアログ42のドロップダウンリスト421で、[Layout]、[Part]、[Mounted Device]のうちのいずれか1つを選択する操作指示を行う。 As shown in FIG. 7, the operator gives an operation instruction to select one of [Layout], [Part], and [Mounted Device] from the drop-down list 421 of the dialog 42 .

ここでは、仮想対象物72Aが仮想カメラであるので、図11に示すように、タイプ(Type)は、それに合わせて、[Mounted Device]を選択する。以下、[Mounted Device]を選択した場合を例に挙げて説明する。外部入出力部53が前記操作指示を受け付けると、制御部51は、Typeとして、[Mounted Device]を設定する。そして、ボタン441が押されると、制御部51は、Typeとして、[Mounted Device]を登録する。ここで、[Mounted Device]が選択された場合は、仮想対象物72Aを取り付ける取付部分として、「Tool」は選択できず、「Joint」のみが選択可能である。また、このような選択の制限がなされないようにしてもよい。 Here, since the virtual object 72A is a virtual camera, as shown in FIG. 11, [Mounted Device] is selected as the type (Type) accordingly. A case where [Mounted Device] is selected will be described below as an example. When the external input/output unit 53 receives the operation instruction, the control unit 51 sets [Mounted Device] as the Type. Then, when the button 441 is pressed, the control unit 51 registers [Mounted Device] as the Type. Here, when [Mounted Device] is selected, "Tool" cannot be selected and only "Joint" can be selected as the mounting portion for mounting the virtual object 72A. Alternatively, such selection restrictions may not be imposed.

また、作業者は、ダイアログ42のドロップダウンリスト424で、仮想対象物72Aを取り付ける取付部分(Joint)、すなわち、取付部分に設けられている座標系を「1」、「2」、・・・の番号で選択する操作指示を行う。 In addition, the operator selects the attachment portion (Joint) for attaching the virtual object 72A, that is, the coordinate system provided in the attachment portion, from the drop-down list 424 of the dialog 42 as "1", "2", . The operation instruction to select with the number is given.

この場合、関節171~関節176には、それぞれ、座標系が設定されており、各座標系は、それぞれ、前記番号と対応付けがなされている。例えば、「5」は、仮想アーム14Aと仮想アーム15Aとを連結している仮想関節175Aに設けられている座標系42A(図14参照)に対応している。以下、「5」を選択した場合、すなわち、取付部分として仮想関節175A(仮想関節175Aに設けられている座標系42A)を選択した場合を例に挙げて説明する。外部入出力部53が前記操作指示を受け付けると、制御部51は、取付部分として、「仮想関節175A(座標系42A)」を設定する。これにより、図15に示すように、制御部51は、仮想対象物72Aを仮想関節175Aに配置する。
そして、ボタン441(図8参照)が押されると、制御部51は、取付部分として、「仮想関節175A(座標系42A)」を登録する。これにより、制御部51は、仮想対象物72Aを仮想関節175Aに取り付ける。すなわち、制御部51は、仮想ロボット1Aが動作した場合、仮想関節175Aと仮想対象物72Aとを連動させる。
In this case, a coordinate system is set for each of the joints 171 to 176, and each coordinate system is associated with the number. For example, "5" corresponds to the coordinate system 42A (see FIG. 14) provided at the virtual joint 175A connecting the virtual arm 14A and the virtual arm 15A. In the following, the case where "5" is selected, that is, the case where the virtual joint 175A (the coordinate system 42A provided in the virtual joint 175A) is selected as the attachment part will be described as an example. When the external input/output unit 53 receives the operation instruction, the control unit 51 sets the "virtual joint 175A (coordinate system 42A)" as the attachment portion. Thereby, as shown in FIG. 15, the control unit 51 arranges the virtual object 72A at the virtual joint 175A.
Then, when the button 441 (see FIG. 8) is pressed, the controller 51 registers the "virtual joint 175A (coordinate system 42A)" as the attachment part. Thereby, the controller 51 attaches the virtual object 72A to the virtual joint 175A. That is, when the virtual robot 1A operates, the controller 51 interlocks the virtual joint 175A and the virtual object 72A.

また、作業者が[Render Object Origin]と表示されたチェックボックス451にチェックを入れる操作指示を行い、外部入出力部53が前記操作指示を受け付けると、制御部51は、表示装置31に、仮想対象物72A(選択しているオブジェクト)の原点座標系47A(座標系)を表示させる。この原点座標系47Aは、仮想対象物72Aの所定の点を原点とし、互いに直交する3軸を有する座標系である。本実施形態では、原点座標系47Aの原点は、仮想対象物72Aから離間した位置に配置されている。 In addition, when the operator issues an operation instruction to put a check in the check box 451 displayed as [Render Object Origin], and the external input/output unit 53 receives the operation instruction, the control unit 51 causes the display device 31 to display a virtual The origin coordinate system 47A (coordinate system) of the object 72A (selected object) is displayed. The origin coordinate system 47A is a coordinate system having a predetermined point on the virtual object 72A as the origin and three mutually orthogonal axes. In this embodiment, the origin of the origin coordinate system 47A is arranged at a position spaced apart from the virtual object 72A.

また、作業者が[Render Selected Joint]と表示されたチェックボックス453にチェックを入れる操作指示を行い、外部入出力部53が前記操作指示を受け付けると、制御部51は、表示装置31に、ドロップダウンリスト424で選択した仮想関節175Aに設けられている座標系42Aを表示させる。 Further, when the operator issues an operation instruction to put a check in the check box 453 labeled as [Render Selected Joint], and the external input/output unit 53 accepts the operation instruction, the control unit 51 causes the display device 31 to display the drop The coordinate system 42A provided for the virtual joint 175A selected in the down list 424 is displayed.

これにより、仮想対象物72Aの原点座標系47Aと座標系42Aとが一致していることを目視で確認することで、仮想ロボット1Aに対する仮想対象物72Aの位置合わせを容易かつ適確に行うことができる。 As a result, by visually confirming that the origin coordinate system 47A of the virtual object 72A and the coordinate system 42A match, the virtual object 72A can be easily and accurately aligned with the virtual robot 1A. can be done.

なお、以上説明した操作手順および動作以外については、仮想ロボット1Aに仮想対象物71Aを取り付ける場合と同様であるので、その説明は省略する。 It should be noted that other than the operation procedures and actions described above are the same as in the case of attaching the virtual object 71A to the virtual robot 1A, so description thereof will be omitted.

以上のようにして、図12に示すように、仮想ロボット1Aに仮想対象物71A、72Aが取り付けられる。 As described above, the virtual objects 71A and 72A are attached to the virtual robot 1A as shown in FIG.

以上説明したように、ロボットシステム100によれば、シミュレーションにおいて、仮想ロボット1Aと仮想対象物71Aとを連動させて動作させるか否かに関する情報の入力と、仮想ロボット1Aに仮想対象物71Aを取り付ける取付部分に関する情報の入力とを行うことにより、容易に、仮想対象物71Aを取付部分に配置させ、仮想ロボット1Aの動作に連動して仮想対象物71Aを動作させることができる。これにより、容易に、実機に即したシミュレーションを行うことができる。 As described above, according to the robot system 100, in the simulation, the input of information regarding whether or not to interlock the virtual robot 1A and the virtual object 71A and the attachment of the virtual object 71A to the virtual robot 1A. By inputting information about the mounting portion, the virtual object 71A can be easily placed on the mounting portion, and the virtual object 71A can be moved in conjunction with the motion of the virtual robot 1A. As a result, it is possible to easily perform a simulation suitable for the actual machine.

また、シミュレーションを行って、オフラインティーチングを行うことができ、ロボット1の動作プログラムの作成、検証を行うことができる。 In addition, off-line teaching can be performed by simulation, and an operation program for the robot 1 can be created and verified.

以上説明したように、シミュレーション装置5は、ロボット1を仮想化した仮想ロボット1Aによるシミュレーションを行うシミュレーション装置である。シミュレーション装置5は、仮想ロボット1Aと仮想対象物71Aとを連動させて動作させるか否かに関する情報の入力と、仮想ロボット1Aに仮想対象物71Aを取り付ける取付部分に関する情報の入力とを受け付ける外部入出力部53(受付部)と、仮想ロボット1Aと、外部入出力部53(受付部)が受け付けた取付部分に取り付けられた仮想対象物71Aとを表示装置31に表示させ、仮想ロボット1Aと仮想対象物71Aとを連動させて動作させる入力を外部入出力部53(受付部)部が受け付けた場合、仮想ロボット1Aの動作に連動して、仮想対象物71Aを動作させる制御部51と、を備える。 As described above, the simulation device 5 is a simulation device that performs a simulation using the virtual robot 1A, which is a virtualization of the robot 1. FIG. The simulation device 5 receives an input of information regarding whether or not to interlock the virtual robot 1A and the virtual object 71A and an input of information regarding an attachment portion for attaching the virtual object 71A to the virtual robot 1A. The output unit 53 (accepting unit), the virtual robot 1A, and the virtual object 71A attached to the attachment portion accepted by the external input/output unit 53 (accepting unit) are displayed on the display device 31, and the virtual robot 1A and the virtual robot 1A are displayed. a control unit 51 that operates the virtual object 71A in conjunction with the operation of the virtual robot 1A when the external input/output unit 53 (receiving unit) receives an input that causes the virtual object 71A to operate in conjunction with the object 71A; Prepare.

このようなシミュレーション装置5によれば、仮想ロボット1Aと仮想対象物71Aとを連動させて動作させるか否かに関する情報の入力と、仮想ロボット1Aに仮想対象物71Aを取り付ける取付部分に関する情報の入力とを行うことにより、容易に、仮想対象物71Aを取付部分に取り付け、仮想ロボット1Aの動作に連動して仮想対象物71Aを動作させることができる。これにより、容易に、実機に即したシミュレーションを行うことができる。 According to such a simulation apparatus 5, input of information regarding whether or not to interlock the virtual robot 1A and the virtual object 71A and input of information regarding the attachment portion for attaching the virtual object 71A to the virtual robot 1A. By doing the above, the virtual object 71A can be easily attached to the attachment portion, and the virtual object 71A can be operated in conjunction with the operation of the virtual robot 1A. As a result, it is possible to easily perform a simulation suitable for the actual machine.

また、取付部分に取り付けられた仮想対象物71Aは、取付部分から位置を変更可能であることが好ましい。これにより、仮想対象物71Aを取付部分から離間した位置に配置させることができる。 Moreover, it is preferable that the position of the virtual object 71A attached to the attachment portion can be changed from the attachment portion. Thereby, the virtual object 71A can be arranged at a position spaced apart from the mounting portion.

また、取付部分は、仮想ロボット1Aが有する仮想関節175Aを含む。これにより、仮想対象物71Aを仮想ロボット1Aの仮想関節175Aに取り付けることができる。 Also, the attachment portion includes a virtual joint 175A that the virtual robot 1A has. Thereby, the virtual object 71A can be attached to the virtual joint 175A of the virtual robot 1A.

また、外部入出力部53(受付部)は、仮想ロボット1Aが有する複数の座標系からの1つの座標系の選択を受付可能であり、制御部51は、仮想ロボット1Aと仮想対象物71Aとを連動させて動作させる入力を外部入出力部53(受付部)が受け付けた場合、選択された座標系の原点と、仮想対象物71Aが有する座標系の原点とを一致させた状態で、表示装置31に表示させる。これにより、容易に、仮想対象物71Aを適切な位置に配置させることができる。 In addition, the external input/output unit 53 (accepting unit) can accept selection of one coordinate system from a plurality of coordinate systems possessed by the virtual robot 1A. When the external input/output unit 53 (receiving unit) receives an input to operate in conjunction with , the origin of the selected coordinate system is aligned with the origin of the coordinate system of the virtual object 71A, and the display on the device 31. This makes it possible to easily arrange the virtual object 71A at an appropriate position.

また、ロボット制御装置2(制御装置)は、シミュレーション装置5によるシミュレーション結果に基づいてロボット1を制御する。 Also, the robot control device 2 (control device) controls the robot 1 based on the simulation result by the simulation device 5 .

このようなロボット制御装置2(制御装置)によれば、シミュレーション装置5で作成した動作プログラムを用いてロボット1に適切な動作を行わせることができる。 According to such a robot control device 2 (control device), it is possible to cause the robot 1 to perform an appropriate motion using the motion program created by the simulation device 5 .

また、ロボット1は、対象物を取り付けることが可能な取付部分を有し、ロボット制御装置2(制御装置)によって制御される。 The robot 1 also has an attachment portion to which an object can be attached, and is controlled by a robot control device 2 (control device).

このようなロボット1によれば、ロボット制御装置2(制御装置)の制御により、適切な動作を行うことができる。 According to such a robot 1, it is possible to perform appropriate actions under the control of the robot control device 2 (control device).

また、シミュレーション装置5は、ロボット1を仮想化した仮想ロボット1Aによるシミュレーションを行うシミュレーション装置であり、プロセッサーを備える制御部51を有する。プロセッサーは、仮想ロボット1Aと仮想対象物71Aとを連動させて動作させるか否かに関する情報の入力と、仮想ロボット1Aに仮想対象物71Aを取り付ける取付部分に関する情報の入力とを受け付け、かつ、仮想ロボット1Aと、受け付けた前記取付部分に取り付けられた仮想対象物71Aとを表示装置31に表示させ、仮想ロボット1Aと仮想対象物71Aとを連動させて動作させる入力を受け付けた場合、仮想ロボット1Aの動作に連動して、仮想対象物71Aを動作させる。 Also, the simulation device 5 is a simulation device that performs a simulation using a virtual robot 1A that is a virtualization of the robot 1, and has a control unit 51 that includes a processor. The processor receives an input of information regarding whether or not to interlock the virtual robot 1A and the virtual object 71A and an input of information regarding an attachment portion for attaching the virtual object 71A to the virtual robot 1A. When the robot 1A and the virtual object 71A attached to the received attachment portion are displayed on the display device 31, and an input to operate the virtual robot 1A and the virtual object 71A in conjunction with each other is received, the virtual robot 1A is displayed. The virtual object 71A is moved in conjunction with the operation of .

このようなシミュレーション装置5によれば、仮想ロボット1Aと仮想対象物71Aとを連動させて動作させるか否かに関する情報の入力と、仮想ロボット1Aに仮想対象物71Aを取り付ける取付部分に関する情報の入力とを行うことにより、容易に、仮想対象物71Aを取付部分に取り付け、仮想ロボット1Aの動作に連動して仮想対象物71Aを動作させることができる。これにより、容易に、実機に即したシミュレーションを行うことができる。 According to such a simulation apparatus 5, input of information regarding whether or not to interlock the virtual robot 1A and the virtual object 71A and input of information regarding the attachment portion for attaching the virtual object 71A to the virtual robot 1A. By doing the above, the virtual object 71A can be easily attached to the attachment portion, and the virtual object 71A can be operated in conjunction with the operation of the virtual robot 1A. As a result, it is possible to easily perform a simulation suitable for the actual machine.

<第2実施形態>
図17は、第2実施形態に係るロボットシステムの表示装置に表示される画面の一例を示す図である。図18~図23は、それぞれ、第2実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。
<Second embodiment>
FIG. 17 is a diagram showing an example of a screen displayed on the display device of the robot system according to the second embodiment. 18 to 23 are diagrams showing examples of simulations performed by the robot system simulation apparatus according to the second embodiment.

以下、第2実施形態について説明するが、前述した実施形態との相違点を中心に説明し、同様の事項はその説明を省略する。 The second embodiment will be described below, but the description will focus on the differences from the above-described embodiment, and the description of the same items will be omitted.

図19および図21に示すように、第2実施形態のシミュレーション装置5では、仮想ロボット1Aの仮想アーム16Aの先端(仮想アーム16Aと仮想エンドエフェクター6Aとの間)に、仮想対象物である仮想力覚センサー18Aを設ける(取り付ける)ことが可能になっている。厳密には、仮想アーム16Aの先端には、仮想力覚センサー18Aを仮想アーム16Aに取り付けるために用いる仮想フランジ19A(仮想対象物)と、仮想力覚センサー18A(仮想対象物)とが、この順序で設けられる。また、仮想力覚センサー18Aと仮想フランジ19Aとは、一体化しており、連動して動作するので、以下では、仮想力覚センサー18Aと仮想フランジ19Aとの両方を含めて「仮想力覚センサー18A」と呼ぶ。以下、具体的に説明する。 As shown in FIGS. 19 and 21, in the simulation device 5 of the second embodiment, a virtual object as a virtual object is placed at the tip of the virtual arm 16A of the virtual robot 1A (between the virtual arm 16A and the virtual end effector 6A). It is possible to provide (attach) the force sensor 18A. Strictly speaking, a virtual flange 19A (virtual object) used to attach the virtual force sensor 18A to the virtual arm 16A and a virtual force sensor 18A (virtual object) are located at the tip of the virtual arm 16A. provided in order. In addition, the virtual force sensor 18A and the virtual flange 19A are integrated and operate in conjunction with each other. ”. A specific description will be given below.

シミュレーション装置5の制御部51は、表示装置31の駆動を制御し、表示装置31が有するディスプレイに画面WD1を表示し(図3参照)、シミュレーションを行うが、そのシミュレーションに先立って、表示装置31が有するディスプレイに、図17に示す画面WD2を表示する。この画面WD2では、仮想力覚センサー18Aに関する各種の情報の登録を行うことができる。 The control unit 51 of the simulation device 5 controls driving of the display device 31, displays the screen WD1 on the display of the display device 31 (see FIG. 3), and performs simulation. displays a screen WD2 shown in FIG. On this screen WD2, it is possible to register various types of information regarding the virtual force sensor 18A.

仮想力覚センサー18Aに関する情報の登録を行う場合、作業者は、入力用のテキストボックス471で、仮想力覚センサー18Aのセンサー名を入力する操作指示を行う。本実施形態では、センサー名として、「ForceSensor1」を入力する。外部入出力部53が前記操作指示を受け付けると、制御部51は、センサー名として、「ForceSensor1」を登録する。 When registering information related to the virtual force sensor 18A, the operator performs an operation instruction to enter the sensor name of the virtual force sensor 18A in the text box 471 for input. In this embodiment, "ForceSensor1" is entered as the sensor name. When the external input/output unit 53 receives the operation instruction, the control unit 51 registers "ForceSensor1" as the sensor name.

また、作業者は、ドロップダウンリスト472で、仮想力覚センサー18Aを設ける仮想ロボット(ロボット接続)を「1」、「2」、・・・の番号で選択する操作指示を行う
In addition, the operator performs an operation instruction to select a virtual robot (robot connection) to which the virtual force sensor 18A is provided by using numbers "1", "2", . . .

ここで、複数の仮想ロボット(例えば、仮想垂直多関節ロボット、仮想スカラーロボット等の仮想水平多関節ロボット)は、それぞれ、前記番号と対応付けがなされている。また、仮想力覚センサー18Aを設けないことと、前記番号とが対応付けされている。例えば、「1」は、図18に示す仮想ロボット1Aに対応している。また、「3」は、仮想力覚センサー18Aを設けないことに対応している。以下、「1」を選択した場合、すなわち、仮想ロボット1Aを選択した場合を例に挙げて説明する。外部入出力部53が前記操作指示を受け付けると、制御部51は、仮想ロボットとして、「仮想ロボット1A」を登録する。 Here, a plurality of virtual robots (for example, virtual horizontal articulated robots such as virtual vertical articulated robots and virtual scalar robots) are associated with the numbers. Also, the fact that the virtual force sensor 18A is not provided is associated with the number. For example, "1" corresponds to the virtual robot 1A shown in FIG. Also, "3" corresponds to not providing the virtual force sensor 18A. A case where "1" is selected, that is, a case where the virtual robot 1A is selected will be described below as an example. When the external input/output unit 53 receives the operation instruction, the control unit 51 registers "virtual robot 1A" as a virtual robot.

前記登録が完了すると、シミュレーション装置5によりシミュレーションを行うことが可能になる。なお、以下のシミュレーションの説明では、仮想力覚センサー18Aを仮想ロボット1Aに取り付けるための操作手順については、第1実施形態と同様または少し変更したものであるので、その説明は省略する。 When the registration is completed, simulation can be performed by the simulation device 5 . In the description of the simulation below, the operation procedure for attaching the virtual force sensor 18A to the virtual robot 1A is the same as or slightly modified from the first embodiment, so description thereof will be omitted.

まず、仮想ロボット1Aの仮想アーム16Aの先端に、仮想力覚センサー18Aを設けるシミュレーションについて説明する。 First, a simulation in which the virtual force sensor 18A is provided at the tip of the virtual arm 16A of the virtual robot 1A will be described.

図18に示すように、仮想アーム16Aの先端に仮想エンドエフェクター6Aが設けられていない場合は、図19に示すように、仮想力覚センサー18Aは、仮想アーム16Aの先端に設けられる(配置される)。すなわち、制御部51は、仮想エンドエフェクター6Aが仮想ロボット1Aに設けられていない状態で、仮想力覚センサー18Aを仮想ロボット1Aに設ける場合、仮想力覚センサー18Aを仮想アーム16Aの先端に配置した状態で表示装置31に表示させる。 When the virtual end effector 6A is not provided at the tip of the virtual arm 16A as shown in FIG. 18, the virtual force sensor 18A is provided (arranged) at the tip of the virtual arm 16A as shown in FIG. ). That is, when the virtual end effector 6A is not provided to the virtual robot 1A and the virtual force sensor 18A is provided to the virtual robot 1A, the control unit 51 arranges the virtual force sensor 18A at the tip of the virtual arm 16A. state is displayed on the display device 31.

また、図20に示すように、仮想アーム16Aの先端に仮想エンドエフェクター6Aが設けられている場合は、図21に示すように、仮想エンドエフェクター6Aが仮想アーム16Aの先端から先端方向に移動して仮想アーム16Aから離間し、仮想力覚センサー18Aは、仮想アーム16Aと仮想エンドエフェクター6Aとの間に設けられる。すなわち、仮想アーム16Aの先端に仮想力覚センサー18Aが設けられ、仮想力覚センサー18Aの先端に仮想エンドエフェクター6Aが設けられる。すなわち、制御部51は、仮想エンドエフェクター6Aが仮想ロボット1Aに設けられた状態で、仮想力覚センサー18Aを仮想ロボット1Aに設ける場合、仮想エンドエフェクター6Aの位置を先端方向に変更し、仮想力覚センサー18Aを仮想ロボット1Aと仮想エンドエフェクター6Aとの間に配置した状態で表示装置31に表示させる。これにより、容易に、実機と同様の位置に、仮想力覚センサー18Aおよび仮想エンドエフェクター6Aを配置させることができる。 When the virtual end effector 6A is provided at the tip of the virtual arm 16A as shown in FIG. 20, the virtual end effector 6A moves from the tip of the virtual arm 16A in the tip direction as shown in FIG. The virtual force sensor 18A is provided between the virtual arm 16A and the virtual end effector 6A. That is, a virtual force sensor 18A is provided at the tip of the virtual arm 16A, and a virtual end effector 6A is provided at the tip of the virtual force sensor 18A. That is, when the virtual force sensor 18A is provided in the virtual robot 1A while the virtual end effector 6A is provided in the virtual robot 1A, the control unit 51 changes the position of the virtual end effector 6A in the distal direction, The display device 31 displays the sensor 18A arranged between the virtual robot 1A and the virtual end effector 6A. This makes it possible to easily arrange the virtual force sensor 18A and the virtual end effector 6A at the same positions as in the actual machine.

また、図22に示すように、仮想力覚センサー18Aを設ける前は、ツールセンターポイントPは、仮想アーム16Aの先端中心である。そして、図23に示すように、仮想力覚センサー18Aを設けた後は、ツールセンターポイントPは、仮想力覚センサー18Aの先端中心に変更される。これにより、別途、ツールセンターポイントPを変更する操作指示を行う必要がなく、労力を軽減することができ、また、迅速にシミュレーションを行うことができる。 Further, as shown in FIG. 22, before the virtual force sensor 18A is provided, the tool center point P is the tip center of the virtual arm 16A. Then, as shown in FIG. 23, after the virtual force sensor 18A is provided, the tool center point P is changed to the tip center of the virtual force sensor 18A. As a result, there is no need to separately issue an operation instruction to change the tool center point P, labor can be reduced, and the simulation can be performed quickly.

なお、このようにツールセンターポイントPが自動的に変更される設定と、仮想力覚センサー18Aを設けてもツールセンターポイントPが変更されない設定とのいずれか一方を作業者が選択できるようになっていてもよい。 The operator can select either a setting in which the tool center point P is automatically changed, or a setting in which the tool center point P is not changed even if the virtual force sensor 18A is provided. may be

以上のような第2実施形態によっても、前述した実施形態と同様の効果を発揮することができる。 According to the second embodiment as described above, it is possible to exhibit the same effect as the above-described embodiment.

以上説明したように、仮想対象物は、仮想力覚センサー18Aを含む。これにより、仮想力覚センサー18Aを取付部分に取り付けることができる。 As described above, the virtual object includes the virtual force sensor 18A. Thereby, the virtual force sensor 18A can be attached to the attachment portion.

また、仮想対象物は、仮想エンドエフェクター6Aを含み、制御部51は、仮想エンドエフェクター6Aが仮想ロボット1Aに取り付けられた状態で、仮想力覚センサー18Aを仮想ロボット1Aに取り付ける場合、仮想エンドエフェクター6Aの位置を変更し、仮想力覚センサー18Aを仮想ロボット1Aと仮想エンドエフェクター6Aとの間に取り付けた状態で表示装置31に表示させる。これにより、容易に、実機と同様の位置に、仮想力覚センサー18Aおよび仮想エンドエフェクター6Aを配置させることができる。 The virtual object includes the virtual end effector 6A, and the control unit 51 attaches the virtual force sensor 18A to the virtual robot 1A in a state where the virtual end effector 6A is attached to the virtual robot 1A. The position of 6A is changed, and the display device 31 displays the virtual force sensor 18A attached between the virtual robot 1A and the virtual end effector 6A. This makes it possible to easily arrange the virtual force sensor 18A and the virtual end effector 6A at the same positions as in the actual machine.

<第3実施形態>
図24および図25は、それぞれ、第3実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。
<Third Embodiment>
24 and 25 are diagrams each showing an example of a simulation performed by the robot system simulation apparatus according to the third embodiment.

以下、第3実施形態について説明するが、前述した実施形態との相違点を中心に説明し、同様の事項はその説明を省略する。 Hereinafter, the third embodiment will be described, but the description will focus on the differences from the above-described embodiments, and the description of the same items will be omitted.

図24に示すように、第3実施形態のシミュレーション装置5では、制御部51は、仮想力覚センサー18Aが有する力覚センサー座標系91Aを表示装置31に表示させる。
この力覚センサー座標系91Aは、互いに直交する3軸を有する3次元の座標系であり、各軸は、力覚センサー18Aが検出する力の検出軸である。これにより、力覚センサー座標系91Aを把握することができる。
As shown in FIG. 24, in the simulation device 5 of the third embodiment, the controller 51 causes the display device 31 to display the force sensor coordinate system 91A of the virtual force sensor 18A.
The force sensor coordinate system 91A is a three-dimensional coordinate system having three mutually orthogonal axes, and each axis is a force detection axis detected by the force sensor 18A. Thereby, the force sensor coordinate system 91A can be grasped.

また、制御部51は、仮想エンドエフェクター7Aまたは仮想エンドエフェクター7Aが保持する仮想保持対象物80Aが、他の仮想物体に作用する作用点96Aを原点としたフォース座標系92Aを表示装置31に表示させる。本実施形態では、フォース座標系92Aとして、仮想エンドエフェクター7Aが保持する仮想保持対象物80Aが他の仮想物体に作用する作用点96Aを原点とした座標系を例に挙げて説明する。また、本実施形態では、仮想保持対象物80Aが仮想ワークの場合を例に挙げて説明する。このフォース座標系92Aは、仮想力覚センサー18Aで検出される力を用いた機能を実行するための互いに直交する3軸を有する3次元の座標系であり、フォース座標系92Aの各軸は、作用点96Aに加わる力の各成分の方向を向いている。これにより、仮想エンドエフェクター7Aが保持する仮想保持対象物80Aの作用点96Aと、フォース座標系92Aとを把握することができる。 Further, the control unit 51 causes the display device 31 to display a force coordinate system 92A whose origin is an action point 96A at which the virtual end effector 7A or the virtual object 80A held by the virtual end effector 7A acts on another virtual object. Let In this embodiment, as the force coordinate system 92A, a coordinate system whose origin is an action point 96A at which a virtual object 80A held by the virtual end effector 7A acts on another virtual object will be described as an example. Further, in the present embodiment, the case where the virtual object 80A to be held is a virtual work will be described as an example. This force coordinate system 92A is a three-dimensional coordinate system having three mutually orthogonal axes for performing functions using forces detected by the virtual force sensor 18A. It faces the direction of each component of the force applied to the point of action 96A. Thereby, the action point 96A of the virtual held object 80A held by the virtual end effector 7A and the force coordinate system 92A can be grasped.

また、制御部51は、作用点96Aに作用する力の大きさを表示装置31に表示させる。これにより、仮想エンドエフェクター7Aが保持する仮想保持対象物80Aの作用点96Aに加わる力を把握することができる。 Further, the control unit 51 causes the display device 31 to display the magnitude of the force acting on the point of action 96A. Thereby, the force applied to the point of action 96A of the virtual held object 80A held by the virtual end effector 7A can be grasped.

また、作用点96Aに作用する力の大きさの表示方法は、特に限定されず、例えば、力の大きさを数値で表示する方法、グラフで表示する方法、矢印の大きさで表示する方法等が挙げられる。また、矢印の大きさで表示する方法の場合、フォース座標系92Aを構成する矢印の大きさで表示してもよく、また、フォース座標系92Aを構成する矢印とは別の矢印を表示し、その別の矢印の大きさで表示してもよい。 In addition, the method of displaying the magnitude of the force acting on the point of action 96A is not particularly limited. is mentioned. In addition, in the case of the method of displaying by the size of the arrow, it may be displayed by the size of the arrow that constitutes the force coordinate system 92A. You may display by the size of the other arrow.

本実施形態では、作用点96Aに作用する力の大きさは、フォース座標系92Aを構成する矢印の大きさで表される。また、矢印の大きさとは、矢印の長さ、矢印の太さを言いう。また、力の大きさは、矢印の長さのみで表示してもよく、また、矢印の太さのみで表示してもよく、また、矢印の長さおよび太さで表示してもよい。 In this embodiment, the magnitude of the force acting on the point of action 96A is represented by the magnitude of the arrows forming the force coordinate system 92A. Also, the size of the arrow means the length of the arrow and the thickness of the arrow. Also, the magnitude of the force may be displayed by the length of the arrow alone, may be displayed by the thickness of the arrow alone, or may be displayed by the length and thickness of the arrow.

具体的には、フォース座標系92Aの各軸方向の並進力は、フォース座標系92Aの各軸における矢印で表示される。また、各並進力の大きさは、それぞれ、矢印の長さと太さとの少なくとも一方で表される。 Specifically, the translational force in each axial direction of the force coordinate system 92A is indicated by an arrow on each axis of the force coordinate system 92A. Also, the magnitude of each translational force is represented by at least one of the length and thickness of the arrow.

また、図25に示すように、フォース座標系92Aの各軸周りのトルク(モーメント)は、フォース座標系92Aの各軸周りの矢印で表示される。また、各トルクの大きさは、それぞれ、矢印の長さと太さとの少なくとも一方で表される。 Also, as shown in FIG. 25, the torque (moment) around each axis of the force coordinate system 92A is indicated by arrows around each axis of the force coordinate system 92A. Also, the magnitude of each torque is represented by at least one of the length and thickness of the arrow.

これにより、仮想エンドエフェクター7Aが保持する仮想保持対象物80Aの作用点96Aに加わる力の大きさを簡素な構成で判り易く表現することができる。これによって、その力の大きさを容易かつ迅速に把握することができる。 As a result, the magnitude of the force applied to the point of action 96A of the virtual held object 80A held by the virtual end effector 7A can be expressed in a simple configuration in an easy-to-understand manner. This makes it possible to easily and quickly grasp the magnitude of the force.

以上のような第3実施形態によっても、前述した実施形態と同様の効果を発揮することができる。 According to the third embodiment as described above, it is possible to exhibit the same effect as the above-described embodiment.

以上説明したように、シミュレーション装置5は、制御部51は、仮想力覚センサー18Aが有する力覚センサー座標系91Aを表示装置31に表示させる。これにより、力覚センサー座標系91Aを把握することができる。この力覚センサー座標系91Aの各軸は、仮想力覚センサー18Aが検出する力の検出軸である。 As described above, the control unit 51 of the simulation device 5 causes the display device 31 to display the force sensor coordinate system 91A of the virtual force sensor 18A. Thereby, the force sensor coordinate system 91A can be grasped. Each axis of the force sensor coordinate system 91A is a force detection axis detected by the virtual force sensor 18A.

また、仮想対象物は、仮想エンドエフェクター7Aを含み、制御部51は、仮想エンドエフェクター7Aまたは仮想エンドエフェクター7Aが保持する仮想保持対象物80Aが、他の仮想物体に作用する作用点96Aを原点としたフォース座標系92Aを表示装置31に表示させる。これにより、仮想エンドエフェクター7Aまたは仮想エンドエフェクター7Aが保持する仮想保持対象物80Aの作用点96Aと、フォース座標系92Aとを把握することができる。このフォース座標系92Aは、仮想力覚センサー18Aで検出される力を用いた機能を実行するための座標系であり、フォース座標系92Aの各軸は、作用点96Aに加わる力の各成分の方向を向いている。 The virtual object includes the virtual end effector 7A, and the controller 51 controls the point of action 96A at which the virtual end effector 7A or the virtual held object 80A held by the virtual end effector 7A acts on another virtual object. The display device 31 displays the force coordinate system 92A. Thereby, the action point 96A of the virtual end effector 7A or the virtual held object 80A held by the virtual end effector 7A and the force coordinate system 92A can be grasped. This force coordinate system 92A is a coordinate system for executing a function using the force detected by the virtual force sensor 18A. facing the direction

また、制御部51は、作用点96Aに作用する力の大きさを表示装置31に表示させる。これにより、仮想エンドエフェクター7Aまたは仮想エンドエフェクター7Aが保持する仮想保持対象物80Aの作用点96Aに加わる力を把握することができる。 Further, the control unit 51 causes the display device 31 to display the magnitude of the force acting on the point of action 96A. Thereby, the force applied to the point of action 96A of the virtual end effector 7A or the virtual held object 80A held by the virtual end effector 7A can be grasped.

また、作用点96Aに作用する力の大きさは、矢印の大きさで表される。これにより、仮想エンドエフェクター7Aまたは仮想エンドエフェクター7Aが保持する仮想保持対象物80Aの作用点96Aに加わる力を容易に把握することができる。 Also, the magnitude of the force acting on the point of action 96A is represented by the size of the arrow. This makes it possible to easily grasp the force applied to the point of action 96A of the virtual end effector 7A or the virtual held object 80A held by the virtual end effector 7A.

<第4実施形態>
図26および図27は、それぞれ、第4実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。
<Fourth Embodiment>
26 and 27 are diagrams respectively showing examples of simulations performed by the robot system simulation device according to the fourth embodiment.

以下、第4実施形態について説明するが、前述した実施形態との相違点を中心に説明し、同様の事項はその説明を省略する。 The fourth embodiment will be described below, but the description will focus on the differences from the above-described embodiments, and the description of the same items will be omitted.

第4実施形態のシミュレーション装置5は、取付部分とは異なる仮想物体と、仮想対象物との干渉(例えば、衝突、接触等)を検出し、干渉した場合(干渉を検知した)は、その仮想物体と仮想対象物とが干渉したことを表示装置31に表示(報知)する機能を有している。 The simulation device 5 of the fourth embodiment detects interference (for example, collision, contact, etc.) between a virtual object different from the attachment portion and the virtual object, and when interference occurs (interference is detected), the virtual object It has a function of displaying (notifying) on the display device 31 that an object and a virtual object interfere with each other.

図26および図27に示すように、本実施形態では、仮想対象物として、仮想力覚センサー18Aと、仮想力覚センサー18Aを仮想アーム16Aに取り付けるために用いる仮想フランジ19Aとを例に挙げ、また、取付部分とは異なる仮想物体として、仮想物体76Aを例に挙げて説明する。なお、仮想対象物としては、この他、第1実施形態で例示したもの等が挙げられ、例えば、仮想エンドエフェクター17Aが把持(保持)した仮想ワーク、仮想ロボット1に取り付けられた仮想カメラ等でもよい。以下、具体的に説明する。 As shown in FIGS. 26 and 27, in this embodiment, the virtual object is a virtual force sensor 18A and a virtual flange 19A used for attaching the virtual force sensor 18A to the virtual arm 16A. A virtual object 76A will be described as an example of a virtual object different from the attachment portion. In addition, examples of the virtual object include those exemplified in the first embodiment. good. A specific description will be given below.

制御部51は、仮想ロボット1Aと仮想力覚センサー18Aとを連動させて動作させる入力を外部入出力部53が受け付けた場合、仮想力覚センサー18Aと仮想物体76Aとの干渉を検出し、また、仮想フランジ19Aと仮想物体76Aとの干渉を検出する。この場合、仮想力覚センサー18Aと仮想物体76Aとの干渉の検出と、仮想フランジ19Aと仮想物体76Aとの干渉の検出とは、いずれを先に行ってもよく、また、同時に行ってもよい。 When the external input/output unit 53 receives an input for interlocking the virtual robot 1A and the virtual force sensor 18A, the control unit 51 detects interference between the virtual force sensor 18A and the virtual object 76A. , to detect interference between the virtual flange 19A and the virtual object 76A. In this case, the detection of the interference between the virtual force sensor 18A and the virtual object 76A and the detection of the interference between the virtual flange 19A and the virtual object 76A may be performed first, or may be performed simultaneously. .

また、制御部51は、仮想力覚センサー18Aと仮想アーム16との干渉は検出せず、また、仮想フランジ19Aと仮想アーム16との干渉は検出しない。また、制御部51は、仮想力覚センサー18Aと仮想エンドエフェクター(図示せず)との干渉は検出せず、また、仮想フランジ19Aと仮想エンドエフェクター(図示せず)との干渉は検出しない。また、第1実施形態の仮想対象物71A、72Aの場合は、制御部51は、仮想対象物71Aと仮想エンドエフェクター17Aとの干渉は検出せず、また、仮想対象物72Aと仮想関節175(仮想アーム14および仮想アーム15)との干渉は検出しない。 Further, the control unit 51 does not detect interference between the virtual force sensor 18A and the virtual arm 16, and does not detect interference between the virtual flange 19A and the virtual arm 16. FIG. Further, the control unit 51 does not detect interference between the virtual force sensor 18A and the virtual end effector (not shown), and does not detect interference between the virtual flange 19A and the virtual end effector (not shown). Further, in the case of the virtual objects 71A and 72A of the first embodiment, the control unit 51 does not detect interference between the virtual object 71A and the virtual end effector 17A, and the virtual object 72A and the virtual joint 175 ( Interference with virtual arm 14 and virtual arm 15) is not detected.

図26に示すように、仮想力覚センサー18Aと仮想物体76Aとが干渉した場合は、制御部51は、仮想力覚センサー18Aと仮想物体76Aとが干渉したことを表示装置31に表示させる。これにより、容易に、仮想力覚センサー18Aと仮想物体76Aとが干渉したことを把握することができる。 As shown in FIG. 26, when the virtual force sensor 18A and the virtual object 76A interfere with each other, the control unit 51 causes the display device 31 to display that the virtual force sensor 18A and the virtual object 76A interfere with each other. This makes it possible to easily grasp that the virtual force sensor 18A and the virtual object 76A interfere with each other.

また、図27に示すように、仮想フランジ19Aと仮想物体76Aとが干渉した場合は、制御部51は、仮想フランジ19Aと仮想物体76Aとが干渉したことを表示装置31に表示させる。これにより、容易に、仮想フランジ19Aと仮想物体76Aとが干渉したことを把握することができる。 Further, as shown in FIG. 27, when the virtual flange 19A and the virtual object 76A interfere with each other, the control unit 51 causes the display device 31 to display that the virtual flange 19A and the virtual object 76A interfere with each other. Thereby, it is possible to easily grasp that the virtual flange 19A and the virtual object 76A interfere with each other.

また、仮想力覚センサー18Aおよび仮想フランジ19Aと、仮想物体76Aとが干渉した場合(図示せず)は、制御部51は、仮想力覚センサー18Aおよび仮想フランジ19Aと、仮想物体76Aとが干渉したことを表示装置31に表示させる。これにより、容易に、仮想力覚センサー18Aおよび仮想フランジ19Aと、仮想物体76Aとが干渉したことを把握することができる。 When the virtual force sensor 18A and the virtual flange 19A interfere with the virtual object 76A (not shown), the controller 51 controls the virtual force sensor 18A and the virtual flange 19A to interfere with the virtual object 76A. The display device 31 displays what has been done. Thereby, it is possible to easily grasp that the virtual force sensor 18A and the virtual flange 19A interfere with the virtual object 76A.

したがって、実機の作成前に、周辺機器の配置の検証、動作経路の検証等を容易に行うことができる。 Therefore, it is possible to easily verify the arrangement of the peripheral devices, verify the operation paths, etc. before creating the actual device.

ここで、干渉したことを表示装置31に表示するには、表示装置31の表示態様を変更するが、その表示方法(報知方法)としては、特に限定されず、例えば、表示装置31に文字で表示する方法、色を変更する方法等が挙げられる。 Here, in order to display the interference on the display device 31, the display mode of the display device 31 is changed, but the display method (notification method) is not particularly limited. A method of displaying, a method of changing colors, and the like can be mentioned.

本実施形態では、干渉したものの色を変更する方法を採用している。
すなわち、図26に示すように、仮想力覚センサー18Aと仮想物体76Aとが干渉した場合は、仮想力覚センサー18Aの全体の色を他の色に変更する。なお、図26では、仮想力覚センサー18Aに斜線を付して色を変更したことを示している。これにより、容易かつ適確に、仮想フランジ19Aではなく、仮想力覚センサー18Aと仮想物体76Aとが干渉したことを把握することができる。なお、仮想力覚センサー18Aの全体の色ではなく、一部の色を他の色に変更するようにしてもよい。また、仮想力覚センサー18Aのみではなく、仮想物体76Aの全体の色または一部の色も他の色に変更するようにしてもよい。この場合、仮想物体76Aの変更後の色と、仮想力覚センサー18Aの変更後の色とは、同一でもよく、また、異なっていてもよい。
This embodiment employs a method of changing the color of the object that interferes.
That is, as shown in FIG. 26, when the virtual force sensor 18A interferes with the virtual object 76A, the entire color of the virtual force sensor 18A is changed to another color. In FIG. 26, the virtual force sensor 18A is shaded to indicate that the color has been changed. Thereby, it is possible to easily and accurately grasp that the virtual force sensor 18A interferes with the virtual object 76A instead of the virtual flange 19A. It should be noted that a part of the color of the virtual force sensor 18A may be changed to another color instead of the color of the entire virtual force sensor 18A. In addition, not only the virtual force sensor 18A but also the entire or partial color of the virtual object 76A may be changed to another color. In this case, the changed color of the virtual object 76A and the changed color of the virtual force sensor 18A may be the same or different.

また、変更後の色は、特に限定されず、諸条件に応じて適宜設定可能であり、例えば、赤色、黄色、橙色、紫色等が挙げられ、1色を用いてもよく、また、複数色を用いてもよい。また、前記の色のうちでは、赤色は、仮想力覚センサー18Aと仮想物体76Aとが干渉したことをイメージし易い色であり、好適である。また、変更後の色は、種々の色に変更可能、例えば、赤色、黄色、橙色、紫色等の複数色のうちから任意の色を選択できるようにしてもよい。 In addition, the color after change is not particularly limited, and can be appropriately set according to various conditions. Examples include red, yellow, orange, purple, etc. One color may be used, and multiple colors may be used. Among the above colors, red is preferable because it is a color that makes it easy to imagine that the virtual force sensor 18A and the virtual object 76A interfere with each other. Moreover, the color after the change can be changed to various colors, for example, an arbitrary color can be selected from a plurality of colors such as red, yellow, orange, and purple.

また、図27に示すように、仮想フランジ19Aと仮想物体76Aとが干渉した場合は、仮想フランジ19Aの全体の色を他の色に変更する。仮想フランジ19Aの変更後の色と、仮想力覚センサー18Aの変更後の色とは、同一でもよく、また、異なっていてもよい。なお、図27では、仮想フランジ19Aに斜線を付して色を変更したことを示している。これにより、容易かつ適確に、仮想力覚センサー18Aではなく、仮想フランジ19Aと仮想物体76Aとが干渉したことを把握することができる。なお、仮想フランジ19Aの全体の色ではなく、一部の色を他の色に変更するようにしてもよい。また、仮想フランジ19Aのみではなく、仮想物体76Aの全体の色または一部の色も他の色に変更するようにしてもよい。この場合、仮想物体76Aの変更後の色と、仮想フランジ19Aの変更後の色とは、同一でもよく、また、異なっていてもよい。なお、変更後の色については、仮想力覚センサー18Aと同様であるので、その説明は省略する。 Also, as shown in FIG. 27, when the virtual flange 19A and the virtual object 76A interfere with each other, the entire color of the virtual flange 19A is changed to another color. The changed color of the virtual flange 19A and the changed color of the virtual force sensor 18A may be the same or different. In addition, in FIG. 27, the imaginary flange 19A is shaded to indicate that the color has been changed. Thereby, it is possible to easily and accurately grasp that the virtual flange 19A and the virtual object 76A interfere with each other, not the virtual force sensor 18A. Note that a part of the virtual flange 19A may be changed to another color instead of the entire color. Further, not only the virtual flange 19A but also the entire color of the virtual object 76A or a part of the virtual object 76A may be changed to another color. In this case, the changed color of the virtual object 76A and the changed color of the virtual flange 19A may be the same or different. Note that the post-change colors are the same as those of the virtual force sensor 18A, so description thereof will be omitted.

また、図示しないが、仮想力覚センサー18Aおよび仮想フランジ19Aと、仮想物体76Aとが干渉した場合は、仮想力覚センサー18Aおよび仮想フランジ19Aの全体の色を他の色に変更する。仮想フランジ19Aの変更後の色と、仮想力覚センサー18Aの変更後の色とは、同一でもよく、また、異なっていてもよい。これにより、容易かつ適確に、仮想力覚センサー18Aおよび仮想フランジ19Aと仮想物体76Aとが干渉したことを把握することができる。なお、仮想力覚センサー18Aの全体の色ではなく、一部の色を他の色に変更するようにしてもよい。また、仮想フランジ19Aの全体の色ではなく、一部の色を他の色に変更するようにしてもよい。また、仮想力覚センサー18Aおよび仮想フランジ19Aのみではなく、仮想物体76Aの全体の色または一部の色も他の色に変更するようにしてもよい。この場合、仮想物体76Aの変更後の色と仮想力覚センサー18Aの変更後の色とは、同一でもよく、また、異なっていてもよい。また、仮想物体76Aの変更後の色と仮想フランジ19Aの変更後の色とは、同一でもよく、また、異なっていてもよい。なお、変更後の色については、仮想力覚センサー18Aと同様であるので、その説明は省略する。 Also, although not shown, if the virtual force sensor 18A and the virtual flange 19A interfere with the virtual object 76A, the entire color of the virtual force sensor 18A and the virtual flange 19A is changed to another color. The changed color of the virtual flange 19A and the changed color of the virtual force sensor 18A may be the same or different. This makes it possible to easily and accurately grasp that the virtual force sensor 18A and the virtual flange 19A interfere with the virtual object 76A. It should be noted that a part of the color of the virtual force sensor 18A may be changed to another color instead of the color of the entire virtual force sensor 18A. Further, instead of changing the color of the entire virtual flange 19A, a part of the virtual flange 19A may be changed to another color. Also, not only the virtual force sensor 18A and the virtual flange 19A, but also the color of the entire virtual object 76A or a part thereof may be changed to another color. In this case, the changed color of the virtual object 76A and the changed color of the virtual force sensor 18A may be the same or different. Further, the changed color of the virtual object 76A and the changed color of the virtual flange 19A may be the same or different. Note that the post-change colors are the same as those of the virtual force sensor 18A, so description thereof will be omitted.

以上のような第4実施形態によっても、前述した実施形態と同様の効果を発揮することができる。 According to the fourth embodiment as described above, the same effects as those of the above-described embodiments can be exhibited.

以上説明したように、制御部51は、仮想ロボット1Aと仮想力覚センサー18A(仮想対象物)とを連動させて動作させる入力を外部入出力部53(受付部)が受け付けた場合、取付部分とは異なる仮想物体76Aと、仮想力覚センサー18A(仮想対象物)とが干渉した場合、取付部分とは異なる仮想物体76Aと仮想力覚センサー18A(仮想対象物)とが干渉したことを表示装置31に表示させる。これにより、容易に、取付部分とは異なる仮想物体76Aと仮想力覚センサー18A(仮想対象物)とが干渉したことを把握することができる。これによって、実機の作成前に、周辺機器の配置の検証、動作経路の検証等を容易に行うことができる。 As described above, when the external input/output unit 53 (receiving unit) receives an input that causes the virtual robot 1A and the virtual force sensor 18A (virtual object) to operate in conjunction with each other, the control unit 51 controls the attachment portion. When the virtual object 76A different from the installation part and the virtual force sensor 18A (virtual object) interfere with each other, it is displayed that the virtual object 76A different from the mounting part interferes with the virtual force sensor 18A (virtual object). display on the device 31. Thereby, it is possible to easily grasp that the virtual object 76A different from the attachment portion interferes with the virtual force sensor 18A (virtual object). This makes it possible to easily verify the arrangement of peripheral devices, verify the operation paths, etc., before creating an actual device.

<第5実施形態>
図28から図34は、それぞれ、第5実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。
<Fifth Embodiment>
28 to 34 are diagrams showing examples of simulations performed by the robot system simulation apparatus according to the fifth embodiment.

以下、第5実施形態について説明するが、前述した実施形態との相違点を中心に説明し、同様の事項はその説明を省略する。 The fifth embodiment will be described below, but the description will focus on the differences from the above-described embodiments, and the description of the same items will be omitted.

図28から図34に示す様に、第5実施形態のシミュレーション装置5では、制御部51は、仮想ロボット1Aの動作方向を表示装置31に表示させる。本実施形態において、制御部51は、フォース座標系922Aを表示させ、仮想アーム16Aの並進方向を示す矢印502Aと回転方向を示す矢印504Aとの少なくとも一方を仮想ロボット1Aの動作方向として表示装置31に表示させる。なお、本実施形態において、仮想アーム16Aの並進方向とは、仮想アーム16Aの先端中心P2が移動する方向である。本実施形態において、フォース座標系922Aは、仮想アーム16Aの先端中心P2を原点として有し、仮想力覚センサー18Aで検出される力を用いた機能を実行するための互いに直交する3軸を有する3次元の座標系である。本実施形態におけるフォース座標系922Aを座標変換することによって、例えば、第3実施形態におけるフォース座標系92Aが得られる。本実施形態において、制御部51は、教示された作業に応じて仮想アーム16Aの動作量を算出し、算出された動作量に応じて並進方向を示す矢印502Aと回転方向を示す矢印504Aとを作成する。 As shown in FIGS. 28 to 34, in the simulation device 5 of the fifth embodiment, the controller 51 causes the display device 31 to display the motion direction of the virtual robot 1A. In this embodiment, the control unit 51 causes the force coordinate system 922A to be displayed, and the display device 31 uses at least one of the arrow 502A indicating the translational direction and the arrow 504A indicating the rotational direction of the virtual arm 16A as the movement direction of the virtual robot 1A. to display. In this embodiment, the translational direction of the virtual arm 16A is the direction in which the tip center P2 of the virtual arm 16A moves. In this embodiment, the force coordinate system 922A has the tip center P2 of the virtual arm 16A as its origin, and has three mutually orthogonal axes for performing functions using the force detected by the virtual force sensor 18A. It is a three-dimensional coordinate system. For example, the force coordinate system 92A in the third embodiment is obtained by subjecting the force coordinate system 922A in the present embodiment to coordinate transformation. In this embodiment, the control unit 51 calculates the movement amount of the virtual arm 16A according to the instructed work, and changes the arrow 502A indicating the translation direction and the arrow 504A indicating the rotation direction according to the calculated movement amount. create.

図28では、仮想アーム16AがFz方向に沿った方向に並進する場合における、表示の一例が示されている。本実施形態において、矢印502Aの示す方向は、動作に伴う押し付けの方向である。本実施形態では、制御部51は、並進力の大きさに応じて矢印502Aの大きさを変化させる。 FIG. 28 shows an example of display when the virtual arm 16A translates in the direction along the Fz direction. In this embodiment, the direction indicated by the arrow 502A is the direction of pressing accompanying the operation. In this embodiment, the controller 51 changes the size of the arrow 502A according to the magnitude of the translational force.

本実施形態において、シミュレーション装置5は、仮想アーム16AがFx方向とFy方向とFz方向とのうちの複数の方向成分が合成された方向に移動する場合であっても、矢印502Aを表示可能である。例えば図29に示す様に、シミュレーション装置5は、仮想アーム16AがFz方向成分とFy方向成分とが合成された方向に沿って並進する場合であっても、矢印502Aを表示可能である。また、図30に示す様に、仮想アーム16AがFx方向成分とFy方向成分とFz方向成分とが合成された方向に沿って並進する場合であっても、矢印502Aを表示可能である。 In this embodiment, the simulation device 5 can display the arrow 502A even when the virtual arm 16A moves in a direction in which a plurality of direction components among the Fx direction, the Fy direction, and the Fz direction are synthesized. be. For example, as shown in FIG. 29, the simulation device 5 can display an arrow 502A even when the virtual arm 16A translates along the combined direction of the Fz direction component and the Fy direction component. Further, as shown in FIG. 30, the arrow 502A can be displayed even when the virtual arm 16A translates along the combined direction of the Fx direction component, the Fy direction component, and the Fz direction component.

図31では、仮想アーム16AがFz方向を回転軸として回転する場合、つまりTz方向に回転する場合における、表示の一例が示されている。本実施形態において、矢印504Aは、動作に伴う回転方向を示している。また、矢印506Aは、仮想アーム16Aが回転する際の回転軸を示している。本実施形態では、制御部51は、回転力の大きさに応じて矢印502Aの大きさを変化させる。なお、回転軸を示す矢印506Aと並進方向を示す矢印502Aとが互いに判別可能となる様に表示されることが好ましい。この場合には、例えば、矢印506Aと矢印502Aはそれぞれ異なる色で表示されていても良く、また、それぞれ異なる大きさで表示されていても良い。 FIG. 31 shows an example of display when the virtual arm 16A rotates about the Fz direction as the rotation axis, that is, rotates in the Tz direction. In this embodiment, arrow 504A indicates the direction of rotation associated with operation. An arrow 506A indicates the rotation axis when the virtual arm 16A rotates. In this embodiment, the controller 51 changes the size of the arrow 502A according to the magnitude of the rotational force. It is preferable that the arrow 506A indicating the axis of rotation and the arrow 502A indicating the direction of translation be displayed so as to be distinguishable from each other. In this case, for example, the arrows 506A and 502A may be displayed in different colors and may be displayed in different sizes.

本実施形態において、シミュレーション装置5は、仮想アーム16AがFx方向とFy方向とFz方向とのうちの複数の方向成分が合成された方向に延びる回転軸周りに回転する場合、つまりTx方向とTy方向とTz方向とのうちの複数の回転方向で回転する場合であっても、矢印504Aを表示可能である。図32に示す様に、シミュレーション装置5は、仮想アーム16AがTz回転方向成分とTy回転方向成分とが合成された回転軸周りに回転する場合であっても、矢印506Aを表示可能である。また、図33に示す様に、仮想アーム16AがTx回転方向成分とTy回転方向成分とTz回転方向成分とが合成された回転軸周りに回転する場合であっても、矢印506Aを表示可能である。 In the present embodiment, the simulation device 5 is configured so that when the virtual arm 16A rotates around a rotation axis extending in a direction in which a plurality of directional components of the Fx direction, the Fy direction, and the Fz direction are combined, that is, the Tx direction and the Ty The arrow 504A can be displayed even when rotating in more than one of the direction and the Tz direction. As shown in FIG. 32, the simulation device 5 can display the arrow 506A even when the virtual arm 16A rotates around the combined rotation axis of the Tz rotation direction component and the Ty rotation direction component. Further, as shown in FIG. 33, even when the virtual arm 16A rotates around the rotation axis obtained by synthesizing the Tx rotation direction component, the Ty rotation direction component, and the Tz rotation direction component, the arrow 506A can be displayed. be.

本実施形態において、シミュレーション装置5は、仮想ロボット1Aが仮想アーム16Aの並進と回転との両方を行う場合であっても、矢印502A、504Aを表示可能である。例えば図34では、仮想アーム16AがFz方向に並進し、かつ、Tz方向に回転する場合における、表示の一例が示されている。 In this embodiment, the simulation device 5 can display the arrows 502A and 504A even when the virtual robot 1A translates and rotates the virtual arm 16A. For example, FIG. 34 shows an example of display when the virtual arm 16A translates in the Fz direction and rotates in the Tz direction.

以上説明した第5実施形態のシミュレーション装置5によれば、制御部51は、仮想ロボット1Aの動作方向を表示装置31に表示させる。このため、作業者は、ロボット1を実際に動作させることなく、シミュレーション装置5を用いて仮想ロボット1Aの動作方向を確認することができる(図28から図34の502A、504A参照)。これにより、例えば図7から図11における[Offset From Selected Tool or Joint]46を用いて作業を教示する場合において、作業者は、実際にロボット1を動作させることなく、入力した各数値の正負が正しいか否かを確認できる。 According to the simulation apparatus 5 of the fifth embodiment described above, the control section 51 causes the display device 31 to display the movement direction of the virtual robot 1A. Therefore, the operator can confirm the movement direction of the virtual robot 1A using the simulation device 5 without actually moving the robot 1 (see 502A and 504A in FIGS. 28 to 34). As a result, for example, when teaching a task using [Offset From Selected Tool or Joint] 46 in FIGS. You can check whether it is correct or not.

なお、本実施形態において、制御部51は、仮想アーム16Aの先端中心を原点とするフォース座標系922Aを基準として、矢印502A、504A、506Aを作成しているが、これに限定されない。例えば、仮想アーム16Aの先端に仮想エンドエフェクター17Aが設けられている場合には、制御部51は、仮想エンドエフェクターの先端中心を原点とするツール座標系を基準として、矢印502A、504A、506Aを作成してもよい。 In this embodiment, the controller 51 creates the arrows 502A, 504A, and 506A based on the force coordinate system 922A whose origin is the center of the distal end of the virtual arm 16A, but is not limited to this. For example, when the virtual end effector 17A is provided at the tip of the virtual arm 16A, the control unit 51 moves the arrows 502A, 504A, and 506A based on the tool coordinate system having the center of the tip of the virtual end effector as the origin. may be created.

<第6実施形態>
図35および図36は、それぞれ、第6実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの一例を示す図である。
<Sixth Embodiment>
35 and 36 are diagrams respectively showing examples of simulations performed by the robot system simulation apparatus according to the sixth embodiment.

以下、第6実施形態について説明するが、前述した実施形態との相違点を中心に説明し、同様の事項はその説明を省略する。 The sixth embodiment will be described below, but the description will focus on the differences from the above-described embodiments, and the description of the same items will be omitted.

第6実施形態のシミュレーション装置5では、制御部51は、仮想ロボット1Aの動作の目標終了位置を示すための進入検出平面510を設定し、表示装置31に表示させる。本実施形態において、制御部51は、進入検出平面510によって区画された空間のうち、一方を仮想アーム16Aが動作の目標終了位置を通過していることを示す内側512と設定する。また、制御部51は、進入検出平面510によって区画された空間のうち、他方を仮想アーム16Aが動作の目標終了位置に到達していないことを示す外側514と設定する。なお、本実施形態において、進入検出平面510は端部を有する予め定められた大きさの平面として表示装置31に表示されている。 In the simulation device 5 of the sixth embodiment, the control unit 51 sets the entry detection plane 510 for indicating the target end position of the motion of the virtual robot 1A and causes the display device 31 to display it. In this embodiment, the control unit 51 sets one of the spaces partitioned by the entry detection plane 510 as the inner side 512 indicating that the virtual arm 16A is passing through the target end position of the motion. In addition, the control unit 51 sets the other of the spaces partitioned by the entry detection plane 510 as an outer side 514 indicating that the virtual arm 16A has not reached the target end position of the motion. In this embodiment, the entry detection plane 510 is displayed on the display device 31 as a plane having a predetermined size and having edges.

制御部51は、例えば、作業者によって設定されたエンドエフェクター17Aの動作開始位置と移動方向と移動距離とに応じて算出される動作の目標終了位置を用いて進入検出平面510を作成する。具体的には、制御部51は、例えば目標終了位置にエンドエフェクター17Aが移動した場合における移動方向に直交し、目標終了位置におけるエンドエフェクター17Aの先端中心を含む平面を進入検出平面510として作成する。 The control unit 51 creates the entry detection plane 510 using, for example, the target end position of the motion calculated according to the motion start position, moving direction, and moving distance of the end effector 17A set by the operator. Specifically, the control unit 51 creates, as the entry detection plane 510, a plane that is perpendicular to the direction of movement of the end effector 17A when it moves to the target end position and that includes the tip center of the end effector 17A at the target end position. .

制御装置51は、進入検出平面510上に原点Oを有する座標系520Aを表示する。座標系520Aは、仮想ロボット1Aの動作からは独立した座標系である。本実施形態において、座標系520AのZ軸は、進入検出平面510に直行する座標軸である。座標系520Aの+Z軸方向は、進入検出平面510から内側512に向かって離れる方向である。座標系520Aが表示されることにより、作業者は、内側512と外側514とを容易に判別できる。 The control device 51 displays a coordinate system 520A having an origin O on the entry detection plane 510. FIG. The coordinate system 520A is a coordinate system independent of the motion of the virtual robot 1A. In this embodiment, the Z-axis of coordinate system 520A is a coordinate axis orthogonal to entrance detection plane 510 . The +Z-axis direction of the coordinate system 520A is the direction away from the entrance detection plane 510 toward the inner side 512 . By displaying the coordinate system 520</b>A, the operator can easily distinguish between the inside 512 and the outside 514 .

図35及び図36に示したように、本実施形態において、制御部51は、進入検出平面510とともに、教示された作業を実行した場合における仮想ロボット1Aの作業終了時の姿勢を表示装置31に表示させる。図35に示す様に、教示された作業をシミュレーションした結果、仮想エンドエフェクター17Aが目標終了位置に到達していない場合には、仮想エンドエフェクター17Aが進入検出平面510の外側514に位置している。図36に示す様に、教示された作業をシミュレーションした結果、仮想エンドエフェクター17Aが目標終了位置を通過している場合には、仮想エンドエフェクター17Aの先端側が進入検出平面510の内側512に位置している。なお、教示された作業をシミュレーションした結果、仮想エンドエフェクター17Aが目標終了位置に到達している場合には、仮想エンドエフェクター17Aの先端側は進入検出平面510上に位置する。 As shown in FIGS. 35 and 36, in the present embodiment, the control unit 51 causes the display device 31 to display the posture of the virtual robot 1A at the end of the work when the instructed work is executed, together with the entry detection plane 510. display. As shown in FIG. 35, when the virtual end effector 17A has not reached the target end position as a result of simulating the taught work, the virtual end effector 17A is positioned outside 514 of the entry detection plane 510. . As a result of simulating the taught work, as shown in FIG. 36, when the virtual end effector 17A passes the target end position, the tip side of the virtual end effector 17A is positioned inside 512 of the entrance detection plane 510. ing. As a result of simulating the taught work, the tip side of the virtual end effector 17A is positioned on the entry detection plane 510 when the virtual end effector 17A has reached the target end position.

以上説明した第6実施形態によれば、制御部51は、仮想ロボット1Aの動作の目標終了位置を示すための進入検出平面510を設定し、表示装置31に表示させる。このため、作業者は、ロボット1を実際に動作させることなく、シミュレーション装置5を用いて仮想ロボット1Aの教示した動作の終了位置と目標終了位置と比較することができる。このため、作業者は、教示した動作の終了位置が適切であるかを容易に確認することができる。 According to the sixth embodiment described above, the control unit 51 sets the entry detection plane 510 for indicating the target end position of the motion of the virtual robot 1A and causes the display device 31 to display it. Therefore, the operator can use the simulation device 5 to compare the end position of the motion taught by the virtual robot 1</b>A with the target end position without actually operating the robot 1 . Therefore, the operator can easily confirm whether the end position of the taught motion is appropriate.

なお、本実施形態において、制御部51は、進入検出平面510を用いて仮想ロボット1Aの動作の終了位置を表示させているが、これに限定されない。例えば、制御部51は、進入検出平面510に代えて、終了位置におけるツール座標系41AのZ軸に直交する無限平面を表示させてもよい。また、制御部51は、進入検出平面510に代えて、三次元的な広がりを有する空間を設定し、表示させてもよい。この場合に表示される空間は、例えば、終了位置におけるツールセンターポイントPを中心とした予め定められた大きさの空間であってもよい。これらの場合であっても、進入検出平面510の表示する場合と同様に、作業者は、ロボット1を実際に動作させることなく、ミュレーション装置5を用いて教示した動作の終了位置が適切であるかを容易に確認することができる。 In the present embodiment, the control unit 51 uses the entry detection plane 510 to display the motion end position of the virtual robot 1A, but the present invention is not limited to this. For example, instead of the entry detection plane 510, the control unit 51 may display an infinite plane perpendicular to the Z-axis of the tool coordinate system 41A at the end position. Further, instead of the entry detection plane 510, the control unit 51 may set and display a space having a three-dimensional spread. The space displayed in this case may be, for example, a space of a predetermined size centered on the tool center point P at the end position. Even in these cases, as in the case where the entry detection plane 510 is displayed, the operator is not allowed to actually move the robot 1, but the end position of the motion taught using the simulation device 5 is appropriate. You can easily check if there is

また、制御部51は、座標系520Aの表示に代えて、仮想ロボット1Aの色を変化させることによって、仮想ロボット1Aが進入検出平面510の内側512と外側514とのいずれかに位置しているかを表示してもよい。具体的には、例えば、仮想ロボット1Aのうち内側512にある領域と外側514にある領域とを異なる色で表示してもよい。この場合であっても、作業者は、内側512と外側514とを容易に判別できる。 Further, the control unit 51 changes the color of the virtual robot 1A instead of displaying the coordinate system 520A to determine whether the virtual robot 1A is positioned inside 512 or outside 514 of the entrance detection plane 510. may be displayed. Specifically, for example, the inner area 512 and the outer area 514 of the virtual robot 1A may be displayed in different colors. Even in this case, the operator can easily distinguish between the inner side 512 and the outer side 514 .

また、制御部51は、仮想ロボット1Aに加えて、ロボット1の周囲に配置されている他のロボットに対応した他の仮想ロボットを表示させてもよい。この場合には、作業者は、仮想ロボット1Aの動作の終了位置と他の仮想ロボットの位置との関係を確認することができる。仮想ロボット1Aに加えて他の仮想ロボットを表示装置31に表示させる場合において、仮想ロボット1Aと他の仮想ロボットとは、異なる色で表示されることが好ましい。これにより、仮想ロボット1Aを含む複数の仮想ロボットが表示されている場合であっても、作業者は、進入検出平面510に進入したロボットが仮想ロボット1A自身であるか、他の仮想ロボットであるか、を判別できる。 In addition to the virtual robot 1</b>A, the control unit 51 may display other virtual robots corresponding to other robots arranged around the robot 1 . In this case, the worker can confirm the relationship between the motion end position of the virtual robot 1A and the positions of the other virtual robots. When displaying other virtual robots on the display device 31 in addition to the virtual robot 1A, the virtual robot 1A and the other virtual robots are preferably displayed in different colors. As a result, even when a plurality of virtual robots including the virtual robot 1A are displayed, the operator can determine whether the robot that has entered the entry detection plane 510 is the virtual robot 1A itself or another virtual robot. or can be determined.

また、制御部51は、仮想ロボット1Aの進入検出平面510に加えて、他の仮想ロボットにおける進入検出平面を表示させてもよい。この場合には、制御部51は、他の仮想ロボットが動作に応じて移動しうる領域を他の仮想ロボットの検出平面を用いて表示装置31に表示させることができる。なお、自身の進入検出平面510と他の仮想ロボットにおける進入検出平面とは異なる色で表示されることが好ましい。この場合には、作業者は、仮想ロボット1Aが仮想ロボット1A自身の進入検出平面510に到達した場合と、他の仮想ロボットの進入検出平面に到達した場合と、を容易に区別することができる。 In addition to the entry detection plane 510 of the virtual robot 1A, the control unit 51 may display the entry detection planes of other virtual robots. In this case, the control unit 51 can cause the display device 31 to display the area in which the other virtual robot can move according to the motion using the detection plane of the other virtual robot. It is preferable that the entry detection plane 510 of itself and the entry detection planes of other virtual robots are displayed in different colors. In this case, the worker can easily distinguish between the case where the virtual robot 1A reaches the entry detection plane 510 of the virtual robot 1A itself and the case where the entry detection plane of another virtual robot is reached. .

以上、第1実施形態から第6実施形態を用いてロボットシステム100について説明した。なお、「ロボットシステム」は、図37、図38に示す形態であってもよい。 The robot system 100 has been described above using the first to sixth embodiments. The "robot system" may be in the form shown in FIGS. 37 and 38. FIG.

図37、図38は、それぞれ、ロボットシステムの他の構成例を示す図(ブロック図)である。 37 and 38 are diagrams (block diagrams) showing other configuration examples of the robot system.

図37には、ロボット1に直接コンピューター63が接続されたロボットシステム100Bの全体構成図を示す。ロボット1の制御はコンピューター63に存在するプロセッサーによりメモリーにある指令を読み出して直接実行される。コンピューター63は、前述したロボット制御装置2およびシミュレーション装置5の機能を有する。 FIG. 37 shows an overall configuration diagram of a robot system 100B in which a computer 63 is directly connected to the robot 1. As shown in FIG. The control of the robot 1 is directly executed by reading the instructions in the memory by the processor present in the computer 63 . The computer 63 has the functions of the robot control device 2 and the simulation device 5 described above.

図38には、コントローラー61が内蔵させたロボット1とコンピューター66とが接続され、コンピューター66がLAN(Local Area Network)等のネットワーク65を介してクラウド64に接続されているロボットシステム100Cの全体構成図を示す。ロボット1の制御はコンピューター66に存在するプロセッサーによりメモリーにある指令を読み出して実行されてもよいし、クラウド64上に存在するプロセッサーによりコンピューター66を介してメモリーにある指令を読み出して実行されてもよい。コントローラー61が、前述したロボット制御装置2の機能を有し、コンピューター66またはクラウド64が、前述したシミュレーション装置5の機能を有する。 FIG. 38 shows the overall configuration of a robot system 100C in which a robot 1 with a built-in controller 61 and a computer 66 are connected, and the computer 66 is connected to a cloud 64 via a network 65 such as a LAN (Local Area Network). Figure shows. The control of the robot 1 may be executed by reading instructions in memory by a processor existing in the computer 66, or may be executed by reading instructions in memory via the computer 66 by a processor existing in the cloud 64. good. The controller 61 has the functions of the robot control device 2 described above, and the computer 66 or the cloud 64 has the functions of the simulation device 5 described above.

また、ロボットシステム100B、100Cでは、各プロセッサーは、それぞれ、1つの装置で構成されていてもよく、また、複数の装置で構成されていてもよい、すなわち、複数の単位プロセッサーに分かれていてもよい。 Further, in the robot systems 100B and 100C, each processor may be composed of one device, or may be composed of a plurality of devices, that is, may be divided into a plurality of unit processors. good.

以上、本発明のシミュレーション装置、制御装置およびロボットを図示の実施形態に基づいて説明したが、本発明は、これに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、他の任意の構成物が付加されていてもよい。 The simulation apparatus, control apparatus, and robot of the present invention have been described above based on the illustrated embodiments, but the present invention is not limited to this, and the configuration of each part may be any configuration having similar functions. can be replaced with Also, other optional components may be added.

また、本発明は、前記各実施形態のうちの、任意の2以上の構成(特徴)を組み合わせたものであってもよい。 Further, the present invention may be a combination of any two or more configurations (features) of the above embodiments.

また、前述した実施形態では、ロボットとして、6軸の垂直多関節ロボットを例示したが、当該ロボットは、これに限らず、例えば、スカラーロボット等の水平多関節ロボット、脚部を有する脚式歩行(走行)ロボット等の他の形態のロボットであってもよい。また、当該ロボットは、単腕ロボットに限定されず、例えば、双腕ロボット等の他のロボットであってもよい。したがって、ロボットアーム(可動部)の数は、1つに限定されず、2つ以上であってもよい。また、ロボットアーム(可動部)が有するアームの数は、前述した実施形態では、6つであるが、1つ~5つまたは7つ以上であってもよい。 In the above-described embodiment, the robot is a 6-axis vertical multi-joint robot, but the robot is not limited to this. Other forms of robots such as (running) robots may also be used. Further, the robot is not limited to a single-arm robot, and may be another robot such as a double-arm robot. Therefore, the number of robot arms (movable parts) is not limited to one, and may be two or more. Also, the robot arm (movable part) has six arms in the above-described embodiment, but may have one to five arms or seven or more arms.

1…ロボット、1A…仮想ロボット、2…ロボット制御装置、5…シミュレーション装置、6A…仮想エンドエフェクター、7A…仮想エンドエフェクター、10…ロボットアーム、10A…仮想ロボットアーム、11…アーム、11A…仮想アーム、12…アーム、12A…仮想アーム、13…アーム、13A…仮想アーム、14…アーム、14A…仮想アーム、15…アーム、15A…仮想アーム、16…アーム、16A…仮想アーム、17…エンドエフェクター、17A…仮想エンドエフェクター、18A…仮想力覚センサー、19A…仮想フランジ、21…制御部、22…記憶部、23…外部入出力部、31…表示装置、32…入力装置、41…コンテキストメニュー、41A…ツール座標系、42…ダイアログ、42A…座標系、46…Offset From Selected Tool or Joint、46A…原点座標系、47A…原点座標系、51…制御部、52…記憶部、53…外部入出力部、61…コントローラー、63…コンピューター、64…クラウド、65…ネットワーク、66…コンピューター、70…設置箇所、71A…仮想対象物、72A…仮想対象物、76A…仮想物体、80A…仮想保持対象物、91A…力覚センサー座標系、92A…フォース座標系、96A…作用点、100…ロボットシステム、100B…ロボットシステム、100C…ロボットシステム、110…基台、110A…仮想基台、130…駆動部、140…角度センサー、171…関節、171A…仮想関節、172…関節、172A…仮想関節、173…関節、173A…仮想関節、174…関節、174A…仮想関節、175…関節、175A…仮想関節、176…関節、176A…仮想関節、411…Part/Mounted Device Setting、421…ドロップダウンリスト、422…ドロップダウンリスト、423…ドロップダウンリスト、424…ドロップダウンリスト、431…ドロップダウンリスト、441…ボタン、442…ボタン、443…ボタン、444…ボタン、451…チェックボックス、452…チェックボックス、453…チェックボックス、471…テキストボックス、472…ドロップダウンリスト、502A…矢印、504A…矢印、506A…矢印、510…進入検出平面、512…内側、514…外側、520A…座標系、922A…フォース座標系、O…原点、P…ツールセンターポイント、P2…ツールセンターポイント、WD1…画面、WD2…画面 DESCRIPTION OF SYMBOLS 1... Robot, 1A... Virtual robot, 2... Robot control device, 5... Simulation apparatus, 6A... Virtual end effector, 7A... Virtual end effector, 10... Robot arm, 10A... Virtual robot arm, 11... Arm, 11A... Virtual Arm 12 Arm 12A Virtual Arm 13 Arm 13A Virtual Arm 14 Arm 14A Virtual Arm 15 Arm 15A Virtual Arm 16 Arm 16A Virtual Arm 17 End Effector 17A Virtual end effector 18A Virtual force sensor 19A Virtual flange 21 Control unit 22 Storage unit 23 External input/output unit 31 Display device 32 Input device 41 Context Menu, 41A... Tool coordinate system, 42... Dialog, 42A... Coordinate system, 46... Offset From Selected Tool or Joint, 46A... Origin coordinate system, 47A... Origin coordinate system, 51... Control unit, 52... Storage unit, 53... External input/output unit 61 controller 63 computer 64 cloud 65 network 66 computer 70 installation location 71A virtual object 72A virtual object 76A virtual object 80A virtual Object to be held 91A Force sensor coordinate system 92A Force coordinate system 96A Action point 100 Robot system 100B Robot system 100C Robot system 110 Base 110A Virtual base 130 140 Angle sensor 171 Joint 171A Virtual joint 172 Joint 172A Virtual joint 173 Joint 173A Virtual joint 174 Joint 174A Virtual joint 175 Joint 175A ... Virtual joint 176 ... Joint 176A ... Virtual joint 411 ... Part/Mounted Device Setting 421 ... Drop-down list 422 ... Drop-down list 423 ... Drop-down list 424 ... Drop-down list 431 ... Drop-down list , 441... Button, 442... Button, 443... Button, 444... Button, 451... Check box, 452... Check box, 453... Check box, 471... Text box, 472... Drop down list, 502A... Arrow, 504A... Arrow , 506A... arrow, 510... entrance detection plane, 512... inner side, 514... outer side, 520A... coordinate system, 9 22A... force coordinate system, O... origin, P... tool center point, P2... tool center point, WD1... screen, WD2... screen

Claims (12)

ロボットを仮想化した仮想ロボットによるシミュレーションを行うシミュレーション装
置であって、
前記仮想ロボットと仮想対象物とを連動させて動作させるか否かに関する情報の入力と
、前記仮想ロボットに前記仮想対象物を取り付ける取付部分に関する情報の入力とを受け
付ける受付部と、
前記仮想ロボットと、前記受付部が受け付けた前記取付部分に取り付けられた前記仮想
対象物とを表示部に表示させ、前記仮想ロボットと前記仮想対象物とを連動させて動作さ
せる入力を前記受付部が受け付けた場合、前記仮想ロボットの動作に連動して、前記仮想
対象物を動作させる制御部と、を備え
前記受付部は、前記仮想ロボットが有する複数の座標系からの1つの座標系の選択を受
付可能であり、
前記制御部は、前記仮想ロボットと前記仮想対象物とを連動させて動作させる入力を前
記受付部が受け付けた場合、前記選択された座標系の原点と、前記仮想対象物が有する座
標系の原点とを一致させた状態で、前記表示部に表示させることを特徴とするシミュレー
ション装置。
A simulation device that performs a simulation with a virtual robot that virtualizes a robot,
a reception unit that receives input of information regarding whether or not to operate the virtual robot and the virtual object in conjunction with each other, and input of information regarding a mounting portion for mounting the virtual object on the virtual robot;
displaying on a display unit the virtual robot and the virtual object attached to the mounting portion accepted by the accepting unit, and receiving an input to operate the virtual robot and the virtual object in conjunction with each other; a control unit that operates the virtual object in conjunction with the operation of the virtual robot when the
The reception unit receives selection of one coordinate system from a plurality of coordinate systems possessed by the virtual robot.
can be attached,
The control unit receives an input for interlocking and operating the virtual robot and the virtual object.
When the receiving unit receives, the origin of the selected coordinate system and the coordinates of the virtual object
A simulation apparatus characterized in that the display is displayed in a state in which the origin of the reference system coincides with the display .
前記取付部分に取り付けられた前記仮想対象物は、前記取付部分から位置を変更可能で
ある請求項1に記載のシミュレーション装置。
2. The simulation apparatus according to claim 1, wherein the virtual object attached to the attachment portion can change its position from the attachment portion.
前記取付部分は、前記仮想ロボットが有する仮想関節を含む請求項1または2に記載の
シミュレーション装置。
3. The simulation device according to claim 1, wherein the attachment portion includes virtual joints of the virtual robot.
前記制御部は、前記仮想ロボットと前記仮想対象物とを連動させて動作させる入力を前
記受付部が受け付けた場合、前記取付部分とは異なる仮想物体と、前記仮想対象物とが干
渉した場合、前記取付部分とは異なる前記仮想物体と前記仮想対象物とが干渉したことを
前記表示部に表示させる請求項1ないしのいずれか1項に記載のシミュレーション装置
When the reception unit receives an input to cause the virtual robot and the virtual object to operate in conjunction with each other, the control unit is configured to control the virtual object to interfere with the virtual object different from the attachment portion, 4. The simulation apparatus according to any one of claims 1 to 3 , wherein the display unit displays that the virtual object different from the attachment portion and the virtual object interfere with each other.
前記仮想対象物は、仮想力覚センサーを含む請求項1ないしのいずれか1項に記載の
シミュレーション装置。
5. The simulation device according to any one of claims 1 to 4 , wherein the virtual object includes a virtual force sensor.
前記仮想対象物は、仮想エンドエフェクターを含み、
前記制御部は、前記仮想エンドエフェクターが前記仮想ロボットに取り付けられた状態
で、前記仮想力覚センサーを前記仮想ロボットに取り付ける場合、前記仮想エンドエフェ
クターの位置を変更し、前記仮想力覚センサーを前記仮想ロボットと前記仮想エンドエフ
ェクターとの間に取り付けた状態で前記表示部に表示させる請求項に記載のシミュレー
ション装置。
the virtual object includes a virtual end effector;
When the virtual force sensor is attached to the virtual robot while the virtual end effector is attached to the virtual robot, the control unit changes the position of the virtual end effector and attaches the virtual force sensor to the virtual robot. 6. The simulation device according to claim 5 , wherein the display is displayed in a state of being attached between the virtual robot and the virtual end effector.
前記制御部は、前記仮想力覚センサーが有する力覚センサー座標系を前記表示部に表示
させる請求項5または6に記載のシミュレーション装置。
7. The simulation device according to claim 5 , wherein the control unit causes the display unit to display a force sensor coordinate system of the virtual force sensor.
前記仮想対象物は、仮想エンドエフェクターを含み、
前記制御部は、前記仮想エンドエフェクターまたは前記仮想エンドエフェクターが保持
する仮想保持対象物が、他の仮想物体に作用する作用点を原点としたフォース座標系を前
記表示部に表示させる請求項5ないし7のいずれか1項に記載のシミュレーション装置。
the virtual object includes a virtual end effector;
6. The control unit causes the display unit to display a force coordinate system whose origin is a point of action at which the virtual end effector or the virtual held object held by the virtual end effector acts on another virtual object . 8. The simulation device according to any one of 7 .
前記制御部は、前記作用点に作用する力の大きさを前記表示部に表示させる請求項
記載のシミュレーション装置。
9. The simulation device according to claim 8 , wherein the control section causes the display section to display the magnitude of the force acting on the point of action.
前記力の大きさは、矢印の大きさで表される請求項に記載のシミュレーション装置。 10. The simulation device according to claim 9 , wherein the magnitude of said force is represented by the magnitude of an arrow. 請求項1ないし10のいずれか1項に記載のシミュレーション装置によるシミュレーシ
ョン結果に基づいてロボットを制御することを特徴とする制御装置。
A control device for controlling a robot based on a simulation result by the simulation device according to any one of claims 1 to 10 .
対象物を取り付けることが可能な取付部分を有し、
請求項11に記載の制御装置によって制御されることを特徴とするロボット。
Having an attachment part to which an object can be attached,
A robot controlled by the control device according to claim 11 .
JP2018122974A 2017-10-31 2018-06-28 Simulation equipment, controllers and robots Active JP7155664B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017211091 2017-10-31
JP2017211091 2017-10-31

Publications (3)

Publication Number Publication Date
JP2019081242A JP2019081242A (en) 2019-05-30
JP2019081242A5 JP2019081242A5 (en) 2021-07-26
JP7155664B2 true JP7155664B2 (en) 2022-10-19

Family

ID=66669940

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018122974A Active JP7155664B2 (en) 2017-10-31 2018-06-28 Simulation equipment, controllers and robots

Country Status (1)

Country Link
JP (1) JP7155664B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7388074B2 (en) * 2019-09-17 2023-11-29 オムロン株式会社 Simulation device, simulation program and simulation method
JP2021058972A (en) 2019-10-08 2021-04-15 ファナック株式会社 Robot system
JP7364696B2 (en) * 2020-01-20 2023-10-18 ファナック株式会社 robot simulation device
JP7567408B2 (en) * 2020-11-30 2024-10-16 セイコーエプソン株式会社 PROGRAM CREATION SUPPORT METHOD, PROGRAM CREATION SUPPORT DEVICE, PROGRAM CREATION SUPPORT PROGRAM, AND STORAGE MEDIUM
JP7556283B2 (en) * 2020-12-23 2024-09-26 オムロン株式会社 Simulation device and simulation program
TW202233368A (en) 2021-02-18 2022-09-01 日商發那科股份有限公司 Teaching device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009269155A (en) 2008-05-09 2009-11-19 Yamatake Corp Teaching device and teaching method
JP2013136123A (en) 2011-12-28 2013-07-11 Kawasaki Heavy Ind Ltd Assisting device and assisting method for teaching operation for robot
JP2014161921A (en) 2013-02-21 2014-09-08 Yaskawa Electric Corp Robot simulator, robot teaching device and robot teaching method
JP2017001122A (en) 2015-06-08 2017-01-05 ファナック株式会社 Robot and robot control device with force display function
JP2017019068A (en) 2015-07-14 2017-01-26 セイコーエプソン株式会社 Teaching device, robot, and robot system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07104714B2 (en) * 1990-04-03 1995-11-13 株式会社神戸製鋼所 Off-line teaching system for handling robot
JPH08132372A (en) * 1994-11-08 1996-05-28 Toshiba Corp Control method for robot

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009269155A (en) 2008-05-09 2009-11-19 Yamatake Corp Teaching device and teaching method
JP2013136123A (en) 2011-12-28 2013-07-11 Kawasaki Heavy Ind Ltd Assisting device and assisting method for teaching operation for robot
JP2014161921A (en) 2013-02-21 2014-09-08 Yaskawa Electric Corp Robot simulator, robot teaching device and robot teaching method
JP2017001122A (en) 2015-06-08 2017-01-05 ファナック株式会社 Robot and robot control device with force display function
JP2017019068A (en) 2015-07-14 2017-01-26 セイコーエプソン株式会社 Teaching device, robot, and robot system

Also Published As

Publication number Publication date
JP2019081242A (en) 2019-05-30

Similar Documents

Publication Publication Date Title
JP7155664B2 (en) Simulation equipment, controllers and robots
JP7091609B2 (en) Simulation equipment, robot control equipment and robots
KR101671569B1 (en) Robot simulator, robot teaching apparatus and robot teaching method
WO2014013605A1 (en) Robot simulator, robot teaching device and robot teaching method
US9731419B2 (en) System and method for programming robots
CN112313046A (en) Defining regions using augmented reality visualization and modification operations
JP4680516B2 (en) Method for fading in robot information to real-world images, and apparatus for visualizing robot information into real-world images
US20140195054A1 (en) Robot system, robot control device and method for controlling robot
EP2783812A2 (en) Robot device and method for manufacturing an object
JP5113666B2 (en) Robot teaching system and display method of robot operation simulation result
US20160346921A1 (en) Portable apparatus for controlling robot and method thereof
JP5108032B2 (en) Multi-joint structure teaching device
CN111267073A (en) Industrial robot teaching system and method based on augmented reality technology
Andersen et al. Task space HRI for cooperative mobile robots in fit-out operations inside ship superstructures
JP2019034352A (en) Simulation device, robot control device, and robot
JP2015174184A (en) Controller
Frank et al. Towards teleoperation-based interactive learning of robot kinematics using a mobile augmented reality interface on a tablet
KR102686459B1 (en) Apparatus and method for boundary plane setting
JP2019063879A (en) Simulation device, robot control device, and robot
US11110602B2 (en) Robot control device and robot system
WO2017032407A1 (en) An industrial robot system and a method for programming an industrial robot
Matour et al. Development of a Platform for Novel Intuitive Control of Robotic Manipulators using Augmented Reality and Cartesian Force Control
JP2021104551A (en) Robot drive region simulation device, robot drive region simulation method and robot drive region simulation program
JPH03288211A (en) Off-line teaching system for handling robot
Dede et al. Development of a Virtual Haptic Laboratory

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180910

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181121

RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20200807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210520

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210520

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210916

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220919

R150 Certificate of patent or registration of utility model

Ref document number: 7155664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150