JP2024139608A - Robot control system, robot, robot control program - Google Patents
Robot control system, robot, robot control program Download PDFInfo
- Publication number
- JP2024139608A JP2024139608A JP2023050632A JP2023050632A JP2024139608A JP 2024139608 A JP2024139608 A JP 2024139608A JP 2023050632 A JP2023050632 A JP 2023050632A JP 2023050632 A JP2023050632 A JP 2023050632A JP 2024139608 A JP2024139608 A JP 2024139608A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- work
- tool
- type
- arm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 16
- 210000000707 wrist Anatomy 0.000 claims description 7
- 238000012544 monitoring process Methods 0.000 claims description 4
- 238000000034 method Methods 0.000 description 34
- 230000008569 process Effects 0.000 description 27
- 238000003860 storage Methods 0.000 description 25
- 238000012986 modification Methods 0.000 description 11
- 230000004048 modification Effects 0.000 description 11
- 230000010365 information processing Effects 0.000 description 10
- 238000004519 manufacturing process Methods 0.000 description 9
- 230000015654 memory Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 5
- 241000270295 Serpentes Species 0.000 description 5
- 229910001416 lithium ion Inorganic materials 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000005553 drilling Methods 0.000 description 4
- 239000007921 spray Substances 0.000 description 4
- 238000003466 welding Methods 0.000 description 4
- 229920000742 Cotton Polymers 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- -1 conditioner Substances 0.000 description 2
- 239000002537 cosmetic Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 235000013305 food Nutrition 0.000 description 2
- 210000003739 neck Anatomy 0.000 description 2
- 238000012856 packing Methods 0.000 description 2
- 239000003973 paint Substances 0.000 description 2
- 238000010422 painting Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 239000002453 shampoo Substances 0.000 description 2
- 239000000606 toothpaste Substances 0.000 description 2
- 229940034610 toothpaste Drugs 0.000 description 2
- 210000005010 torso Anatomy 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000356 contaminant Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000010419 fine particle Substances 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000003595 mist Substances 0.000 description 1
- 238000000465 moulding Methods 0.000 description 1
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 239000006072 paste Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 235000011888 snacks Nutrition 0.000 description 1
- 229910000679 solder Inorganic materials 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000007592 spray painting technique Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000013024 troubleshooting Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、ロボットの制御システム、ロボット、ロボットの制御プログラムに関する。 The present invention relates to a robot control system, a robot, and a robot control program.
工場の生産ラインにおいては作業を自動で行うための人型ロボットが使用されている。特許文献1には、人型ロボットの姿勢制御について記載されている。 Humanoid robots are used in factory production lines to perform tasks automatically. Patent Document 1 describes posture control of humanoid robots.
また、特許文献2には、弾性体アクチュエータで駆動されて複数の関節を有するロボットアームであって、ロボットアームの手先部に配設され支持面と接触することによりロボットアームを支持する手先支持部材と、手先支持部材と支持面との接触する力を制御すると同時にロボットアームの手先部の位置及び姿勢を制御する制御部により制御することが記載されている。 Patent Document 2 also describes a robot arm having multiple joints that is driven by an elastic actuator, and is controlled by a hand support member that is disposed at the hand of the robot arm and supports the robot arm by contacting a support surface, and a control unit that controls the contact force between the hand support member and the support surface while simultaneously controlling the position and posture of the hand of the robot arm.
しかしながら、従来の人型ロボットによる倉庫内でのピッキング作業において、例えば、荷物が陳列されている棚から当該荷物(シャンプーや、コンディショナー、化粧品、歯磨き粉、カップラーメン、菓子袋等の形状や重さ、硬さ、壊れやすさが違うもの)をピックアップし、所定の包装体(箱等)に収容してパッキングするような場面において、現状では人の手に頼っている。 However, conventional picking tasks in warehouses using humanoid robots currently rely on human hands when picking up items (shampoo, conditioner, cosmetics, toothpaste, instant ramen, snack wrappers, and other items of different shapes, weights, hardness, and fragility) from shelves on which they are displayed and then packing them into the appropriate packaging (boxes, etc.).
また、ロボットの把持部の構造をフィンガータイプとして対応しようとしても、指や腕の動きが遅いため、生産性が低い。さらに、荷物の把持以外の仕事種を実行する場合、把持部で必要な工具(例えば、ドリル、スクリュードライバー等)を把持して作業することになり、把持状態の管理制御が加わった間接的な作業となるため、制御負担が大きくなる場合がある。 Even if the structure of the robot's gripping section is changed to a finger type, the slow movement of the fingers and arms results in low productivity. Furthermore, when performing tasks other than gripping luggage, the gripping section must grip the necessary tools (e.g., drills, screwdrivers, etc.), which is an indirect task that requires management control of the gripping state, and this can result in a large control burden.
本発明は上記事実を考慮し、把持部による荷物の把持を含む複数の仕事種の仕事を直接的に実行することで、制御負担を軽減することができるロボットの制御システム、ロボット、ロボットの制御プログラムを得ることが目的である。 In consideration of the above, the present invention aims to provide a robot control system, a robot, and a robot control program that can reduce the control burden by directly performing multiple types of work, including gripping cargo using a gripper.
本発明の態様1に係るロボットの制御システムは、三次元的に稼働する腕部の手首部位で着脱可能であり、対象物に対する仕事種に応じてツールを装着し、前記対象物に対する仕事を実行するロボットの制御システムであって、前記対象物に対する仕事種を判定する判定部と、前記判定部で判定された仕事種に対応する前記ツールを装着させる動作を制御し、前記仕事種に応じた動作を制御する制御部と、を有している。 The robot control system according to aspect 1 of the present invention is a robot control system that is detachable at the wrist of an arm that moves in three dimensions, that is equipped with a tool according to the type of work to be performed on an object, and that performs work on the object, and that has a determination unit that determines the type of work to be performed on the object, and a control unit that controls the operation of attaching the tool corresponding to the type of work determined by the determination unit and controls the operation according to the type of work.
本発明の態様1によれば、制御部は、対象物に対する仕事種を判定する判定部で判定された仕事種に対応するツールを装着させる動作を制御すると共に、仕事種に応じた動作を制御する。 According to aspect 1 of the present invention, the control unit controls the operation of attaching a tool corresponding to the type of work determined by the determination unit that determines the type of work for the target object, and also controls the operation according to the type of work.
これにより、把持部による荷物の把持を含む複数の仕事種の仕事を直接的に実行することで、制御負担を軽減することができる。 This allows the robot to directly perform multiple types of work, including gripping cargo using the gripper, reducing the control burden.
本発明の態様2は、前記態様1において、少なくとも前記ツールを装着可能な複数の腕部を備え、一の腕部には、前記対象物に対する仕事種に応じたツールが選択的に装着され、他の腕部には、前記対象物に対する、主たる作業の補助作業を実行可能な補助作業ツールが装着されることを特徴としている。 Aspect 2 of the present invention is characterized in that, in aspect 1, the robot has at least a plurality of arms to which the tools can be attached, and a tool corresponding to the type of work to be performed on the object is selectively attached to one arm, and an auxiliary work tool capable of performing auxiliary work to the main work on the object is attached to the other arm.
複数の腕部が、それぞれの役割(主たる仕事、及び主たる仕事の補助)を果たすことができる。 Multiple arms can perform different roles (main task and auxiliary task).
本発明の態様3は、前記態様2において、前記補助作業ツールが、人の手の機能を有し、前記対象物をホールドすることを特徴としている。 Aspect 3 of the present invention is characterized in that in aspect 2, the auxiliary work tool has the function of a human hand and holds the object.
主たる仕事の際の対象物をホールドし、安定して主たる作業を実行することができる。 It can hold the object being used for the main task, allowing the main task to be performed stably.
本発明の態様4は、前記態様2又は態様3において、前記補助作業ツールが、前記対象物に対する主たる作業に特化して監視する監視センサツールを備えることを特徴としている。 Aspect 4 of the present invention is characterized in that in aspect 2 or 3, the auxiliary work tool is equipped with a monitoring sensor tool that monitors the main work performed on the object.
例えば、人の手で対象物を押さえながら作業でき、かつ当該作業を監視センサツールによって、主たる作業を監視することができる。 For example, a person can work while holding an object with their hand, and the main task can be monitored by a sensor tool that monitors that task.
本発明に係る態様5は、前記態様1~態様4の何れか1つに記載の発明において、前記ロボットが、人型ロボットであることを特徴としている。 Aspect 5 of the present invention is characterized in that in the invention described in any one of Aspects 1 to 4, the robot is a humanoid robot.
人型ロボットとすることで、人に近い作業が可能であり汎用性が高い。 By making it a humanoid robot, it can perform tasks similar to those of a human and is highly versatile.
本発明に係る態様6は、前記態様1~態様4の何れか1つに記載の発明において、前記ロボットが、床面に対して駆動輪を介して支持された車両に搭載されていることを特徴としている。 Aspect 6 of the present invention is an invention according to any one of aspects 1 to 4, characterized in that the robot is mounted on a vehicle supported on a floor surface via drive wheels.
車両に搭載することで、機能性(機敏性)を重視した作業環境での作業の効率化を図ることができる。 By installing it in a vehicle, it is possible to improve work efficiency in a work environment that emphasizes functionality (agility).
本発明に係る態様7は、前記態様1~態様6の何れか1つに記載の発明において、前記判定部が、前記ツールに搭載された、前記対象物の画像を撮影して当該対象物の種類を識別するカメラ、及び、前記対象物の位置を特定するモーションプロセシングユニットを備えたセンサ部からの情報で判定することを特徴としている。 Aspect 7 of the present invention is an invention according to any one of Aspects 1 to 6, characterized in that the determination unit makes a determination based on information from a sensor unit equipped with a camera mounted on the tool that takes an image of the object and identifies the type of the object, and a motion processing unit that identifies the position of the object.
カメラは、撮影した画像情報に基づき、撮影された対象物(以下、荷物という場合がある。)を識別する。すなわち、対象物の種類(形状、大きさ、硬さ等)を特定するための情報を取得する役目を有する。 The camera identifies the photographed object (hereinafter sometimes referred to as luggage) based on the captured image information. In other words, its role is to obtain information to identify the type of object (shape, size, hardness, etc.).
モーションプロセシングユニット(MoPU)は、対象物の存在位置を示す点の、所定の座標軸に沿った動きのベクトル情報を動き情報と共に位置情報として出力する。すなわち、MoPUから出力される動き情報には、対象物の中心点(又は重心点)の座標軸(x軸、y軸、z軸)上の動き(移動方向と移動速度)を示す情報のみが含まれている。すなわち、把持部が対象物に接近するときの軌跡を精度よく案内することができる。 The motion processing unit (MoPU) outputs vector information of the movement of a point indicating the location of an object along a specified coordinate axis as position information together with the movement information. In other words, the movement information output from the MoPU contains only information indicating the movement (movement direction and movement speed) on the coordinate axes (x-axis, y-axis, z-axis) of the center point (or center of gravity) of the object. In other words, it is possible to provide accurate guidance on the trajectory of the gripping unit as it approaches the object.
本発明の態様9に係るロボットは、三次元的に稼働する腕部の手首部位で着脱可能であり、対象物に対する仕事種に応じてツールを装着し、前記対象物に対する仕事を実行するロボットであって、前記対象物及びツールの位置を特定するセンシングユニットを有している。 The robot according to aspect 9 of the present invention is a robot that can be attached and detached to the wrist of an arm that moves in three dimensions, is equipped with a tool according to the type of work to be done on an object, and performs work on the object, and has a sensing unit that identifies the positions of the object and the tool.
本発明の態様9に係るロボットの制御プログラムは、前記態様1~態様7の何れか1つに記載の発明において、コンピュータを上記の前記判定部、前記制御部として動作させることを特徴としている。 The robot control program according to aspect 9 of the present invention is characterized in that, in the invention described in any one of aspects 1 to 7, a computer is operated as the determination unit and the control unit.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となり得る。 Note that the above summary of the invention does not list all of the necessary features of the present invention. Also, subcombinations of these features may also be inventions.
以上説明したように本発明によれば、把持部による荷物の把持を含む複数の仕事種の仕事を直接的に実行することで、制御負担を軽減することができるという効果を奏する。 As described above, the present invention has the effect of reducing the control burden by directly performing multiple types of work, including gripping cargo using the gripping unit.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施の形態は特許請求の範囲に係る発明を限定するものではない。また、実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 The present invention will be described below through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Furthermore, not all of the combinations of features described in the embodiments are necessarily essential to the solution of the invention.
(第1の実施の形態) (First embodiment)
図1は第1の実施の形態に係る人型ロボット1の正面図である。図1に示すように、第1の実施の形態に係る人型ロボット1は、上半身部2、脚部3、および上半身部2を脚部3に対して回動可能に連結する連結部4を備え、例えば工場の生産ライン等に配置されて、作業の対象物100に対して作業を行う。 Figure 1 is a front view of a humanoid robot 1 according to a first embodiment. As shown in Figure 1, the humanoid robot 1 according to the first embodiment comprises an upper body 2, legs 3, and a connecting part 4 that rotatably connects the upper body 2 to the legs 3, and is placed, for example, on a factory production line or the like to perform work on a work object 100.
作業が、対象物100である荷物を把持するするピッキング作業の場合は、生産ライン上、又は床上の対象物(落下物等)に対して把持する。なお、把持作業は、棚から対象物100を把持するピッキング以外に、把持した対象物100を所定の筐体(ダンボール等)に収容するパッキングを含む。 When the work is a picking operation in which a package, which is the object 100, is grasped, the object (such as a fallen object) on the production line or on the floor is grasped. Note that the grasping operation includes not only picking in which the object 100 is grasped from a shelf, but also packing in which the grasped object 100 is placed in a specified case (such as a cardboard box).
上半身部2は2本の腕部5、6を有する。腕部5、6は上半身部2の左右に回動自在に取り付けられている。また、腕部5、6の先端には対象物100に対して所定の作業を実行するためのロボットツール20L、20R(詳細後述)が取り付けられている。なお、腕部は2本に限定されるものではなく、1本あるいは3本以上であってもよい。 The upper body 2 has two arms 5 and 6. The arms 5 and 6 are attached to the left and right of the upper body 2 so that they can rotate freely. In addition, robot tools 20L and 20R (described in detail later) are attached to the tips of the arms 5 and 6 for performing a specified task on the target object 100. Note that the number of arms is not limited to two, and may be one or three or more.
脚部3は2つの車輪7、8がその下部に取り付けられており、人型ロボット1が配置される床の上を移動可能とされている。 The leg 3 has two wheels 7 and 8 attached to its bottom, allowing it to move across the floor on which the humanoid robot 1 is placed.
連結部4は、上半身部2と脚部3を回動可能に連結する。このため、上半身部2は、脚部3に対して前傾および後傾が可能となっている。このため、第1の実施の形態に係る人型ロボット1は、図2に示すように、脚部3に対して上半身部2を前傾させて、棚に置かれた対象物100や、床に置かれていた対象物100、及び作業中に床に落ちたりした対象物100を拾うことが可能である。 The connecting part 4 connects the upper body part 2 and the legs 3 in a rotatable manner. Therefore, the upper body part 2 can lean forward and backward with respect to the legs 3. Therefore, the humanoid robot 1 according to the first embodiment can lean the upper body part 2 forward with respect to the legs 3 as shown in FIG. 2, and pick up an object 100 placed on a shelf, an object 100 placed on the floor, or an object 100 that has fallen to the floor during work.
なお、脚部3は、上半身部2が脚部3に対して前傾または後傾したり、人型ロボット1が移動したりした際に、人型ロボット1が転倒しないようにするためのバランス機能を有する。 The legs 3 have a balancing function to prevent the humanoid robot 1 from falling over when the upper body 2 leans forward or backward relative to the legs 3 or when the humanoid robot 1 moves.
また、連結部4は、図1に示すように上半身部2と脚部3との距離を変更可能な機能を有する。このため、生産ラインにおける作業台の高さに合うように、脚部3に対する上半身部2の上下方向の位置を矢印Aに示すように調整することができる。 The connecting part 4 also has a function that allows the distance between the upper body part 2 and the legs 3 to be changed, as shown in FIG. 1. Therefore, the vertical position of the upper body part 2 relative to the legs 3 can be adjusted, as shown by arrow A, to match the height of the workbench on the production line.
また、第1の実施の形態に係る人型ロボット1は、人型ロボット1内に実装された制御システム10(図5参照)によりその駆動が制御される。 The humanoid robot 1 according to the first embodiment is controlled by a control system 10 (see FIG. 5) implemented within the humanoid robot 1.
(ロボットツール20L、20Rの構造)
図3(A)に示される如く、人間で言えば左手に相当する、腕部6の先端に取り付けられたロボットツール20Lは、人間の同様の手の構造とされ(Intelligent Hand System)、主として、ロボットツール20Rでの作業の際に、対象物100を動かないように押さえる等の補助作業を行う。
(Structure of robot tools 20L and 20R)
As shown in FIG. 3A, the robot tool 20L attached to the end of the arm 6, which corresponds to the left hand in a human, has a similar structure to a human hand (Intelligent Hand System) and mainly performs auxiliary tasks such as holding the target object 100 so that it does not move when working with the robot tool 20R.
また、図3(A)に示される如く、人間で言えば右手に相当する、腕部5の先端に取り付けられたロボットツール20Rは、特定の作業を実行するツールである。 As shown in FIG. 3(A), the robot tool 20R attached to the tip of the arm 5, which corresponds to a human right hand, is a tool that performs a specific task.
ロボットツール20L、20Rは、腕部6、5に対して、ユニバーサルジョイント構造で連結されており、それぞれ、三次元的に回転自在に取り付けられている。より詳しくは、手首の回転(ひねり)、及び、手首の上下動作(コッキング)が可能であり、さらに、必要に応じて手首の伸縮動作を可能としてもよい。 The robot tools 20L, 20R are connected to the arms 6, 5 by a universal joint structure, and are attached so that they can rotate freely in three dimensions. More specifically, the wrists can rotate (twist) and move up and down (cock), and the wrists can also extend and retract as necessary.
また、少なくとも腕部5に装着されたロボットツール20Rは、腕部5に対して着脱可能であり、後述する、ロボットツール21EXと取り替えることが可能となっている。 In addition, at least the robot tool 20R attached to the arm 5 is detachable from the arm 5 and can be replaced with the robot tool 21EX, which will be described later.
腕部6に装着されたロボットツール20Lは、着脱対象としていないが、ロボットツール20Rと同様に、着脱可能としてもよい。 The robot tool 20L attached to the arm 6 is not intended to be detachable, but may be detachable in the same manner as the robot tool 20R.
腕部5は、指示された作業を実行するためのツールに取り替えられる。一方、腕部6は、指示された作業の実行を補助する役目(例えば、対象物100の把持を補助するように支える、或いは対象物100を加工するときに動かないように押さえる等)を有する補助作業ツールという位置付けとなる。 The arm 5 is replaced with a tool for carrying out the instructed work. On the other hand, the arm 6 is positioned as an auxiliary work tool that has the role of assisting in carrying out the instructed work (for example, supporting the object 100 to help grasp it, or holding the object 100 so that it does not move when processing it, etc.).
なお、第1の実施の形態の人型ロボット1では、人間の右利きに相当する構造であり、実際の作業を利き腕である右側の腕部5に、着脱可能にロボットツール20Rを取り付け、利き腕ではない左側の腕部6に人の手の構造のロボットツール20L(補助作業ツール)を取り付けたが、人間の左利きに相当する構造(腕部5に補助作業ツール(人の手)、腕部6に作業用ツール)としてもよい。 The humanoid robot 1 of the first embodiment has a structure equivalent to that of a right-handed human, with the robot tool 20R detachably attached to the right arm 5, which is the dominant arm used for actual work, and the robot tool 20L (auxiliary work tool) with a structure similar to a human hand attached to the left arm 6, which is the non-dominant arm. However, the structure may also be equivalent to that of a left-handed human (an auxiliary work tool (a human hand) on the arm 5, and a work tool on the arm 6).
(ロボットツール20L)
図3に示される如く、第1の実施の形態に係るロボットツール20Lは、所謂人間の掌に相当する基部として掌部を備え、掌部には、各々複数の関節を備えた5本の指部が取り付けられている。なお、第1の実施の形態では、ロボットツール20Lの指の数を5本としているが、3本指などの数の異なる指構造であってもよい。
(Robot tool 20L)
3, the robot tool 20L according to the first embodiment has a palm portion as a base portion corresponding to a so-called human palm, and five fingers each having a plurality of joints are attached to the palm portion. Note that, although the number of fingers of the robot tool 20L is five in the first embodiment, the number of fingers may be different, such as three fingers.
掌部には、掌センサ26が取り付けられている。第1の実施の形態に係る掌センサ26を構成する高解像度カメラは、撮影した画像情報に基づき、撮影された対象物100が何であるかシャンプー、コンディショナー、化粧品、歯磨き粉等のケア商品なのか、又は、カップラーメン、菓子袋等の食品なのかを識別する。 A palm sensor 26 is attached to the palm. The high-resolution camera constituting the palm sensor 26 in the first embodiment identifies the photographed object 100 based on the captured image information, i.e. whether it is a care product such as shampoo, conditioner, cosmetics, or toothpaste, or whether it is a food item such as instant ramen or a candy packet.
言い換えると、高解像度カメラは、対象物100の種類(形状、大きさ、硬さ等)を特定するための情報を取得する役目を有する。 In other words, the high-resolution camera serves to obtain information to identify the type (shape, size, hardness, etc.) of the object 100.
一方、高解像度カメラと共に、第1の実施の形態の掌センサ26を構成するMoPUは、1000フレーム/秒以上のフレームレートで撮影された対象物100の画像から、撮影された対象物100の動き(この場合、腕部5、6との間の相対的な動きとなる。)を示す動き情報を、例えば1000フレーム/秒以上のフレームレートで出力する。なお、移動中の対象物100を検知する場合、フレームレートを上げて、固定物(移動しない対象物100)を検知する場合、フレームレートを下げるようにしてもよい。 Meanwhile, the MoPU, which constitutes the palm sensor 26 of the first embodiment together with the high-resolution camera, outputs motion information indicating the motion of the photographed object 100 (in this case, the relative motion between the arms 5, 6) from an image of the object 100 photographed at a frame rate of 1000 frames/second or more, for example at a frame rate of 1000 frames/second or more. Note that when detecting a moving object 100, the frame rate may be increased, and when detecting a fixed object (a non-moving object 100), the frame rate may be decreased.
MoPUは、対象物100の存在位置を示す点の、所定の座標軸に沿った動きのベクトル情報を動き情報として出力する。すなわち、MoPUから出力される動き情報には、撮影された対象物100が何であるか(上記ケア商品、食品)を識別するために必要な情報は含まれておらず、当該対象物100の中心点(又は重心点)の座標軸(x軸、y軸、z軸)上の動き(移動方向と移動速度)を示す情報のみが含まれている。 MoPU outputs, as motion information, vector information of the movement along a specified coordinate axis of a point indicating the location of the object 100. In other words, the motion information output from MoPU does not include information necessary to identify what the photographed object 100 is (the care product or food) and only includes information indicating the movement (direction and speed of movement) of the center point (or center of gravity) of the object 100 on the coordinate axes (x-axis, y-axis, z-axis).
すなわち、ロボットツール20が対象物100に接近するときの軌跡を精度よく案内することができる。 In other words, the trajectory of the robot tool 20 as it approaches the target object 100 can be accurately guided.
高解像度カメラ及びMoPUを含む掌センサ26から出力された情報は、情報処理装置14に供給される。情報処理装置14は、本発明の判定部、及び制御部として機能する。 The information output from the palm sensor 26, which includes the high-resolution camera and MoPU, is supplied to the information processing device 14. The information processing device 14 functions as the determination unit and control unit of the present invention.
なお、掌センサ26(高解像度カメラ及びMoPU)は、最も作業に近い場所として示したが、掌に取り付けることが必須ではない。例えば、手の甲や手首に高解像度カメラ及びMoPUを、取り付けてもよい。また、俯瞰で作業を把握するためには、高解像度カメラ及びMoPUを、図3に示す人型ロボット1の頭部に取り付けるようにしてもよい。さらに、高解像度カメラ及びMoPUを複数の位置に取り付けてもよい。 Note that although the palm sensor 26 (high-resolution camera and MoPU) is shown as being closest to the work, it is not essential that it be attached to the palm. For example, the high-resolution camera and MoPU may be attached to the back of the hand or the wrist. Also, in order to grasp the work from a bird's-eye view, the high-resolution camera and MoPU may be attached to the head of the humanoid robot 1 shown in FIG. 3. Furthermore, the high-resolution camera and MoPU may be attached to multiple positions.
情報処理装置14は、高解像度カメラ及びMoPUを含む掌センサ26からの情報により、高精度に対象物100の位置を特定し、把持するときの指部22A、22B、22Cの広がり度合い、掴むときの強度、及び吸着パッド24による吸着力等を演算し、腕部5、6及びロボットツール20の微小な動きを、精度よくコントロールし、様々な対象物100のピッキング作業に対応することができる。 The information processing device 14 uses information from a palm sensor 26 including a high-resolution camera and MoPU to pinpoint the position of the target object 100 with high precision, calculates the degree of spread of the fingers 22A, 22B, 22C when grasping, the strength of the grip, and the suction force of the suction pad 24, and accurately controls the minute movements of the arms 5, 6 and the robot tool 20, enabling it to handle the picking of a variety of targets 100.
(ロボットツール20R、及び、ロボットツール21EX)
第1の実施の形態では、対象物100に対する仕事種として、ロボットツール20Rを用い、対象物100で把持することを主目的としている。
(Robot tool 20R and robot tool 21EX)
In the first embodiment, the main purpose of the work type performed on the target object 100 is to grip the target object 100 with the robot tool 20R.
一方、対象物100に対する仕事種が把持ではなく、他の仕事種(例えば、重量物把持、ドリルによる穿孔、汚れ拭き取り、微細物取扱い(ピンセット作業)等)の場合がある。 On the other hand, there are cases where the type of work performed on the object 100 is not grasping, but other types of work (e.g., grasping heavy objects, drilling holes, wiping off dirt, handling fine objects (using tweezers), etc.).
この場合、ロボットツール20Rで各種仕事に対応する工具を把持して、対象物100に対峙することも可能であるが、同一の仕事種を継続的に実行する場合は、把持状態の維持制御(把持部と把持している工具との相対位置制御等)の負担が大きい。 In this case, the robot tool 20R can grasp tools corresponding to various tasks and confront the target object 100, but if the same type of task is to be performed continuously, the burden of maintaining and controlling the gripping state (such as controlling the relative position between the gripping part and the tool being gripped) is large.
そこで、第1の実施の形態では、腕部5に装着された基本ツールであるロボットツール20R(図3(A)参照)に代えて、対象物100に対する仕事種に応じて、図3(B)~(C)に示すように、ロボットツール21EX(第1の実施の形態では、21EXA、21EXB、21EXCの3種類)を具備しておき、必要に応じて、ロボットツール20Rから、ロボットツール21EXに交換して、対象物100の把持とは別の仕事種に応じた仕事を実行する構成とした。 In the first embodiment, instead of the robot tool 20R (see FIG. 3(A)), which is the basic tool attached to the arm 5, the robot tool 21EX (three types, 21EXA, 21EXB, and 21EXC in the first embodiment) is provided according to the type of work to be performed on the target object 100, as shown in FIGS. 3(B)-(C), and the robot tool 20R can be replaced with the robot tool 21EX as necessary to perform a task according to a type of work other than grasping the target object 100.
(ロボットツール21EXの保管例)
図1に示される如く、人型ロボット1は、上半身部2の下部(所謂、腰位置)にベルト28が装着され、ベルト28には、3個のロボットツール21EXA、21EXB、21EXCの各々を着脱可能に保持するホルダ(図示省略)が取り付けられている。
(Storage example of Robot Tool 21EX)
As shown in FIG. 1, the humanoid robot 1 has a belt 28 attached to the lower part of the upper body 2 (at the so-called waist position), and holders (not shown) are attached to the belt 28 to detachably hold each of the three robot tools 21EXA, 21EXB, 21EXC.
図1では、3個のロボットツール21EXとしているが、ロボットツール20Rに代えて装着可能なロボットツール21EXの数は、1種類、2種類、又は4種類以上であってもよく、後述する対象物100の属性に合わせて、装着する数を決めればよい。 In FIG. 1, three robot tools 21EX are shown, but the number of robot tools 21EX that can be installed in place of the robot tool 20R may be one type, two types, or four or more types, and the number to be installed can be determined according to the attributes of the target object 100, which will be described later.
図3及び図4は、ロボットツール20R、及び、ロボットツール20Rに代えて腕部5に装着可能なロボットツール21(21EXA、21EXB、21EX)の詳細構成と、その用途との関係が示されている。 Figures 3 and 4 show the detailed configuration of the robot tool 20R and the robot tools 21 (21EXA, 21EXB, 21EX) that can be attached to the arm 5 in place of the robot tool 20R, and their relationship to their uses.
図3(A)及び図4(A)は、ロボットツールの基本ツールであるロボットツール20Rによる対象物100の把持状態を示している。ロボットツール21EXBの仕事種は、ロボットツール20Lと同様に把持であるが、ロボットツール20Lでは把持が困難な特殊な対象物100(重量オーバー等)を把持することができる構造となっている。 Figures 3(A) and 4(A) show the state in which an object 100 is grasped by robot tool 20R, which is the basic tool of the robot tools. The type of work of robot tool 21EXB is grasping, just like robot tool 20L, but it is structured to be able to grasp special objects 100 (overweight, etc.) that are difficult to grasp by robot tool 20L.
すなわち、ロボットツール20Rは、例えば、重機のアタッチメントとして適用されるフォークと同様の構造である。第1の実施の形態では、ロボットツール20Rは、2本指構造となっており、圧力源から配管を介して供給される圧力により、2本の指が開いたり閉じたりすることで、モータ等による把持動作(ロボットツール20L)に比べて、汎用性は低いが、対象物100を掴む強度が増強されている。 That is, the robot tool 20R has a structure similar to that of a fork used as an attachment for heavy machinery, for example. In the first embodiment, the robot tool 20R has a two-finger structure, and the two fingers open and close due to pressure supplied from a pressure source through piping, which increases the strength of the gripping of the target object 100, although it is less versatile than a gripping operation (robot tool 20L) using a motor or the like.
このロボットツール20Rでの作業中、ロボットツール20Lは、対象物100が動かないように押さえている。 While working with this robot tool 20R, the robot tool 20L holds the target object 100 so that it does not move.
図3(B)及び図4(B)に示される如く、ロボットツール21EXAの仕事種は穿孔であり、ツールとして、ドリルが取り付けられている。ドリルには、所定の径寸法のドリル刃が着脱可能に取り付け可能であり、ドリル刃は、対象物100に穿孔するための孔寸法に合わせて事前に装着されている。 As shown in Figures 3(B) and 4(B), the type of work of the robot tool 21EXA is drilling, and a drill is attached as a tool. A drill bit of a predetermined diameter can be removably attached to the drill, and the drill bit is pre-installed according to the hole size to be drilled in the target object 100.
このロボットツール21EXAでの作業中、ロボットツール20Lは、対象物100が動かないように押さえている。 While working with this robot tool 21EXA, the robot tool 20L holds the target object 100 so that it does not move.
図3(C)及び図4(C)に示される如く、ロボットツール21EXBの仕事種は、汚れの拭き取りであり、cotton swab(例えば、綿棒)が取り付けられている。 As shown in Figures 3(C) and 4(C), the type of work performed by the robot tool 21EXB is wiping off dirt, and a cotton swab (e.g., a cotton swab) is attached to it.
ロボットツール21EXBでは、ロボットツール20Lによって抑えられた対象物100の表面に付着している汚れ部位100Aを、cotton swabを接触させながら左右に振幅移動させることで、拭き取ることができる構造となっている。 The robot tool 21EXB is designed to wipe off the dirty area 100A adhering to the surface of the object 100 held down by the robot tool 20L by moving the cotton swab back and forth while in contact with the surface.
このロボットツール21EXBでの作業中、ロボットツール20Lは、対象物100が動かないように押さえている。 While working with this robot tool 21EXB, the robot tool 20L holds the target object 100 so that it does not move.
図3(D)及び図4(D)に示される如く、ロボットツール21EXCの仕事種は、微細物をつまんだり、抜き取ったりするピンセット作業であり、ツールとして、tweezer(ピンセット)が取り付けられている。なお、微細物の汚れとは、電気基板上に電子部品を取り付ける場合の半田のペーストや、金属を溶着する場合の溶接の後の溶接材かす等が挙げられる。 As shown in Figures 3(D) and 4(D), the type of work performed by the robot tool 21EXC is tweezers work, which involves picking up and removing minute objects, and tweezers are attached as tools. Examples of minute contaminants include solder paste used when attaching electronic components to an electric circuit board, and welding waste after welding when welding metal.
ロボットツール21EXCでは、ロボットツール20Lによって抑えられた対象物100の表面に付着している塵埃等の微細物100Bを、ピンセットでつまみあげて除去することができる構造となっている。なお、塵埃等とは、ドリルによる穿孔時に発生する削りかす等があげられる。なお、狭い溝に入り込んだビス等を取り除くときにも適用可能である。 The robot tool 21EXC is designed to be able to pick up and remove fine particles 100B, such as dust, attached to the surface of the object 100 held down by the robot tool 20L with tweezers. Dust and the like includes shavings generated when drilling holes. It can also be used to remove screws and the like that have become stuck in narrow grooves.
このロボットツール21EXCでの作業中、ロボットツール20Lは、対象物100が動かないように押さえている。 While working with this robot tool 21EXC, the robot tool 20L holds the target object 100 so that it does not move.
その他、第1の実施の形態では、人型ロボット1に搭載していないが、ロボットツールとして、塗装用のスプレーガン、電動ドリル、彫刻刀、筆記具、3D造形用成形剤吐出等、他の仕事種のロボットツールを装着してもよい。 In addition, although not mounted on the humanoid robot 1 in the first embodiment, robot tools for other tasks, such as a spray gun for painting, an electric drill, a carving knife, a writing implement, and a molding agent dispenser for 3D modeling, may be attached as robot tools.
例えば、スプレーガンは、吹き付け塗装で使用されるピストル状の塗装機器の一つである。コンプレッサー(図示省略)の圧縮空気を利用し塗料を霧状にして、スプレーガンの先端から噴出させる構造となっており、被塗装面に対してムラなく塗装することが可能である。 For example, a spray gun is a type of pistol-shaped painting device used for spray painting. It uses compressed air from a compressor (not shown) to spray paint in a mist form from the tip of the spray gun, making it possible to paint the surface evenly.
ここで、第1の実施の形態では、仕事種に基づいて、最適なロボットツール20R、ロボットツール21EXを選択し(表1参照)、ロボットツール20から、選択したロボットツール21に付け替えて、処理を実行する。 In the first embodiment, the most suitable robot tool 20R and robot tool 21EX are selected based on the type of work (see Table 1), and the robot tool 20 is replaced with the selected robot tool 21 to execute the processing.
なお、ロボットツール20Lには掌センサ26を取り付けているが、各々のロボットツール21EXにもセンサ部26を取り付けてもよい。 Although a palm sensor 26 is attached to the robot tool 20L, a sensor unit 26 may also be attached to each robot tool 21EX.
図5は、第1の実施の形態に係る人型ロボット1の制御システム10の一例の概略図である。制御システム10は、人型ロボットに搭載されるセンサ12と、高解像度カメラ及びMoPUを含む掌センサ26と、情報処理装置14とを備えている。 Figure 5 is a schematic diagram of an example of a control system 10 for a humanoid robot 1 according to a first embodiment. The control system 10 includes a sensor 12 mounted on the humanoid robot, a palm sensor 26 including a high-resolution camera and a MoPU, and an information processing device 14.
センサ12は、人型ロボット1の周辺にある、人型ロボット1が作業する対象物100と腕部5、6との距離および角度を少なくとも表す情報を逐次取得する。センサ12としては、最高性能のカメラ、ソリッドステートLiDAR、マルチカラーレーザ同軸変位計、又はその他様々なセンサ群が採用され得る。また他には、センサ12としては、振動計、サーモカメラ、硬度計、レーダー、LiDAR、高画素・望遠・超広角・360度・高性能カメラ、ビジョン認識、微細音、超音波、振動、赤外線、紫外線、電磁波、温度、湿度、スポットAI天気予報、高精度マルチチャネルGPS、低高度衛星情報、又はロングテールインシデントAI data等が挙げられる。 The sensor 12 sequentially acquires information indicating at least the distance and angle between the object 100 on which the humanoid robot 1 is working and the arms 5, 6, which are located in the vicinity of the humanoid robot 1. The sensor 12 may be a high-performance camera, a solid-state LiDAR, a multi-color laser coaxial displacement meter, or a variety of other sensors. Other examples of the sensor 12 include a vibration meter, a thermo camera, a hardness meter, a radar, a LiDAR, a high-pixel, telephoto, ultra-wide-angle, 360-degree, high-performance camera, vision recognition, fine sound, ultrasound, vibration, infrared, ultraviolet, electromagnetic waves, temperature, humidity, spot AI weather forecast, high-precision multi-channel GPS, low-altitude satellite information, or long-tail incident AI data.
なお、センサ12は、上記の情報のほかに、画像、距離、振動、熱、匂い、色、音、超音波、紫外線、又は赤外線等を検知する。他にセンサ12が検知する情報としては、人型ロボット1の重心移動、人型ロボット1が設置される床の材質の検知、外気温度の検知、外気湿度の検知、床の上下横斜め傾き角度の検知、水分量の検知等が挙げられる。 In addition to the above information, the sensor 12 detects images, distance, vibration, heat, smell, color, sound, ultrasound, ultraviolet light, infrared light, etc. Other information detected by the sensor 12 includes the movement of the center of gravity of the humanoid robot 1, the material of the floor on which the humanoid robot 1 is placed, the outside air temperature, the outside air humidity, the up/down/side/diagonal inclination angle of the floor, the amount of moisture, etc.
センサ12は、これらの検知を例えばナノ秒毎に実施する。 The sensor 12 performs these detections, for example, every nanosecond.
掌センサ26(高解像度カメラ及びMoPU)は、腕部5、6のロボットツール20Lに設けられるセンサであり、センサ12とは別に、対象物100を撮影するカメラ機能、及び、対象物100位置を特定する位置特定機能を有する。 The palm sensor 26 (high-resolution camera and MoPU) is a sensor provided on the robot tool 20L of the arms 5 and 6, and has a camera function for photographing the object 100 and a position identification function for identifying the position of the object 100, separate from the sensor 12.
なお、1つのMoPU12を用いた場合には、対象物100の存在位置を示す点の、三次元直交座標系における2つの座標軸(x軸及びy軸)の各々に沿った動きのベクトル情報を取得することが可能である。ステレオカメラの原理を利用して、2つのMoPU12を用いて、対象物100の存在位置を示す点の、三次元直交座標系における3つの座標軸(x軸、y軸、z軸)の各々に沿った動きのベクトル情報を出力してもよい。z軸は、奥行方法(車両の走行)に沿った軸である。 When one MoPU 12 is used, it is possible to obtain vector information of the movement of a point indicating the location of the object 100 along each of two coordinate axes (x-axis and y-axis) in a three-dimensional orthogonal coordinate system. Using the principle of a stereo camera, two MoPUs 12 may be used to output vector information of the movement of a point indicating the location of the object 100 along each of three coordinate axes (x-axis, y-axis, z-axis) in a three-dimensional orthogonal coordinate system. The z-axis is the axis along the depth direction (vehicle travel).
情報処理装置14は、情報取得部140と、制御部142と、情報蓄積部144とを備えている。 The information processing device 14 includes an information acquisition unit 140, a control unit 142, and an information storage unit 144.
情報取得部140は、センサ12及び掌センサ26(高解像度カメラ及びMoPU)によって検知された対象物100の情報を取得する。 The information acquisition unit 140 acquires information about the object 100 detected by the sensor 12 and the palm sensor 26 (high-resolution camera and MoPU).
制御部142は、情報取得部140がセンサ12から取得した情報とAI(Artificial intelligence)とを用いて、連結部4の回動動作、上下方向の移動動作および腕部5、6の動作等を制御する。 The control unit 142 uses the information acquired by the information acquisition unit 140 from the sensor 12 and AI (artificial intelligence) to control the rotational movement of the connecting unit 4, the movement of the arms 5 and 6, and the like.
また、制御部142は、情報取得部140が掌センサ26(高解像度カメラ及びMoPU)から取得した情報を用いて、対象物100の種類(形状、大きさ、硬さ等)及び位置を詳細に把握し、当該外形や位置に応じて対峙させ、例えば、対象物100を把持するように制御する(把持制御)。 In addition, the control unit 142 uses the information acquired by the information acquisition unit 140 from the palm sensor 26 (high-resolution camera and MoPU) to grasp the type (shape, size, hardness, etc.) and position of the object 100 in detail, and controls it to confront the object 100 according to its external shape and position, for example, to grasp the object 100 (grasping control).
例えば、制御部142は、全体の動作として、以下の各処理を実行する。
(1)棚及び床にある対象物100を拾い上げることが可能なように連結部4を駆動して、上半身部2を前傾または後傾させる。
(2)対象物100をつかむことが可能なように腕部5、6および把持部を駆動する。
(3)生産ラインの作業台の高さに合うように、上半身部2を脚部3に対して上下に駆動する。
(4)人型ロボット1の転倒を防ぐために、バランスを取る。
(5)人型ロボット1がカート等を押し進めることができるように、車輪7、8の駆動を制御する。
For example, the control unit 142 executes the following processes as an overall operation.
(1) The connecting portion 4 is driven to tilt the upper body portion 2 forward or backward so that an object 100 on a shelf or the floor can be picked up.
(2) The arms 5, 6 and the gripping portion are driven so that the object 100 can be grasped.
(3) The upper body 2 is driven up and down relative to the legs 3 to match the height of the workbench on the production line.
(4) Maintain balance to prevent the humanoid robot 1 from falling over.
(5) The drive of the wheels 7, 8 is controlled so that the humanoid robot 1 can push a cart or the like.
以下に第1の実施の形態の作業を説明する。 The operation of the first embodiment is explained below.
(対象物100に対する仕事制御)
図6は、ロボットツール20によって対象物100を対象とする仕事を実行する際の仕事制御の手順を示すフローチャートである。
(Work Control for Object 100)
FIG. 6 is a flowchart showing a procedure for job control when a job is executed on an object 100 by the robot tool 20 .
ステップ150では、対象物100の仕事の指示があったか否かを判断し、肯定判定されると、ステップ152へ移行して、人型ロボット1を移動させ(例えば、腕部5、6を動作させ)、対象の対象物100に掌側を対峙させ、ステップ154へ移行する。 In step 150, it is determined whether or not a task instruction for the target object 100 has been given. If a positive determination is made, the process proceeds to step 152, where the humanoid robot 1 is moved (e.g., the arms 5 and 6 are operated) so that the palm side faces the target object 100, and the process proceeds to step 154.
ステップ154では、ロボットツール20Lを対象物100に対向させて、掌センサ26(高解像度カメラ及びMoPU)で対象物100の情報を検出する。 In step 154, the robot tool 20L is placed facing the object 100, and information about the object 100 is detected by the palm sensor 26 (high-resolution camera and MoPU).
次のステップ156では、掌センサ26による検出情報を解析して、対象物100の種類(形状、大きさ、硬さ等)及び位置を詳細に把握し、ステップ158へ移行する。 In the next step 156, the detection information from the palm sensor 26 is analyzed to obtain a detailed understanding of the type (shape, size, hardness, etc.) and position of the target object 100, and the process proceeds to step 158.
ステップ158では、対象物100を対象とする仕事のための作業(仕事種)を選択する。次いで、ステップ160へ移行して、対象物100の属性に応じた、ロボットツール20R、21EXA、21EXB、21EXCの選択処理(詳細は、図7参照)を実行し、ステップ162へ移行する。 In step 158, a task (job type) for work on the object 100 is selected. Next, the process proceeds to step 160, where a selection process for robot tools 20R, 21EXA, 21EXB, and 21EXC is performed according to the attributes of the object 100 (see FIG. 7 for details), and the process proceeds to step 162.
ステップ162では、対象物100を対象とする仕事(例えば、ロボットツール20Rであれば、重量物の把持)を実行する。 In step 162, a task is performed on the target object 100 (for example, in the case of the robot tool 20R, grasping a heavy object).
次のステップ164では、対象物100に対する仕事が成功したか否かを判定し、肯定判定された場合は、後処理(把持した場合は、把持した対象物100を所定の場所へ運ぶ後処理)を実行し、ステップ150へ移行して、次の対象物100に対する仕事の指示を待つ。 In the next step 164, it is determined whether the work on the object 100 was successful, and if the determination is positive, post-processing is performed (in the case of grasping, post-processing of transporting the grasped object 100 to a specified location), and then the process proceeds to step 150 to wait for instructions on the work to be done on the next object 100.
また、ステップ164で否定判定された場合は、ステップ166へ移行して、エラー処理を実行し、ステップ150へ戻る。 Also, if the result of step 164 is negative, the process proceeds to step 166, error processing is performed, and the process returns to step 150.
ロボットツール20Lには、高解像度カメラ及びMoPUを含む掌センサ26を取り付けているので、仕事の状況をリアルタイムで把握することができる。仮に、仕事が不成功であっても、迅速な対応(トラブルシューティング)が可能となる。 The robot tool 20L is equipped with a palm sensor 26 that includes a high-resolution camera and MoPU, so the status of the work can be grasped in real time. Even if the work is unsuccessful, a quick response (troubleshooting) is possible.
また、掌センサ26(高解像度カメラ及びMoPU)が掌側20Aに搭載されているので、高精度に対象物100を捉えることができ、微小な動きをする作業にも対応することができる。 In addition, the palm sensor 26 (high-resolution camera and MoPU) is mounted on the palm side 20A, so the target object 100 can be captured with high accuracy, and tasks that require minute movements can also be handled.
(ロボットツール適用処理の詳細)
図7は、ロボットツール適用処理サブルーチンの詳細を示す制御フローチャートである。
(Details of robot tool application process)
FIG. 7 is a control flow chart showing details of the robot tool application processing subroutine.
ステップ200では、対象物100に対する仕事種(表1参照)に基づき、ロボットツール20R又は21EXA、21EXB、21EXCを選択する。 In step 200, robot tool 20R or 21EXA, 21EXB, or 21EXC is selected based on the type of work for object 100 (see Table 1).
すなわち、表1に示される如く、対象物100に対する仕事種に応じて、必要なロボットツール20R又は21EXA、21EXB、21EXCの種類が決まる。 That is, as shown in Table 1, the type of robot tool 20R or 21EXA, 21EXB, or 21EXC required is determined depending on the type of work to be performed on the target object 100.
なお、表1に示す対象物100に対する仕事種に基づくロボットツールの種類の選択は一例であり、所持しているロボットツールの種類や数に基づき定めればよい。 Note that the selection of the type of robot tool based on the type of work for the object 100 shown in Table 1 is just one example, and the selection can be determined based on the type and number of robot tools possessed.
第1の実施の形態では、3種類のロボットツール21EXA、21EXB、21EXCがベルト28に装着されているため、ロボットツール20Rを加えて、合計4種類のロボットツール20、21EXA、21EXB、21EXCからの選択になるが、ベルト28への装着数を増加したり、作業現場に応じて、多種のロボットツール21の中から選択してベルト28に予め装着しておいてもよい。また、人型ロボット1毎に異なる種類のロボットツール21EXを装着するようにしてもよい。 In the first embodiment, three types of robot tools 21EXA, 21EXB, and 21EXC are attached to the belt 28, and thus, including the robot tool 20R, a total of four types of robot tools can be selected from 20, 21EXA, 21EXB, and 21EXC. However, the number of robot tools attached to the belt 28 may be increased, or various types of robot tools 21 may be selected and attached to the belt 28 in advance depending on the work site. Also, a different type of robot tool 21EX may be attached to each humanoid robot 1.
次のステップ202では、交換側の腕部5に装着されたツール(通常はロボットツール20Rであるが、既に別のロボットツール21EXA、21EXB、21EXCが装着されている場合もある。)を、腕部6に取り付けたロボットツール20Lを用いて取り外す。 In the next step 202, the tool attached to the replacement arm 5 (usually robot tool 20R, but there may be cases where another robot tool 21EXA, 21EXB, or 21EXC is already attached) is removed using robot tool 20L attached to arm 6.
次のステップ204では、交換側の腕部5を、ベルト28の位置に移動し、ロボットツール21EXA、21EXB、21EXCを装着する。 In the next step 204, the arm 5 on the replacement side is moved to the position of the belt 28, and the robot tools 21EXA, 21EXB, and 21EXC are attached.
次のステップ206では、非交換側の腕部6で把持している、交換側の腕部5にもともと装着されていたロボットツールを、ベルト28のホルダに格納し、このルーチンは終了する。 In the next step 206, the robot tool originally attached to the replacement arm 5, which is being held by the non-replacement arm 6, is stored in the holder on the belt 28, and the routine ends.
以上説明したように第1の実施の形態では、ロボットツール20、21EXA、21EXB、21EXCによる仕事制御に加え、例えば、対象物100に対する仕事種に応じて、ロボットツール20R、21EXA、21EXB、21EXCを準備しておく。 As described above, in the first embodiment, in addition to work control using robot tools 20, 21EXA, 21EXB, and 21EXC, robot tools 20R, 21EXA, 21EXB, and 21EXC are prepared depending on the type of work to be performed on the target object 100, for example.
これにより、比較例の把持部で、仕事種に必要な工具を、人の手の形のロボットで把持して仕事することで生じる制御負担(ロボットツール20と工具との相対位置制御に係る負担等)を、直接ロボットツール21EXA、21EXB、21EXCを装着することで解消することができる。 As a result, the control burden (such as the burden related to controlling the relative position between the robot tool 20 and the tool) that arises when a tool required for a certain type of work is held by a robot shaped like a human hand in the gripping section of the comparative example can be eliminated by directly attaching the robot tools 21EXA, 21EXB, and 21EXC.
(変形例1「第1の実施の形態」)
なお、第1の実施の形態の人型ロボット1では、所謂人間と同様に、2本の腕部5、6(右の腕部5及び左の腕部6)を持ち、それぞれに、ロボットツール20R(21EXA、21EXB、21EXC)が装着された構造としたが、図8に示される如く、さらに、監視専用の腕部7を取り付け、先端部に取り付けたカメラ50で監視しながら、作業を実行するようにしてもよい。
(Modification 1 "First embodiment")
The humanoid robot 1 of the first embodiment has two arms 5, 6 (a right arm 5 and a left arm 6) like a human being, each of which is equipped with a robot tool 20R (21EXA, 21EXB, 21EXC). However, as shown in FIG. 8, an arm 7 dedicated to monitoring may be further attached so that the robot can perform work while being monitored by a camera 50 attached to the tip of the arm 7.
腕部7は、所謂スネーク構造であり、腕部5,6の隙間から、対象物100に近づくことができ、掌センサ26の死角となる領域をカバーすることができる。 The arm 7 has a so-called snake structure, and can approach the target object 100 through the gap between the arms 5 and 6, covering the blind spot of the palm sensor 26.
(第2の実施の形態)
以下に本発明の第2の実施の形態について説明する。なお、第2の実施の形態と同一構成部分には、同一の符号を付してその構成の説明を省略する。
Second Embodiment
A second embodiment of the present invention will be described below. Note that the same components as those in the second embodiment are given the same reference numerals and the description of the components will be omitted.
図9に示される如く、第2の実施の形態の特徴は、人型ロボット1ではなく、先端部が仕事種に応じて着脱可能な可動自在アーム52である点にある。 As shown in FIG. 9, the second embodiment is characterized in that, instead of a humanoid robot 1, the tip of the robot is a movable arm 52 that can be attached or detached depending on the type of work.
可動自在アーム52は、例えば、アッセンブリ組立工場のラインにおいて、台座54に対して、回転可能な円筒状の支持体56を介して取り付けられている。 The movable arm 52 is attached to a base 54 via a rotatable cylindrical support 56, for example, on a line in an assembly factory.
可動自在アーム52は、複数の連結部材58が各々関節軸部60を介して連結されており、台座54に対する回転動作を含め、x軸、y軸、及びθ軸方向に先端部に取り付けたロボットツール20R(21EXA、21EXB、21EXC)を所望の位置へ移動させることができる。 The movable arm 52 has multiple connecting members 58 each connected via a joint shaft 60, and can move the robot tool 20R (21EXA, 21EXB, 21EXC) attached to the tip to a desired position in the x-axis, y-axis, and θ-axis directions, including rotation relative to the base 54.
また、ロボットツール20R(21EXA、21EXB、21EXC)自体も三次元的に動作可能である。 In addition, the robot tool 20R (21EXA, 21EXB, 21EXC) itself can also operate three-dimensionally.
第2の実施の形態の可動自在アーム52によれば、アッセンブリ組立工場のラインにおいて、単一の仕事種ではなく、ロボットツール20R(21EXA、21EXB、21EXC)を付け替えることで、複数の仕事種の作業をこなすことができる。 The movable arm 52 of the second embodiment allows multiple types of work to be performed on the assembly line in an assembly factory by changing the robot tool 20R (21EXA, 21EXB, 21EXC), rather than a single type of work.
この場合、ロボットツール20Rによって対象物100を把持して、所定の作業台へ移動させ、ロボットツール21EXAに付け替えて対象物100に穿孔作業を実行し、ロボットツール21EXBに付け替えて穿孔部の汚れをふき取り、ロボットツール21EXCに付け替えて穿孔部の周囲に残る削りかすを取り除くといった、一連の作業を1つのライン工程で実行することができ、単純計算で、従来の1/4のライン長で作業を行うことができる。 In this case, a series of operations can be performed in a single line process, such as gripping the object 100 with the robot tool 20R and moving it to a specified work table, switching to the robot tool 21EXA to perform the drilling work on the object 100, switching to the robot tool 21EXB to wipe off dirt from the drilled area, and switching to the robot tool 21EXC to remove any shavings remaining around the drilled area. By simple calculation, the work can be performed on a line length that is 1/4 of the conventional length.
(変形例2「第2の実施の形態」)
なお、第2の実施の形態では、1つのロボットツール20R(21EXA、21EXB、21EXC)に、1つの仕事種に対応したツールを取り付けているが、図10に示される如く、第2の実施の形態の変形例1に係る可動自在アーム52Aでは、1つのロボットツール20R(21EXA、21EXB、21EXCに、2つの仕事種に対応したツールを取り付けるようにしてもよい。
(Modification 2 "Second embodiment")
In the second embodiment, a tool corresponding to one work type is attached to one robot tool 20R (21EXA, 21EXB, 21EXC). However, as shown in FIG. 10, in the movable arm 52A according to the first modified example of the second embodiment, tools corresponding to two work types may be attached to one robot tool 20R (21EXA, 21EXB, 21EXC).
図10では、一方のツールが、腕部5に取り付けられた重量物把持のための2枚爪ツール(ロボットツール20R)であり、他方のツールが、腕部6に取り付けられたローカルセンサツール62とされている。腕部5、6は、それぞれが共通して動作するメイン連結部64から分岐しており、独立して動作可能となっている。 In FIG. 10, one tool is a two-jaw tool (robot tool 20R) for grasping heavy objects attached to arm 5, and the other tool is a local sensor tool 62 attached to arm 6. Arms 5 and 6 each branch off from a main connector 64 that operates in common, and can operate independently.
これにより、ロボットツール20Rで作業中に、当該ロボットツール20Rの作業(例えば、重量物把持)に特化した映像情報等をローカルセンサツール62から取得することができる。 As a result, while the robot tool 20R is working, video information and the like specific to the work being performed by the robot tool 20R (e.g., gripping a heavy object) can be obtained from the local sensor tool 62.
また、図10では、可動自在アーム52Aが、走行可能な車両66に搭載されているため、アッセンブリ組立工場のラインに固定的に配置されるのではなく、自ら作業が必要とする現場へ出向くことができるため、より汎用性の高い作業が可能となる。 In addition, in FIG. 10, the movable arm 52A is mounted on a vehicle 66 that can run, so rather than being fixedly placed on a line at an assembly factory, it can go to the site where work is required, making it possible to perform work with greater versatility.
(変形例3「第2の実施の形態」)
図11は、第2の実施の形態に係る変形例2に係る可動自在アーム52Bでは、第1の実施の変形例1に係る人型ロボット1(図8参照)と同様に、人の手の形のロボットツール20Lと、着脱可能で複数の仕事種に応じて交換可能なロボットツール20R(21EXA、21EXB、21EXC)が取り付けられると共に、スネーク状に変形可能なカメラ(スネークカメラ68)が取り付けられている。
(Modification 3 "Second embodiment")
FIG. 11 shows that a movable arm 52B according to variant example 2 of the second embodiment is equipped with a robot tool 20L in the shape of a human hand and a robot tool 20R (21EXA, 21EXB, 21EXC) that is detachable and replaceable depending on a number of types of work, similar to the humanoid robot 1 (see FIG. 8) according to variant example 1 of the first embodiment, as well as a camera (snake camera 68) that can transform into a snake shape.
これにより、装着されたロボットツール20R(21EXA、21EXB、21EXC)で作業中に、当該作業に特化した映像情報等をスネークカメラ68から取得することができる。 As a result, while working with the attached robot tool 20R (21EXA, 21EXB, 21EXC), video information specific to that work can be obtained from the snake camera 68.
また、可動自在アーム52Bは、走行可能な車両66に搭載されているため、車両66が走行可能な領域(平坦な床面の工場等)であれば、人型のロボットよりもフットワークに優れた機動性を有することができる。 In addition, since the movable arm 52B is mounted on a vehicle 66 that can move, in areas where the vehicle 66 can move (such as a factory with a flat floor), it can have greater mobility and footwork than a humanoid robot.
(実用例「第2の実施の形態」
図12は、第2の実施の形態に係る可動自在アーム52(特に、変形例2に係る可動自在アーム52A及び変形例3に係る可動自在アーム52B)を用いた、EV(エレクトリック・ビークル)車の組立ラインの概略を示す斜視図である。
(Practical Example "Second Embodiment")
FIG. 12 is a perspective view showing an outline of an assembly line for an EV (electric vehicle) car using the movable arm 52 according to the second embodiment (in particular, the movable arm 52A according to the modified example 2 and the movable arm 52B according to the modified example 3).
図12及び図13に示す工程は、車両ボディ70に、EV車特有のリチウムイオンバッテリ72を搭載する工程である。 The process shown in Figures 12 and 13 is the process of mounting a lithium-ion battery 72, which is specific to EV vehicles, on a vehicle body 70.
可動自在アーム52、可動自在アーム52A及び可動自在アーム52Bのように、多関節、胴長、首長、指等のロボットツールを活用すれば、EV車等の製造でも、車両ボディ70の中の複雑なケーブル接続や、ねじ締め等、従来のロボットアームでは届かない箇所の作業も、人間に代わり作業することができる。 By utilizing robot tools with multiple joints, long torsos, long necks, fingers, etc., like the movable arm 52, movable arm 52A, and movable arm 52B, it is possible to replace humans in the manufacture of EV cars and other vehicles, performing tasks that cannot be reached by conventional robot arms, such as connecting complex cables inside the vehicle body 70 and tightening screws.
また、溶接ロボットを始めする、車両組み立てロボットは、コンピュータ制御によって、迅速かつ正確な作業を行うことは、周知の技術として、知られているが、近年の、EV車のように、リチウムイオンバッテリ72の取り付けや、配線作業は、今まで以上に、精密、かつ、精度の高い作業となるため、現状の作業ロボットのような、プログラミングされた動作制御(シーケンス制御)に加え、作業中の確認、監視を強固なものにする必要がある。 It is well known that vehicle assembly robots, including welding robots, are computer-controlled to perform work quickly and accurately, but in recent years, tasks such as installing lithium-ion batteries 72 and wiring, such as those required for EV vehicles, require greater precision and accuracy than ever before. This means that in addition to programmed operation control (sequence control) like that of current work robots, there is a need to strengthen confirmation and monitoring during work.
この点、フレキシブルなカメラワークが可能な本実施の形態に係るロボットは、EV車に最適な、ロボットということができる。 In this respect, the robot according to this embodiment, which allows for flexible camera work, can be said to be the most suitable robot for EVs.
図13(A)は、車両ボディ70のエンジンルーム(EV車ではモータ等の駆動ユニットが配置されたスペースであり、駆動ユニットルームという場合がある。)内での作業を示す斜視図である。 Figure 13 (A) is a perspective view showing work carried out in the engine room of the vehicle body 70 (in an EV vehicle, this is the space in which the drive unit such as the motor is located, and is sometimes called the drive unit room).
2本の腕部6、7に装着されたロボットルール20R(21EXA、21EXB、21EXC)での作業が、アーム74の先端に取り付けられたカメラ(MoPU)76によって、リアルタイムで監視しながら実行カメラ68で実行される。可動自在アーム52(52A、52B)の関節部は、360°の範囲で回転可能であり、作業の性質に応じて、回転範囲を定めることで、制御負担を減らすことも可能である。 The work of the robot rule 20R (21EXA, 21EXB, 21EXC) attached to the two arms 6 and 7 is performed by the execution camera 68 while being monitored in real time by the camera (MoPU) 76 attached to the tip of the arm 74. The joints of the movable arm 52 (52A, 52B) can rotate within a range of 360°, and the control load can be reduced by determining the rotation range according to the nature of the work.
図13(B)は、車両ボディ70の車室内での作業を示す斜視図である。 Figure 13 (B) is a perspective view showing work inside the vehicle cabin of the vehicle body 70.
図12にも示される如く、リチウムイオンバッテリ72は、車室の床に沿って配置される場合があり、この場合、特に車両ボディ70がモノコックボディでは、外部から作業アームを車室内に入れるスペースが限られる場合がある。 As shown in FIG. 12, the lithium-ion battery 72 may be placed along the floor of the vehicle compartment. In this case, particularly when the vehicle body 70 is a monocoque body, there may be limited space to insert the working arm into the vehicle compartment from the outside.
このような場合でも、多関節、胴長、首長、指等備えたロボット(可動自在アーム52、可動自在アーム52A及び可動自在アーム52B)を活用すれば、リチウムイオンバッテリ72の取り付けや配線等の作業が容易となる。 Even in such cases, by using a robot (movable arm 52, movable arm 52A, and movable arm 52B) that has multiple joints, a long torso, a long neck, fingers, etc., it becomes easier to perform tasks such as attaching the lithium ion battery 72 and wiring.
図14は、情報処理装置14として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、第1の実施の形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、第1の実施の形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、および/又はコンピュータ1200に、第1の実施の形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャートおよびブロック図のブロックのうちのいくつか又は全てに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。 14 shows an example of a hardware configuration of a computer 1200 functioning as an information processing device 14. A program installed on the computer 1200 can cause the computer 1200 to function as one or more "parts" of the device according to the first embodiment, or cause the computer 1200 to execute operations or one or more "parts" associated with the device according to the first embodiment, and/or cause the computer 1200 to execute a process or steps of the process according to the first embodiment. Such a program may be executed by the CPU 1212 to cause the computer 1200 to execute specific operations associated with some or all of the blocks of the flowcharts and block diagrams described in this specification.
第1の実施の形態によるコンピュータ1200は、CPU1212、RAM1214、およびグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、DVDドライブ、およびICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。DVDドライブは、DVD-ROMドライブおよびDVD-RAMドライブ等であってよい。記憶装置1224は、ハードディスクドライブおよびソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230およびキーボードのような入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。 The computer 1200 according to the first embodiment includes a CPU 1212, a RAM 1214, and a graphics controller 1216, which are connected to each other by a host controller 1210. The computer 1200 also includes input/output units such as a communication interface 1222, a storage device 1224, a DVD drive, and an IC card drive, which are connected to the host controller 1210 via an input/output controller 1220. The DVD drive may be a DVD-ROM drive, a DVD-RAM drive, etc. The storage device 1224 may be a hard disk drive, a solid state drive, etc. The computer 1200 also includes input/output units such as a ROM 1230 and a keyboard, which are connected to the input/output controller 1220 via an input/output chip 1240.
CPU1212は、ROM1230およびRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。 The CPU 1212 operates according to the programs stored in the ROM 1230 and the RAM 1214, thereby controlling each unit. The graphics controller 1216 acquires image data generated by the CPU 1212 into a frame buffer or the like provided in the RAM 1214 or into itself, and causes the image data to be displayed on the display device 1218.
通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラムおよびデータを格納する。DVDドライブは、プログラム又はデータをDVD-ROM等から読み取り、記憶装置1224に提供する。ICカードドライブは、プログラムおよびデータをICカードから読み取り、および/又はプログラムおよびデータをICカードに書き込む。 The communication interface 1222 communicates with other electronic devices via a network. The storage device 1224 stores programs and data used by the CPU 1212 in the computer 1200. The DVD drive reads programs or data from a DVD-ROM or the like and provides them to the storage device 1224. The IC card drive reads programs and data from an IC card and/or writes programs and data to an IC card.
ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、および/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。 ROM 1230 stores therein a boot program or the like executed by computer 1200 upon activation, and/or a program that depends on the hardware of computer 1200. I/O chip 1240 may also connect various I/O units to I/O controller 1220 via USB ports, parallel ports, serial ports, keyboard ports, mouse ports, etc.
プログラムは、DVD-ROM又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。 The programs are provided by a computer-readable storage medium such as a DVD-ROM or an IC card. The programs are read from the computer-readable storage medium, installed in storage device 1224, RAM 1214, or ROM 1230, which are also examples of computer-readable storage media, and executed by CPU 1212. The information processing described in these programs is read by computer 1200, and brings about cooperation between the programs and the various types of hardware resources described above. An apparatus or method may be constructed by realizing the operation or processing of information according to the use of computer 1200.
例えば、通信がコンピュータ1200および外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、DVD-ROM、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。 For example, when communication is performed between computer 1200 and an external device, CPU 1212 may execute a communication program loaded into RAM 1214 and instruct communication interface 1222 to perform communication processing based on the processing described in the communication program. Under the control of CPU 1212, communication interface 1222 reads transmission data stored in a transmission buffer area provided in RAM 1214, storage device 1224, a DVD-ROM, or a recording medium such as an IC card, and transmits the read transmission data to the network, or writes received data received from the network to a reception buffer area or the like provided on the recording medium.
また、CPU1212は、記憶装置1224、DVDドライブ(DVD-ROM)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。 The CPU 1212 may also cause all or a necessary portion of a file or database stored in an external recording medium such as the storage device 1224, a DVD drive (DVD-ROM), an IC card, etc. to be read into the RAM 1214, and perform various types of processing on the data on the RAM 1214. The CPU 1212 may then write back the processed data to the external recording medium.
様々なタイプのプログラム、データ、テーブル、およびデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本発明の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。 Various types of information, such as various types of programs, data, tables, and databases, may be stored in the recording medium and may undergo information processing. The CPU 1212 may perform various types of processing on the data read from the RAM 1214, including various types of operations, information processing, conditional judgment, conditional branching, unconditional branching, information search/replacement, etc., as described throughout the present invention and specified by the instruction sequence of the program, and write back the results to the RAM 1214. The CPU 1212 may also search for information in a file, database, etc. in the recording medium. For example, when a plurality of entries each having an attribute value of a first attribute associated with an attribute value of a second attribute are stored in the recording medium, the CPU 1212 may search for an entry whose attribute value of the first attribute matches a specified condition from among the plurality of entries, read the attribute value of the second attribute stored in the entry, and thereby obtain the attribute value of the second attribute associated with the first attribute that satisfies a predetermined condition.
上で説明したプログラム又はソフトウエアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。 The above-described programs or software modules may be stored in a computer-readable storage medium on or near the computer 1200. In addition, a recording medium such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet can be used as a computer-readable storage medium, thereby providing the programs to the computer 1200 via the network.
第1の実施の形態及び第2の実施の形態におけるフローチャートおよびブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表してよい。特定の段階および「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、および/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタルおよび/又はアナログハードウェア回路を含んでよく、集積回路(IC)および/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、およびプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、および他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。 The blocks in the flowcharts and block diagrams in the first and second embodiments may represent stages of a process in which an operation is performed or "parts" of a device responsible for performing the operation. Particular stages and "parts" may be implemented by dedicated circuitry, programmable circuitry provided with computer-readable instructions stored on a computer-readable storage medium, and/or a processor provided with computer-readable instructions stored on a computer-readable storage medium. The dedicated circuitry may include digital and/or analog hardware circuits, and may include integrated circuits (ICs) and/or discrete circuits. The programmable circuitry may include reconfigurable hardware circuits, such as, for example, field programmable gate arrays (FPGAs), programmable logic arrays (PLAs), and the like, including AND, OR, XOR, NAND, NOR, and other logical operations, flip-flops, registers, and memory elements.
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。 A computer-readable storage medium may include any tangible device capable of storing instructions that are executed by a suitable device, such that a computer-readable storage medium having instructions stored thereon comprises an article of manufacture that includes instructions that can be executed to create means for performing the operations specified in the flowchart or block diagram. Examples of computer-readable storage media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of computer-readable storage media may include floppy disks, diskettes, hard disks, random access memories (RAMs), read-only memories (ROMs), erasable programmable read-only memories (EPROMs or flash memories), electrically erasable programmable read-only memories (EEPROMs), static random access memories (SRAMs), compact disk read-only memories (CD-ROMs), digital versatile disks (DVDs), Blu-ray disks, memory sticks, integrated circuit cards, and the like.
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、および「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。 The computer readable instructions may include either assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine-dependent instructions, microcode, firmware instructions, state setting data, or source or object code written in any combination of one or more programming languages, including object-oriented programming languages such as Smalltalk (registered trademark), JAVA (registered trademark), C++, etc., and conventional procedural programming languages such as the "C" programming language or similar programming languages.
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 The computer-readable instructions may be provided to a processor of a general-purpose computer, special-purpose computer, or other programmable data processing apparatus, or a programmable circuit, either locally or over a local area network (LAN), a wide area network (WAN), such as the Internet, to cause the processor of the general-purpose computer, special-purpose computer, or other programmable data processing apparatus, or a programmable circuit, to execute the computer-readable instructions to generate means for performing the operations specified in the flowcharts or block diagrams. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, etc.
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 The present invention has been described above using an embodiment, but the technical scope of the present invention is not limited to the scope described in the above embodiment. It is clear to those skilled in the art that various modifications and improvements can be made to the above embodiment. It is clear from the claims that forms with such modifications or improvements can also be included in the technical scope of the present invention.
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process, such as operations, procedures, steps, and stages, in the devices, systems, programs, and methods shown in the claims, specifications, and drawings is not specifically stated as "before" or "prior to," and it should be noted that the processes may be performed in any order, unless the output of a previous process is used in a later process. Even if the operational flow in the claims, specifications, and drawings is explained using "first," "next," etc. for convenience, it does not mean that it is necessary to perform the processes in this order.
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 The present invention has been described above using an embodiment, but the technical scope of the present invention is not limited to the scope described in the above embodiment. It is clear to those skilled in the art that various modifications and improvements can be made to the above embodiment. It is clear from the claims that forms with such modifications or improvements can also be included in the technical scope of the present invention.
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process, such as operations, procedures, steps, and stages, in the devices, systems, programs, and methods shown in the claims, specifications, and drawings is not specifically stated as "before" or "prior to," and it should be noted that the processes may be performed in any order, unless the output of a previous process is used in a later process. Even if the operational flow in the claims, specifications, and drawings is explained using "first," "next," etc. for convenience, it does not mean that it is necessary to perform the processes in this order.
1 人型ロボット、2 上半身部、3 脚部、4 連結部、5、6 腕部、7、8 車輪、10 制御システム、12 センサ、14 情報処理装置、20(20L、20R、21EXA、21EXB、21EXC) ロボットツール、26 掌センサ、50 カメラ、52 可動自在アーム、54 台座、56 支持体、58 連結部材、60 関節軸部、62 ローカルセンサツール、64 メイン連結部、66 車両、68 スネークカメラ、70 車両ボディ、72 リチウムイオンバッテリー、100 対象物、1200 コンピュータ、1210 ホストコントローラ、1212 CPU、1214 RAM、1216 グラフィックコントローラ、1218 ディスプレイデバイス、1220 入出力コントローラ、1222 通信インタフェース、1224 記憶装置、1230 ROM、1240 入出力チップ 1 humanoid robot, 2 upper body, 3 legs, 4 connecting part, 5, 6 arms, 7, 8 wheels, 10 control system, 12 sensor, 14 information processing device, 20 (20L, 20R, 21EXA, 21EXB, 21EXC) robot tool, 26 palm sensor, 50 camera, 52 movable arm, 54 pedestal, 56 support, 58 connecting member, 60 joint shaft, 62 local sensor tool, 64 main connecting part, 66 vehicle, 68 snake camera, 70 vehicle body, 72 lithium ion battery, 100 object, 1200 computer, 1210 host controller, 1212 CPU, 1214 RAM, 1216 graphics controller, 1218 display device, 1220 input/output controller, 1222 communication interface, 1224 Memory device, 1230 ROM, 1240 I/O chips
Claims (9)
前記対象物に対する仕事種を判定する判定部と、
前記判定部で判定された仕事種に対応する前記ツールを装着させる動作を制御し、前記仕事種に応じた動作を制御する制御部と、
を有するロボットの制御システム。 A control system for a robot that is detachable from a wrist of an arm that moves three-dimensionally, that is equipped with a tool according to a type of work to be performed on an object, and that performs work on the object, comprising:
A determination unit for determining a type of work for the object;
a control unit that controls an operation of mounting the tool corresponding to the work type determined by the determination unit and controls an operation according to the work type;
A robot control system having the following:
一の腕部には、前記対象物に対する仕事種に応じたツールが選択的に装着され、
他の腕部には、前記対象物に対する、主たる作業の補助作業を実行可能な補助作業ツールが装着される、請求項1記載のロボットの制御システム。 A plurality of arms to which at least the tool can be attached are provided,
A tool corresponding to a type of work to be performed on the object is selectively attached to one arm,
The robot control system according to claim 1 , wherein the other arm is equipped with an auxiliary work tool capable of performing an auxiliary work for the main work on the object.
前記対象物及びツールの位置を特定するセンシングユニットを有するロボット。 A robot that is detachable from a wrist of an arm that moves three-dimensionally, is equipped with a tool according to a type of work to be performed on an object, and performs work on the object,
A robot having a sensing unit for determining the position of the object and the tool.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023050632A JP2024139608A (en) | 2023-03-27 | 2023-03-27 | Robot control system, robot, robot control program |
PCT/JP2024/011702 WO2024204063A1 (en) | 2023-03-27 | 2024-03-25 | Robot control system, robot, and robot control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023050632A JP2024139608A (en) | 2023-03-27 | 2023-03-27 | Robot control system, robot, robot control program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024139608A true JP2024139608A (en) | 2024-10-09 |
Family
ID=92974704
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023050632A Pending JP2024139608A (en) | 2023-03-27 | 2023-03-27 | Robot control system, robot, robot control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024139608A (en) |
-
2023
- 2023-03-27 JP JP2023050632A patent/JP2024139608A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3769174B1 (en) | Motion planning of a robot for various environments and tasks and improved operation of same | |
US10589424B2 (en) | Robot control device, robot, and robot system | |
US20150127141A1 (en) | Robot, control device, robot system and robot control method | |
Suárez-Ruiz et al. | A framework for fine robotic assembly | |
CN106493711B (en) | Controls, Robots, and Robotic Systems | |
CN204658437U (en) | With the Delta parallel manipulator of visual performance | |
US11331810B2 (en) | Device, method and program for estimating weight and position of gravity center of load by using robot | |
JP2018075672A (en) | Control device, robot, and robot system | |
CN110394802B (en) | Polishing robot and position compensation method | |
CN111823100A (en) | Robot-based small-curvature polishing and grinding method | |
US10537988B2 (en) | Controller, robot and robot system | |
JP6387599B2 (en) | Robot, robot system, control apparatus and control method | |
JP2024139608A (en) | Robot control system, robot, robot control program | |
JP2025021813A (en) | Robot control system, robot, robot control program | |
Muthusamy et al. | Investigation and design of robotic assistance control system for cooperative manipulation | |
JP2015085499A (en) | Robot, robot system, control apparatus and control method | |
WO2024204063A1 (en) | Robot control system, robot, and robot control program | |
JP2024166984A (en) | Robot control system, robot control program | |
JP2024125919A (en) | Robot control system, robot control program | |
JP2024176142A (en) | Robot control system, robot control program | |
JP2024150246A (en) | Robot control system and robot control program | |
JP2025005209A (en) | Robot control system, robot control program | |
JP2024153303A (en) | Robot control system and robot control program | |
JP2024170247A (en) | Robot Management System | |
Shaqura et al. | A novel gripper design for multi hand tools grasping under tight clearance constraints and external torque effect |