[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2008137127A - Robot control method - Google Patents

Robot control method Download PDF

Info

Publication number
JP2008137127A
JP2008137127A JP2006327258A JP2006327258A JP2008137127A JP 2008137127 A JP2008137127 A JP 2008137127A JP 2006327258 A JP2006327258 A JP 2006327258A JP 2006327258 A JP2006327258 A JP 2006327258A JP 2008137127 A JP2008137127 A JP 2008137127A
Authority
JP
Japan
Prior art keywords
robot
human
contact
predetermined
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006327258A
Other languages
Japanese (ja)
Inventor
Kenji Sugihara
健治 杉原
Masao Koden
政男 向殿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006327258A priority Critical patent/JP2008137127A/en
Publication of JP2008137127A publication Critical patent/JP2008137127A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot which is usable in a human living environment and a working environment with sufficient safety, and exerts high flexibility. <P>SOLUTION: There is provided a control method for controlling operation of an autonomous control type robot. According to the method, prediction is made as to whether or not the autonomous control type robot makes contact with a person, based on the operation of the autonomous control type robot (step S69). If the contact of the robot with the person is predicted (step S69:YES), the operation of the autonomous control type robot is limited so as not to make contact with a vital spot of the person (step S76). <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、ロボットの制御方法に関し、特に自律制御型ロボットの動作を制御する方法に関する。   The present invention relates to a robot control method, and more particularly to a method for controlling the operation of an autonomous control robot.

電気的あるいは磁気的な作用を用いて人間と似たような動作を行う装置としてロボットがある。このようなロボットは、人間の代わりに作業を行う、又は人間の作業を補助するために利用されることが多い。従って、人間の居住環境や作業環境で使用されることが多く、このような環境においても人間に危害を与えず、安心して使用できるロボットの実現が望まれている。   A robot is a device that performs an action similar to that of a human by using an electrical or magnetic action. Such robots are often used to perform tasks on behalf of humans or to assist human tasks. Therefore, it is often used in a human living environment or work environment, and it is desired to realize a robot that can be used safely without causing harm to humans in such an environment.

このような要望を受けて、最近では、周囲の環境に応じて自主的に自己の行動を制御する自律制御型ロボットが提案されている(例えば、特許文献1参照)。特許文献1に記載の脚式移動ロボットは、機械的な可動部とこれに接触する部位とに設けられた挟み込み検出部を備え、可動部とこれに接触する部位との間に人間の手等が挟み込まれたことを検出する。そして、挟み込みを検出した場合には、挟み込みの回避動作又は解除動作を行う。
特開2004−174644号公報
In response to such a demand, recently, an autonomous control type robot that autonomously controls its own behavior according to the surrounding environment has been proposed (see, for example, Patent Document 1). The legged mobile robot described in Patent Document 1 includes a pinch detection unit provided between a mechanical movable part and a part in contact with the mechanical movable part, and a human hand or the like between the movable part and the part in contact with the movable part. It is detected that is inserted. When pinching is detected, pinching avoidance operation or release operation is performed.
JP 2004-174644 A

ところで、従来の自律制御型ロボットは、特許文献1に記載の脚式移動ロボットのように、異常が発生してからそれを検出して異常を取り除く対応を行うため、ロボットによる事故の被害を小さくすることができる。しかしながら、これは事後的に事故に対応するものであり、事故の発生を容認するものである。また、このロボットでは人間の目を突く等の一瞬で人間に大きな被害を与える事故には対応することが困難である。従って、従来の自律制御型ロボットでは、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現することはできない。   By the way, the conventional autonomous control robot, like the legged mobile robot described in Patent Document 1, detects an abnormality after it has occurred and takes measures to remove the abnormality, thereby reducing the damage caused by the robot. can do. However, this is to respond to the accident after the fact and tolerate the occurrence of the accident. Also, with this robot, it is difficult to deal with accidents that cause great damage to humans in an instant, such as a person's eyes. Therefore, the conventional autonomous control type robot cannot realize a robot that can be used with sufficient safety in a human living environment or work environment.

ここで、上記問題を解決する自律制御型ロボットとして、一定の距離以上は人間に近付かないロボットが考えられる。このロボットを用いれば、ロボットによる事故の発生を未然に防ぐことができる。しかしながら、このロボットではその汎用性が低くなってしまうため、ロボットの利用分野が限られてしまう。例えば、介護の分野では人間とロボットとの接触が必須となるため、対応することができない。従って、このロボットでも上記問題を解決することができない。   Here, as an autonomous control type robot that solves the above problem, a robot that does not approach a human for a certain distance or more can be considered. By using this robot, it is possible to prevent accidents caused by the robot. However, since the versatility of this robot is reduced, the field of use of the robot is limited. For example, in the field of nursing care, contact between a human and a robot is indispensable, and cannot be handled. Therefore, this robot cannot solve the above problem.

そこで、本発明は、かかる問題点に鑑み、人間の居住環境や作業環境で十分に安心して使用できる汎用性の高いロボットを提供することを目的とする。   In view of the above problems, an object of the present invention is to provide a highly versatile robot that can be used with sufficient security in a human living environment or work environment.

上記目的を達成するために、本発明のロボットの制御方法は、ロボットにおける動作の制御方法であって、前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、前記予測ステップにおいて接触すると予測された場合に、前記人間の急所に前記ロボットが接触しないように、前記ロボットの動作を制限する制限ステップとを含むことを特徴とする。ここで、前記ロボットの制御方法は、さらに、人間の急所及び人間の形状を示す人間の画像を格納する画像格納ステップと、前記接触する人間の形状を認識し、前記認識された人間の形状及び前記画像から前記人間の急所を特定する急所特定ステップとを含み、前記制限ステップにおいて、特定された前記人間の急所に前記ロボットが接触しないように、前記ロボットの動作を制限してもよい。   In order to achieve the above object, a robot control method of the present invention is a motion control method in a robot, wherein the prediction step predicts whether or not the robot comes into contact with a human by the motion of the robot, And a limiting step of limiting the operation of the robot so that the robot does not contact the human critical point when it is predicted to make contact in the prediction step. Here, the robot control method further includes an image storing step of storing a human image indicating a human critical point and a human shape, and recognizing the human shape of the contact, and recognizing the recognized human shape and And a step of identifying a human emergency from the image. In the limiting step, the robot may be restricted from moving so that the robot does not contact the specified human emergency.

これによって、人間との接触を事前に予測し、接触する場合には人間の急所と接触しないようにロボットの動作が制限される。従って、大きな事故の発生を予測し、大きな事故の発生を未然に防ぐことができるので、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。   As a result, contact with a human is predicted in advance, and in the case of contact, the operation of the robot is limited so as not to contact the human critical point. Therefore, since it is possible to predict the occurrence of a major accident and prevent the occurrence of a major accident, it is possible to realize a robot that can be used with confidence in a human living environment or work environment. In addition, since human beings are not greatly damaged by contact, it can be used at a distance close to humans, and a highly versatile robot can be realized.

また、本発明は、ロボットにおける動作の制御方法であって、前記ロボットと人間との距離を測定する測定ステップと、前記距離が所定の距離より短い場合に、前記人間に警告を発する警告ステップとを含むことを特徴とするロボットの制御方法とすることもできる。ここで、前記警告ステップにおいて、前記距離が所定の距離より短い場合に、前記ロボットが備える表示部に所定の画像を表示してもよいし、前記ロボットの制御方法は、さらに、前記距離が所定の距離より短い場合に、前記ロボットの動作速度を遅くする、又は前記ロボットの動作を停止する制限ステップを含んでもよい。   Further, the present invention is a method for controlling an operation in a robot, wherein a measuring step for measuring a distance between the robot and a human, and a warning step for issuing a warning to the human when the distance is shorter than a predetermined distance; It can also be set as the control method of the robot characterized by including these. Here, in the warning step, when the distance is shorter than the predetermined distance, a predetermined image may be displayed on a display unit included in the robot, and the robot control method may further include the predetermined distance. If the distance is shorter than the distance, a limiting step of slowing down the operation speed of the robot or stopping the operation of the robot may be included.

これによって、人間との距離が接触する可能性のある距離である場合に、人間に対してロボットが接触する可能性があるという警告を発することができる。従って、人間が外部からの接触に対して無防備である、あるいはこちらを認識していない等の状態でロボットと接触することが無くなる。その結果、大きな事故の発生を未然に防ぐことができ、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。   As a result, when the distance to the person is likely to come into contact, a warning that the robot may come into contact with the person can be issued. Therefore, it is not possible for a human to come into contact with the robot in a state where it is unprotected against contact from the outside or does not recognize this. As a result, it is possible to prevent a major accident from occurring and to realize a robot that can be used with sufficient safety in a human living environment or work environment. In addition, since human beings are not greatly damaged by contact, it can be used at a distance close to humans, and a highly versatile robot can be realized.

また、本発明は、ロボットにおける動作の制御方法であって、前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、前記予測ステップにおいて接触すると予測された場合に、所定の接触角度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する制限ステップとを含むことを特徴とするロボットの制御方法とすることもできる。ここで、前記ロボットの制御方法は、さらに、人間の部位の位置及び人間の形状を示す人間の画像と、前記人間の部位及び前記所定の接触角度が関連付けられた角度テーブルとを格納する角度テーブル格納ステップと、前記接触する人間の形状及びロボットに接触する部分を認識し、前記認識された人間の形状及びロボットに接触する部分と前記画像とから前記ロボットに接触する前記人間の部位を特定する部位特定ステップと、前記制限ステップにおいて、特定された前記人間の部位に前記角度テーブルで関連付けられた所定の接触角度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限してもよい。   Further, the present invention is a method for controlling an operation in a robot, in a prediction step of predicting whether or not the robot comes into contact with a human by the operation of the robot, and when predicted to contact in the prediction step, The robot control method may further include a restricting step for restricting the operation of the robot so that the robot does not contact the human at a predetermined contact angle. Here, the robot control method further includes an angle table for storing a human image indicating a position of a human part and a human shape, and an angle table in which the human part and the predetermined contact angle are associated with each other. Recognizing the shape of the person to be contacted and the part that contacts the robot, and identifying the part of the person that contacts the robot from the recognized shape of the person and the part that contacts the robot and the image In the part specifying step and the restricting step, the robot operation may be restricted so that the robot does not contact the person at a predetermined contact angle associated with the specified human part in the angle table. Good.

これによって、人間との接触を事前に予測し、接触する場合には人間に大きな被害を与える危険な角度で人間と接触しないようにロボットの動作を制限することができる。従って、大きな事故の発生を予測し、大きな事故の発生を未然に防ぐことができる。その結果、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。   As a result, it is possible to predict contact with a human in advance, and to limit the operation of the robot so that it does not come into contact with a human at a dangerous angle that causes great damage to the human. Therefore, it is possible to predict the occurrence of a major accident and prevent the occurrence of a major accident. As a result, it is possible to realize a robot that can be used with sufficient peace of mind in human living and work environments. In addition, since human beings are not greatly damaged by contact, it can be used at a distance close to humans, and a highly versatile robot can be realized.

また、本発明は、ロボットにおける動作の制御方法であって、前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、前記予測ステップにおいて接触すると予測された場合に、所定の接触速度より大きな速度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する制限ステップとを含むことを特徴とするロボットの制御方法とすることもできる。ここで、前記ロボットの制御方法は、さらに、人間の部位の位置及び人間の形状を示す人間の画像と、前記人間の部位及び前記所定の接触速度が関連付けられた接触速度テーブルとを格納する接触速度テーブル格納ステップと、前記接触する人間の形状及びロボットに接触する部分を認識し、前記認識された人間の形状及びロボットに接触する部分と前記画像とから前記ロボットに接触する前記人間の部位を特定する部位特定ステップと、前記制限ステップにおいて、特定された前記人間の部位に前記接触速度テーブルで関連付けられた所定の接触速度より大きな速度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限してもよい。   Further, the present invention is a method for controlling an operation in a robot, in a prediction step of predicting whether or not the robot comes into contact with a human by the operation of the robot, and when predicted to contact in the prediction step, The robot control method may further include a restricting step for restricting the operation of the robot so that the robot does not contact the human at a speed higher than a predetermined contact speed. Here, the robot control method further includes a contact image storing a human image indicating a position of a human part and a human shape, and a contact speed table in which the human part and the predetermined contact speed are associated with each other. A speed table storing step, recognizing the shape of the person to be touched and a portion that is in contact with the robot, and determining the portion of the human being in contact with the robot from the recognized shape of the human being, the portion in contact with the robot and the image In the specifying part specifying step and the restricting step, the robot is controlled so that the robot does not contact the human at a speed greater than a predetermined contact speed associated with the specified human part in the contact speed table. The operation may be limited.

これによって、人間との接触を事前に予測し、接触する場合には人間に大きな被害を与える危険な速度で人間と接触しないようにロボットの動作を制限することができる。従って、大きな事故の発生を予測し、大きな事故の発生を未然に防ぐことができる。その結果、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。   As a result, it is possible to predict contact with a human in advance, and to limit the operation of the robot so as not to contact the human at a dangerous speed that would cause great damage to the human in the case of contact. Therefore, it is possible to predict the occurrence of a major accident and prevent the occurrence of a major accident. As a result, it is possible to realize a robot that can be used with sufficient peace of mind in human living and work environments. In addition, since human beings are not greatly damaged by contact, it can be used at a distance close to humans, and a highly versatile robot can be realized.

また、本発明は、ロボットにおける動作の制御方法であって、前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、前記予測ステップにおいて接触すると予測された場合に、前記人間の所定の部位の状態を認識する状態認識ステップと、前記状態認識ステップにおいて認識された前記所定の部位の状態に基づいて前記ロボットの動作を制限する制限ステップとを含むことを特徴とするロボットの制御方法とすることもできる。ここで、前記状態認識ステップでは、前記人間の顔の向き又は前記人間の肩の上下動を認識し、前記制限ステップでは、前記人間の顔の向き又は前記人間の肩の上下動の認識結果に基づいて前記ロボットの動作を制限してもよい。   Further, the present invention is a method for controlling an operation in a robot, in a prediction step of predicting whether or not the robot comes into contact with a human by the operation of the robot, and when predicted to contact in the prediction step, A state recognizing step for recognizing a state of the predetermined part of the human, and a restricting step for restricting the operation of the robot based on the state of the predetermined part recognized in the state recognizing step. It can also be a robot control method. Here, in the state recognition step, the orientation of the human face or the vertical movement of the human shoulder is recognized, and in the limiting step, the recognition result of the orientation of the human face or the vertical movement of the human shoulder is recognized. Based on this, the operation of the robot may be limited.

これによって、人間との接触を事前に予測し、接触する場合には外部からの接触に対して無防備である、あるいはこちらを認識していない等の状態にある人間と接触しないようにロボットの動作を制限することができる。従って、大きな事故の発生を予測し、大きな事故の発生を未然に防ぐことができるので、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。   This predicts contact with humans in advance, and when touching, the robot moves so as not to touch humans who are unprotected against contact from outside or who are not aware of this. Can be limited. Therefore, since it is possible to predict the occurrence of a major accident and prevent the occurrence of a major accident, it is possible to realize a robot that can be used with confidence in a human living environment or work environment. In addition, since human beings are not greatly damaged by contact, it can be used at a distance close to humans, and a highly versatile robot can be realized.

なお、本発明は、このようなロボットの制御方法として実現することができるだけでなく、その方法により動作が制御されるロボット及びそのロボットのためのプログラム、そのプログラムを格納する記憶媒体としても実現することができる。   The present invention can be realized not only as such a robot control method but also as a robot whose operation is controlled by the method, a program for the robot, and a storage medium for storing the program. be able to.

本発明によれば、人間の居住環境や作業環境で十分に安心して使用できる汎用性の高いロボットを実現できる。   According to the present invention, it is possible to realize a highly versatile robot that can be used with sufficient security in a human living environment or work environment.

以下、本発明の実施の形態における自律制御型ロボットについて、図面を参照しながら説明する。   Hereinafter, an autonomous control robot according to an embodiment of the present invention will be described with reference to the drawings.

図1(a)は本実施の形態の自律制御型ロボットの正面図であり、図1(b)は同ロボットの側面図である。   FIG. 1A is a front view of the autonomous control type robot of the present embodiment, and FIG. 1B is a side view of the robot.

このロボットは、周囲の環境に応じて自主的に動作を制御する2足歩行型のロボットであり、胴ユニット100、頭部ユニット110と、右腕ユニット120、左腕ユニット130、右脚ユニット140及び左脚ユニット150から構成される。   This robot is a biped walking type robot that automatically controls the operation according to the surrounding environment, and includes a torso unit 100, a head unit 110, a right arm unit 120, a left arm unit 130, a right leg unit 140, and a left unit. The leg unit 150 is configured.

頭部ユニット110は、胴ユニット100の上部に連結される。
右腕ユニット120は、右上腕部120a、右前腕部120b及び右手首部120cから構成され、胴ユニット100の右側部に連結される。左腕ユニット130は、左上腕部130a、左前腕部130b及び左手首部130cから構成され、胴ユニット100の左側部に連結される。
The head unit 110 is connected to the upper part of the trunk unit 100.
The right arm unit 120 includes an upper right arm portion 120a, a right forearm portion 120b, and a right wrist portion 120c, and is connected to the right side portion of the trunk unit 100. The left arm unit 130 includes a left upper arm portion 130a, a left forearm portion 130b, and a left wrist portion 130c, and is connected to the left side portion of the torso unit 100.

右脚ユニット140は、右大腿部140a、右下腿部140b及び右足首部140cから構成され、胴ユニット100の下部右側に連結される。左脚ユニット150は、左大腿部150a、左下腿部150b及び左足首部150cから構成され、胴ユニット100の下部左側に連結される。   The right leg unit 140 includes a right thigh 140a, a right lower leg 140b, and a right ankle 140c, and is connected to the lower right side of the torso unit 100. The left leg unit 150 includes a left thigh 150a, a left lower leg 150b, and a left ankle 150c, and is connected to the lower left side of the torso unit 100.

図2は、自律制御型ロボットの駆動構造を模式的に示す図である。
頭部ユニット110は、モータM1及びM2をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。頭部ユニット110には、ロボットの周囲を撮像するCCDあるいはMOS型のカメラ210及び220と、CRT(Cathode-Ray Tube)やLCD(Liquid Crystal Display)等の表示部230とが配設されている。表示部230は、距離が所定の距離より短くなる場合に画像を変更し、人間に警告を発する。
FIG. 2 is a diagram schematically showing the drive structure of the autonomous control robot.
The head unit 110 can be independently rotated about two orthogonal axes by driving the motors M1 and M2, respectively. The head unit 110 is provided with CCD or MOS type cameras 210 and 220 for imaging the surroundings of the robot, and a display unit 230 such as a CRT (Cathode-Ray Tube) or LCD (Liquid Crystal Display). . The display unit 230 changes the image when the distance is shorter than a predetermined distance, and issues a warning to a person.

右上腕部120aは、モータM3及びM4をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。右前腕部120bは、モータM5及びM6をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。右手首部120cは、モータM7を駆動することにより、1つの軸の回りに回転させることができるようにされている。   The upper right arm 120a can be independently rotated around two orthogonal axes by driving the motors M3 and M4, respectively. The right forearm 120b can be independently rotated around two orthogonal axes by driving the motors M5 and M6, respectively. The right wrist 120c can be rotated around one axis by driving a motor M7.

左上腕部130aは、モータM8及びM9をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。左前腕部130bは、モータM10及びM11をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。左手首部130cは、モータM12を駆動することにより、1つの軸の回りに回転させることができるようにされている。   The upper left arm portion 130a can be rotated independently around two orthogonal axes by driving motors M8 and M9, respectively. The left forearm 130b can be independently rotated about two orthogonal axes by driving the motors M10 and M11, respectively. The left wrist portion 130c can be rotated around one axis by driving a motor M12.

胴ユニット100は、モータM13及びM14をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。胴ユニット100には、モータM1〜24並びにカメラ210及び220に接続された、モータM1〜24、表示部230、並びにカメラ210及び220の駆動を制御する制御部200が配設されている。   The body unit 100 can be independently rotated around two orthogonal axes by driving the motors M13 and M14, respectively. The body unit 100 is provided with a motor M1 to 24 connected to the motors M1 to 24 and the cameras 210 and 220, a display unit 230, and a control unit 200 that controls driving of the cameras 210 and 220.

右大腿部140aは、モータM15及びM16をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。右下腿部140bは、モータM17及びM18をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。右足首部140cは、モータM19を駆動することにより、1つの軸の回りに回転させることができるようにされている。   The right thigh 140a can be independently rotated around two orthogonal axes by driving motors M15 and M16, respectively. The right lower leg 140b can be independently rotated around two orthogonal axes by driving motors M17 and M18, respectively. The right ankle portion 140c can be rotated around one axis by driving a motor M19.

左大腿部150aは、モータM20及びM21をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。左下腿部150bは、モータM22及びM23をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。左足首部150cは、モータM24を駆動することにより、1つの軸の回りに回転させることができるようにされている。   The left thigh 150a can be independently rotated about two orthogonal axes by driving the motors M20 and M21, respectively. The left lower leg 150b can be independently rotated around two orthogonal axes by driving motors M22 and M23, respectively. The left ankle portion 150c can be rotated around one axis by driving a motor M24.

図3は、自律制御型ロボットの構成を示す機能ブロック図である。
このロボットは、制御部200、機構部300、記憶部320、人間認識部350、メモリ部360、予測部370、測定部380及び状態認識部390を備える。
FIG. 3 is a functional block diagram showing the configuration of the autonomous control robot.
The robot includes a control unit 200, a mechanism unit 300, a storage unit 320, a human recognition unit 350, a memory unit 360, a prediction unit 370, a measurement unit 380, and a state recognition unit 390.

機構部300は、モータM1〜24、表示部230並びにカメラ210及び220等を含む機構部品の集合である。   The mechanism unit 300 is a set of mechanism parts including the motors M1 to 24, the display unit 230, the cameras 210 and 220, and the like.

制御部200は、記憶部320からメモリ部360に動作プログラム320aをロードして実行し、その実行結果に従って機構部300を制御する。   The control unit 200 loads and executes the operation program 320a from the storage unit 320 to the memory unit 360, and controls the mechanism unit 300 according to the execution result.

記憶部320は、ハードディスクやメモリ等であり、記憶部320には、動作プログラム320a、基準画像データ320b、角度テーブル320c、虚実判定テーブル320d、距離テーブル320e及び接触速度テーブル320f等が格納される。   The storage unit 320 is a hard disk, a memory, or the like. The storage unit 320 stores an operation program 320a, reference image data 320b, an angle table 320c, an truth determination table 320d, a distance table 320e, a contact speed table 320f, and the like.

基準画像データ320bは、図4に示されるように、人間の3次元形状、人間の急所(図4における斜線部)の位置及び人間の部位の位置を示す人間の3次元画像である。このとき、人間の急所としては、例えば、喉、みぞおち、金的、人中及び鼻等の正中線(体の中心線)にある部位や、こめかみ、目等が挙げられる。   As shown in FIG. 4, the reference image data 320b is a human three-dimensional image showing the three-dimensional shape of a human, the position of a human sharp point (the hatched portion in FIG. 4), and the position of a human part. At this time, examples of human vital points include the throat, the groove, the money, the part on the midline (the center line of the body) such as the person and the nose, the temple, the eyes, and the like.

角度テーブル320cは、図5に示されるように、図4で示された人間の部位とそれとロボットの危険な接触角度とが関連付けられたテーブルである。このとき、危険の接触角度は、ロボットが人間に接触する場合に許容される接触角度、つまり人間に大きな被害を与えない接触角度であり、人間の部位毎で異なる。例えば、みぞおちを下方からアバラ骨の中に突き込むように突き上げると人間に大きな被害が与えられる。従って、「みぞおち」には、「足下から頭に向かう線に対して0〜90°の接触角度」が関連付けられている。   As shown in FIG. 5, the angle table 320 c is a table in which the human part shown in FIG. 4 is associated with the dangerous contact angle of the robot. At this time, the contact angle of danger is a contact angle that is allowed when the robot contacts a human, that is, a contact angle that does not cause great damage to the human, and varies depending on the human part. For example, if the grooving is pushed up from below to push into the ribs, human damage will be caused. Therefore, the “groove” is associated with “a contact angle of 0 to 90 ° with respect to a line from the foot toward the head”.

虚実判定テーブル320dは、図6に示されるように、図4で示された人間の部位とその部位の所定の状態とが関連付けられたテーブルである。このとき、部位の所定の状態は、人間が外部からの接触に対して無防備である、あるいはこちらを認識していない等の状態にあることを示す状態である。すなわち、人間は息を吸っている状態において息を吐いている状態と比べてより無防備であり、この状態でロボットが接触すると人間は大きな被害を受ける。従って、図6のテーブルでは、「肩」に「上方に向かって動く状態」が関連付けられる。また、人間は不意打ちを受けると大きな被害を受ける。従って、図6のテーブルでは、「顔」に「ロボットを向いている状態」が関連付けられる。   As shown in FIG. 6, the truth determination table 320 d is a table in which the human part shown in FIG. 4 is associated with a predetermined state of the part. At this time, the predetermined state of the part is a state indicating that a person is unprotected against contact from the outside or is not recognizing this. That is, humans are more vulnerable when they are inhaling than when they are exhaling, and when they touch the robot in this state, humans are greatly damaged. Therefore, in the table of FIG. 6, “the state of moving upward” is associated with “shoulder”. In addition, human beings are greatly damaged if they are surprised. Therefore, in the table of FIG. 6, “face facing” is associated with “face”.

距離テーブル320eは、図7に示されるように、人間及びロボットの間の距離、表示部230の画像内容、及びロボットの動作速度が関連付けられたテーブルである。このテーブルでは、人間及びロボットのいずれかが互いの距離を縮める動作をしなければロボット及び人間の動作により互いが接触しない距離、例えば人間及びロボットの間の距離が1m〜2mのときには、表示部230に黄色の画像を表示させ、ロボットの動作速度を0.1m/secにすることが示されている。また、人間及びロボットのいずれかが互いの距離を縮める動作をしなくてもロボット及び人間の動作により互いが接触する距離、例えば、人間及びロボットの間の距離が1.0m以下のときには、表示部230に赤色の画像を表示させ、ロボットの動作速度を0.01m/secにすることが示されている。   As shown in FIG. 7, the distance table 320e is a table in which the distance between the human and the robot, the image content of the display unit 230, and the operation speed of the robot are associated with each other. In this table, when either the human or the robot does not operate to reduce the distance between them, the distance that the robot and the human do not touch each other, for example, the distance between the human and the robot is 1 m to 2 m. It is shown that a yellow image is displayed at 230 and the operation speed of the robot is 0.1 m / sec. In addition, even if either the human or the robot does not reduce the distance between each other, the distance that the robot and the human make contact with each other, for example, when the distance between the human and the robot is 1.0 m or less is displayed. It is shown that a red image is displayed on the unit 230 and the robot operating speed is 0.01 m / sec.

接触速度テーブル320fは、図8に示されるように、図4で示された人間の部位とそれとロボットの危険な接触速度とが関連付けられたテーブルである。危険な接触速度は、ロボットが人間に接触する場合に許容される接触速度、つまり人間に大きな被害を与えない接触速度であり、人間の部位毎で異なる。例えば、「顔」には、「0.0001m/sec」の接触速度が関連付けられている。   As shown in FIG. 8, the contact speed table 320f is a table in which the human part shown in FIG. 4 is associated with the dangerous contact speed of the robot. The dangerous contact speed is a contact speed that is allowed when the robot contacts a human, that is, a contact speed that does not cause much damage to the human, and is different for each human part. For example, a contact speed of “0.0001 m / sec” is associated with “face”.

人間認識部350は、ロボットから所定の距離内に存在する人間をカメラ210及び220により取得された画像に基づいて認識し、カメラ210及び220により取得された2つの画像からステレオマッチング法等を使って人間の3次元画像を生成する。さらに、人間認識部350は、生成された3次元画像を使って認識された人間のロボットと接触する部分の位置を認識する。   The human recognition unit 350 recognizes a person who exists within a predetermined distance from the robot based on the images acquired by the cameras 210 and 220, and uses a stereo matching method or the like from the two images acquired by the cameras 210 and 220. To generate a human three-dimensional image. Furthermore, the human recognizing unit 350 recognizes the position of the portion that contacts the human robot recognized using the generated three-dimensional image.

メモリ部360は、制御部200、人間認識部350、予測部370、測定部380及び状態認識部390等による作業領域を提供するRAM(Random Access Memory)等である。   The memory unit 360 is a RAM (Random Access Memory) that provides a work area for the control unit 200, the human recognition unit 350, the prediction unit 370, the measurement unit 380, the state recognition unit 390, and the like.

予測部370は、人間認識部350で生成された3次元画像に基づいて、人間認識部350で認識された人間とロボットとがロボットの動作により接触するか否かを予測する。   Based on the three-dimensional image generated by the human recognition unit 350, the prediction unit 370 predicts whether or not the human recognized by the human recognition unit 350 and the robot come into contact with each other by the operation of the robot.

測定部380は、人間認識部350で認識された人間とロボットとの間の距離を人間認識部350で生成された3次元画像に基づいて測定する。   The measurement unit 380 measures the distance between the human recognized by the human recognition unit 350 and the robot based on the three-dimensional image generated by the human recognition unit 350.

状態認識部390は、人間認識部350により生成された3次元画像を基準画像データ320bとパターンマッチングし、人間の部位の状態を認識する。   The state recognition unit 390 pattern-matches the three-dimensional image generated by the human recognition unit 350 with the reference image data 320b, and recognizes the state of the human part.

次に、上記構成を有する自律制御型ロボットの動作について説明する。図9は、同ロボットの動作を示すフローチャートである。   Next, the operation of the autonomous control type robot having the above configuration will be described. FIG. 9 is a flowchart showing the operation of the robot.

まず、制御部200は、人間認識部350に、ロボットから所定の距離内に存在する人間を認識させ、さらに認識された人間の3次元画像を生成させる(ステップS60)。この3次元画像により、認識された人間の位置及び形状が特定される。所定の距離は、カメラ210及び220の性能に依存して異なり、例えば10mとされる。   First, the control unit 200 causes the human recognition unit 350 to recognize a human who exists within a predetermined distance from the robot, and further generates a recognized human three-dimensional image (step S60). The position and shape of the recognized human is specified by this three-dimensional image. The predetermined distance differs depending on the performance of the cameras 210 and 220, and is, for example, 10 m.

次に、制御部200は、測定部380により、認識された人間とロボットとの距離を測定させる(ステップS61)。   Next, the control unit 200 causes the measurement unit 380 to measure the distance between the recognized human and the robot (step S61).

次に、制御部200は、測定された距離が人間と接触する危険な距離であるか否かを判定する(ステップS62)。具体的には、測定された距離が距離テーブル320eに示される1.0m以下の距離であるか否かを判定する。   Next, the control unit 200 determines whether or not the measured distance is a dangerous distance in contact with a human (step S62). Specifically, it is determined whether or not the measured distance is a distance of 1.0 m or less shown in the distance table 320e.

次に、測定された距離が危険な距離で無いと判定された場合(ステップS62でNO)、制御部200は、測定された距離が人間と接触する可能性の低い安全な距離であるか否かを判定する(ステップS63)。具体的には、測定された距離が距離テーブル320eに示される2m以上の距離であるか否かを判定する。   Next, when it is determined that the measured distance is not a dangerous distance (NO in step S62), the control unit 200 determines whether or not the measured distance is a safe distance with a low possibility of contact with a human. Is determined (step S63). Specifically, it is determined whether or not the measured distance is a distance of 2 m or more shown in the distance table 320e.

次に、測定された距離が安全な距離であると判定された場合(ステップS63でYES)、制御部200は、距離テーブル320eに従って表示部230に青色の画像を表示させる(ステップS64)。   Next, when it is determined that the measured distance is a safe distance (YES in step S63), the control unit 200 displays a blue image on the display unit 230 according to the distance table 320e (step S64).

次に、測定された距離が安全な距離で無いと判定された場合(ステップS63でNO)、制御部200は、距離テーブル320eに従って表示部230に黄色の画像を表示して人間に警告を発すると共に(ステップS65)、ロボットの動作速度を0.1m/secの低速に変化させる(ステップS66)。   Next, when it is determined that the measured distance is not a safe distance (NO in step S63), the control unit 200 displays a yellow image on the display unit 230 according to the distance table 320e and issues a warning to a human. At the same time (step S65), the operation speed of the robot is changed to a low speed of 0.1 m / sec (step S66).

次に、測定された距離が危険な距離であると判定された場合(ステップS62でYES)、制御部200は、距離テーブル320eに従って表示部230に赤色の画像を表示して人間に警告を発すると共に(ステップS67)、ロボットの動作速度を0.01m/secの低速に変化させる(ステップS68)。   Next, when it is determined that the measured distance is a dangerous distance (YES in step S62), the control unit 200 displays a red image on the display unit 230 according to the distance table 320e and issues a warning to a human. At the same time (step S67), the robot operation speed is changed to a low speed of 0.01 m / sec (step S68).

次に、制御部200は、予測部370により、認識された人間とロボットとがロボットの動作により接触するか否かを予測させる(ステップS69)。   Next, the control unit 200 causes the prediction unit 370 to predict whether or not the recognized human and the robot come into contact with each other by the operation of the robot (step S69).

次に、人間と接触すると予測された場合(ステップS69でYES)、制御部200は、人間認識部350により、人間のロボットと接触する部分の位置を認識させる。その後、制御部200は、人間認識部350により生成された3次元画像、基準画像データ320b、及び認識された人間のロボットと接触する部分の位置から人間のロボットと接触する部位を特定する(ステップS70)。具体的には、人間認識部350により生成された3次元画像を基準画像データ320bとパターンマッチングし、人間のロボットと接触する部分が人間のどの部位に当たるかを特定する。   Next, when it is predicted that the human body will be contacted (YES in step S69), the control unit 200 causes the human recognition unit 350 to recognize the position of the portion that contacts the human robot. Thereafter, the control unit 200 identifies a part that contacts the human robot from the three-dimensional image generated by the human recognition unit 350, the reference image data 320b, and the position of the recognized part that contacts the human robot (Step S200). S70). Specifically, the three-dimensional image generated by the human recognizing unit 350 is pattern-matched with the reference image data 320b to specify which part of the human contact the part in contact with the human robot.

次に、制御部200は、状態認識部390により、特定された部位の状態を認識させる(ステップS71)。例えば、認識された人間の顔の向き又は肩の動きを認識させる。   Next, the control part 200 makes the state recognition part 390 recognize the state of the specified site | part (step S71). For example, the recognized human face orientation or shoulder movement is recognized.

次に、制御部200は、認識された人間の姿勢や状態が不安定であるか否かを判定する(ステップS72)。具体的には、特定された部位の状態のいずれかが虚実判定テーブル320dに示される所定の状態であるか否かを判定する。例えば、肩の動きが上方に向かう動きであるか否かを判定したり、顔の向きがロボットを向いているか否かを判定したりする。   Next, the control unit 200 determines whether or not the recognized human posture or state is unstable (step S72). Specifically, it is determined whether any of the specified part states is a predetermined state shown in the truth determination table 320d. For example, it is determined whether or not the shoulder motion is upward, or whether or not the face is facing the robot.

次に、認識された人間の姿勢や状態が不安定であると判定された場合(ステップS72でYES)、制御部200は、認識された人間から離れる動作をロボットに行わせる(ステップS73)。   Next, when it is determined that the recognized posture or state of the human is unstable (YES in step S72), the control unit 200 causes the robot to move away from the recognized human (step S73).

次に、認識された人間の姿勢や状態が不安定で無いと判定された場合(ステップS72でNO)、制御部200は、認識された人間の急所の位置を特定する。具体的には、人間認識部350により生成された3次元画像を基準画像データ320bとパターンマッチングし、認識された人間の急所の位置を特定する(ステップS74)。   Next, when it is determined that the recognized human posture or state is not unstable (NO in step S72), the control unit 200 specifies the position of the recognized human critical point. Specifically, the three-dimensional image generated by the human recognizing unit 350 is pattern-matched with the reference image data 320b to identify the position of the recognized human critical point (step S74).

次に、制御部200は、人間の急所と接触するか否かを判定する(ステップS75)。具体的には、特定された人間の急所の位置が人間認識部350により認識された人間のロボットと接触する部分の位置と一致するか否かを判定する。   Next, the control unit 200 determines whether or not to contact a human emergency (step S75). Specifically, it is determined whether or not the position of the identified human critical point coincides with the position of the part in contact with the human robot recognized by the human recognition unit 350.

次に、人間の急所と接触する場合(ステップS75のYES)、制御部200は、急所への接触が行われず、人間の急所以外の部分にロボットが接触するようにロボットの動作を制限する(ステップS76)。   Next, in the case of contact with a human emergency (YES in step S75), the control unit 200 restricts the operation of the robot so that the robot does not contact the emergency and the portion other than the human emergency is in contact with the robot ( Step S76).

次に、制御部200は、認識された人間のロボットとの接触角度を特定する(ステップS77)。   Next, the control unit 200 identifies the contact angle with the recognized human robot (step S77).

次に、制御部200は、特定された接触角度がロボットに接触する人間の部位に対して危険な角度であるか否かを判定する(ステップS78)。具体的には、人間のロボットと接触する部位に角度テーブル320cで関連付けられた危険な接触角度が、特定された接触角度と一致するか否かを判定する。例えば、接触する人間の部位として目が特定され、接触角度として20°が特定された場合、この20°が角度テーブル320cで目と関連付けられている90°と異なるため、接触角度は危険なもので無いと判定される。   Next, the control unit 200 determines whether or not the specified contact angle is a dangerous angle with respect to a human part that contacts the robot (step S78). Specifically, it is determined whether or not the dangerous contact angle associated with the part in contact with the human robot in the angle table 320c matches the specified contact angle. For example, when an eye is specified as a human part to contact and 20 ° is specified as a contact angle, the contact angle is dangerous because 20 ° is different from 90 ° associated with the eye in the angle table 320c. It is determined that it is not.

次に、特定された接触角度が危険な角度であると判定された場合(ステップS78でYES)、制御部200は、危険な角度での接触が行われないように、ロボットの人間との接触角度を変更させる(ステップS79)。   Next, when it is determined that the specified contact angle is a dangerous angle (YES in step S78), the control unit 200 contacts the robot with a human so that the contact at the dangerous angle is not performed. The angle is changed (step S79).

次に、制御部200は、認識された人間のロボットとの接触速度を特定する(ステップS80)。   Next, the control unit 200 specifies the contact speed with the recognized human robot (step S80).

次に、制御部200は、特定された接触速度がロボットに接触する人間の部位に対して危険な速度であるか否かを判定する(ステップS81)。具体的には、人間のロボットと接触する部位に接触速度テーブル320fで関連付けられた安全な接触速度が、特定された接触速度よりも遅いか否かを判定する。   Next, the control unit 200 determines whether or not the specified contact speed is a dangerous speed for a human part that contacts the robot (step S81). Specifically, it is determined whether or not the safe contact speed associated with the part in contact with the human robot in the contact speed table 320f is slower than the specified contact speed.

次に、特定された接触速度が危険な速度であると判定された場合(ステップS81でYES)、制御部200は、危険な速度で人間と接触しないように、ロボットに接触する人間の部位に接触速度テーブル320fで関連付けられた接触速度に徐々に変化させる(ステップS82)。このとき、速度の変化率は、接触速度判定時におけるロボットの動作速度とロボット及び人間の距離とに応じて変更され、動作速度が比較的速いとき又は人間との距離が比較的離れているときには速度の変化率は大きくされ、逆に動作速度が比較的遅いとき又は人間との距離が比較的近いときには速度の変化率は小さくされる。   Next, when it is determined that the identified contact speed is a dangerous speed (YES in step S81), the control unit 200 applies a human part that contacts the robot so as not to contact the human at a dangerous speed. The contact speed is gradually changed to the contact speed associated with the contact speed table 320f (step S82). At this time, the rate of change of the speed is changed according to the operation speed of the robot at the time of contact speed determination and the distance between the robot and the person, and when the operation speed is relatively fast or the distance from the person is relatively far The rate of change in speed is increased, and conversely, the rate of change in speed is reduced when the operation speed is relatively slow or when the distance to a human is relatively close.

以上のように本実施の形態の自律制御型ロボットによれば、人間が外部からの接触に対して無防備である、あるいはこちらを認識していない等の状態にあるかを判定し、該当する場合には人間と接触しないように制御される。従って、大きな事故の発生を未然に防ぐことができるので、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。   As described above, according to the autonomous control type robot of the present embodiment, it is determined whether a person is unprotected against contact from the outside, or is not aware of this, and is applicable. It is controlled not to come into contact with humans. Therefore, since it is possible to prevent the occurrence of a major accident, it is possible to realize a robot that can be used with confidence in a human living environment or work environment. In addition, since human beings are not greatly damaged by contact, it can be used at a distance close to humans, and a highly versatile robot can be realized.

また、本実施の形態の自律制御型ロボットによれば、人間との距離が接触する可能性のある距離である場合に表示部230の画像を変更し、人間に対してロボットが接触する可能性があるという警告を発する。従って、人間が外部からの接触に対して無防備である、あるいはこちらを認識していない等の状態でロボットと接触することが無くなる。その結果、大きな事故の発生を未然に防ぐことができ、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。   Further, according to the autonomous control type robot of the present embodiment, the image on the display unit 230 may be changed when the distance to the person is likely to come into contact, and the robot may come into contact with the person. A warning that there is. Therefore, it is not possible for a human to come into contact with the robot in a state where it is unprotected against contact from the outside or does not recognize this. As a result, it is possible to prevent a major accident from occurring and to realize a robot that can be used with sufficient safety in a human living environment or work environment. In addition, since human beings are not greatly damaged by contact, it can be used at a distance close to humans, and a highly versatile robot can be realized.

また、本実施の形態の自律制御型ロボットによれば、接触する人間の部分が急所であるかを判定し、該当する場合には急所と接触しないように接触する部分を変更する。従って、大きな事故の発生を未然に防ぐことができるので、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。   In addition, according to the autonomous control type robot of the present embodiment, it is determined whether or not the human part that comes into contact is a sudden place, and if applicable, the part that comes into contact with the sudden place is changed. Therefore, since it is possible to prevent the occurrence of a major accident, it is possible to realize a robot that can be used with confidence in a human living environment or work environment. In addition, since human beings are not greatly damaged by contact, it can be used at a distance close to humans, and a highly versatile robot can be realized.

また、本実施の形態の自律制御型ロボットによれば、人間との接触角度が人間に大きな被害を与える危険な角度であるかを判定し、該当する場合には人間との接触角度を変更する。従って、大きな事故の発生を未然に防ぐことができるので、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。   In addition, according to the autonomous control type robot of the present embodiment, it is determined whether the contact angle with the human being is a dangerous angle that causes great damage to the human being, and if applicable, the contact angle with the human being is changed. . Therefore, since it is possible to prevent the occurrence of a major accident, it is possible to realize a robot that can be used with confidence in a human living environment or work environment. In addition, since human beings are not greatly damaged by contact, it can be used at a distance close to humans, and a highly versatile robot can be realized.

また、本実施の形態の自律制御型ロボットによれば、人間との接触速度が人間に大きな被害を与える危険な速度であるかを判定し、該当する場合には人間との接触速度を変化させる。従って、大きな事故の発生を未然に防ぐことができるので、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。   Also, according to the autonomous control type robot of the present embodiment, it is determined whether the contact speed with the human is a dangerous speed that causes great damage to the human, and if applicable, the contact speed with the human is changed. . Therefore, since it is possible to prevent the occurrence of a major accident, it is possible to realize a robot that can be used with confidence in a human living environment or work environment. In addition, since human beings are not greatly damaged by contact, it can be used at a distance close to humans, and a highly versatile robot can be realized.

以上、本発明の自律制御型ロボットについて、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の要旨を逸脱しない範囲内で当業者が思いつく各種変形を施したものも本発明の範囲内に含まれる。   As described above, the autonomous control type robot of the present invention has been described based on the embodiment. However, the present invention is not limited to this embodiment. The present invention includes various modifications made by those skilled in the art without departing from the scope of the present invention.

例えば、人間との距離が危険な距離である場合に表示部230の画像を変更し、人間に対してロボットが接触する可能性があるという警告を発するとした。しかし、人間に対して警告を発することができればこれに限られず、ロボットが音声出力部を備え、音声の出力内容を距離に応じて変更することにより人間に対してロボットが接触する可能性があるという警告を発してもよい。ここで、表示部及び音声出力部は、本発明の警告手段の一例である。   For example, when the distance to the person is a dangerous distance, the image on the display unit 230 is changed, and a warning is given that the robot may come into contact with the person. However, the present invention is not limited to this as long as a warning can be issued to a human, and the robot may include a voice output unit, and the robot may touch the human by changing the output content of the voice according to the distance. May be issued. Here, the display unit and the audio output unit are examples of the warning unit of the present invention.

また、人間のロボットと接触する部分が人間の急所である場合には、制御部200は、人間の急所以外の部分にロボットが接触するようにロボットの動作を制限するとした。しかし、人間のロボットと接触する部分が人間の急所であるかを判定した後に行われる接触角度及び接触速度の判定により、危険な角度及び速度での人間との接触が回避されるため、このような動作の制限は行われなくてもよい。ただし、この場合には、人間に大きな被害を与えないために、ロボットの動作速度を所定の速度に落とす等の他の動作制限がロボットに加えられる。   In addition, when the part in contact with the human robot is a human emergency, the control unit 200 restricts the operation of the robot so that the robot contacts a part other than the human emergency. However, since the contact angle and contact speed determination performed after determining whether or not the portion that contacts the human robot is a human emergency, contact with a human at a dangerous angle and speed is avoided. There is no need to limit the operation. However, in this case, in order not to cause great damage to humans, other operation restrictions such as reducing the operation speed of the robot to a predetermined speed are added to the robot.

また、認識された人間の姿勢や状態が不安定である場合、制御部200は、認識された人間から離れる動作をロボットに行わせるとした。しかし、ロボットの動作を制限するものであればこれに限られず、認識された人間の姿勢や状態を不安定で無い状態にする動作をロボットに行わせてもよい。例えば、人間の顔がロボットを向いていないと判定された場合には、制御部200は、人間の顔の正面に移動する動作をロボットに行わせてもよい。   In addition, when the recognized human posture and state are unstable, the control unit 200 is configured to cause the robot to perform an operation of leaving the recognized human. However, the present invention is not limited to this as long as it restricts the movement of the robot, and the robot may be caused to perform an action that makes the recognized human posture and state not unstable. For example, when it is determined that the human face is not facing the robot, the control unit 200 may cause the robot to move to the front of the human face.

また、測定された距離が危険な距離であると判定された場合、ロボットの動作速度を0.01m/secの低速に変化させるとした。しかし、ロボットの動作を制限するものであればこれに限られず、ロボットの動作を停止させてもよい。   Further, when it is determined that the measured distance is a dangerous distance, the operation speed of the robot is changed to a low speed of 0.01 m / sec. However, the present invention is not limited to this as long as it restricts the operation of the robot, and the operation of the robot may be stopped.

また、人間との接触角度が危険な角度であると判定された場合、ロボットの人間との接触角度を変更するとした。しかし、ロボットの動作を制限するものであればこれに限られず、ロボットの動作を停止させてもよい。   Further, when it is determined that the contact angle with the human is a dangerous angle, the contact angle of the robot with the human is changed. However, the present invention is not limited to this as long as it restricts the operation of the robot, and the operation of the robot may be stopped.

また、人間との接触速度が危険な速度であると判定された場合、接触速度を変化させるとした。しかし、ロボットの動作を制限するものであればこれに限られず、ロボットの動作を停止させてもよい。   Further, when it is determined that the contact speed with a human is a dangerous speed, the contact speed is changed. However, the present invention is not limited to this as long as it restricts the operation of the robot, and the operation of the robot may be stopped.

また、上記実施の形態において、ロボットとして自律制御型ロボットを例示したが、動作が制御可能なロボットであればこれに限られない。   Moreover, in the said embodiment, although the autonomous control type robot was illustrated as a robot, if it is a robot which can control operation | movement, it will not be restricted to this.

本発明は、ロボットの制御方法に利用でき、特に自律制御型ロボットの動作の制御方法等に利用することができる。   The present invention can be used for a robot control method, and in particular, can be used for an operation control method of an autonomous control type robot.

(a)本発明の実施の形態の自律制御型ロボットの正面図である。(b)同ロボットの側面図である。(A) It is a front view of the autonomous control type robot of an embodiment of the invention. (B) It is a side view of the robot. 同ロボットの駆動構造を模式的に示す図である。It is a figure which shows typically the drive structure of the robot. 同ロボットの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the robot. 基準画像データを示す図である。It is a figure which shows reference | standard image data. 角度テーブルを示す図である。It is a figure which shows an angle table. 虚実判定テーブルを示す図である。It is a figure which shows a truth determination table. 距離テーブルを示す図である。It is a figure which shows a distance table. 接触速度テーブルを示す図である。It is a figure which shows a contact speed table. 同ロボットの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the robot.

符号の説明Explanation of symbols

100 胴ユニット
110 頭部ユニット
120 右腕ユニット
120a 右上腕部
120b 右前腕部
120c 右手首部
130 左腕ユニット
130a 左上腕部
130b 左前腕部
130c 左手首部
140 右脚ユニット
140a 右大腿部
140b 右下腿部
140c 右足首部
150 左脚ユニット
150a 左大腿部
150b 左下腿部
150c 左足首部
200 制御部
210、220 カメラ
230 表示部
300 機構部
320 記憶部
320a 動作プログラム
320b 基準画像データ
320c 角度テーブル
320d 虚実判定テーブル
320e 距離テーブル
320f 接触速度テーブル
350 人間認識部
360 メモリ部
370 予測部
380 測定部
390 状態認識部
100 torso unit 110 head unit 120 right arm unit 120a upper right arm part 120b right forearm part 120c right wrist part 130 left arm unit 130a left upper arm part 130b left forearm part 130c left wrist part 140 right leg unit 140a right thigh part 140b right lower leg part 140c Right ankle part 150 Left leg unit 150a Left thigh part 150b Left lower leg part 150c Left ankle part 200 Control part 210, 220 Camera 230 Display part 300 Mechanism part 320 Storage part 320a Operation program 320b Reference image data 320c Angle table 320d Reality determination table 320e Distance Table 320f Contact speed table 350 Human recognition unit 360 Memory unit 370 Prediction unit 380 Measurement unit 390 State recognition unit

Claims (21)

ロボットにおける動作の制御方法であって、
前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、
前記予測ステップにおいて接触すると予測された場合に、前記人間の急所に前記ロボットが接触しないように、前記ロボットの動作を制限する制限ステップとを含む
ことを特徴とするロボットの制御方法。
A method for controlling movement in a robot,
A prediction step of predicting whether or not the robot comes into contact with a human by the operation of the robot;
A robot control method comprising: a restricting step of restricting the operation of the robot so that the robot does not contact the human emergency when it is predicted to contact in the predicting step.
前記ロボットの制御方法は、さらに、
人間の急所及び人間の形状を示す人間の画像を格納する画像格納ステップと、
前記接触する人間の形状を認識し、前記認識された人間の形状及び前記画像から前記人間の急所を特定する急所特定ステップとを含み、
前記制限ステップにおいて、特定された前記人間の急所に前記ロボットが接触しないように、前記ロボットの動作を制限する
ことを特徴とする請求項1記載のロボットの制御方法。
The robot control method further includes:
An image storing step for storing a human image indicating a human vitality and a human shape;
Recognizing the shape of the person in contact and identifying a human emergency from the recognized human shape and the image,
2. The robot control method according to claim 1, wherein in the restricting step, the robot is restricted so that the robot does not contact the identified human critical point. 3.
ロボットにおける動作の制御方法であって、
前記ロボットと人間との距離を測定する測定ステップと、
前記距離が所定の距離より短い場合に、前記人間に警告を発する警告ステップとを含む
ことを特徴とするロボットの制御方法。
A method for controlling movement in a robot,
A measuring step for measuring a distance between the robot and a human;
And a warning step of issuing a warning to the human when the distance is shorter than a predetermined distance.
前記警告ステップにおいて、前記距離が所定の距離より短い場合に、前記ロボットが備える表示部に所定の画像を表示する
ことを特徴とする請求項3記載のロボットの制御方法。
The robot control method according to claim 3, wherein, in the warning step, when the distance is shorter than a predetermined distance, a predetermined image is displayed on a display unit included in the robot.
前記ロボットの制御方法は、さらに、前記距離が所定の距離より短い場合に、前記ロボットの動作速度を遅くする、又は前記ロボットの動作を停止する制限ステップを含む
ことを特徴とする請求項3記載のロボットの制御方法。
The method for controlling the robot further includes a limiting step of slowing down the operation speed of the robot or stopping the operation of the robot when the distance is shorter than a predetermined distance. Robot control method.
ロボットにおける動作の制御方法であって、
前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、
前記予測ステップにおいて接触すると予測された場合に、所定の接触角度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する制限ステップとを含む
ことを特徴とするロボットの制御方法。
A method for controlling movement in a robot,
A prediction step of predicting whether or not the robot comes into contact with a human by the operation of the robot;
And a limiting step of limiting the operation of the robot so that the robot does not contact the person at a predetermined contact angle when it is predicted to contact in the prediction step.
前記ロボットの制御方法は、さらに、
人間の部位の位置及び人間の形状を示す人間の画像と、前記人間の部位及び前記所定の接触角度が関連付けられた角度テーブルとを格納する角度テーブル格納ステップと、
前記接触する人間の形状及びロボットに接触する部分を認識し、前記認識された人間の形状及びロボットに接触する部分と前記画像とから前記ロボットに接触する前記人間の部位を特定する部位特定ステップと、
前記制限ステップにおいて、特定された前記人間の部位に前記角度テーブルで関連付けられた所定の接触角度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する
ことを特徴とする請求項5記載のロボットの制御方法。
The robot control method further includes:
An angle table storage step for storing a human image indicating the position and shape of a human part, and an angle table in which the human part and the predetermined contact angle are associated;
A part specifying step for recognizing the human shape and the part contacting the robot, and specifying the human part contacting the robot from the recognized human shape and part contacting the robot and the image; ,
The operation of the robot is restricted in the restricting step so that the robot does not contact the human at a predetermined contact angle associated with the identified human part in the angle table. 6. The robot control method according to 5.
ロボットにおける動作の制御方法であって、
前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、
前記予測ステップにおいて接触すると予測された場合に、所定の接触速度より大きな速度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する制限ステップとを含む
ことを特徴とするロボットの制御方法。
A method for controlling movement in a robot,
A prediction step of predicting whether or not the robot comes into contact with a human by the operation of the robot;
A restriction step for restricting the operation of the robot so that the robot does not contact the human at a speed greater than a predetermined contact speed when predicted to be touched in the prediction step. Control method.
前記ロボットの制御方法は、さらに、
人間の部位の位置及び人間の形状を示す人間の画像と、前記人間の部位及び前記所定の接触速度が関連付けられた接触速度テーブルとを格納する接触速度テーブル格納ステップと、
前記接触する人間の形状及びロボットに接触する部分を認識し、前記認識された人間の形状及びロボットに接触する部分と前記画像とから前記ロボットに接触する前記人間の部位を特定する部位特定ステップと、
前記制限ステップにおいて、特定された前記人間の部位に前記接触速度テーブルで関連付けられた所定の接触速度より大きな速度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する
ことを特徴とする請求項8記載のロボットの制御方法。
The robot control method further includes:
A contact speed table storing step for storing a human image indicating the position and shape of a human part, and a contact speed table associated with the human part and the predetermined contact speed;
A part specifying step for recognizing the human shape and the part contacting the robot, and specifying the human part contacting the robot from the recognized human shape and part contacting the robot and the image; ,
In the limiting step, the operation of the robot is limited so that the robot does not contact the human at a speed larger than a predetermined contact speed associated with the identified human part in the contact speed table. The robot control method according to claim 8.
ロボットにおける動作の制御方法であって、
前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、
前記予測ステップにおいて接触すると予測された場合に、前記人間の所定の部位の状態を認識する状態認識ステップと、
前記状態認識ステップにおいて認識された前記所定の部位の状態に基づいて前記ロボットの動作を制限する制限ステップとを含む
ことを特徴とするロボットの制御方法。
A method for controlling movement in a robot,
A prediction step of predicting whether or not the robot comes into contact with a human by the operation of the robot;
A state recognition step of recognizing the state of the predetermined part of the human when it is predicted that contact will be made in the prediction step;
And a restricting step for restricting the operation of the robot based on the state of the predetermined part recognized in the state recognizing step.
前記状態認識ステップでは、前記人間の顔の向き又は前記人間の肩の上下動を認識し、
前記制限ステップでは、前記人間の顔の向き又は前記人間の肩の上下動の認識結果に基づいて前記ロボットの動作を制限する
ことを特徴とする請求項10記載のロボットの制御方法。
In the state recognition step, the human face direction or the vertical movement of the human shoulder is recognized,
The robot control method according to claim 10, wherein, in the limiting step, the operation of the robot is limited based on a recognition result of the orientation of the human face or the vertical movement of the human shoulder.
ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測手段と、
前記予測手段により接触すると予測された場合に、前記人間の急所に前記ロボットが接触しないように、前記ロボットの動作を制限する制限手段とを備える
ことを特徴とするロボット。
Predicting means for predicting whether or not the robot comes into contact with a human by the operation of the robot;
Limiting means for limiting the operation of the robot so as to prevent the robot from coming into contact with the human emergency when it is predicted by the prediction means.
ロボットと人間との距離を測定する測定手段と、
前記距離が所定の距離より短い場合に、前記人間に警告を発する警告手段とを備える
ことを特徴とするロボット。
A measuring means for measuring the distance between the robot and a human,
A robot comprising warning means for issuing a warning to the human when the distance is shorter than a predetermined distance.
ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測手段と、
前記予測手段により接触すると予測された場合に、所定の接触角度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する制限手段とを備える
ことを特徴とするロボット。
Predicting means for predicting whether or not the robot comes into contact with a human by the operation of the robot;
Limiting means for limiting the operation of the robot so as to prevent the robot from coming into contact with the human at a predetermined contact angle when predicted by the predicting means.
ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測手段と、
前記予測手段により接触すると予測された場合に、所定の接触速度より大きな速度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する制限手段とを備える
ことを特徴とするロボット。
Predicting means for predicting whether or not the robot comes into contact with a human by the operation of the robot;
Limiting means for limiting the operation of the robot so that the robot does not contact the human at a speed greater than a predetermined contact speed when predicted by the predicting means.
ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測手段と、
前記予測手段により接触すると予測された場合に、前記人間の所定の部位の状態を認識する状態認識手段と、
前記状態認識手段により認識された前記所定の部位の状態に基づいて前記ロボットの動作を制限する制限手段とを備える
ことを特徴とするロボット。
Predicting means for predicting whether or not the robot comes into contact with a human by the operation of the robot;
A state recognizing unit for recognizing a state of the predetermined part of the human when it is predicted to be touched by the predicting unit;
Limiting means for limiting the operation of the robot based on the state of the predetermined part recognized by the state recognition means.
ロボットのためのプログラムであって、
ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、
前記予測ステップにおいて接触すると予測された場合に、前記人間の急所に前記ロボットが接触しないように、前記ロボットの動作を制限する制限ステップとをロボット内のコンピュータに実行させることを特徴とするプログラム。
A program for a robot,
A prediction step of predicting whether or not the robot comes into contact with a human by the operation of the robot;
A program for causing a computer in a robot to execute a restriction step for restricting the operation of the robot so that the robot does not come into contact with the human's critical point when it is predicted that contact is made in the prediction step.
ロボットのためのプログラムであって、
前記ロボットと人間との距離を測定する測定ステップと、
前記距離が所定の距離より短い場合に、前記人間に警告を発する警告ステップとをロボット内のコンピュータに実行させることを特徴とするプログラム。
A program for a robot,
A measuring step for measuring a distance between the robot and a human;
A program for causing a computer in a robot to execute a warning step of issuing a warning to the human when the distance is shorter than a predetermined distance.
ロボットのためのプログラムであって、
前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、
前記予測ステップにおいて接触すると予測された場合に、所定の接触角度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する制限ステップとをロボット内のコンピュータに実行させることを特徴とするプログラム。
A program for a robot,
A prediction step of predicting whether or not the robot comes into contact with a human by the operation of the robot;
When it is predicted that contact is made in the prediction step, the computer in the robot is caused to execute a restriction step for restricting the operation of the robot so that the robot does not contact the human at a predetermined contact angle. Program to do.
ロボットのためのプログラムであって、
前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、
前記予測ステップにおいて接触すると予測された場合に、所定の接触速度より大きな速度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する制限ステップとを含むロボット内のコンピュータに実行させることを特徴とするプログラム。
A program for a robot,
A prediction step of predicting whether or not the robot comes into contact with a human by the operation of the robot;
When it is predicted that contact is made in the prediction step, the computer in the robot includes a restriction step for restricting the operation of the robot so that the robot does not contact the human at a speed higher than a predetermined contact speed. A program characterized by that.
ロボットのためのプログラムであって、
前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、
前記予測ステップにおいて接触すると予測された場合に、前記人間の所定の部位の状態を認識する状態認識ステップと、
前記状態認識ステップにおいて認識された前記所定の部位の状態に基づいて前記ロボットの動作を制限する制限ステップとをロボット内のコンピュータに実行させることを特徴とするプログラム。
A program for a robot,
A prediction step of predicting whether or not the robot comes into contact with a human by the operation of the robot;
A state recognition step of recognizing the state of the predetermined part of the human when it is predicted that contact will be made in the prediction step;
A program for causing a computer in a robot to execute a limiting step of limiting the operation of the robot based on the state of the predetermined part recognized in the state recognition step.
JP2006327258A 2006-12-04 2006-12-04 Robot control method Pending JP2008137127A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006327258A JP2008137127A (en) 2006-12-04 2006-12-04 Robot control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006327258A JP2008137127A (en) 2006-12-04 2006-12-04 Robot control method

Publications (1)

Publication Number Publication Date
JP2008137127A true JP2008137127A (en) 2008-06-19

Family

ID=39599121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006327258A Pending JP2008137127A (en) 2006-12-04 2006-12-04 Robot control method

Country Status (1)

Country Link
JP (1) JP2008137127A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010004744A1 (en) * 2008-07-09 2010-01-14 パナソニック株式会社 Path danger evaluation device
WO2012039280A1 (en) * 2010-09-21 2012-03-29 トヨタ自動車株式会社 Mobile body
JP2012200818A (en) * 2011-03-25 2012-10-22 Advanced Telecommunication Research Institute International Robot that determines its own avoidance behavior by predicting trajectory of pedestrian
JP2015526309A (en) * 2012-08-31 2015-09-10 リシンク ロボティクス インコーポレイテッド System and method for safe robot operation
JP2016196069A (en) * 2015-04-03 2016-11-24 三菱電機株式会社 Avoidance track generation device and avoidance track generation method for industrial robot
JP2016209991A (en) * 2015-05-01 2016-12-15 キヤノン株式会社 Robot control device, controlling method, and program
JP2019501460A (en) * 2016-10-14 2019-01-17 平安科技(深▲せん▼)有限公司 Guide robot, moving region calibration method thereof, and computer-readable storage medium
JPWO2021261394A1 (en) * 2020-06-25 2021-12-30
JP7098080B1 (en) * 2021-09-08 2022-07-08 三菱電機株式会社 Robot control device

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101959653B (en) * 2008-07-09 2012-10-24 松下电器产业株式会社 Path danger evaluation device
JP4495252B2 (en) * 2008-07-09 2010-06-30 パナソニック株式会社 Route risk evaluation device, route risk evaluation method and program
US7844398B2 (en) 2008-07-09 2010-11-30 Panasonic Corporation Path risk evaluating apparatus
JPWO2010004744A1 (en) * 2008-07-09 2011-12-22 パナソニック株式会社 Route risk evaluation device, route risk evaluation method and program
WO2010004744A1 (en) * 2008-07-09 2010-01-14 パナソニック株式会社 Path danger evaluation device
WO2012039280A1 (en) * 2010-09-21 2012-03-29 トヨタ自動車株式会社 Mobile body
CN103119529A (en) * 2010-09-21 2013-05-22 丰田自动车株式会社 Mobile body
JP5409924B2 (en) * 2010-09-21 2014-02-05 トヨタ自動車株式会社 Moving body
JPWO2012039280A1 (en) * 2010-09-21 2014-02-03 トヨタ自動車株式会社 Moving body
DE112011103155T5 (en) 2010-09-21 2013-07-18 Toyota Jidosha Kabushiki Kaisha Mobile body
US9075416B2 (en) 2010-09-21 2015-07-07 Toyota Jidosha Kabushiki Kaisha Mobile body
CN103119529B (en) * 2010-09-21 2016-05-25 丰田自动车株式会社 Moving body
JP2012200818A (en) * 2011-03-25 2012-10-22 Advanced Telecommunication Research Institute International Robot that determines its own avoidance behavior by predicting trajectory of pedestrian
JP2015526309A (en) * 2012-08-31 2015-09-10 リシンク ロボティクス インコーポレイテッド System and method for safe robot operation
JP2016196069A (en) * 2015-04-03 2016-11-24 三菱電機株式会社 Avoidance track generation device and avoidance track generation method for industrial robot
JP2016209991A (en) * 2015-05-01 2016-12-15 キヤノン株式会社 Robot control device, controlling method, and program
JP2019501460A (en) * 2016-10-14 2019-01-17 平安科技(深▲せん▼)有限公司 Guide robot, moving region calibration method thereof, and computer-readable storage medium
KR20190022433A (en) * 2016-10-14 2019-03-06 핑안 테크놀로지 (션젼) 컴퍼니 리미티드 Guide robot and its moving area calibration method, computer readable storage medium
KR102173609B1 (en) * 2016-10-14 2020-11-04 핑안 테크놀로지 (션젼) 컴퍼니 리미티드 Guide robot and its moving area calibration method, computer-readable storage medium
US11009889B2 (en) 2016-10-14 2021-05-18 Ping An Technology (Shenzhen) Co., Ltd. Guide robot and method of calibrating moving region thereof, and computer readable storage medium
WO2021261394A1 (en) * 2020-06-25 2021-12-30 ファナック株式会社 Robot control device
JPWO2021261394A1 (en) * 2020-06-25 2021-12-30
DE112021003388T5 (en) 2020-06-25 2023-04-20 Fanuc Corporation ROBOT CONTROL DEVICE
JP7414993B2 (en) 2020-06-25 2024-01-16 ファナック株式会社 robot control device
JP7098080B1 (en) * 2021-09-08 2022-07-08 三菱電機株式会社 Robot control device
WO2023037443A1 (en) * 2021-09-08 2023-03-16 三菱電機株式会社 Robot control device, learning device, and inference device
CN117377561A (en) * 2021-09-08 2024-01-09 三菱电机株式会社 Robot control device, learning device, and estimation device
DE112021007561T5 (en) 2021-09-08 2024-05-02 Mitsubishi Electric Corporation Robot control, learning device and inference device
US12017372B2 (en) 2021-09-08 2024-06-25 Mitsubishi Electric Corporation Robot control device

Similar Documents

Publication Publication Date Title
JP2008137127A (en) Robot control method
Halme et al. Review of vision-based safety systems for human-robot collaboration
Kumar et al. Survey of human–robot collaboration in industrial settings: Awareness, intelligence, and compliance
US20160260027A1 (en) Robot controlling apparatus and robot controlling method
De Luca et al. Integrated control for pHRI: Collision avoidance, detection, reaction and collaboration
Svarny et al. Safe physical HRI: Toward a unified treatment of speed and separation monitoring together with power and force limiting
JP2008188722A (en) Robot controller
Chance et al. An assistive robot to support dressing-strategies for planning and error handling
JP7052203B2 (en) Safety control devices, safety control methods and programs
JP5156836B2 (en) Real-time self-collision and obstacle avoidance
JP2019518616A (en) Method and device for controlling the movement of one or more cooperating robots
JP6659629B2 (en) Control device for articulated robot
US20170140491A1 (en) Operation advance indication apparatus
Ren et al. Design of direct teaching behavior of collaborative robot based on force interaction
JP2016209991A (en) Robot control device, controlling method, and program
JP2019198907A (en) Robot system
JP2018062026A (en) Robot control device with function for restricting speed and acceleration of robot
Zhang et al. A human-robot dynamic fusion safety algorithm for collaborative operations of cobots
JP7156397B2 (en) Control device
CN110874078A (en) Human-machine cooperation robot system
Mikhel et al. Collision driven multi scenario approach for human collaboration with industrial robot
EP3349080A1 (en) Robot operating state switching method and system
Wong et al. Vision-and Tactile-Based Continuous Multimodal Intention and Attention Recognition for Safer Physical Human–Robot Interaction
JP2017159427A (en) Control device, robot, and robot system
Maragkos et al. Virtual reality assisted robot programming for human collaboration

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110301

A02 Decision of refusal

Effective date: 20110705

Free format text: JAPANESE INTERMEDIATE CODE: A02