JP2008137127A - Robot control method - Google Patents
Robot control method Download PDFInfo
- Publication number
- JP2008137127A JP2008137127A JP2006327258A JP2006327258A JP2008137127A JP 2008137127 A JP2008137127 A JP 2008137127A JP 2006327258 A JP2006327258 A JP 2006327258A JP 2006327258 A JP2006327258 A JP 2006327258A JP 2008137127 A JP2008137127 A JP 2008137127A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- human
- contact
- predetermined
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、ロボットの制御方法に関し、特に自律制御型ロボットの動作を制御する方法に関する。 The present invention relates to a robot control method, and more particularly to a method for controlling the operation of an autonomous control robot.
電気的あるいは磁気的な作用を用いて人間と似たような動作を行う装置としてロボットがある。このようなロボットは、人間の代わりに作業を行う、又は人間の作業を補助するために利用されることが多い。従って、人間の居住環境や作業環境で使用されることが多く、このような環境においても人間に危害を与えず、安心して使用できるロボットの実現が望まれている。 A robot is a device that performs an action similar to that of a human by using an electrical or magnetic action. Such robots are often used to perform tasks on behalf of humans or to assist human tasks. Therefore, it is often used in a human living environment or work environment, and it is desired to realize a robot that can be used safely without causing harm to humans in such an environment.
このような要望を受けて、最近では、周囲の環境に応じて自主的に自己の行動を制御する自律制御型ロボットが提案されている(例えば、特許文献1参照)。特許文献1に記載の脚式移動ロボットは、機械的な可動部とこれに接触する部位とに設けられた挟み込み検出部を備え、可動部とこれに接触する部位との間に人間の手等が挟み込まれたことを検出する。そして、挟み込みを検出した場合には、挟み込みの回避動作又は解除動作を行う。
ところで、従来の自律制御型ロボットは、特許文献1に記載の脚式移動ロボットのように、異常が発生してからそれを検出して異常を取り除く対応を行うため、ロボットによる事故の被害を小さくすることができる。しかしながら、これは事後的に事故に対応するものであり、事故の発生を容認するものである。また、このロボットでは人間の目を突く等の一瞬で人間に大きな被害を与える事故には対応することが困難である。従って、従来の自律制御型ロボットでは、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現することはできない。 By the way, the conventional autonomous control robot, like the legged mobile robot described in Patent Document 1, detects an abnormality after it has occurred and takes measures to remove the abnormality, thereby reducing the damage caused by the robot. can do. However, this is to respond to the accident after the fact and tolerate the occurrence of the accident. Also, with this robot, it is difficult to deal with accidents that cause great damage to humans in an instant, such as a person's eyes. Therefore, the conventional autonomous control type robot cannot realize a robot that can be used with sufficient safety in a human living environment or work environment.
ここで、上記問題を解決する自律制御型ロボットとして、一定の距離以上は人間に近付かないロボットが考えられる。このロボットを用いれば、ロボットによる事故の発生を未然に防ぐことができる。しかしながら、このロボットではその汎用性が低くなってしまうため、ロボットの利用分野が限られてしまう。例えば、介護の分野では人間とロボットとの接触が必須となるため、対応することができない。従って、このロボットでも上記問題を解決することができない。 Here, as an autonomous control type robot that solves the above problem, a robot that does not approach a human for a certain distance or more can be considered. By using this robot, it is possible to prevent accidents caused by the robot. However, since the versatility of this robot is reduced, the field of use of the robot is limited. For example, in the field of nursing care, contact between a human and a robot is indispensable, and cannot be handled. Therefore, this robot cannot solve the above problem.
そこで、本発明は、かかる問題点に鑑み、人間の居住環境や作業環境で十分に安心して使用できる汎用性の高いロボットを提供することを目的とする。 In view of the above problems, an object of the present invention is to provide a highly versatile robot that can be used with sufficient security in a human living environment or work environment.
上記目的を達成するために、本発明のロボットの制御方法は、ロボットにおける動作の制御方法であって、前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、前記予測ステップにおいて接触すると予測された場合に、前記人間の急所に前記ロボットが接触しないように、前記ロボットの動作を制限する制限ステップとを含むことを特徴とする。ここで、前記ロボットの制御方法は、さらに、人間の急所及び人間の形状を示す人間の画像を格納する画像格納ステップと、前記接触する人間の形状を認識し、前記認識された人間の形状及び前記画像から前記人間の急所を特定する急所特定ステップとを含み、前記制限ステップにおいて、特定された前記人間の急所に前記ロボットが接触しないように、前記ロボットの動作を制限してもよい。 In order to achieve the above object, a robot control method of the present invention is a motion control method in a robot, wherein the prediction step predicts whether or not the robot comes into contact with a human by the motion of the robot, And a limiting step of limiting the operation of the robot so that the robot does not contact the human critical point when it is predicted to make contact in the prediction step. Here, the robot control method further includes an image storing step of storing a human image indicating a human critical point and a human shape, and recognizing the human shape of the contact, and recognizing the recognized human shape and And a step of identifying a human emergency from the image. In the limiting step, the robot may be restricted from moving so that the robot does not contact the specified human emergency.
これによって、人間との接触を事前に予測し、接触する場合には人間の急所と接触しないようにロボットの動作が制限される。従って、大きな事故の発生を予測し、大きな事故の発生を未然に防ぐことができるので、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。 As a result, contact with a human is predicted in advance, and in the case of contact, the operation of the robot is limited so as not to contact the human critical point. Therefore, since it is possible to predict the occurrence of a major accident and prevent the occurrence of a major accident, it is possible to realize a robot that can be used with confidence in a human living environment or work environment. In addition, since human beings are not greatly damaged by contact, it can be used at a distance close to humans, and a highly versatile robot can be realized.
また、本発明は、ロボットにおける動作の制御方法であって、前記ロボットと人間との距離を測定する測定ステップと、前記距離が所定の距離より短い場合に、前記人間に警告を発する警告ステップとを含むことを特徴とするロボットの制御方法とすることもできる。ここで、前記警告ステップにおいて、前記距離が所定の距離より短い場合に、前記ロボットが備える表示部に所定の画像を表示してもよいし、前記ロボットの制御方法は、さらに、前記距離が所定の距離より短い場合に、前記ロボットの動作速度を遅くする、又は前記ロボットの動作を停止する制限ステップを含んでもよい。 Further, the present invention is a method for controlling an operation in a robot, wherein a measuring step for measuring a distance between the robot and a human, and a warning step for issuing a warning to the human when the distance is shorter than a predetermined distance; It can also be set as the control method of the robot characterized by including these. Here, in the warning step, when the distance is shorter than the predetermined distance, a predetermined image may be displayed on a display unit included in the robot, and the robot control method may further include the predetermined distance. If the distance is shorter than the distance, a limiting step of slowing down the operation speed of the robot or stopping the operation of the robot may be included.
これによって、人間との距離が接触する可能性のある距離である場合に、人間に対してロボットが接触する可能性があるという警告を発することができる。従って、人間が外部からの接触に対して無防備である、あるいはこちらを認識していない等の状態でロボットと接触することが無くなる。その結果、大きな事故の発生を未然に防ぐことができ、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。 As a result, when the distance to the person is likely to come into contact, a warning that the robot may come into contact with the person can be issued. Therefore, it is not possible for a human to come into contact with the robot in a state where it is unprotected against contact from the outside or does not recognize this. As a result, it is possible to prevent a major accident from occurring and to realize a robot that can be used with sufficient safety in a human living environment or work environment. In addition, since human beings are not greatly damaged by contact, it can be used at a distance close to humans, and a highly versatile robot can be realized.
また、本発明は、ロボットにおける動作の制御方法であって、前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、前記予測ステップにおいて接触すると予測された場合に、所定の接触角度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する制限ステップとを含むことを特徴とするロボットの制御方法とすることもできる。ここで、前記ロボットの制御方法は、さらに、人間の部位の位置及び人間の形状を示す人間の画像と、前記人間の部位及び前記所定の接触角度が関連付けられた角度テーブルとを格納する角度テーブル格納ステップと、前記接触する人間の形状及びロボットに接触する部分を認識し、前記認識された人間の形状及びロボットに接触する部分と前記画像とから前記ロボットに接触する前記人間の部位を特定する部位特定ステップと、前記制限ステップにおいて、特定された前記人間の部位に前記角度テーブルで関連付けられた所定の接触角度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限してもよい。 Further, the present invention is a method for controlling an operation in a robot, in a prediction step of predicting whether or not the robot comes into contact with a human by the operation of the robot, and when predicted to contact in the prediction step, The robot control method may further include a restricting step for restricting the operation of the robot so that the robot does not contact the human at a predetermined contact angle. Here, the robot control method further includes an angle table for storing a human image indicating a position of a human part and a human shape, and an angle table in which the human part and the predetermined contact angle are associated with each other. Recognizing the shape of the person to be contacted and the part that contacts the robot, and identifying the part of the person that contacts the robot from the recognized shape of the person and the part that contacts the robot and the image In the part specifying step and the restricting step, the robot operation may be restricted so that the robot does not contact the person at a predetermined contact angle associated with the specified human part in the angle table. Good.
これによって、人間との接触を事前に予測し、接触する場合には人間に大きな被害を与える危険な角度で人間と接触しないようにロボットの動作を制限することができる。従って、大きな事故の発生を予測し、大きな事故の発生を未然に防ぐことができる。その結果、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。 As a result, it is possible to predict contact with a human in advance, and to limit the operation of the robot so that it does not come into contact with a human at a dangerous angle that causes great damage to the human. Therefore, it is possible to predict the occurrence of a major accident and prevent the occurrence of a major accident. As a result, it is possible to realize a robot that can be used with sufficient peace of mind in human living and work environments. In addition, since human beings are not greatly damaged by contact, it can be used at a distance close to humans, and a highly versatile robot can be realized.
また、本発明は、ロボットにおける動作の制御方法であって、前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、前記予測ステップにおいて接触すると予測された場合に、所定の接触速度より大きな速度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する制限ステップとを含むことを特徴とするロボットの制御方法とすることもできる。ここで、前記ロボットの制御方法は、さらに、人間の部位の位置及び人間の形状を示す人間の画像と、前記人間の部位及び前記所定の接触速度が関連付けられた接触速度テーブルとを格納する接触速度テーブル格納ステップと、前記接触する人間の形状及びロボットに接触する部分を認識し、前記認識された人間の形状及びロボットに接触する部分と前記画像とから前記ロボットに接触する前記人間の部位を特定する部位特定ステップと、前記制限ステップにおいて、特定された前記人間の部位に前記接触速度テーブルで関連付けられた所定の接触速度より大きな速度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限してもよい。 Further, the present invention is a method for controlling an operation in a robot, in a prediction step of predicting whether or not the robot comes into contact with a human by the operation of the robot, and when predicted to contact in the prediction step, The robot control method may further include a restricting step for restricting the operation of the robot so that the robot does not contact the human at a speed higher than a predetermined contact speed. Here, the robot control method further includes a contact image storing a human image indicating a position of a human part and a human shape, and a contact speed table in which the human part and the predetermined contact speed are associated with each other. A speed table storing step, recognizing the shape of the person to be touched and a portion that is in contact with the robot, and determining the portion of the human being in contact with the robot from the recognized shape of the human being, the portion in contact with the robot and the image In the specifying part specifying step and the restricting step, the robot is controlled so that the robot does not contact the human at a speed greater than a predetermined contact speed associated with the specified human part in the contact speed table. The operation may be limited.
これによって、人間との接触を事前に予測し、接触する場合には人間に大きな被害を与える危険な速度で人間と接触しないようにロボットの動作を制限することができる。従って、大きな事故の発生を予測し、大きな事故の発生を未然に防ぐことができる。その結果、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。 As a result, it is possible to predict contact with a human in advance, and to limit the operation of the robot so as not to contact the human at a dangerous speed that would cause great damage to the human in the case of contact. Therefore, it is possible to predict the occurrence of a major accident and prevent the occurrence of a major accident. As a result, it is possible to realize a robot that can be used with sufficient peace of mind in human living and work environments. In addition, since human beings are not greatly damaged by contact, it can be used at a distance close to humans, and a highly versatile robot can be realized.
また、本発明は、ロボットにおける動作の制御方法であって、前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、前記予測ステップにおいて接触すると予測された場合に、前記人間の所定の部位の状態を認識する状態認識ステップと、前記状態認識ステップにおいて認識された前記所定の部位の状態に基づいて前記ロボットの動作を制限する制限ステップとを含むことを特徴とするロボットの制御方法とすることもできる。ここで、前記状態認識ステップでは、前記人間の顔の向き又は前記人間の肩の上下動を認識し、前記制限ステップでは、前記人間の顔の向き又は前記人間の肩の上下動の認識結果に基づいて前記ロボットの動作を制限してもよい。 Further, the present invention is a method for controlling an operation in a robot, in a prediction step of predicting whether or not the robot comes into contact with a human by the operation of the robot, and when predicted to contact in the prediction step, A state recognizing step for recognizing a state of the predetermined part of the human, and a restricting step for restricting the operation of the robot based on the state of the predetermined part recognized in the state recognizing step. It can also be a robot control method. Here, in the state recognition step, the orientation of the human face or the vertical movement of the human shoulder is recognized, and in the limiting step, the recognition result of the orientation of the human face or the vertical movement of the human shoulder is recognized. Based on this, the operation of the robot may be limited.
これによって、人間との接触を事前に予測し、接触する場合には外部からの接触に対して無防備である、あるいはこちらを認識していない等の状態にある人間と接触しないようにロボットの動作を制限することができる。従って、大きな事故の発生を予測し、大きな事故の発生を未然に防ぐことができるので、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。 This predicts contact with humans in advance, and when touching, the robot moves so as not to touch humans who are unprotected against contact from outside or who are not aware of this. Can be limited. Therefore, since it is possible to predict the occurrence of a major accident and prevent the occurrence of a major accident, it is possible to realize a robot that can be used with confidence in a human living environment or work environment. In addition, since human beings are not greatly damaged by contact, it can be used at a distance close to humans, and a highly versatile robot can be realized.
なお、本発明は、このようなロボットの制御方法として実現することができるだけでなく、その方法により動作が制御されるロボット及びそのロボットのためのプログラム、そのプログラムを格納する記憶媒体としても実現することができる。 The present invention can be realized not only as such a robot control method but also as a robot whose operation is controlled by the method, a program for the robot, and a storage medium for storing the program. be able to.
本発明によれば、人間の居住環境や作業環境で十分に安心して使用できる汎用性の高いロボットを実現できる。 According to the present invention, it is possible to realize a highly versatile robot that can be used with sufficient security in a human living environment or work environment.
以下、本発明の実施の形態における自律制御型ロボットについて、図面を参照しながら説明する。 Hereinafter, an autonomous control robot according to an embodiment of the present invention will be described with reference to the drawings.
図1(a)は本実施の形態の自律制御型ロボットの正面図であり、図1(b)は同ロボットの側面図である。 FIG. 1A is a front view of the autonomous control type robot of the present embodiment, and FIG. 1B is a side view of the robot.
このロボットは、周囲の環境に応じて自主的に動作を制御する2足歩行型のロボットであり、胴ユニット100、頭部ユニット110と、右腕ユニット120、左腕ユニット130、右脚ユニット140及び左脚ユニット150から構成される。
This robot is a biped walking type robot that automatically controls the operation according to the surrounding environment, and includes a
頭部ユニット110は、胴ユニット100の上部に連結される。
右腕ユニット120は、右上腕部120a、右前腕部120b及び右手首部120cから構成され、胴ユニット100の右側部に連結される。左腕ユニット130は、左上腕部130a、左前腕部130b及び左手首部130cから構成され、胴ユニット100の左側部に連結される。
The
The
右脚ユニット140は、右大腿部140a、右下腿部140b及び右足首部140cから構成され、胴ユニット100の下部右側に連結される。左脚ユニット150は、左大腿部150a、左下腿部150b及び左足首部150cから構成され、胴ユニット100の下部左側に連結される。
The
図2は、自律制御型ロボットの駆動構造を模式的に示す図である。
頭部ユニット110は、モータM1及びM2をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。頭部ユニット110には、ロボットの周囲を撮像するCCDあるいはMOS型のカメラ210及び220と、CRT(Cathode-Ray Tube)やLCD(Liquid Crystal Display)等の表示部230とが配設されている。表示部230は、距離が所定の距離より短くなる場合に画像を変更し、人間に警告を発する。
FIG. 2 is a diagram schematically showing the drive structure of the autonomous control robot.
The
右上腕部120aは、モータM3及びM4をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。右前腕部120bは、モータM5及びM6をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。右手首部120cは、モータM7を駆動することにより、1つの軸の回りに回転させることができるようにされている。
The upper
左上腕部130aは、モータM8及びM9をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。左前腕部130bは、モータM10及びM11をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。左手首部130cは、モータM12を駆動することにより、1つの軸の回りに回転させることができるようにされている。
The upper
胴ユニット100は、モータM13及びM14をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。胴ユニット100には、モータM1〜24並びにカメラ210及び220に接続された、モータM1〜24、表示部230、並びにカメラ210及び220の駆動を制御する制御部200が配設されている。
The
右大腿部140aは、モータM15及びM16をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。右下腿部140bは、モータM17及びM18をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。右足首部140cは、モータM19を駆動することにより、1つの軸の回りに回転させることができるようにされている。
The
左大腿部150aは、モータM20及びM21をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。左下腿部150bは、モータM22及びM23をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。左足首部150cは、モータM24を駆動することにより、1つの軸の回りに回転させることができるようにされている。
The
図3は、自律制御型ロボットの構成を示す機能ブロック図である。
このロボットは、制御部200、機構部300、記憶部320、人間認識部350、メモリ部360、予測部370、測定部380及び状態認識部390を備える。
FIG. 3 is a functional block diagram showing the configuration of the autonomous control robot.
The robot includes a
機構部300は、モータM1〜24、表示部230並びにカメラ210及び220等を含む機構部品の集合である。
The
制御部200は、記憶部320からメモリ部360に動作プログラム320aをロードして実行し、その実行結果に従って機構部300を制御する。
The
記憶部320は、ハードディスクやメモリ等であり、記憶部320には、動作プログラム320a、基準画像データ320b、角度テーブル320c、虚実判定テーブル320d、距離テーブル320e及び接触速度テーブル320f等が格納される。
The
基準画像データ320bは、図4に示されるように、人間の3次元形状、人間の急所(図4における斜線部)の位置及び人間の部位の位置を示す人間の3次元画像である。このとき、人間の急所としては、例えば、喉、みぞおち、金的、人中及び鼻等の正中線(体の中心線)にある部位や、こめかみ、目等が挙げられる。
As shown in FIG. 4, the
角度テーブル320cは、図5に示されるように、図4で示された人間の部位とそれとロボットの危険な接触角度とが関連付けられたテーブルである。このとき、危険の接触角度は、ロボットが人間に接触する場合に許容される接触角度、つまり人間に大きな被害を与えない接触角度であり、人間の部位毎で異なる。例えば、みぞおちを下方からアバラ骨の中に突き込むように突き上げると人間に大きな被害が与えられる。従って、「みぞおち」には、「足下から頭に向かう線に対して0〜90°の接触角度」が関連付けられている。 As shown in FIG. 5, the angle table 320 c is a table in which the human part shown in FIG. 4 is associated with the dangerous contact angle of the robot. At this time, the contact angle of danger is a contact angle that is allowed when the robot contacts a human, that is, a contact angle that does not cause great damage to the human, and varies depending on the human part. For example, if the grooving is pushed up from below to push into the ribs, human damage will be caused. Therefore, the “groove” is associated with “a contact angle of 0 to 90 ° with respect to a line from the foot toward the head”.
虚実判定テーブル320dは、図6に示されるように、図4で示された人間の部位とその部位の所定の状態とが関連付けられたテーブルである。このとき、部位の所定の状態は、人間が外部からの接触に対して無防備である、あるいはこちらを認識していない等の状態にあることを示す状態である。すなわち、人間は息を吸っている状態において息を吐いている状態と比べてより無防備であり、この状態でロボットが接触すると人間は大きな被害を受ける。従って、図6のテーブルでは、「肩」に「上方に向かって動く状態」が関連付けられる。また、人間は不意打ちを受けると大きな被害を受ける。従って、図6のテーブルでは、「顔」に「ロボットを向いている状態」が関連付けられる。 As shown in FIG. 6, the truth determination table 320 d is a table in which the human part shown in FIG. 4 is associated with a predetermined state of the part. At this time, the predetermined state of the part is a state indicating that a person is unprotected against contact from the outside or is not recognizing this. That is, humans are more vulnerable when they are inhaling than when they are exhaling, and when they touch the robot in this state, humans are greatly damaged. Therefore, in the table of FIG. 6, “the state of moving upward” is associated with “shoulder”. In addition, human beings are greatly damaged if they are surprised. Therefore, in the table of FIG. 6, “face facing” is associated with “face”.
距離テーブル320eは、図7に示されるように、人間及びロボットの間の距離、表示部230の画像内容、及びロボットの動作速度が関連付けられたテーブルである。このテーブルでは、人間及びロボットのいずれかが互いの距離を縮める動作をしなければロボット及び人間の動作により互いが接触しない距離、例えば人間及びロボットの間の距離が1m〜2mのときには、表示部230に黄色の画像を表示させ、ロボットの動作速度を0.1m/secにすることが示されている。また、人間及びロボットのいずれかが互いの距離を縮める動作をしなくてもロボット及び人間の動作により互いが接触する距離、例えば、人間及びロボットの間の距離が1.0m以下のときには、表示部230に赤色の画像を表示させ、ロボットの動作速度を0.01m/secにすることが示されている。
As shown in FIG. 7, the distance table 320e is a table in which the distance between the human and the robot, the image content of the
接触速度テーブル320fは、図8に示されるように、図4で示された人間の部位とそれとロボットの危険な接触速度とが関連付けられたテーブルである。危険な接触速度は、ロボットが人間に接触する場合に許容される接触速度、つまり人間に大きな被害を与えない接触速度であり、人間の部位毎で異なる。例えば、「顔」には、「0.0001m/sec」の接触速度が関連付けられている。 As shown in FIG. 8, the contact speed table 320f is a table in which the human part shown in FIG. 4 is associated with the dangerous contact speed of the robot. The dangerous contact speed is a contact speed that is allowed when the robot contacts a human, that is, a contact speed that does not cause much damage to the human, and is different for each human part. For example, a contact speed of “0.0001 m / sec” is associated with “face”.
人間認識部350は、ロボットから所定の距離内に存在する人間をカメラ210及び220により取得された画像に基づいて認識し、カメラ210及び220により取得された2つの画像からステレオマッチング法等を使って人間の3次元画像を生成する。さらに、人間認識部350は、生成された3次元画像を使って認識された人間のロボットと接触する部分の位置を認識する。
The
メモリ部360は、制御部200、人間認識部350、予測部370、測定部380及び状態認識部390等による作業領域を提供するRAM(Random Access Memory)等である。
The
予測部370は、人間認識部350で生成された3次元画像に基づいて、人間認識部350で認識された人間とロボットとがロボットの動作により接触するか否かを予測する。
Based on the three-dimensional image generated by the
測定部380は、人間認識部350で認識された人間とロボットとの間の距離を人間認識部350で生成された3次元画像に基づいて測定する。
The
状態認識部390は、人間認識部350により生成された3次元画像を基準画像データ320bとパターンマッチングし、人間の部位の状態を認識する。
The
次に、上記構成を有する自律制御型ロボットの動作について説明する。図9は、同ロボットの動作を示すフローチャートである。 Next, the operation of the autonomous control type robot having the above configuration will be described. FIG. 9 is a flowchart showing the operation of the robot.
まず、制御部200は、人間認識部350に、ロボットから所定の距離内に存在する人間を認識させ、さらに認識された人間の3次元画像を生成させる(ステップS60)。この3次元画像により、認識された人間の位置及び形状が特定される。所定の距離は、カメラ210及び220の性能に依存して異なり、例えば10mとされる。
First, the
次に、制御部200は、測定部380により、認識された人間とロボットとの距離を測定させる(ステップS61)。
Next, the
次に、制御部200は、測定された距離が人間と接触する危険な距離であるか否かを判定する(ステップS62)。具体的には、測定された距離が距離テーブル320eに示される1.0m以下の距離であるか否かを判定する。
Next, the
次に、測定された距離が危険な距離で無いと判定された場合(ステップS62でNO)、制御部200は、測定された距離が人間と接触する可能性の低い安全な距離であるか否かを判定する(ステップS63)。具体的には、測定された距離が距離テーブル320eに示される2m以上の距離であるか否かを判定する。
Next, when it is determined that the measured distance is not a dangerous distance (NO in step S62), the
次に、測定された距離が安全な距離であると判定された場合(ステップS63でYES)、制御部200は、距離テーブル320eに従って表示部230に青色の画像を表示させる(ステップS64)。
Next, when it is determined that the measured distance is a safe distance (YES in step S63), the
次に、測定された距離が安全な距離で無いと判定された場合(ステップS63でNO)、制御部200は、距離テーブル320eに従って表示部230に黄色の画像を表示して人間に警告を発すると共に(ステップS65)、ロボットの動作速度を0.1m/secの低速に変化させる(ステップS66)。
Next, when it is determined that the measured distance is not a safe distance (NO in step S63), the
次に、測定された距離が危険な距離であると判定された場合(ステップS62でYES)、制御部200は、距離テーブル320eに従って表示部230に赤色の画像を表示して人間に警告を発すると共に(ステップS67)、ロボットの動作速度を0.01m/secの低速に変化させる(ステップS68)。
Next, when it is determined that the measured distance is a dangerous distance (YES in step S62), the
次に、制御部200は、予測部370により、認識された人間とロボットとがロボットの動作により接触するか否かを予測させる(ステップS69)。
Next, the
次に、人間と接触すると予測された場合(ステップS69でYES)、制御部200は、人間認識部350により、人間のロボットと接触する部分の位置を認識させる。その後、制御部200は、人間認識部350により生成された3次元画像、基準画像データ320b、及び認識された人間のロボットと接触する部分の位置から人間のロボットと接触する部位を特定する(ステップS70)。具体的には、人間認識部350により生成された3次元画像を基準画像データ320bとパターンマッチングし、人間のロボットと接触する部分が人間のどの部位に当たるかを特定する。
Next, when it is predicted that the human body will be contacted (YES in step S69), the
次に、制御部200は、状態認識部390により、特定された部位の状態を認識させる(ステップS71)。例えば、認識された人間の顔の向き又は肩の動きを認識させる。
Next, the
次に、制御部200は、認識された人間の姿勢や状態が不安定であるか否かを判定する(ステップS72)。具体的には、特定された部位の状態のいずれかが虚実判定テーブル320dに示される所定の状態であるか否かを判定する。例えば、肩の動きが上方に向かう動きであるか否かを判定したり、顔の向きがロボットを向いているか否かを判定したりする。
Next, the
次に、認識された人間の姿勢や状態が不安定であると判定された場合(ステップS72でYES)、制御部200は、認識された人間から離れる動作をロボットに行わせる(ステップS73)。
Next, when it is determined that the recognized posture or state of the human is unstable (YES in step S72), the
次に、認識された人間の姿勢や状態が不安定で無いと判定された場合(ステップS72でNO)、制御部200は、認識された人間の急所の位置を特定する。具体的には、人間認識部350により生成された3次元画像を基準画像データ320bとパターンマッチングし、認識された人間の急所の位置を特定する(ステップS74)。
Next, when it is determined that the recognized human posture or state is not unstable (NO in step S72), the
次に、制御部200は、人間の急所と接触するか否かを判定する(ステップS75)。具体的には、特定された人間の急所の位置が人間認識部350により認識された人間のロボットと接触する部分の位置と一致するか否かを判定する。
Next, the
次に、人間の急所と接触する場合(ステップS75のYES)、制御部200は、急所への接触が行われず、人間の急所以外の部分にロボットが接触するようにロボットの動作を制限する(ステップS76)。
Next, in the case of contact with a human emergency (YES in step S75), the
次に、制御部200は、認識された人間のロボットとの接触角度を特定する(ステップS77)。
Next, the
次に、制御部200は、特定された接触角度がロボットに接触する人間の部位に対して危険な角度であるか否かを判定する(ステップS78)。具体的には、人間のロボットと接触する部位に角度テーブル320cで関連付けられた危険な接触角度が、特定された接触角度と一致するか否かを判定する。例えば、接触する人間の部位として目が特定され、接触角度として20°が特定された場合、この20°が角度テーブル320cで目と関連付けられている90°と異なるため、接触角度は危険なもので無いと判定される。
Next, the
次に、特定された接触角度が危険な角度であると判定された場合(ステップS78でYES)、制御部200は、危険な角度での接触が行われないように、ロボットの人間との接触角度を変更させる(ステップS79)。
Next, when it is determined that the specified contact angle is a dangerous angle (YES in step S78), the
次に、制御部200は、認識された人間のロボットとの接触速度を特定する(ステップS80)。
Next, the
次に、制御部200は、特定された接触速度がロボットに接触する人間の部位に対して危険な速度であるか否かを判定する(ステップS81)。具体的には、人間のロボットと接触する部位に接触速度テーブル320fで関連付けられた安全な接触速度が、特定された接触速度よりも遅いか否かを判定する。
Next, the
次に、特定された接触速度が危険な速度であると判定された場合(ステップS81でYES)、制御部200は、危険な速度で人間と接触しないように、ロボットに接触する人間の部位に接触速度テーブル320fで関連付けられた接触速度に徐々に変化させる(ステップS82)。このとき、速度の変化率は、接触速度判定時におけるロボットの動作速度とロボット及び人間の距離とに応じて変更され、動作速度が比較的速いとき又は人間との距離が比較的離れているときには速度の変化率は大きくされ、逆に動作速度が比較的遅いとき又は人間との距離が比較的近いときには速度の変化率は小さくされる。
Next, when it is determined that the identified contact speed is a dangerous speed (YES in step S81), the
以上のように本実施の形態の自律制御型ロボットによれば、人間が外部からの接触に対して無防備である、あるいはこちらを認識していない等の状態にあるかを判定し、該当する場合には人間と接触しないように制御される。従って、大きな事故の発生を未然に防ぐことができるので、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。 As described above, according to the autonomous control type robot of the present embodiment, it is determined whether a person is unprotected against contact from the outside, or is not aware of this, and is applicable. It is controlled not to come into contact with humans. Therefore, since it is possible to prevent the occurrence of a major accident, it is possible to realize a robot that can be used with confidence in a human living environment or work environment. In addition, since human beings are not greatly damaged by contact, it can be used at a distance close to humans, and a highly versatile robot can be realized.
また、本実施の形態の自律制御型ロボットによれば、人間との距離が接触する可能性のある距離である場合に表示部230の画像を変更し、人間に対してロボットが接触する可能性があるという警告を発する。従って、人間が外部からの接触に対して無防備である、あるいはこちらを認識していない等の状態でロボットと接触することが無くなる。その結果、大きな事故の発生を未然に防ぐことができ、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。
Further, according to the autonomous control type robot of the present embodiment, the image on the
また、本実施の形態の自律制御型ロボットによれば、接触する人間の部分が急所であるかを判定し、該当する場合には急所と接触しないように接触する部分を変更する。従って、大きな事故の発生を未然に防ぐことができるので、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。 In addition, according to the autonomous control type robot of the present embodiment, it is determined whether or not the human part that comes into contact is a sudden place, and if applicable, the part that comes into contact with the sudden place is changed. Therefore, since it is possible to prevent the occurrence of a major accident, it is possible to realize a robot that can be used with confidence in a human living environment or work environment. In addition, since human beings are not greatly damaged by contact, it can be used at a distance close to humans, and a highly versatile robot can be realized.
また、本実施の形態の自律制御型ロボットによれば、人間との接触角度が人間に大きな被害を与える危険な角度であるかを判定し、該当する場合には人間との接触角度を変更する。従って、大きな事故の発生を未然に防ぐことができるので、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。 In addition, according to the autonomous control type robot of the present embodiment, it is determined whether the contact angle with the human being is a dangerous angle that causes great damage to the human being, and if applicable, the contact angle with the human being is changed. . Therefore, since it is possible to prevent the occurrence of a major accident, it is possible to realize a robot that can be used with confidence in a human living environment or work environment. In addition, since human beings are not greatly damaged by contact, it can be used at a distance close to humans, and a highly versatile robot can be realized.
また、本実施の形態の自律制御型ロボットによれば、人間との接触速度が人間に大きな被害を与える危険な速度であるかを判定し、該当する場合には人間との接触速度を変化させる。従って、大きな事故の発生を未然に防ぐことができるので、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。 Also, according to the autonomous control type robot of the present embodiment, it is determined whether the contact speed with the human is a dangerous speed that causes great damage to the human, and if applicable, the contact speed with the human is changed. . Therefore, since it is possible to prevent the occurrence of a major accident, it is possible to realize a robot that can be used with confidence in a human living environment or work environment. In addition, since human beings are not greatly damaged by contact, it can be used at a distance close to humans, and a highly versatile robot can be realized.
以上、本発明の自律制御型ロボットについて、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の要旨を逸脱しない範囲内で当業者が思いつく各種変形を施したものも本発明の範囲内に含まれる。 As described above, the autonomous control type robot of the present invention has been described based on the embodiment. However, the present invention is not limited to this embodiment. The present invention includes various modifications made by those skilled in the art without departing from the scope of the present invention.
例えば、人間との距離が危険な距離である場合に表示部230の画像を変更し、人間に対してロボットが接触する可能性があるという警告を発するとした。しかし、人間に対して警告を発することができればこれに限られず、ロボットが音声出力部を備え、音声の出力内容を距離に応じて変更することにより人間に対してロボットが接触する可能性があるという警告を発してもよい。ここで、表示部及び音声出力部は、本発明の警告手段の一例である。
For example, when the distance to the person is a dangerous distance, the image on the
また、人間のロボットと接触する部分が人間の急所である場合には、制御部200は、人間の急所以外の部分にロボットが接触するようにロボットの動作を制限するとした。しかし、人間のロボットと接触する部分が人間の急所であるかを判定した後に行われる接触角度及び接触速度の判定により、危険な角度及び速度での人間との接触が回避されるため、このような動作の制限は行われなくてもよい。ただし、この場合には、人間に大きな被害を与えないために、ロボットの動作速度を所定の速度に落とす等の他の動作制限がロボットに加えられる。
In addition, when the part in contact with the human robot is a human emergency, the
また、認識された人間の姿勢や状態が不安定である場合、制御部200は、認識された人間から離れる動作をロボットに行わせるとした。しかし、ロボットの動作を制限するものであればこれに限られず、認識された人間の姿勢や状態を不安定で無い状態にする動作をロボットに行わせてもよい。例えば、人間の顔がロボットを向いていないと判定された場合には、制御部200は、人間の顔の正面に移動する動作をロボットに行わせてもよい。
In addition, when the recognized human posture and state are unstable, the
また、測定された距離が危険な距離であると判定された場合、ロボットの動作速度を0.01m/secの低速に変化させるとした。しかし、ロボットの動作を制限するものであればこれに限られず、ロボットの動作を停止させてもよい。 Further, when it is determined that the measured distance is a dangerous distance, the operation speed of the robot is changed to a low speed of 0.01 m / sec. However, the present invention is not limited to this as long as it restricts the operation of the robot, and the operation of the robot may be stopped.
また、人間との接触角度が危険な角度であると判定された場合、ロボットの人間との接触角度を変更するとした。しかし、ロボットの動作を制限するものであればこれに限られず、ロボットの動作を停止させてもよい。 Further, when it is determined that the contact angle with the human is a dangerous angle, the contact angle of the robot with the human is changed. However, the present invention is not limited to this as long as it restricts the operation of the robot, and the operation of the robot may be stopped.
また、人間との接触速度が危険な速度であると判定された場合、接触速度を変化させるとした。しかし、ロボットの動作を制限するものであればこれに限られず、ロボットの動作を停止させてもよい。 Further, when it is determined that the contact speed with a human is a dangerous speed, the contact speed is changed. However, the present invention is not limited to this as long as it restricts the operation of the robot, and the operation of the robot may be stopped.
また、上記実施の形態において、ロボットとして自律制御型ロボットを例示したが、動作が制御可能なロボットであればこれに限られない。 Moreover, in the said embodiment, although the autonomous control type robot was illustrated as a robot, if it is a robot which can control operation | movement, it will not be restricted to this.
本発明は、ロボットの制御方法に利用でき、特に自律制御型ロボットの動作の制御方法等に利用することができる。 The present invention can be used for a robot control method, and in particular, can be used for an operation control method of an autonomous control type robot.
100 胴ユニット
110 頭部ユニット
120 右腕ユニット
120a 右上腕部
120b 右前腕部
120c 右手首部
130 左腕ユニット
130a 左上腕部
130b 左前腕部
130c 左手首部
140 右脚ユニット
140a 右大腿部
140b 右下腿部
140c 右足首部
150 左脚ユニット
150a 左大腿部
150b 左下腿部
150c 左足首部
200 制御部
210、220 カメラ
230 表示部
300 機構部
320 記憶部
320a 動作プログラム
320b 基準画像データ
320c 角度テーブル
320d 虚実判定テーブル
320e 距離テーブル
320f 接触速度テーブル
350 人間認識部
360 メモリ部
370 予測部
380 測定部
390 状態認識部
100
Claims (21)
前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、
前記予測ステップにおいて接触すると予測された場合に、前記人間の急所に前記ロボットが接触しないように、前記ロボットの動作を制限する制限ステップとを含む
ことを特徴とするロボットの制御方法。 A method for controlling movement in a robot,
A prediction step of predicting whether or not the robot comes into contact with a human by the operation of the robot;
A robot control method comprising: a restricting step of restricting the operation of the robot so that the robot does not contact the human emergency when it is predicted to contact in the predicting step.
人間の急所及び人間の形状を示す人間の画像を格納する画像格納ステップと、
前記接触する人間の形状を認識し、前記認識された人間の形状及び前記画像から前記人間の急所を特定する急所特定ステップとを含み、
前記制限ステップにおいて、特定された前記人間の急所に前記ロボットが接触しないように、前記ロボットの動作を制限する
ことを特徴とする請求項1記載のロボットの制御方法。 The robot control method further includes:
An image storing step for storing a human image indicating a human vitality and a human shape;
Recognizing the shape of the person in contact and identifying a human emergency from the recognized human shape and the image,
2. The robot control method according to claim 1, wherein in the restricting step, the robot is restricted so that the robot does not contact the identified human critical point. 3.
前記ロボットと人間との距離を測定する測定ステップと、
前記距離が所定の距離より短い場合に、前記人間に警告を発する警告ステップとを含む
ことを特徴とするロボットの制御方法。 A method for controlling movement in a robot,
A measuring step for measuring a distance between the robot and a human;
And a warning step of issuing a warning to the human when the distance is shorter than a predetermined distance.
ことを特徴とする請求項3記載のロボットの制御方法。 The robot control method according to claim 3, wherein, in the warning step, when the distance is shorter than a predetermined distance, a predetermined image is displayed on a display unit included in the robot.
ことを特徴とする請求項3記載のロボットの制御方法。 The method for controlling the robot further includes a limiting step of slowing down the operation speed of the robot or stopping the operation of the robot when the distance is shorter than a predetermined distance. Robot control method.
前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、
前記予測ステップにおいて接触すると予測された場合に、所定の接触角度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する制限ステップとを含む
ことを特徴とするロボットの制御方法。 A method for controlling movement in a robot,
A prediction step of predicting whether or not the robot comes into contact with a human by the operation of the robot;
And a limiting step of limiting the operation of the robot so that the robot does not contact the person at a predetermined contact angle when it is predicted to contact in the prediction step.
人間の部位の位置及び人間の形状を示す人間の画像と、前記人間の部位及び前記所定の接触角度が関連付けられた角度テーブルとを格納する角度テーブル格納ステップと、
前記接触する人間の形状及びロボットに接触する部分を認識し、前記認識された人間の形状及びロボットに接触する部分と前記画像とから前記ロボットに接触する前記人間の部位を特定する部位特定ステップと、
前記制限ステップにおいて、特定された前記人間の部位に前記角度テーブルで関連付けられた所定の接触角度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する
ことを特徴とする請求項5記載のロボットの制御方法。 The robot control method further includes:
An angle table storage step for storing a human image indicating the position and shape of a human part, and an angle table in which the human part and the predetermined contact angle are associated;
A part specifying step for recognizing the human shape and the part contacting the robot, and specifying the human part contacting the robot from the recognized human shape and part contacting the robot and the image; ,
The operation of the robot is restricted in the restricting step so that the robot does not contact the human at a predetermined contact angle associated with the identified human part in the angle table. 6. The robot control method according to 5.
前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、
前記予測ステップにおいて接触すると予測された場合に、所定の接触速度より大きな速度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する制限ステップとを含む
ことを特徴とするロボットの制御方法。 A method for controlling movement in a robot,
A prediction step of predicting whether or not the robot comes into contact with a human by the operation of the robot;
A restriction step for restricting the operation of the robot so that the robot does not contact the human at a speed greater than a predetermined contact speed when predicted to be touched in the prediction step. Control method.
人間の部位の位置及び人間の形状を示す人間の画像と、前記人間の部位及び前記所定の接触速度が関連付けられた接触速度テーブルとを格納する接触速度テーブル格納ステップと、
前記接触する人間の形状及びロボットに接触する部分を認識し、前記認識された人間の形状及びロボットに接触する部分と前記画像とから前記ロボットに接触する前記人間の部位を特定する部位特定ステップと、
前記制限ステップにおいて、特定された前記人間の部位に前記接触速度テーブルで関連付けられた所定の接触速度より大きな速度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する
ことを特徴とする請求項8記載のロボットの制御方法。 The robot control method further includes:
A contact speed table storing step for storing a human image indicating the position and shape of a human part, and a contact speed table associated with the human part and the predetermined contact speed;
A part specifying step for recognizing the human shape and the part contacting the robot, and specifying the human part contacting the robot from the recognized human shape and part contacting the robot and the image; ,
In the limiting step, the operation of the robot is limited so that the robot does not contact the human at a speed larger than a predetermined contact speed associated with the identified human part in the contact speed table. The robot control method according to claim 8.
前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、
前記予測ステップにおいて接触すると予測された場合に、前記人間の所定の部位の状態を認識する状態認識ステップと、
前記状態認識ステップにおいて認識された前記所定の部位の状態に基づいて前記ロボットの動作を制限する制限ステップとを含む
ことを特徴とするロボットの制御方法。 A method for controlling movement in a robot,
A prediction step of predicting whether or not the robot comes into contact with a human by the operation of the robot;
A state recognition step of recognizing the state of the predetermined part of the human when it is predicted that contact will be made in the prediction step;
And a restricting step for restricting the operation of the robot based on the state of the predetermined part recognized in the state recognizing step.
前記制限ステップでは、前記人間の顔の向き又は前記人間の肩の上下動の認識結果に基づいて前記ロボットの動作を制限する
ことを特徴とする請求項10記載のロボットの制御方法。 In the state recognition step, the human face direction or the vertical movement of the human shoulder is recognized,
The robot control method according to claim 10, wherein, in the limiting step, the operation of the robot is limited based on a recognition result of the orientation of the human face or the vertical movement of the human shoulder.
前記予測手段により接触すると予測された場合に、前記人間の急所に前記ロボットが接触しないように、前記ロボットの動作を制限する制限手段とを備える
ことを特徴とするロボット。 Predicting means for predicting whether or not the robot comes into contact with a human by the operation of the robot;
Limiting means for limiting the operation of the robot so as to prevent the robot from coming into contact with the human emergency when it is predicted by the prediction means.
前記距離が所定の距離より短い場合に、前記人間に警告を発する警告手段とを備える
ことを特徴とするロボット。 A measuring means for measuring the distance between the robot and a human,
A robot comprising warning means for issuing a warning to the human when the distance is shorter than a predetermined distance.
前記予測手段により接触すると予測された場合に、所定の接触角度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する制限手段とを備える
ことを特徴とするロボット。 Predicting means for predicting whether or not the robot comes into contact with a human by the operation of the robot;
Limiting means for limiting the operation of the robot so as to prevent the robot from coming into contact with the human at a predetermined contact angle when predicted by the predicting means.
前記予測手段により接触すると予測された場合に、所定の接触速度より大きな速度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する制限手段とを備える
ことを特徴とするロボット。 Predicting means for predicting whether or not the robot comes into contact with a human by the operation of the robot;
Limiting means for limiting the operation of the robot so that the robot does not contact the human at a speed greater than a predetermined contact speed when predicted by the predicting means.
前記予測手段により接触すると予測された場合に、前記人間の所定の部位の状態を認識する状態認識手段と、
前記状態認識手段により認識された前記所定の部位の状態に基づいて前記ロボットの動作を制限する制限手段とを備える
ことを特徴とするロボット。 Predicting means for predicting whether or not the robot comes into contact with a human by the operation of the robot;
A state recognizing unit for recognizing a state of the predetermined part of the human when it is predicted to be touched by the predicting unit;
Limiting means for limiting the operation of the robot based on the state of the predetermined part recognized by the state recognition means.
ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、
前記予測ステップにおいて接触すると予測された場合に、前記人間の急所に前記ロボットが接触しないように、前記ロボットの動作を制限する制限ステップとをロボット内のコンピュータに実行させることを特徴とするプログラム。 A program for a robot,
A prediction step of predicting whether or not the robot comes into contact with a human by the operation of the robot;
A program for causing a computer in a robot to execute a restriction step for restricting the operation of the robot so that the robot does not come into contact with the human's critical point when it is predicted that contact is made in the prediction step.
前記ロボットと人間との距離を測定する測定ステップと、
前記距離が所定の距離より短い場合に、前記人間に警告を発する警告ステップとをロボット内のコンピュータに実行させることを特徴とするプログラム。 A program for a robot,
A measuring step for measuring a distance between the robot and a human;
A program for causing a computer in a robot to execute a warning step of issuing a warning to the human when the distance is shorter than a predetermined distance.
前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、
前記予測ステップにおいて接触すると予測された場合に、所定の接触角度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する制限ステップとをロボット内のコンピュータに実行させることを特徴とするプログラム。 A program for a robot,
A prediction step of predicting whether or not the robot comes into contact with a human by the operation of the robot;
When it is predicted that contact is made in the prediction step, the computer in the robot is caused to execute a restriction step for restricting the operation of the robot so that the robot does not contact the human at a predetermined contact angle. Program to do.
前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、
前記予測ステップにおいて接触すると予測された場合に、所定の接触速度より大きな速度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する制限ステップとを含むロボット内のコンピュータに実行させることを特徴とするプログラム。 A program for a robot,
A prediction step of predicting whether or not the robot comes into contact with a human by the operation of the robot;
When it is predicted that contact is made in the prediction step, the computer in the robot includes a restriction step for restricting the operation of the robot so that the robot does not contact the human at a speed higher than a predetermined contact speed. A program characterized by that.
前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、
前記予測ステップにおいて接触すると予測された場合に、前記人間の所定の部位の状態を認識する状態認識ステップと、
前記状態認識ステップにおいて認識された前記所定の部位の状態に基づいて前記ロボットの動作を制限する制限ステップとをロボット内のコンピュータに実行させることを特徴とするプログラム。 A program for a robot,
A prediction step of predicting whether or not the robot comes into contact with a human by the operation of the robot;
A state recognition step of recognizing the state of the predetermined part of the human when it is predicted that contact will be made in the prediction step;
A program for causing a computer in a robot to execute a limiting step of limiting the operation of the robot based on the state of the predetermined part recognized in the state recognition step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006327258A JP2008137127A (en) | 2006-12-04 | 2006-12-04 | Robot control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006327258A JP2008137127A (en) | 2006-12-04 | 2006-12-04 | Robot control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008137127A true JP2008137127A (en) | 2008-06-19 |
Family
ID=39599121
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006327258A Pending JP2008137127A (en) | 2006-12-04 | 2006-12-04 | Robot control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008137127A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010004744A1 (en) * | 2008-07-09 | 2010-01-14 | パナソニック株式会社 | Path danger evaluation device |
WO2012039280A1 (en) * | 2010-09-21 | 2012-03-29 | トヨタ自動車株式会社 | Mobile body |
JP2012200818A (en) * | 2011-03-25 | 2012-10-22 | Advanced Telecommunication Research Institute International | Robot that determines its own avoidance behavior by predicting trajectory of pedestrian |
JP2015526309A (en) * | 2012-08-31 | 2015-09-10 | リシンク ロボティクス インコーポレイテッド | System and method for safe robot operation |
JP2016196069A (en) * | 2015-04-03 | 2016-11-24 | 三菱電機株式会社 | Avoidance track generation device and avoidance track generation method for industrial robot |
JP2016209991A (en) * | 2015-05-01 | 2016-12-15 | キヤノン株式会社 | Robot control device, controlling method, and program |
JP2019501460A (en) * | 2016-10-14 | 2019-01-17 | 平安科技(深▲せん▼)有限公司 | Guide robot, moving region calibration method thereof, and computer-readable storage medium |
JPWO2021261394A1 (en) * | 2020-06-25 | 2021-12-30 | ||
JP7098080B1 (en) * | 2021-09-08 | 2022-07-08 | 三菱電機株式会社 | Robot control device |
-
2006
- 2006-12-04 JP JP2006327258A patent/JP2008137127A/en active Pending
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101959653B (en) * | 2008-07-09 | 2012-10-24 | 松下电器产业株式会社 | Path danger evaluation device |
JP4495252B2 (en) * | 2008-07-09 | 2010-06-30 | パナソニック株式会社 | Route risk evaluation device, route risk evaluation method and program |
US7844398B2 (en) | 2008-07-09 | 2010-11-30 | Panasonic Corporation | Path risk evaluating apparatus |
JPWO2010004744A1 (en) * | 2008-07-09 | 2011-12-22 | パナソニック株式会社 | Route risk evaluation device, route risk evaluation method and program |
WO2010004744A1 (en) * | 2008-07-09 | 2010-01-14 | パナソニック株式会社 | Path danger evaluation device |
WO2012039280A1 (en) * | 2010-09-21 | 2012-03-29 | トヨタ自動車株式会社 | Mobile body |
CN103119529A (en) * | 2010-09-21 | 2013-05-22 | 丰田自动车株式会社 | Mobile body |
JP5409924B2 (en) * | 2010-09-21 | 2014-02-05 | トヨタ自動車株式会社 | Moving body |
JPWO2012039280A1 (en) * | 2010-09-21 | 2014-02-03 | トヨタ自動車株式会社 | Moving body |
DE112011103155T5 (en) | 2010-09-21 | 2013-07-18 | Toyota Jidosha Kabushiki Kaisha | Mobile body |
US9075416B2 (en) | 2010-09-21 | 2015-07-07 | Toyota Jidosha Kabushiki Kaisha | Mobile body |
CN103119529B (en) * | 2010-09-21 | 2016-05-25 | 丰田自动车株式会社 | Moving body |
JP2012200818A (en) * | 2011-03-25 | 2012-10-22 | Advanced Telecommunication Research Institute International | Robot that determines its own avoidance behavior by predicting trajectory of pedestrian |
JP2015526309A (en) * | 2012-08-31 | 2015-09-10 | リシンク ロボティクス インコーポレイテッド | System and method for safe robot operation |
JP2016196069A (en) * | 2015-04-03 | 2016-11-24 | 三菱電機株式会社 | Avoidance track generation device and avoidance track generation method for industrial robot |
JP2016209991A (en) * | 2015-05-01 | 2016-12-15 | キヤノン株式会社 | Robot control device, controlling method, and program |
JP2019501460A (en) * | 2016-10-14 | 2019-01-17 | 平安科技(深▲せん▼)有限公司 | Guide robot, moving region calibration method thereof, and computer-readable storage medium |
KR20190022433A (en) * | 2016-10-14 | 2019-03-06 | 핑안 테크놀로지 (션젼) 컴퍼니 리미티드 | Guide robot and its moving area calibration method, computer readable storage medium |
KR102173609B1 (en) * | 2016-10-14 | 2020-11-04 | 핑안 테크놀로지 (션젼) 컴퍼니 리미티드 | Guide robot and its moving area calibration method, computer-readable storage medium |
US11009889B2 (en) | 2016-10-14 | 2021-05-18 | Ping An Technology (Shenzhen) Co., Ltd. | Guide robot and method of calibrating moving region thereof, and computer readable storage medium |
WO2021261394A1 (en) * | 2020-06-25 | 2021-12-30 | ファナック株式会社 | Robot control device |
JPWO2021261394A1 (en) * | 2020-06-25 | 2021-12-30 | ||
DE112021003388T5 (en) | 2020-06-25 | 2023-04-20 | Fanuc Corporation | ROBOT CONTROL DEVICE |
JP7414993B2 (en) | 2020-06-25 | 2024-01-16 | ファナック株式会社 | robot control device |
JP7098080B1 (en) * | 2021-09-08 | 2022-07-08 | 三菱電機株式会社 | Robot control device |
WO2023037443A1 (en) * | 2021-09-08 | 2023-03-16 | 三菱電機株式会社 | Robot control device, learning device, and inference device |
CN117377561A (en) * | 2021-09-08 | 2024-01-09 | 三菱电机株式会社 | Robot control device, learning device, and estimation device |
DE112021007561T5 (en) | 2021-09-08 | 2024-05-02 | Mitsubishi Electric Corporation | Robot control, learning device and inference device |
US12017372B2 (en) | 2021-09-08 | 2024-06-25 | Mitsubishi Electric Corporation | Robot control device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008137127A (en) | Robot control method | |
Halme et al. | Review of vision-based safety systems for human-robot collaboration | |
Kumar et al. | Survey of human–robot collaboration in industrial settings: Awareness, intelligence, and compliance | |
US20160260027A1 (en) | Robot controlling apparatus and robot controlling method | |
De Luca et al. | Integrated control for pHRI: Collision avoidance, detection, reaction and collaboration | |
Svarny et al. | Safe physical HRI: Toward a unified treatment of speed and separation monitoring together with power and force limiting | |
JP2008188722A (en) | Robot controller | |
Chance et al. | An assistive robot to support dressing-strategies for planning and error handling | |
JP7052203B2 (en) | Safety control devices, safety control methods and programs | |
JP5156836B2 (en) | Real-time self-collision and obstacle avoidance | |
JP2019518616A (en) | Method and device for controlling the movement of one or more cooperating robots | |
JP6659629B2 (en) | Control device for articulated robot | |
US20170140491A1 (en) | Operation advance indication apparatus | |
Ren et al. | Design of direct teaching behavior of collaborative robot based on force interaction | |
JP2016209991A (en) | Robot control device, controlling method, and program | |
JP2019198907A (en) | Robot system | |
JP2018062026A (en) | Robot control device with function for restricting speed and acceleration of robot | |
Zhang et al. | A human-robot dynamic fusion safety algorithm for collaborative operations of cobots | |
JP7156397B2 (en) | Control device | |
CN110874078A (en) | Human-machine cooperation robot system | |
Mikhel et al. | Collision driven multi scenario approach for human collaboration with industrial robot | |
EP3349080A1 (en) | Robot operating state switching method and system | |
Wong et al. | Vision-and Tactile-Based Continuous Multimodal Intention and Attention Recognition for Safer Physical Human–Robot Interaction | |
JP2017159427A (en) | Control device, robot, and robot system | |
Maragkos et al. | Virtual reality assisted robot programming for human collaboration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110301 |
|
A02 | Decision of refusal |
Effective date: 20110705 Free format text: JAPANESE INTERMEDIATE CODE: A02 |