JP2007216367A - Device and method for holding object - Google Patents
Device and method for holding object Download PDFInfo
- Publication number
- JP2007216367A JP2007216367A JP2006042948A JP2006042948A JP2007216367A JP 2007216367 A JP2007216367 A JP 2007216367A JP 2006042948 A JP2006042948 A JP 2006042948A JP 2006042948 A JP2006042948 A JP 2006042948A JP 2007216367 A JP2007216367 A JP 2007216367A
- Authority
- JP
- Japan
- Prior art keywords
- finger
- gripping
- joint
- joint angle
- target joint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 18
- 230000036544 posture Effects 0.000 abstract description 43
- 210000003811 finger Anatomy 0.000 description 171
- 210000003813 thumb Anatomy 0.000 description 34
- 210000001503 joint Anatomy 0.000 description 17
- 210000004932 little finger Anatomy 0.000 description 15
- 238000010586 diagram Methods 0.000 description 5
- 210000001145 finger joint Anatomy 0.000 description 5
- 238000005452 bending Methods 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/0009—Gripping heads and other end effectors comprising multi-articulated fingers, e.g. resembling a human hand
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
【課題】 関節を回転すると姿勢が変化する複数の指を備えるロボットハンドを用いて、任意の形状の物体を人間が行うような自然な動作で把持することが可能な技術を提供する。
【解決手段】 本発明の装置は、関節が回転すると姿勢が変化する複数の指を備えるロボットハンドを用いて物体を把持する装置である。その装置は、物体の形状情報を取得する手段と、物体の形状情報から物体の把持に用いる指を選択する手段と、物体の形状情報から物体の把持に用いる指の物体上の把持点の位置を計算する手段と、各関節の目標関節角度を計算する手段と、計算された目標関節角度に応じて各関節を回転させる手段を備えている。その装置は、前記目標関節角度を計算する手段が、物体の把持に用いる指については前記把持点の位置から目標関節角度を計算し、物体の把持に用いない指については指を握り込む姿勢を実現する目標関節角度を設定することを特徴とする。
【選択図】 図1PROBLEM TO BE SOLVED: To provide a technique capable of gripping an object of an arbitrary shape by a natural operation such as that performed by a human using a robot hand including a plurality of fingers whose posture changes when a joint is rotated.
An apparatus of the present invention is an apparatus that grips an object using a robot hand including a plurality of fingers whose postures change when a joint rotates. The apparatus includes means for acquiring shape information of an object, means for selecting a finger to be used for gripping an object from the shape information of the object, and a position of a grip point on the object of the finger to be used for gripping the object from the shape information of the object. , A means for calculating a target joint angle of each joint, and a means for rotating each joint in accordance with the calculated target joint angle. In the apparatus, the means for calculating the target joint angle calculates the target joint angle from the position of the grip point for a finger used for gripping an object, and holds the finger for a finger not used for gripping the object. A target joint angle to be realized is set.
[Selection] Figure 1
Description
本発明は、関節が回転すると姿勢が変化する複数の指を備えるロボットハンドを用いて、任意の形状の物体を把持する装置および方法に関する。 The present invention relates to an apparatus and a method for gripping an object of an arbitrary shape using a robot hand including a plurality of fingers whose postures change when a joint rotates.
現在、ヒューマノイド型ロボットの開発が盛んに行われている。これらのロボットには、家庭やオフィスなどで人間の代わりに作業をさせたり、人間が行う作業の補助をさせたりすることが期待されている。家庭やオフィスなどでロボットを実用するには、ロボットに道具を扱う作業を行わせることが必要となる。家庭やオフィスで扱われている道具は、人間が扱うのに適した仕様とされており、5指を備える人間の手で扱うのに適したものが多い。従って、上記のようなヒューマノイド型ロボットは、人間と同じ様に、手に5指を備えていることが好ましい。 Currently, humanoid robots are actively developed. These robots are expected to work on behalf of humans at home or office, or to assist humans in their work. In order to put the robot into practical use at home or in the office, it is necessary to let the robot perform the work of handling the tool. Tools used in homes and offices have specifications suitable for human handling, and many are suitable for handling with human hands having five fingers. Therefore, it is preferable that the humanoid robot as described above has five fingers in the hand, like a human being.
人間の手と同じ様に5指を備えるロボットハンドが、従来から開発されている。従来から開発されている5指を備えるロボットハンドの例が、特許文献1乃至5に記載されている。 Conventionally, a robot hand having five fingers like a human hand has been developed. Patent Documents 1 to 5 describe examples of robot hands having five fingers that have been conventionally developed.
人間が行っている様な自然な動作を実現するためには、特許文献1に開示されているように、指の関節それぞれについて目標とする関節角度を指定して、その目標関節角度を実現するように関節を回転する構成とすることが好ましい。指の関節それぞれについて、自然な動作を実現するような目標関節角度を指定して、その目標関節角度を実現するように関節を回転することで、自然な動作で物体を把持することができる。 In order to realize a natural motion like that performed by a human, as disclosed in Patent Document 1, a target joint angle is specified for each of the finger joints, and the target joint angle is realized. It is preferable that the joint be rotated as described above. For each finger joint, a target joint angle that realizes a natural motion is designated, and the joint is rotated to realize the target joint angle, whereby an object can be gripped with a natural motion.
しかしながら、物体の形状によっては、物体を把持する際にロボットハンドの全ての指を用いることができない場合がある。例えばロボットハンドに比べて小さな物体を把持させたい場合、全ての指を用いて把持しようとすると、指同士が干渉してしまい、その物体を把持することができない場合がある。
また、指同士を干渉させることなく全ての指を用いて物体を把持しようとすると、指の姿勢が不自然な姿勢となり、人間が把持するような自然な動作を実現することができない場合がある。
However, depending on the shape of the object, not all fingers of the robot hand may be used when gripping the object. For example, when it is desired to grip a small object compared to a robot hand, if all the fingers are used for gripping, the fingers may interfere with each other and the object may not be gripped.
Also, if you try to grip an object using all your fingers without causing your fingers to interfere with each other, the posture of your fingers may be unnatural, and you may not be able to achieve natural movements that humans hold. .
任意の形状の物体を人間が行っている様な自然な動作で把持させることが可能な技術が待望されている。 There is a need for a technology that can grip an object of an arbitrary shape with a natural motion like a human being.
本発明は上記課題を解決する。本発明は、関節を回転すると姿勢が変化する複数の指を備えるロボットハンドを用いて、任意の形状の物体を人間が行うような自然な動作で把持することが可能な技術を提供する。 The present invention solves the above problems. The present invention provides a technique capable of gripping an object of an arbitrary shape with a natural motion such as that performed by a human using a robot hand including a plurality of fingers whose postures change when a joint is rotated.
本発明は装置として具現化される。本発明の装置は、関節が回転すると姿勢が変化する複数の指を備えるロボットハンドを用いて物体を把持する装置である。その装置は、物体の形状情報を取得する手段と、物体の形状情報から物体の把持に用いる指を選択する手段と、物体の形状情報から物体の把持に用いる指の物体上の把持点の位置を計算する手段と、各関節の目標関節角度を計算する手段と、計算された目標関節角度に応じて各関節を回転させる手段を備えている。その装置は、前記目標関節角度を計算する手段が、物体の把持に用いる指については前記把持点の位置から目標関節角度を計算し、物体の把持に用いない指については指を握り込む姿勢を実現する目標関節角度を設定することを特徴とする。 The present invention is embodied as a device. The apparatus of the present invention is an apparatus for gripping an object using a robot hand including a plurality of fingers whose postures change when a joint rotates. The apparatus includes means for acquiring shape information of an object, means for selecting a finger to be used for gripping an object from the shape information of the object, and a position of a grip point on the object of the finger to be used for gripping the object from the shape information of the object. , A means for calculating a target joint angle of each joint, and a means for rotating each joint in accordance with the calculated target joint angle. In the apparatus, the means for calculating the target joint angle calculates the target joint angle from the position of the grip point for a finger used for gripping an object, and holds the finger for a finger not used for gripping the object. A target joint angle to be realized is set.
上記の装置は、物体の形状情報を取得して、取得された物体の形状情報に基づいて、その物体を把持する際に用いる指を選択し、その指を物体と接触させる点(把持点)の位置を計算する。物体の形状情報は、例えばカメラやセンサなどを用いて取得することができる。物体の把持に用いる指が選択され、選択された指のそれぞれについて把持点が計算されると、上記の装置は各関節の目標関節角度を計算する。物体の把持に用いる指については、計算された把持点の位置に基づいて、その指の関節の目標関節角度が算出される。物体の把持に用いない指については、その指を握り込む姿勢を実現するように、その指の関節の目標関節角度が設定される。各関節の目標関節角度が算出されると、算出された目標関節角度に応じて、上記の装置は各関節を回転させる。 The above device acquires shape information of an object, selects a finger to be used for gripping the object based on the acquired shape information of the object, and makes the finger contact the object (gripping point) Calculate the position of. The shape information of the object can be acquired using, for example, a camera or a sensor. When a finger to be used for gripping an object is selected and a gripping point is calculated for each of the selected fingers, the above device calculates a target joint angle of each joint. For a finger used for gripping an object, a target joint angle of the joint of the finger is calculated based on the calculated position of the gripping point. For a finger that is not used for gripping an object, a target joint angle of the joint of the finger is set so as to realize a posture for gripping the finger. When the target joint angle of each joint is calculated, the above device rotates each joint according to the calculated target joint angle.
上記の装置は、物体の形状に応じて把持に用いる指が選択され、物体の形状に応じて把持に用いる指の把持点が計算される。物体の把持に用いる指については、計算された把持点で物体と接触するように関節を回転し、物体の把持に用いない指については、その指を握り込む姿勢を実現するように関節を回転する。これによって、人間が行っているような自然な動作で、任意の形状の物体を把持することができる。 In the above apparatus, a finger used for gripping is selected according to the shape of the object, and a gripping point of the finger used for gripping is calculated according to the shape of the object. For fingers used for gripping an object, rotate the joint so that it comes into contact with the object at the calculated gripping point, and for fingers not used for gripping the object, rotate the joint so as to realize a posture to grip the finger. To do. As a result, an object having an arbitrary shape can be gripped by a natural motion that is performed by a human.
上記した装置では、前記ロボットハンドが、1本の指と、その1本の指に向けて屈曲可能であるとともに各々が固有の可能範囲を有する4本の指を備えており、前記選択する手段が、各指の可能範囲と物体が重複するか否かによって、物体の把持に用いる指を選択することが好ましい。 In the apparatus described above, the robot hand includes one finger and four fingers that can be bent toward the one finger and each has a unique possible range, and the means for selecting However, it is preferable to select a finger to be used for gripping an object depending on whether or not the possible range of each finger and the object overlap.
人間の手は、親指と、親指に向けて屈曲可能であるとともに各々が固有の可動範囲を有する人差し指、中指、薬指および小指を備えている。上記のロボットハンドは、人間の手に近い構造を備えており、物体を把持する際により人間の動作に近い自然な動作を実現することができる。
上記のようなロボットハンドを用いて物体を把持する場合、各々の指は固有の可動範囲を備えている。物体の位置や形状によって、可動範囲と物体が重複する指もあるし、可動範囲と物体が重複しない指もある。上記の装置では、指の可動範囲が物体と重複する指については、物体の把持に用いる指として選択し、指の可動範囲が物体と重複しない指については、物体の把持に用いない指として選択する。このような指の選択は人間が物体を把持する際に自然に行っていることであるから、上記の装置によればより人間の動作に近い自然な動作で物体を把持することができる。
The human hand includes a thumb, an index finger, a middle finger, a ring finger, and a little finger that can be bent toward the thumb and each has a unique range of motion. The robot hand described above has a structure close to that of a human hand, and can realize a natural motion closer to that of a human when gripping an object.
When gripping an object using the robot hand as described above, each finger has a unique movable range. Depending on the position and shape of the object, some fingers overlap the movable range, and some fingers do not overlap the movable range. In the above device, a finger whose finger movable range overlaps with the object is selected as a finger used for gripping the object, and a finger whose finger movable range does not overlap with the object is selected as a finger not used for gripping the object. To do. Since such a finger selection is naturally performed when a human grips an object, according to the above-described apparatus, an object can be gripped by a natural motion closer to that of a human.
本発明は方法としても具現化される。本発明の方法は、関節が回転すると姿勢が変化する複数の指を備えるロボットハンドを用いて物体を把持する方法である。その方法は、物体の形状情報を取得する工程と、物体の形状情報から物体の把持に用いる指を選択する工程と、物体の形状情報から物体の把持に用いる指の物体上の把持点の位置を計算する工程と、各関節の目標関節角度を計算する工程と、計算された目標関節角度に応じて各関節を回転させる工程を備えている。その方法は、前記目標関節角度を計算する工程において、物体の把持に用いる指については前記把持点の位置から目標関節角度を計算し、物体の把持に用いない指については指を握り込む姿勢を実現する目標関節角度を設定することを特徴とする。 The present invention is also embodied as a method. The method of the present invention is a method of gripping an object using a robot hand including a plurality of fingers whose postures change when a joint rotates. The method includes the steps of obtaining object shape information, selecting a finger to be used for gripping the object from the object shape information, and the position of the grip point on the object of the finger to be used for gripping the object from the object shape information. , Calculating a target joint angle of each joint, and rotating each joint according to the calculated target joint angle. In the method of calculating the target joint angle, the target joint angle is calculated from the position of the gripping point for a finger used for gripping an object, and the posture of grasping the finger for a finger not used for gripping the object is calculated. A target joint angle to be realized is set.
本発明の装置と方法によれば、関節の駆動によって姿勢が変化する複数の指を備えるロボットハンドを用いて、任意の形状の物体を人間が行うような自然な動作で把持することが可能となる。 According to the apparatus and method of the present invention, it is possible to grip an object of an arbitrary shape with a natural motion that a human performs, using a robot hand including a plurality of fingers whose postures are changed by driving a joint. Become.
以下に発明を実施するための最良の形態を列記する。
(形態1)
物体の形状情報から物体の形状中心位置を計算する手段と、
ロボットハンドの位置を調整する手段をさらに備え、
幾つかの指の可動範囲が互いに重複する領域に物体の形状中心位置が入るように、ロボットハンドの位置を調整することを特徴とする。
The best mode for carrying out the invention is listed below.
(Form 1)
Means for calculating the shape center position of the object from the shape information of the object;
It further comprises means for adjusting the position of the robot hand,
The position of the robot hand is adjusted so that the center position of the shape of the object enters a region where the movable ranges of some fingers overlap each other.
本実施例の把持装置100は、ロボットハンド102、カメラ104a、104b、制御装置106を備えている。本実施例の把持装置100は、ロボットハンド102を用いて物体Pを把持する。
The
ロボットハンド102は、掌部108と、掌部108から伸びる親指110、人差し指124a、中指124b、薬指124cおよび小指124dの5指を備えている。
The
親指110は掌部108に支持された4自由度のリンク系である。親指110は4つの関節112、114、116および118を備えており、それぞれの関節ごとにモータ152、154、156および158が配置されている。関節112は人間の親指でいう指節間関節(IP関節)に相当し、関節114は中手指関節(MP関節)に相当し、関節116および118は大菱中手関節(TM関節)に相当する。親指110の先端部122は、曲面形状の弾性体で形成されている。親指110の根元には6軸力センサ120が配置されている。6軸力センサ120は、互いに直交する3軸方向のそれぞれに沿う方向の力と、各軸方向まわりのモーメントを独立に検出可能なセンサである。6軸力センサ120は、親指110に作用する把持反力を検出する。それぞれの関節112、114、116および118には、関節の曲げ角度を検出するためのエンコーダ172、174、176および178が配置されている。
The
人差し指124a、中指124b、薬指124cおよび小指124dは掌部108に支持された3自由度のリンク系である。人差し指124aは4つの関節126a、128a、130aおよび132aを備えており、最も先端側にある関節126aを除く3つの関節128a、130aおよび132aのそれぞれに、モータ160a、162aおよび164aが配置されている。最も先端側にある関節126aは、隣接する関節128aと連動する連動関節である。関節126aは人間の人差し指でいう遠位指節間関節(DIP関節)に相当し、関節128aは近位指節間関節(PIP関節)に相当し、関節130aおよび132aは中手指関節(MP関節)に相当する。人差し指124aの先端部136aは、曲面形状の弾性体で形成されている。人差し指124aの根元には6軸力センサ134aが配置されている。6軸力センサ134aは、人差し指124aに作用する把持反力を検出する。それぞれの関節126a、128a、130aおよび132aには、関節の曲げ角度を検出するためのエンコーダ170a、172a、174aおよび176aが配置されている。
The
中指124b、薬指124cおよび小指124dは、人差し指124aと同様の構成を備えている。以下では中指124b、薬指124cおよび小指124dの構成要素については、人差し指124aの対応する構成要素と、数字は同じで添え字のアルファベットのみが異なる参照符合を付して、詳細な説明を省略する。
The
親指110、人差し指124a、中指124b、薬指124cおよび小指124dは、それぞれ関節を折り曲げることにより、掌部108に握り込ませる姿勢をとることができる。図5には一例として、人差し指124aを掌部108に握り込ませる姿勢を示している。人差し指124aは、関節128aおよび130aをそれぞれ90度回転させることにより、掌部108に握り込ませる姿勢を実現することができる。他の指も同様に、関節を回転することにより、掌部108に握り込ませる姿勢を実現することができる。後に詳述するが、本実施例の把持装置100では、物体Pの把持に用いない指については、その指に上記したような掌部108に握り込ませる姿勢を実現させる。
The
ロボットハンド102の掌部108は、図示されないロボットアームに取り付けられている。ロボットアームを駆動することによって、ロボットハンド102を所望の位置へ移動させることができる。
The
カメラ104aおよび104bは、一般的に用いられているCCDカメラである。カメラ104aおよび104bは、物体Pを撮像し、得られた画像データを制御装置106へ送信する。
The
制御装置106は、CPU、ROM、RAM等で構成されている。図2に制御装置106の機能ブロック図を示す。制御装置106は、カメラ104aおよび104bの画像データから画像認識によって物体Pの位置と形状を認識する画像認識部202と、認識結果に基づいてロボットハンド102による物体Pの把持の態様を演算する把持姿勢演算部204と、ロボットハンド102の動きを制御するハンド制御部206と、モータ群を駆動するモータドライバ208を備えている。
The
なお制御装置106は、このような構成に限られるものではなく、画像認識部202、把持姿勢演算部204、ハンド制御部206およびモータドライバ208は、ハードウェアとして別体の装置となっていてもよい。あるいは、画像認識部202、把持姿勢演算部204、ハンド制御部206およびモータドライバ208が、同一のハードウェア上で動作するソフトウェア・モジュールとして区分されていてもよい。
The
画像認識部202は、カメラ104aおよび104bから送信された画像データを受信し、画像認識処理によって物体Pの位置および形状を特定する。物体Pの位置および形状は、カメラ104aおよび104bのそれぞれの画像データにおいて物体Pの像を抽出し、抽出された物体Pの像からステレオ視の原理によって特定することができる。画像認識部202は、認識結果を把持姿勢演算部204へ送信する。
The
把持姿勢演算部204は、画像認識部202から送信される物体Pの位置および形状から、物体Pを把持する際のロボットハンド102の位置と、物体Pの把持に用いる指と、把持に用いる指を物体Pと接触させる際の物体P上の接触点(以下では把持点という)の位置を設定し、物体Pを把持する際の各指の各関節の目標角度(目標関節角度)を計算する。把持姿勢演算部204による処理の詳細については、後に詳述する。
The gripping
ハンド制御部206は、把持姿勢演算部204で得られた親指110、人差し指124a、中指124b、薬指124cおよび小指124dのそれぞれの目標関節角度に応じた時系列の関節角度指令値を生成し、この指令値をモータドライバ208へ送信する。このとき、ハンド制御部206は、エンコーダ群の検出信号を入力し、それぞれの関節の角度(関節角度)をフィードバック制御する。また、6軸力センサ群の検出信号を入力し、各指による把持力をフィードバック制御してもよい。
The
モータドライバ208は、ハンド制御部206で生成された関節角度指令値に応じた駆動電流を各モータに供給して、各モータを回転駆動させる。各モータが回転駆動することにより、各関節は関節角度指令値に応じた関節角度を実現し、ロボットハンド102の姿勢が変化する。
The
以下では図3のフローチャートを参照しながら、把持姿勢演算部204による各指の目標関節角度の計算処理について説明する。
Hereinafter, the calculation processing of the target joint angle of each finger by the gripping
ステップS302では、画像認識部202から物体Pの位置および形状を取得する。
In step S <b> 302, the position and shape of the object P are acquired from the
ステップS304では、物体Pの位置と形状から、物体Pの形状中心位置PGを計算する。物体Pが均質な材料から構成されている場合には、物体Pの形状中心位置PGは物体Pの重心位置に相当する。本実施例の把持装置100では、物体Pの形状中心位置PGが物体Pの重心位置とほぼ等しい位置にあると想定して、物体Pの把持に用いる指の選択や、物体P上の把持点の位置の計算をする。
In step S304, the shape center position PG of the object P is calculated from the position and shape of the object P. When the object P is made of a homogeneous material, the shape center position PG of the object P corresponds to the center of gravity position of the object P. In the
ステップS306では、物体Pの形状中心位置PGに基づいて、ロボットハンド102の掌部108の目標位置を設定する。ロボットハンド102の掌部108の目標位置は、それぞれの指の指先の可動範囲に基づいて、物体Pの形状中心位置PGがより多くの指の指先の可動範囲が重複する領域に入るように設定される。
In step S306, the target position of the
例えば親指110と人差し指124aの指先の可動範囲が重複する領域に物体Pの形状中心位置PGが入っていれば、親指110と人差し指124aを用いて物体Pを把持する際に、それぞれの指の指先から物体Pの形状中心位置PGに向けた把持力を作用させることができる。このように把持することによって、安定して物体Pを把持することが可能となる。親指110と人差し指124aに加えて、さらに中指124bの指先の可動範囲が重複する領域に物体Pの形状中心位置PGが入っていれば、親指110、人差し指124aおよび中指124bを用いて物体Pを把持する際に、それぞれの指先から物体Pの形状中心位置PGに向けた把持力を作用させることができる。このように、より多くの指の指先の可動範囲が重複する領域に物体Pの形状中心位置PGが入るようにすると、より多くの指の指先から物体Pの形状中心位置PGに向けた把持力を作用させることが可能となり、物体Pを安定して把持することが可能となる。
For example, if the shape center position PG of the object P is in an area where the movable ranges of the
本実施例の把持装置110では、把持姿勢演算部204は、掌部108に対する各指の指先の可動範囲を予め記憶している。そして把持姿勢演算部204は、掌部108を移動させることによって、5指全ての指先の可動範囲が重複する領域に物体Pの形状中心位置PGを入れることが可能であるかを判断する。5指全ての指先の可動範囲が重複する領域に物体Pの形状中心位置PGを入れることが可能であれば、把持姿勢演算部204はそのときの掌部108の位置を目標位置として設定する。5指全ての指先の可動範囲が重複する領域に物体Pの形状中心位置PGを入れることができない場合は、親指110を含む4指の指先の可動範囲が重複する領域に物体Pの形状中心位置PGを入れることができるか否かを判断する。親指110を含む4指の指先の可動範囲が重複する領域に物体Pの形状中心位置PGを入れることが可能であれば、把持姿勢演算部204はそのときの掌部108の位置を目標位置として設定する。親指110を含む4指の指先の可動範囲が重複する領域にも物体Pの形状中心位置PGを入れることができない場合は、親指110を含む3指の指先の可動範囲が重複する領域に物体Pの形状中心位置PGを入れることができるか否かを判断する。親指110を含む3指の指先の可動範囲が重複する領域にも物体Pの形状中心位置PGを入れることができない場合は、親指110を含む2指の指先の可動範囲が重複する領域に物体Pの形状中心位置PGを入れることができるか否かを判断する。親指110を含む2指の指先の可動範囲が重複する領域にも物体Pの形状中心位置PGを入れることができない場合、ロボットハンド102で物体Pを把持することはできないと判断して、例外処理へ以降する。指先の可動範囲が重複する領域に物体Pの形状中心位置PGを入れることができれば、把持姿勢演算部204はそのときの掌部108の位置を目標位置として設定する。
把持姿勢演算部204によって掌部108の目標位置が設定されると、掌部108は図示されないロボットアームの駆動によって、設定された目標位置まで移動する。
In the
When the target position of the
ステップS308では、親指110、人差し指124a、中指124b、薬指124cおよび小指124dのうちから、物体Pの把持に用いる指を選択する。本実施例では、関節を回転させることによって指先を物体Pの表面と接触させることが可能な指を、物体Pの把持に用いる指として選択する。
把持姿勢演算部204は、それぞれの指について、その指の指先の可動範囲が物体Pの表面と交差するか否かを評価する。それぞれの指の指先の可動範囲は、予め記憶されている。物体Pの表面は、物体Pの位置と形状から得ることができる。指先の可動範囲が物体Pの表面と交差する場合(すなわち指先の可動範囲と物体が重複する場合)、把持姿勢演算部204はその指を物体Pの把持に用いる指として選択する。指先の可動範囲が物体Pの表面と交差しない場合(すなわち指先の可動範囲と物体が重複しない場合)、把持姿勢演算部204はその指を物体Pの把持に用いない指として選択する。
In step S308, a finger used to hold the object P is selected from the
The gripping
ステップS310では、物体Pの把持に用いる指のそれぞれについて、物体P上の把持点の位置を計算する。それぞれの指の物体P上の把持点の位置は、指先の可動範囲と物体Pの表面が交差する領域の範囲内で、安定して物体Pを把持することができる位置として計算される。図4には一例として、親指110と、人差し指124aと、中指124bが物体Pの把持に用いる指として選択されている場合の、把持点の位置の計算手法を模式的に示している。図4では、親指110の指先部122の可動範囲の境界を符号402で示し、人差し指124aの指先部136aの可動範囲の境界を符号404で示し、中指124bの指先部136bの可動範囲の境界を符号406で示している。図4では、物体Pの形状中心位置PGは、親指110の指先部122の可動範囲と、人差し指124aの指先部136aの可動範囲と、中指124bの指先部136bの可動範囲が重複する領域に入っている。この場合、親指110の指先部122については、物体Pの表面と可動範囲が交差する領域の範囲内で把持点を設定することができる。人差し指124a、中指124bについても同様である。把持姿勢演算部204は、親指110の指先部122と、人差し指124aの指先部136aと、中指124bの指先部136bが互いに干渉しないという条件の下で、それぞれの指の把持点を計算する。把持姿勢演算部204は、親指110の指先部122の把持点410と、人差し指124aの指先部136aの把持点412と、中指124bの指先部136bの把持点414の位置平均が、物体Pの形状中心位置PGに最も近いものとなるように、それぞれの指の指先の把持点を計算する。
In step S310, the position of the grip point on the object P is calculated for each finger used to grip the object P. The position of the grip point on the object P of each finger is calculated as a position where the object P can be stably gripped within the range of the region where the movable range of the fingertip and the surface of the object P intersect. As an example, FIG. 4 schematically illustrates a method of calculating the position of the gripping point when the
ステップS312では、物体Pの把持に用いる指のそれぞれについて、把持点を計算することができたか否かを判断する。物体Pの把持に用いる指の何れか1指でも把持点を計算することができなかった場合(ステップS312でYESの場合)、把持点を計算できなかった指については、物体Pの把持に用いない指として選択し直し、ステップS312の把持点の位置の計算を再度行う。物体Pの把持に用いる指の全てについて把持点を計算できた場合(ステップS312でNOの場合)、処理はステップS314へ移行し、目標関節角度の計算を行う。 In step S312, it is determined whether or not the gripping point has been calculated for each finger used to grip the object P. If the gripping point cannot be calculated with any one of the fingers used to grip the object P (YES in step S312), the finger whose gripping point cannot be calculated is used for gripping the object P. The finger is selected again, and the position of the gripping point is calculated again in step S312. When the gripping points can be calculated for all the fingers used for gripping the object P (NO in step S312), the process proceeds to step S314, and the target joint angle is calculated.
ステップS314では、物体Pの把持に用いる指であって、物体P上に把持点が計算された指について、目標関節角度を計算する。把持姿勢演算部204は、物体P上の把持点に指先が位置するような関節角度を逆運動力学の手法によって計算して、計算された関節角度を目標関節角度とする。
In step S314, a target joint angle is calculated for a finger that is used to grip the object P and for which the grip point is calculated on the object P. The gripping
ステップS316では、物体Pの把持に用いる指のそれぞれについて、目標関節角度が計算できたか否かを判断する。物体Pの把持に用いる指の何れか1指でも目標関節角度を計算することができなかった場合(ステップS316でYESの場合)、目標関節角度を計算できなかった指については、物体Pの把持に用いない指として選択し直し、ステップS312の把持点の位置の計算と、ステップS314の目標関節角度の計算を再度行う。物体Pの把持に用いる指の全てについて目標関節角度を計算できた場合(ステップs316でNOの場合)、処理はステップS318へ移行し、物体Pの把持に用いない指の目標関節角度の設定を行う。 In step S316, it is determined whether or not the target joint angle has been calculated for each finger used to grip the object P. If the target joint angle cannot be calculated by any one of the fingers used to grip the object P (YES in step S316), the finger that cannot calculate the target joint angle is gripped by the object P. The finger is not selected for use again, and the calculation of the position of the gripping point in step S312 and the calculation of the target joint angle in step S314 are performed again. When the target joint angle can be calculated for all the fingers used for gripping the object P (NO in step s316), the process proceeds to step S318, and the target joint angle of the finger not used for gripping the object P is set. Do.
ステップS318では、物体Pの把持に用いない指について、目標関節角度の設定を行う。本実施例の把持装置100では、物体Pの把持に用いない指については、その指を掌部108に握り込む姿勢となるように、目標関節角度が設定される。例えば小指124dが物体Pの把持に用いない指である場合には、関節130dと関節128dについて、それぞれの目標関節角度が90度に設定される。また関節132dについては、目標関節角度が0度に設定される。これによって、ロボットハンド102が物体Pを把持した際に、小指124dについては指を折り曲げて握り込む動作が実現される。
In step S318, a target joint angle is set for a finger that is not used to hold the object P. In the
上記のようにして、物体Pの把持に用いる指と、物体Pの把持に用いない指のそれぞれについて目標関節角度が計算されると、ステップS320で把持姿勢演算部204は計算された目標関節角度をハンド制御部206へ出力し、処理を終了する。
As described above, when the target joint angle is calculated for each of the finger used for gripping the object P and the finger not used for gripping the object P, the gripping
把持姿勢演算部204によってそれぞれの指について目標関節角度が設定されると、ハンド制御部206が時系列の関節角度指令値を生成し、モータドライバ208によってモータが駆動される。それぞれの指の関節が目標関節角度まで回転し、把持に用いる指が物体P上の把持点に接触する姿勢が実現され、物体Pが把持される。
When the target joint angle is set for each finger by the gripping
本実施例では、親指110、人差し指124a、中指124b、薬指124cおよび小指124dを備えるロボットハンド102を用いて物体Pを把持する例を説明したが、把持装置100が扱うことができるロボットハンド102の構造はこれに限らない。ロボットハンド102は、より少ない本数の指を備えていてもよいし、より多くの本数の指を備えていてもよい。また、ロボットハンド102の親指110、人差し指124a、中指124b、薬指124cおよび小指124dは、より多くの関節を備えていてもよいし、より少ない関節を備えていてもよい。
In this embodiment, an example in which the object P is gripped using the
以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。
また、本明細書または図面に説明した技術要素は、単独であるいは各種の組み合わせによって技術的有用性を発揮するものであり、出願時請求項記載の組み合わせに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。
Specific examples of the present invention have been described in detail above, but these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and changes of the specific examples illustrated above.
In addition, the technical elements described in the present specification or the drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the technology illustrated in the present specification or the drawings achieves a plurality of objects at the same time, and has technical utility by achieving one of the objects.
100:把持装置
102:ロボットハンド
104a、104b:カメラ
106:制御装置
108:掌部
110:親指
112、114、116、118:親指の関節
120、134a、134b、134c、134d:6軸力センサ
122:親指の先端部
124a:人差し指
124b:中指
124c:薬指
124d:小指
126a、128a、130a、132a:人差し指の関節
136a:人差し指の先端部
126b、128b、130b、132b:中指の関節
136b:中指の先端部
126c、128c、130c、132c:薬指の関節
136c:薬指の先端部
126d、128d、130d、132d:小指の関節
136d:小指の先端部
202:画像認識部
204:把持姿勢演算部
206:ハンド制御部
208:モータドライバ
402、404、406:境界
410、412、414:把持点
100: gripping device 102:
Claims (3)
物体の形状情報を取得する手段と、
物体の形状情報から物体の把持に用いる指を選択する手段と、
物体の形状情報から物体の把持に用いる指の物体上の把持点の位置を計算する手段と、
各関節の目標関節角度を計算する手段と、
計算された目標関節角度に応じて各関節を回転させる手段を備えており、
前記目標関節角度を計算する手段は、物体の把持に用いる指については前記把持点の位置から目標関節角度を計算し、物体の把持に用いない指については指を握り込む姿勢を実現する目標関節角度を設定することを特徴とするロボットハンドを用いて物体を把持する装置。 An apparatus for gripping an object using a robot hand having a plurality of fingers whose posture changes when a joint rotates,
Means for obtaining shape information of the object;
Means for selecting a finger to be used for gripping the object from the shape information of the object;
Means for calculating the position of the gripping point on the object of the finger used for gripping the object from the shape information of the object;
Means for calculating a target joint angle of each joint;
Means for rotating each joint according to the calculated target joint angle;
The means for calculating the target joint angle calculates a target joint angle from the position of the grip point for a finger used for gripping an object, and realizes a posture for gripping the finger for a finger not used for gripping an object. An apparatus for gripping an object using a robot hand characterized by setting an angle.
前記選択する手段は、各指の可能範囲と物体が重複するか否かによって、物体の把持に用いる指を選択することを特徴とする請求項1の装置。 The robot hand includes one finger and four fingers that can be bent toward the one finger and each has a unique possible range;
2. The apparatus according to claim 1, wherein the selecting means selects a finger to be used for gripping an object depending on whether or not an object overlaps a possible range of each finger.
物体の形状情報を取得する工程と、
物体の形状情報から物体の把持に用いる指を選択する工程と、
物体の形状情報から物体の把持に用いる指の物体上の把持点の位置を計算する工程と、
各関節の目標関節角度を計算する工程と、
計算された目標関節角度に応じて各関節を回転させる工程を備えており、
前記目標関節角度を計算する工程において、物体の把持に用いる指については前記把持点の位置から目標関節角度を計算し、物体の把持に用いない指については指を握り込む姿勢を実現する目標関節角度を設定することを特徴とするロボットハンドを用いて物体を把持する方法。 A method of gripping an object using a robot hand having a plurality of fingers whose posture changes when a joint rotates,
Obtaining object shape information;
Selecting a finger to be used for gripping the object from the shape information of the object;
Calculating the position of the gripping point on the object of the finger used for gripping the object from the shape information of the object;
Calculating a target joint angle for each joint;
A step of rotating each joint according to the calculated target joint angle,
In the step of calculating the target joint angle, for a finger used for gripping an object, the target joint angle is calculated from the position of the grip point, and for a finger not used for gripping the object, a target joint that realizes a posture for gripping the finger A method of gripping an object using a robot hand characterized by setting an angle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006042948A JP2007216367A (en) | 2006-02-20 | 2006-02-20 | Device and method for holding object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006042948A JP2007216367A (en) | 2006-02-20 | 2006-02-20 | Device and method for holding object |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007216367A true JP2007216367A (en) | 2007-08-30 |
Family
ID=38494158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006042948A Pending JP2007216367A (en) | 2006-02-20 | 2006-02-20 | Device and method for holding object |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007216367A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101228279B1 (en) * | 2011-03-31 | 2013-01-30 | 성균관대학교산학협력단 | finger gait planning method of robotic hands and finger gait planning apparatus of robotic hands |
JP2013505147A (en) * | 2009-09-22 | 2013-02-14 | ジーエム・グローバル・テクノロジー・オペレーションズ・インコーポレーテッド | Humanoid robot |
JP2013146853A (en) * | 2012-01-13 | 2013-08-01 | Toyota Motor Engineering & Manufacturing North America Inc | Method and computer-program product for evaluating grasp pattern, and robot incorporating the same |
JP2019185565A (en) * | 2018-04-13 | 2019-10-24 | 東芝テック株式会社 | Commodity reading system |
CN111872962A (en) * | 2020-08-07 | 2020-11-03 | 中山大学 | A fully actuated human hand-like device with a multi-point array pressure sensor |
WO2022085560A1 (en) * | 2020-10-20 | 2022-04-28 | 株式会社ソニー・インタラクティブエンタテインメント | Robot hand control device, and method for controlling robot hand |
-
2006
- 2006-02-20 JP JP2006042948A patent/JP2007216367A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013505147A (en) * | 2009-09-22 | 2013-02-14 | ジーエム・グローバル・テクノロジー・オペレーションズ・インコーポレーテッド | Humanoid robot |
JP2014159078A (en) * | 2009-09-22 | 2014-09-04 | Gm Global Technology Operations Inc | Humanoid robot |
KR101228279B1 (en) * | 2011-03-31 | 2013-01-30 | 성균관대학교산학협력단 | finger gait planning method of robotic hands and finger gait planning apparatus of robotic hands |
JP2013146853A (en) * | 2012-01-13 | 2013-08-01 | Toyota Motor Engineering & Manufacturing North America Inc | Method and computer-program product for evaluating grasp pattern, and robot incorporating the same |
JP2019185565A (en) * | 2018-04-13 | 2019-10-24 | 東芝テック株式会社 | Commodity reading system |
JP7009291B2 (en) | 2018-04-13 | 2022-01-25 | 東芝テック株式会社 | Product reading system |
CN111872962A (en) * | 2020-08-07 | 2020-11-03 | 中山大学 | A fully actuated human hand-like device with a multi-point array pressure sensor |
CN111872962B (en) * | 2020-08-07 | 2022-07-12 | 中山大学 | A fully actuated human hand-like device with a multi-point array pressure sensor |
WO2022085560A1 (en) * | 2020-10-20 | 2022-04-28 | 株式会社ソニー・インタラクティブエンタテインメント | Robot hand control device, and method for controlling robot hand |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4908020B2 (en) | Hand control system | |
US20110067520A1 (en) | Robotic thumb assembly | |
JP5580850B2 (en) | Fast grip contact calculation for serial robots | |
KR101778030B1 (en) | Robot and control method thereof | |
KR20130081875A (en) | Robot and control method thereof | |
JP2007216367A (en) | Device and method for holding object | |
Yang et al. | Real-time human-robot interaction in complex environment using kinect v2 image recognition | |
JP4591043B2 (en) | Method of gripping an arbitrarily shaped object by a robot | |
JP4737099B2 (en) | Robot and robot control apparatus and control method | |
JP4033050B2 (en) | Robot hand gripping control device | |
JPWO2019065427A1 (en) | Robot hand system control method and robot hand system | |
Osswald et al. | Mechanical system and control system of a dexterous robot hand | |
JP3742876B2 (en) | Robot hand, gripping control method of robot hand, robot and robot control method | |
JP2005144573A (en) | Control method for gripping force of robot hand | |
JP3884249B2 (en) | Teaching system for humanoid hand robot | |
CN111002295A (en) | Teaching glove and teaching system of two-finger grabbing robot | |
JP4640499B2 (en) | Grip control device | |
Kiguchi et al. | A study of a 4DOF upper-limb power-assist intelligent exoskeleton with visual information for perception-assist | |
Sarakoglou et al. | Integration of a tactile display in teleoperation of a soft robotic finger using model based tactile feedback | |
KR101665544B1 (en) | Control device for multi-finger hand and grasping method with the same | |
CN212352006U (en) | A teaching glove and teaching system for a two-finger grasping robot | |
Cannella et al. | Design of an industrial robotic gripper for precise twisting and positioning in high-speed assembly | |
JP4715296B2 (en) | Robot hand holding and gripping control method. | |
JPH05337860A (en) | Robot hand teaching device and robot hand | |
JP2005335010A (en) | Grip control device |