JP2014104527A - Robot system, program, production system, and robot - Google Patents
Robot system, program, production system, and robot Download PDFInfo
- Publication number
- JP2014104527A JP2014104527A JP2012258233A JP2012258233A JP2014104527A JP 2014104527 A JP2014104527 A JP 2014104527A JP 2012258233 A JP2012258233 A JP 2012258233A JP 2012258233 A JP2012258233 A JP 2012258233A JP 2014104527 A JP2014104527 A JP 2014104527A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- hand
- worker
- imaging information
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004519 manufacturing process Methods 0.000 title claims abstract description 94
- 238000003384 imaging method Methods 0.000 claims abstract description 115
- 238000001514 detection method Methods 0.000 claims description 94
- 238000000034 method Methods 0.000 claims description 71
- 230000008569 process Effects 0.000 claims description 66
- 230000007717 exclusion Effects 0.000 claims description 14
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 210000004027 cell Anatomy 0.000 description 29
- 230000008859 change Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 239000000047 product Substances 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 241000282412 Homo Species 0.000 description 4
- 101000607626 Homo sapiens Ubiquilin-1 Proteins 0.000 description 4
- 101000607639 Homo sapiens Ubiquilin-2 Proteins 0.000 description 4
- 102100039933 Ubiquilin-2 Human genes 0.000 description 4
- 210000003811 finger Anatomy 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 101100220085 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) CDC31 gene Proteins 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 101150107275 dsk1 gene Proteins 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 101100153168 Arabidopsis thaliana TIC21 gene Proteins 0.000 description 2
- 101100273813 Homo sapiens CDKN1A gene Proteins 0.000 description 2
- 108700038981 SUMO-1 Proteins 0.000 description 2
- 101100083338 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) PIC2 gene Proteins 0.000 description 2
- 101100083337 Schizosaccharomyces pombe (strain 972 / ATCC 24843) pic1 gene Proteins 0.000 description 2
- 102100026940 Small ubiquitin-related modifier 1 Human genes 0.000 description 2
- 101001073211 Solanum lycopersicum Suberization-associated anionic peroxidase 2 Proteins 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 239000012467 final product Substances 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 101000579490 Solanum lycopersicum Suberization-associated anionic peroxidase 1 Proteins 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000005260 human cell Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、ロボットシステム、プログラム、生産システム及びロボット等に関係する。 The present invention relates to a robot system, a program, a production system, a robot, and the like.
近年、消費者ニーズの変動や多様化の高まりに対応する必要性から、大量生産向きのいわゆるライン生産方式のシステムに代わって、多くの機種を少量ずつ生産して生産量の増減や多機種少量生産に柔軟に対応する生産システムとして、いわゆるセル生産システムが採用されることが多くなってきた。 In recent years, due to the necessity of responding to changing consumer needs and increasing diversification, instead of the so-called line production system for mass production, many models are produced in small quantities, increasing or decreasing production volume, and small quantities of many models. A so-called cell production system has been increasingly adopted as a production system that flexibly supports production.
セル生産システムは、1人の作業者が生産用のセル、つまり生産セルと呼ばれる所定の作業場所で複数の作業工程を処理して最終製品、または複数工程毎の完成品を作り上げる自己完結性の高いシステムである。セル生産システムやこのシステムを用いた生産方式は、作業者の多能工化を推進でき、製品仕様変更への対応が容易であり、設備投資が少なくて済むという利点がある。 The cell production system is a self-contained system in which one worker processes a plurality of work processes at a predetermined work place called a production cell, that is, a production cell, to produce a final product or a finished product for each of the plurality of processes. High system. The cell production system and the production method using this system have the advantage that they can promote the multi-skilling of workers, can easily cope with changes in product specifications, and require less capital investment.
また、生産システムにおいて、作業者によるワークへの部品組付けなどの作業をロボットに代替させることも行われる。さらに、生産システムにおいては、1つのセルにおける作業者が1人である場合の他に、数人でチームを編成して1つのセルで作業を行う場合もある。そして、人とロボットとの混合によってそのチームを構成することも行われる。 Also, in the production system, the robot can substitute work such as assembly of parts to the work by the worker. Further, in the production system, in addition to the case where there is one worker in one cell, there are cases where a team is formed by several people to work in one cell. The team is also formed by mixing humans and robots.
例えば特許文献1では、このような生産システムにおいて、生産増減に応じて生産セル内のロボットの稼働率を低下させることなく、生産セルに設定付与する作業者の数をより少なくできるような生産指示方法が開示されている。 For example, in Patent Document 1, in such a production system, a production instruction that can reduce the number of workers assigned to the production cell without lowering the operation rate of the robot in the production cell in accordance with an increase or decrease in production. A method is disclosed.
前述したような、人とロボットとの混合による生産システムにおいては、例えば製造予定の変更があった場合や作業者の離席時などには、現在のロボットの動作を変更したり又は中断したりする必要が生じることがある。 In a production system that mixes humans and robots as described above, for example, when there is a change in manufacturing schedule or when an operator leaves the office, the current robot operation is changed or interrupted. May need to be done.
しかし、従来の生産システムにおいて用いられているロボットは、プログラムに従ってあらかじめ決められた動作を行うに過ぎず、客観的な事象の変化等に動的に対応することができなかった。そのため、ロボットの動作を変更又は中断させる際には、作業者が直接ロボットを操作する必要があり、非常に手間がかかっていた。 However, the robot used in the conventional production system only performs a predetermined operation according to the program, and cannot dynamically respond to an objective change in the event. Therefore, when changing or interrupting the operation of the robot, it is necessary for the operator to directly operate the robot, which is very troublesome.
本発明の幾つかの態様によれば、作業者がジェスチャーによりロボットに動作指示を出すことができるロボットシステム、プログラム、生産システム及びロボット等を提供することができる。 According to some aspects of the present invention, it is possible to provide a robot system, a program, a production system, a robot, and the like that allow an operator to issue an operation instruction to the robot by a gesture.
また、本発明の幾つかの態様によれば、作業者のジェスチャーを認識して、認識したジェスチャーに関連付けられた動作をロボットが行うことができるロボットシステム、プログラム、生産システム及びロボット等を提供することができる。 In addition, according to some aspects of the present invention, there are provided a robot system, a program, a production system, a robot, and the like that can recognize an operator's gesture and allow the robot to perform an operation associated with the recognized gesture. be able to.
本発明の一態様は、生産システムにおいて作業者と混在して生産作業を行うロボットと、前記作業者を撮像する撮像部から撮像情報を取得する撮像情報取得部と、前記撮像情報に基づいて前記ロボットを制御するロボット制御部と、表示画像を表示する表示部の表示制御を行う表示制御部と、を含み、前記ロボット制御部は、取得された前記撮像情報に基づいて前記作業者のジェスチャーを検出し、検出した前記ジェスチャーに関連付けられたロボット制御コマンドを特定し、前記表示制御部は、前記ロボット制御部が特定した前記ロボット制御コマンドを前記作業者へ通知する通知画像を前記表示部に表示する制御を行うロボットシステムに関係する。 One aspect of the present invention is a robot that performs production work in a production system in a mixed manner with an operator, an imaging information acquisition unit that acquires imaging information from an imaging unit that images the worker, and the imaging information based on the imaging information. A robot control unit that controls the robot; and a display control unit that performs display control of a display unit that displays a display image. The robot control unit performs gestures of the worker based on the acquired imaging information. Detecting and specifying a robot control command associated with the detected gesture, and the display control unit displays a notification image for notifying the operator of the robot control command specified by the robot control unit on the display unit It relates to a robot system that performs control.
本発明の一態様では、ロボット制御部が、作業者のジェスチャーを検出して、検出したジェスチャーに関連付けられたロボット制御コマンドに従って、ロボットを動作させる。 In one aspect of the present invention, the robot control unit detects an operator's gesture and operates the robot in accordance with a robot control command associated with the detected gesture.
これにより、作業者は、ジェスチャーによりロボットに動作指示を出すことが可能となる。さらに、作業者に対して通知画像を表示するため、ジェスチャーによりロボットシステムに正しく指示が伝わったか否かを作業者が確認することが可能となる。 As a result, the operator can issue an operation instruction to the robot by a gesture. Furthermore, since the notification image is displayed to the worker, it is possible for the worker to confirm whether or not the instruction is correctly transmitted to the robot system by the gesture.
また、本発明の一態様では、前記表示制御部は、前記ロボット制御部が特定した前記ロボット制御コマンドの内容を表す記号画像を含む前記通知画像を、前記表示部に表示する制御を行ってもよい。 In the aspect of the invention, the display control unit may perform control to display the notification image including the symbol image representing the content of the robot control command specified by the robot control unit on the display unit. Good.
これにより、ジェスチャーによりロボットシステムに正しく指示が伝わったかどうかを作業者がより容易に確認すること等が可能になる。 This makes it possible for the operator to more easily confirm whether or not an instruction has been correctly transmitted to the robot system by a gesture.
また、本発明の一態様では、前記ロボット制御部は、取得された前記撮像情報に基づいて前記作業者のハンドパターンを検出し、検出した前記ハンドパターンに関連付けられた前記ロボット制御コマンドを特定してもよい。 In one aspect of the present invention, the robot control unit detects the operator's hand pattern based on the acquired imaging information, and specifies the robot control command associated with the detected hand pattern. May be.
これにより、作業者は、ハンドパターンによりロボットに動作指示を出すこと等が可能になる。 As a result, the operator can issue an operation instruction to the robot using the hand pattern.
また、本発明の一態様では、前記ロボット制御部は、取得された前記撮像情報に基づいて前記作業者の手の形状パターン、手の位置及び手の動きのうちの少なくとも一つを前記ハンドパターンとして検出し、検出した前記ハンドパターンに関連付けられた前記ロボット制御コマンドを特定してもよい。 In one aspect of the present invention, the robot control unit determines at least one of a shape pattern, a hand position, and a hand movement of the worker based on the acquired imaging information as the hand pattern. And the robot control command associated with the detected hand pattern may be specified.
これにより、手の形状パターン若しくは位置、動き又はこれらの組み合わせ毎に、ロボット制御コマンドを関連付けること等が可能になる。 This makes it possible to associate a robot control command with each hand shape pattern, position, movement, or combination thereof.
また、本発明の一態様では、前記表示制御部は、前記ロボット制御部が特定した前記ロボット制御コマンドの内容を表示する記号画像が、前記作業者の手に対応する位置に配置された前記通知画像を、前記表示部に表示する制御を行ってもよい。 Moreover, in one aspect of the present invention, the display control unit includes the notification in which a symbol image that displays the content of the robot control command specified by the robot control unit is arranged at a position corresponding to the hand of the operator. You may perform control which displays an image on the said display part.
これにより、ロボットシステムが作業者の手を認識できているか否かを作業者が確認すること等が可能になる。 Thereby, it is possible for the worker to check whether or not the robot system can recognize the hand of the worker.
また、本発明の一態様では、前記ロボット制御部は、取得された前記撮像情報に基づいて、前記作業者の肩の上方領域に設定された検出領域内から前記作業者の前記ジェスチャーを検出してもよい。 In one aspect of the present invention, the robot control unit detects the gesture of the worker from a detection region set in an upper region of the shoulder of the worker based on the acquired imaging information. May be.
これにより、ロボットへ指示を出すジェスチャーと同じジェスチャーを作業者が検出領域外で偶然にしてしまった場合でも、ロボットシステムによるジェスチャーの誤検出を防ぐこと等が可能になる。 This makes it possible to prevent erroneous detection of a gesture by the robot system even when the operator accidentally makes the same gesture as that for giving an instruction to the robot outside the detection area.
また、本発明の一態様では、前記ロボット制御部は、前記作業者と混在して生産作業を行う第1のロボットを第1のロボット制御コマンドにより制御し、前記第1のロボットと異なる第2のロボットを第2のロボット制御コマンドにより制御し、前記ロボット制御部は、取得された前記撮像情報に基づいて、前記作業者の肩の前記上方領域に設定された第1の検出領域内から前記作業者の前記ジェスチャーを検出した場合には、検出した前記ジェスチャーが前記第1の検出領域に関連付けられているか否かを判定し、検出した前記ジェスチャーが前記第1の検出領域に関連付けられていると判定した場合に、検出した前記ジェスチャーに関連付けられた前記第1のロボット制御コマンドにより前記第1のロボットを制御し、取得された前記撮像情報に基づいて、前記作業者の肩の前記上方領域に設定され、前記第1の検出領域と異なる第2の検出領域内から前記作業者の前記ジェスチャーを検出した場合には、検出した前記ジェスチャーが前記第2の検出領域に関連付けられているか否かを判定し、検出した前記ジェスチャーが前記第2の検出領域に関連付けられていると判定した場合に、検出した前記ジェスチャーに関連付けられた前記第2のロボット制御コマンドにより前記第2のロボットを制御してもよい。 In one aspect of the present invention, the robot control unit controls a first robot that performs production work in a mixed manner with the worker using a first robot control command, and is different from the first robot. Is controlled by a second robot control command, and the robot control unit, based on the acquired imaging information, from the first detection area set in the upper area of the worker's shoulder, When the gesture of the worker is detected, it is determined whether or not the detected gesture is associated with the first detection area, and the detected gesture is associated with the first detection area. The first robot is controlled by the first robot control command associated with the detected gesture, and the acquired imaging Based on the information, if the operator's gesture is detected from within a second detection area that is set in the upper area of the worker's shoulder and is different from the first detection area, the detected gesture Is determined to be associated with the second detection region, and when it is determined that the detected gesture is associated with the second detection region, the first associated with the detected gesture The second robot may be controlled by two robot control commands.
これにより、作業者は、同じジェスチャーでも、そのジェスチャーを行う領域を変えることによって、複数のロボットに動作指示を出すこと等が可能になる。 As a result, even with the same gesture, the operator can issue operation instructions to a plurality of robots by changing the area where the gesture is performed.
また、本発明の一態様では、前記ロボット制御部は、検出した前記ジェスチャーが緊急時用ジェスチャーであると判定した場合には、前記ジェスチャーを検出した前記検出領域が前記第1の検出領域及び前記第2の検出領域のいずれの前記検出領域であっても、検出した前記ジェスチャーに関連付けられた緊急ロボット制御コマンドに従って、前記第1のロボット及び前記第2のロボットを制御してもよい。 In one aspect of the present invention, when the robot control unit determines that the detected gesture is an emergency gesture, the detection region where the gesture is detected is the first detection region and the first detection region. In any of the second detection areas, the first robot and the second robot may be controlled in accordance with an emergency robot control command associated with the detected gesture.
これにより、第1のロボットと第2のロボットの両方に緊急の動作指示を出したい場合に、位置に関わりなく、第1のロボットと第2のロボットの両方に動作指示を出すこと等が可能になる。 This makes it possible to issue an operation instruction to both the first robot and the second robot regardless of the position when an emergency operation instruction is to be issued to both the first robot and the second robot. become.
また、本発明の一態様では、前記ロボット制御部は、取得された前記撮像情報に基づいて、前記作業者の前記ジェスチャーを検出しない検出除外領域を設定し、前記検出除外領域以外の領域に前記検出領域を設定してもよい。 In one aspect of the present invention, the robot control unit sets a detection exclusion region that does not detect the gesture of the operator based on the acquired imaging information, and the robot control unit sets the detection exclusion region in a region other than the detection exclusion region. A detection area may be set.
これにより、例えば肩の上方領域であっても、ジェスチャーの検出が失敗しやすい領域では、ジェスチャーの検出処理を行わないようにして、ジェスチャーの誤検出を防ぐこと等が可能になる。 As a result, for example, even in the region above the shoulder, it is possible to prevent erroneous gesture detection by not performing gesture detection processing in a region where gesture detection is likely to fail.
また、本発明の一態様では、前記ロボット制御部は、少なくとも前記作業者の顔領域を含む領域を前記検出除外領域として設定してもよい。 In the aspect of the invention, the robot control unit may set an area including at least the operator's face area as the detection exclusion area.
これにより、作業者の顔領域でハンドパターンの検出処理を行わないようにして、ジェスチャーの誤検出を防ぐこと等が可能になる。 As a result, it is possible to prevent erroneous gesture detection by not performing hand pattern detection processing on the face area of the worker.
また、本発明の一態様では、前記ロボット制御部は、検出した前記ジェスチャーに基づいて命令開始時間を特定し、特定した前記命令開始時間に、前記ジェスチャーに関連付けられた前記ロボット制御コマンドに従って、前記ロボットを制御してもよい。 Further, in one aspect of the present invention, the robot control unit identifies a command start time based on the detected gesture, and the robot control command is associated with the gesture at the identified command start time. The robot may be controlled.
これにより、作業者がジェスチャーにより、ロボットが実際に命令を実行する時間を指定すること等が可能になる。 As a result, it is possible for the operator to designate the time for the robot to actually execute the command by gesture.
また、本発明の一態様では、前記ロボット制御部は、取得された前記撮像情報に基づいて、前記作業者の手の甲の認識処理を行い、前記認識処理の結果に基づいて、前記ロボット制御コマンドの特定処理及び前記作業者の識別処理のうちの少なくとも一方を行ってもよい。 Further, in one aspect of the present invention, the robot control unit performs recognition processing of the back of the operator's hand based on the acquired imaging information, and based on a result of the recognition processing, the robot control command At least one of the specific process and the worker identification process may be performed.
これにより、例えば未登録者によるロボットの不正操作を防止すること等が可能になる。 Thereby, for example, it is possible to prevent an unauthorized operation of the robot by an unregistered person.
本発明の他の態様では、生産システムにおいて作業者と混在して生産作業を行うロボットと、前記作業者を撮像する撮像部から撮像情報を取得する撮像情報取得部と、前記撮像情報に基づいて前記ロボットを制御するロボット制御部と、を含み、前記ロボット制御部は、取得された前記撮像情報に基づいて、前記作業者の手の甲の認識処理を行い、前記認識処理の結果に基づいて、前記ロボットを制御するために用いるロボット制御コマンドの特定処理及び前記作業者の識別処理のうちの少なくとも一方を行うロボットシステムに関係する。 In another aspect of the present invention, based on the imaging information, a robot that performs production work mixed with workers in the production system, an imaging information acquisition unit that acquires imaging information from an imaging unit that images the workers, and A robot controller that controls the robot, and the robot controller performs recognition processing on the back of the operator's hand based on the acquired imaging information, and based on the recognition processing result, The present invention relates to a robot system that performs at least one of a process for specifying a robot control command used to control a robot and a process for identifying the worker.
また、本発明の一態様では、前記ロボット制御部は、手の甲の形状パターン又は前記作業者の手の甲に設けられた記号情報に基づいて、前記作業者の手の甲の前記認識処理を行ってもよい。 In one aspect of the present invention, the robot control unit may perform the recognition processing of the back of the operator's hand based on a shape pattern of the back of the hand or symbol information provided on the back of the operator's hand.
これにより、作業者の手の甲の情報をあらかじめ登録していない場合であっても、手の甲に記号情報が設けられていない不正な人物により、ロボットが操作されるのを防止すること等が可能になる。 As a result, even if the information on the back of the operator's hand is not registered in advance, it is possible to prevent the robot from being operated by an unauthorized person having no symbol information on the back of the hand. .
また、本発明の他の態様では、上記各部としてコンピューターを機能させるプログラムに関係する。 Another aspect of the present invention relates to a program that causes a computer to function as each of the above-described units.
また、本発明の他の態様では、作業者と混在して生産作業を行うロボットと、前記作業者を撮像する撮像部と、前記撮像部から撮像情報を取得する撮像情報取得部と、前記撮像情報に基づいて前記ロボットを制御するロボット制御部と、表示画像を表示する表示部と、前記表示部の表示制御を行う表示制御部と、を含み、前記ロボット制御部は、取得された前記撮像情報に基づいて前記作業者のジェスチャーを検出し、検出した前記ジェスチャーに関連付けられたロボット制御コマンドを特定し、前記表示制御部は、前記ロボット制御部が特定した前記ロボット制御コマンドを前記作業者へ通知する通知画像を前記表示部に表示する制御を行う生産システムに関係する。 According to another aspect of the present invention, a robot that performs production work in a mixed manner with an operator, an imaging unit that images the worker, an imaging information acquisition unit that acquires imaging information from the imaging unit, and the imaging A robot control unit that controls the robot based on information; a display unit that displays a display image; and a display control unit that performs display control of the display unit, wherein the robot control unit acquires the acquired imaging The operator's gesture is detected based on the information, a robot control command associated with the detected gesture is specified, and the display control unit sends the robot control command specified by the robot control unit to the worker. The present invention relates to a production system that controls to display a notification image to be notified on the display unit.
また、本発明の他の態様は、作業者からの指示を含むロボット制御コマンドに基づいて動作するロボットであって、前記作業者を撮像して撮像情報を取得し、取得された前記撮像情報を前記ロボット制御コマンドに変換して動作し、前記作業者が前記ロボット制御コマンドの内容を確認できる通知画像を表示部に表示するロボットに関係する。 Further, another aspect of the present invention is a robot that operates based on a robot control command including an instruction from an operator, images the operator to acquire imaging information, and acquires the acquired imaging information. The present invention relates to a robot that operates by converting to the robot control command and displays a notification image on the display unit that allows the operator to confirm the content of the robot control command.
また、本発明の他の態様では、取得された前記撮像情報から前記作業者の手の形状パターン、手の位置及び手の動きのうちの少なくとも一つを検出したパターンをハンドパターンとし、前記ハンドパターンを前記ロボット制御コマンドに変換してもよい。 In another aspect of the present invention, a pattern in which at least one of a shape pattern, a hand position, and a hand movement of the worker is detected from the acquired imaging information is used as a hand pattern, and the hand A pattern may be converted into the robot control command.
また、本発明の他の態様では、取得された前記撮像情報から、前記作業者の手の甲の認識処理を行い、前記認識処理の結果に基づいて、前記ロボット制御コマンドへの変換及び前記作業者の識別のうちの少なくとも一方を行ってもよい。 In another aspect of the present invention, recognition processing of the back of the operator's hand is performed from the acquired imaging information, and conversion to the robot control command and the operator's command are performed based on the result of the recognition processing. At least one of the identifications may be performed.
また、本発明の他の態様では、前記通知画像は、前記ロボット制御コマンドの内容を表す記号画像を含んでもよい。 In another aspect of the present invention, the notification image may include a symbol image representing the content of the robot control command.
また、本発明の他の態様では、前記ロボット制御コマンドの内容を表示する前記記号画像が、前記作業者の手に対応する位置に配置された前記通知画像を、前記表示部に表示してもよい。 In another aspect of the present invention, the symbol image for displaying the contents of the robot control command may be displayed on the display unit with the notification image arranged at a position corresponding to the hand of the operator. Good.
以下、本実施形態について説明する。まず、本実施形態の概要を説明し、次に本実施形態のシステム構成例について説明する。そして、本実施形態の手法について具体例を交えつつ詳細に説明し、最後に、フローチャートを用いて本実施形態の処理の流れについて説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また、本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。 Hereinafter, this embodiment will be described. First, an outline of the present embodiment will be described, and then a system configuration example of the present embodiment will be described. Then, the method of the present embodiment will be described in detail with specific examples, and finally, the flow of processing of the present embodiment will be described using a flowchart. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.
1.概要
近年、消費者ニーズの変動や多様化の高まりに対応する必要性から、大量生産向きのいわゆるライン生産方式のシステムに代わって、多くの機種を少量ずつ生産して生産量の増減や多機種少量生産に柔軟に対応する、いわゆるセル生産システムが採用されることが多くなってきた。
1. Overview Due to the need to respond to fluctuations in consumer needs and increasing diversification in recent years, many models are produced in small quantities instead of a so-called line production system suitable for mass production. A so-called cell production system that can flexibly cope with small-scale production has been increasingly adopted.
セル生産システムは、1人の作業者が生産用のセル、つまり生産セルと呼ばれる所定の作業場所で複数の作業工程を処理して最終製品、または複数工程毎の完成品を作り上げる自己完結性の高いシステムである。セル生産システムやこのシステムを用いたセル生産方式は、作業者の多能工化を推進でき、製品仕様変更への対応が容易であり、設備投資が少なくて済むという利点がある。 The cell production system is a self-contained system in which one worker processes a plurality of work processes at a predetermined work place called a production cell, that is, a production cell, to produce a final product or a finished product for each of the plurality of processes. High system. The cell production system and the cell production method using this system have the advantage that the workers can be promoted to be multi-skilled, the response to the product specification change is easy, and the capital investment can be reduced.
また、セル生産システムにおいて、作業者によるワークへの部品組付けなどの作業をロボットに代替させることも行われる。すなわち、作業者である人が生産セルに配置された人セルに代えて、作業者としてロボットが生産セルに配置されたロボットセルによってセル生産システムが構成される。 Also, in the cell production system, the robot can substitute a work such as assembly of parts to the work by the worker. That is, a cell production system is configured by a robot cell in which a robot as an operator is arranged in a production cell instead of a human cell in which a person who is an operator is arranged in a production cell.
さらに、セル生産システムにおいては、1つのセルにおける作業者が1人である場合の他に、数人でチームを編成して1つのセルで作業を行う場合もある。そして、人とロボットとの混合によってそのチームを構成することも行われる。 Furthermore, in the cell production system, in addition to the case where there is one worker in one cell, there are cases where a team is formed by several people to work in one cell. The team is also formed by mixing humans and robots.
例えば前述した特許文献1では、このようなセル生産システムにおいて、生産増減に応じて生産セル内のロボットの稼働率を低下させることなく、生産セルに設定付与する作業者の数をより少なくできるような生産指示方法が開示されている。このようなセル生産システムは、従来のライン生産方式のシステムに比べて、製品機種変更や生産数増減などに対して、より柔軟に対応することができる。 For example, in Patent Document 1 described above, in such a cell production system, the number of workers assigned to the production cell can be reduced without lowering the operation rate of the robot in the production cell in accordance with the production increase / decrease. A simple production instruction method is disclosed. Such a cell production system can respond more flexibly to changes in the product model, increase / decrease in the number of production, etc., compared to a conventional line production system.
さて、前述したような、人とロボットとの混合によるセル生産システムにおいては、例えば製造予定の変更があった場合や作業者の離席時などには、現在のロボットの動作を変更したり又は中断したりする必要が生じることがある。 Now, in the cell production system by mixing humans and robots as described above, for example, when there is a change in production schedule or when the worker leaves the seat, the operation of the current robot is changed, or May need to be interrupted.
しかし、従来の生産システムにおいて用いられているロボットは、プログラムに従ってあらかじめ決められた動作を行うに過ぎず、客観的な事象の変化等に動的に対応することができなかった。そのため、ロボットの動作を変更又は中断させる際には、作業者が直接ロボットを操作する必要があり、非常に手間がかかっていた。 However, the robot used in the conventional production system only performs a predetermined operation according to the program, and cannot dynamically respond to an objective change in the event. Therefore, when changing or interrupting the operation of the robot, it is necessary for the operator to directly operate the robot, which is very troublesome.
そこで、本実施形態のロボットシステム、プログラム、生産システム及びロボット等では、作業者がジェスチャーによりロボットに動作指示を出すことができる。言い換えれば、本実施形態のロボットシステム等では、作業者のジェスチャーを認識して、認識したジェスチャーに関連付けられた動作をロボットが行うことができる。 Therefore, in the robot system, the program, the production system, the robot, and the like according to this embodiment, an operator can issue an operation instruction to the robot by a gesture. In other words, in the robot system or the like of the present embodiment, the robot can recognize the operator's gesture and perform an action associated with the recognized gesture.
2.システム構成例
次に、図1に本実施形態のロボットシステム300及びこれを含む生産システム600の構成例を示す。
2. System Configuration Example Next, FIG. 1 shows a configuration example of a robot system 300 of this embodiment and a production system 600 including the same.
ロボットシステム300は、ロボット制御装置100と、ロボット200と、を含む。そして、ロボット制御装置100は、撮像情報取得部110と、ロボット制御部130と、表示制御部150と、を含む。また、生産システム600は、ロボットシステム300の他に、撮像部400や表示部500をさらに含む。なお、ロボットシステム300及びこれを含む生産システム600は、図1の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。 The robot system 300 includes a robot control device 100 and a robot 200. The robot control apparatus 100 includes an imaging information acquisition unit 110, a robot control unit 130, and a display control unit 150. The production system 600 further includes an imaging unit 400 and a display unit 500 in addition to the robot system 300. The robot system 300 and the production system 600 including the robot system 300 are not limited to the configuration shown in FIG. 1, and various modifications such as omitting some of these components or adding other components. Is possible.
次に各部で行われる処理について説明する。 Next, processing performed in each unit will be described.
ロボット200は、作業者と混在して生産作業を行う。ロボット200は、例えば後述する図2(A)及び図2(B)に示すようなアーム210及びハンド220を有し、ロボット制御部130から取得されるロボット制御コマンドに従って動作する。ここで、アーム210とは、ロボット200のパーツであって、一つ以上の関節を含む可動パーツのことをいう。さらに、ハンド220とは、ワークを把持したり、ワークに加工を施したりするためにアーム210のエンドポイントに取り付ける部品のことをいう。また、アーム210のエンドポイントとは、アーム210の先端部分のポイントであって、ロボット200のハンド220以外の他の部分と接続されていない部分のことをいう。 The robot 200 performs production work in a mixed manner with workers. The robot 200 has an arm 210 and a hand 220 as shown in FIGS. 2A and 2B, which will be described later, for example, and operates according to a robot control command acquired from the robot control unit 130. Here, the arm 210 is a part of the robot 200 and refers to a movable part including one or more joints. Furthermore, the hand 220 refers to a component that is attached to the end point of the arm 210 in order to hold the workpiece or process the workpiece. The end point of the arm 210 is a point at the tip of the arm 210 and is a portion that is not connected to any other part than the hand 220 of the robot 200.
次に、撮像情報取得部110は、撮像部400から撮像情報を取得する。撮像情報取得部110は、例えば撮像部400と有線又は無線により通信を行う通信部(インターフェース部)であってもよい。 Next, the imaging information acquisition unit 110 acquires imaging information from the imaging unit 400. The imaging information acquisition unit 110 may be a communication unit (interface unit) that performs wired or wireless communication with the imaging unit 400, for example.
そして、ロボット制御部130は、撮像情報に基づいてロボット200を制御するために用いるロボット制御コマンドを特定し、特定したロボット制御コマンドをロボット200に出力する。 Then, the robot control unit 130 specifies a robot control command used for controlling the robot 200 based on the imaging information, and outputs the specified robot control command to the robot 200.
また、表示制御部150は、表示画像を表示する表示部500の表示制御を行う。なお、ロボット制御部130及び表示制御部150の機能は、各種プロセッサー(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムなどにより実現できる。 In addition, the display control unit 150 performs display control of the display unit 500 that displays a display image. The functions of the robot control unit 130 and the display control unit 150 can be realized by hardware such as various processors (CPU and the like), ASIC (gate array and the like), programs, and the like.
そして、撮像部400は、作業現場及び作業現場で作業を行う作業者等を撮像し、撮像情報を撮像情報取得部110に出力する。例えば撮像部400は、赤外線カメラであってもよい。赤外線カメラは、赤外線画像を撮像するものであってもよく、赤外線画像は、遠赤外線画像及び中赤外線画像、近赤外線画像を含む。また、赤外線カメラは、人体を検出対象とするため、8〜12μmの遠赤外線波長域において感度を有するものであっても良い。 Then, the imaging unit 400 images the work site and a worker who performs the work at the work site, and outputs the imaging information to the imaging information acquisition unit 110. For example, the imaging unit 400 may be an infrared camera. The infrared camera may capture an infrared image, and the infrared image includes a far infrared image, a middle infrared image, and a near infrared image. Moreover, since an infrared camera makes a human body a detection target, it may have a sensitivity in a far-infrared wavelength region of 8 to 12 μm.
さらに、撮像部400として、焦電型赤外線センサーカメラを用いてもよい。焦電型赤外線センサーカメラを使うことにより、遠距離から近距離までの熱画像(赤外線画像、温度画像)を1つのセンサー膜で取得可能であり、人体の体温と他の静止物の境界線が明確に表示可能である。そのため、人体抽出には最適であり、さらに他の赤外線センサーより大幅にコストが低い。 Further, a pyroelectric infrared sensor camera may be used as the imaging unit 400. By using a pyroelectric infrared sensor camera, it is possible to acquire thermal images (infrared images, temperature images) from a long distance to a short distance with one sensor film, and the boundary line between the body temperature of the human body and other stationary objects It can be clearly displayed. Therefore, it is optimal for human body extraction, and costs are significantly lower than other infrared sensors.
他にも、撮像部400として可視カメラを用いて、撮像した画像に対して画像処理を行い、人体と他の静止物の境界線を特定し、人体の形状を特定することも可能である。例えば可視カメラは、撮像素子としてCCDやCMOSを用いるカメラであっても良く、また、白黒カメラであっても、カラーカメラであっても良い。白黒カメラを使う場合には、可視画像として濃淡画像が撮像され、カラーカメラを使う場合には、可視画像として色画像が撮像される。 In addition, it is also possible to use a visible camera as the imaging unit 400, perform image processing on the captured image, specify the boundary line between the human body and another stationary object, and specify the shape of the human body. For example, the visible camera may be a camera using a CCD or CMOS as an image pickup device, and may be a monochrome camera or a color camera. When a monochrome camera is used, a grayscale image is captured as a visible image, and when a color camera is used, a color image is captured as a visible image.
なお、赤外線カメラ及び可視カメラは、画像処理用等に用いられるデバイス(プロセッサー)を含んでもよい。本実施形態においては、赤外線画像データまたは可視画像データを、そのまま撮像情報取得部110に出力するが、これに限定されるものではない。例えば、ロボット制御部130において行う画像処理の一部を、撮像部400が行っても良い。その場合、赤外線画像又は可視画像に対して、画像処理が施された後の撮像情報が撮像情報取得部110に出力されることになる。 The infrared camera and the visible camera may include a device (processor) used for image processing or the like. In the present embodiment, infrared image data or visible image data is output to the imaging information acquisition unit 110 as it is, but is not limited to this. For example, the imaging unit 400 may perform part of the image processing performed in the robot control unit 130. In that case, the imaging information after image processing is performed on the infrared image or the visible image is output to the imaging information acquisition unit 110.
表示部500は、取得した表示画像を表示する。表示部500は、例えば液晶である。その他にも表示部500は、有機ELパネルや、電子ペーパーなどであってもよい。 The display unit 500 displays the acquired display image. The display unit 500 is a liquid crystal, for example. In addition, the display unit 500 may be an organic EL panel, electronic paper, or the like.
次に、ロボットシステム300の一例を図2(A)及び図2(B)に示す。例えば図2(A)のロボットシステム300では、ロボット本体200(ロボット)とロボット制御装置100とが別体に構成されている。しかし、本実施形態のロボットシステム300は図2(A)の構成に限定されず、図2(B)のようにロボット本体200とロボット制御装置100とが一体に構成されていてもよい。具体的には図2(B)に示したように、ロボット200は、ロボット本体(アーム210及びハンド220を有する)及びロボット本体を支えるベースユニット部を有し、当該ベースユニット部にロボット制御装置100が格納されるものであってもよい。図2(B)のロボット200には、ベースユニット部に車輪等が設けられ、ロボット全体が移動可能な構成となっている。なお、図2(A)は単腕型の例であるが、ロボット200は図2(B)に示すように双腕型等の多腕型のロボットであってもよい。なお、ロボット200は、人手により移動させられるものであってもよいし、車輪を駆動するモーターを設け、当該モーターをロボット制御装置100により制御することにより、移動させられるものであってもよい。また、ロボット制御装置100は、図2(B)のようにロボット200の下に設けられたベースユニット部に設けられるとは限られない。 Next, an example of the robot system 300 is shown in FIGS. 2 (A) and 2 (B). For example, in the robot system 300 of FIG. 2A, the robot body 200 (robot) and the robot control device 100 are configured separately. However, the robot system 300 according to the present embodiment is not limited to the configuration shown in FIG. 2A, and the robot main body 200 and the robot control device 100 may be integrated as shown in FIG. 2B. Specifically, as shown in FIG. 2B, the robot 200 has a robot body (having an arm 210 and a hand 220) and a base unit portion that supports the robot body, and the robot control device is provided in the base unit portion. 100 may be stored. The robot 200 shown in FIG. 2B has wheels and the like provided in the base unit portion so that the entire robot can move. 2A is an example of a single arm type, the robot 200 may be a multi-arm type robot such as a double arm type as shown in FIG. 2B. The robot 200 may be moved manually, or may be moved by providing a motor for driving wheels and controlling the motor by the robot controller 100. Moreover, the robot control apparatus 100 is not necessarily provided in the base unit part provided under the robot 200 as shown in FIG.
さらに、本実施形態の生産システムの具体例として、セルの様子を上から見た図を図3に示す。本実施形態の生産システムでは、図3に示すように直列に接続された3つ以上の作業台(DSK1〜DSK3)が配置され、中央の作業台DSK2には作業者WKが配置される。そして、その両側の作業台(DSK1及びDSK3)には、それぞれ多関節双腕ロボット(RB1及びRB2)が配置され、作業者WKと共存、協調組立てセル生産ラインが組まれている。 Furthermore, as a specific example of the production system of the present embodiment, FIG. In the production system of this embodiment, as shown in FIG. 3, three or more work tables (DSK1 to DSK3) connected in series are arranged, and an operator WK is arranged on the center work table DSK2. Then, articulated double-arm robots (RB1 and RB2) are respectively arranged on the work tables (DSK1 and DSK3) on both sides, and a cell production line coexisting and cooperating with the worker WK is assembled.
また、作業者WKの正面の作業台DSK2とロボット(RB1及びRB2)の正面の作業台(DSK1及びDSK3)の間には、互いの活動領域を分離し、互いの活動領域内の侵害を防止するために、ラインセンサー(SE1及びSE2)が配置されている。さらに、中央の作業台DSK2には、赤外線カメラCAM及び表示モニターDISが設置されている。赤外線カメラCAM及び表示モニターDISの設置理由については後に詳述する。 Also, between the work table DSK2 in front of the worker WK and the work tables (DSK1 and DSK3) in front of the robots (RB1 and RB2), the active areas are separated from each other to prevent infringement in the active areas. For this purpose, line sensors (SE1 and SE2) are arranged. Further, an infrared camera CAM and a display monitor DIS are installed on the central work table DSK2. The reason for installing the infrared camera CAM and the display monitor DIS will be described in detail later.
双腕ロボット(RB1及びRB2)は、前述した図2(B)と同様に、台車の上端部にロボットの胴体下部が支持されており、ロボット側からの指示又は作業者の手動により左右、前後に台車が移動可能である。双腕ロボットの胴体先端は、ワークを把持し、所定の作業を行う2本のアーム及びハンドを供えている。さらに、胴体背面に、ロボット及び台車を制御するロボット制御装置(CP1及びCPU2)が設置されている。なお、ロボットの駆動用電源は、作業台からの配線接合により、電源が供給される。 In the double-arm robot (RB1 and RB2), the lower part of the body of the robot is supported at the upper end of the carriage, as in FIG. 2B described above. The trolley is movable. The front end of the body of the dual-arm robot is provided with two arms and a hand for holding a workpiece and performing a predetermined operation. Furthermore, robot control devices (CP1 and CPU2) for controlling the robot and the carriage are installed on the back of the body. The power for driving the robot is supplied by wiring connection from the work table.
3.本実施形態の手法
次に、本実施形態の手法について説明する。
3. Next, the method of this embodiment will be described.
以上の本実施形態のロボットシステム300は、生産システムにおいて作業者と混在して生産作業を行うロボット200と、作業者を撮像する撮像部400から撮像情報を取得する撮像情報取得部110と、撮像情報に基づいてロボット200を制御するロボット制御部130と、表示画像を表示する表示部500の表示制御を行う表示制御部150と、を含む。まず、ロボット制御部130は、取得された撮像情報に基づいて作業者のジェスチャーを検出し、検出したジェスチャーに関連付けられたロボット制御コマンドを特定する。そして、表示制御部150は、ロボット制御部130が特定したロボット制御コマンドを作業者へ通知する通知画像を表示部500に表示する。 The robot system 300 according to the present embodiment described above includes the robot 200 that performs production work in a mixed manner with workers in the production system, the imaging information acquisition unit 110 that acquires imaging information from the imaging unit 400 that images workers, and imaging. A robot control unit 130 that controls the robot 200 based on the information and a display control unit 150 that performs display control of the display unit 500 that displays a display image are included. First, the robot control unit 130 detects an operator's gesture based on the acquired imaging information, and specifies a robot control command associated with the detected gesture. Then, the display control unit 150 displays a notification image for notifying the operator of the robot control command specified by the robot control unit 130 on the display unit 500.
ここで、撮像情報とは、撮像部400により撮像された撮像画像を表す情報のことをいう。撮像情報は、撮像画像そのものであってもよいし、撮像画像に対して画像処理を行った画像の情報であってもよい。また、撮像情報は、特徴量等の撮像画像から検出した情報であってもよい。さらに、撮像情報は、撮像画像が記憶されている場所へのリンク情報等であってもよい。 Here, the imaging information refers to information representing a captured image captured by the imaging unit 400. The captured information may be the captured image itself or information on an image obtained by performing image processing on the captured image. Further, the imaging information may be information detected from a captured image such as a feature amount. Furthermore, the imaging information may be link information to a place where the captured image is stored.
また、ジェスチャーとは、作業者の身振りのことをいう。ジェスチャーの具体例については、後述する。 A gesture refers to an operator's gesture. Specific examples of gestures will be described later.
そして、ロボット制御コマンドとは、ロボット200を制御するために用いる制御コマンドのことをいう。ロボット制御コマンドは、作業者のジェスチャーに関連付けられている。 The robot control command is a control command used for controlling the robot 200. The robot control command is associated with the operator's gesture.
さらに、通知画像とは、ロボット制御部130が特定したロボット制御コマンドを作業者へ通知する画像である。具体的には、通知画像は、作業者がジェスチャーにより指示したロボット制御コマンドが、ロボット制御部130により正しく特定されたか否かを、作業者が確認するために用いる画像のことをいう。通知画像の具体例については、後述する。 Further, the notification image is an image for notifying the operator of the robot control command specified by the robot control unit 130. Specifically, the notification image refers to an image used by the worker to confirm whether or not the robot control command instructed by the worker by the gesture is correctly specified by the robot control unit 130. A specific example of the notification image will be described later.
よって、作業者は、ジェスチャーによりロボットに動作指示を出すことができる。一方で、本実施形態のロボットシステム300では、作業者のジェスチャーを認識して、認識したジェスチャーに関連付けられた動作をロボット200が行うことが可能となる。さらに、作業者に対して通知画像を表示するため、ジェスチャーによりロボットシステム300に正しく指示が伝わったか否かを作業者が確認することができる。 Therefore, the worker can issue an operation instruction to the robot by a gesture. On the other hand, in the robot system 300 of the present embodiment, the robot 200 can recognize an operator's gesture and perform an operation associated with the recognized gesture. Further, since the notification image is displayed to the worker, the worker can confirm whether or not the instruction is correctly transmitted to the robot system 300 by the gesture.
また、作業者は生産作業を行っており、じっくりと表示部500に表示される通知画像を見ている暇がないため、ジェスチャーによりロボットシステム300に正しく指示が伝わったかどうかを即座に判断できるようにすることが望ましい。 Further, since the worker is performing production work and does not have time to carefully watch the notification image displayed on the display unit 500, it is possible to immediately determine whether or not the instruction is correctly transmitted to the robot system 300 by the gesture. It is desirable to make it.
そこで、表示制御部150は、ロボット制御部130により特定されたロボット制御コマンドの内容を表す記号画像を含む通知画像を、表示部500に表示する制御を行ってもよい。 Therefore, the display control unit 150 may perform control to display a notification image including a symbol image representing the content of the robot control command specified by the robot control unit 130 on the display unit 500.
ここで、記号画像とは、ロボット制御コマンドの内容を表す画像であって、通知画像の中に配置される画像のことをいう。具体例については、図4及び図5を用いて後述する。 Here, the symbol image is an image representing the content of the robot control command and is an image arranged in the notification image. Specific examples will be described later with reference to FIGS.
これにより、ジェスチャーによりロボットシステム300に正しく指示が伝わったかどうかを作業者がより容易に確認すること等が可能になる。 This makes it possible for the operator to more easily confirm whether or not an instruction has been correctly transmitted to the robot system 300 by a gesture.
また、ロボット制御部130は、取得された撮像情報に基づいて作業者のハンドパターンを検出し、検出したハンドパターンに関連付けられたロボット制御コマンドを特定してもよい。 Further, the robot control unit 130 may detect an operator's hand pattern based on the acquired imaging information and specify a robot control command associated with the detected hand pattern.
これにより、作業者は、ハンドパターンによりロボット200に動作指示を出すこと等が可能になる。 As a result, the operator can issue an operation instruction to the robot 200 using the hand pattern.
具体的には、ロボット制御部130は、撮像領域内で取得された撮像情報に基づいて作業者の手の形状パターン及び位置、動きのうちの少なくとも一つをハンドパターンとして検出し、検出したハンドパターンに関連付けられたロボット制御コマンドを特定してもよい。 Specifically, the robot control unit 130 detects, as a hand pattern, at least one of the shape pattern, position, and movement of the operator's hand based on the imaging information acquired in the imaging region, and the detected hand A robot control command associated with the pattern may be specified.
すなわち、ハンドパターンとは、作業者の手の形状パターン、手の位置及び手の動きのうちの少なくとも一つにより特定されるジェスチャーのことをいう。ハンドパターンは、作業者の手の形状パターン及び位置、動きの組み合わせであってもよい。なお、手の形状パターンを検出する場合には、例えば手の外郭の形状等の特徴量を検出することにより、手の形状パターンを検出する。 That is, the hand pattern refers to a gesture specified by at least one of an operator's hand shape pattern, hand position, and hand movement. The hand pattern may be a combination of an operator's hand shape pattern, position, and movement. When detecting a hand shape pattern, the hand shape pattern is detected by detecting a feature amount such as the shape of the outline of the hand.
これにより、手の形状パターン若しくは位置、動き又はこれらの組み合わせ毎に、ロボット制御コマンドを関連付けること等が可能になる。すなわち、規定したハンドパターンの数だけ、異なるロボット制御コマンドを用意すること等が可能になる。 This makes it possible to associate a robot control command with each hand shape pattern, position, movement, or combination thereof. That is, it is possible to prepare as many different robot control commands as the number of defined hand patterns.
また、ロボット制御部130は、検出したジェスチャーに基づいて命令開始時間を特定し、特定した命令開始時間に、ジェスチャーに関連付けられたロボット制御コマンドに従って、ロボット200を制御してもよい。 In addition, the robot control unit 130 may specify a command start time based on the detected gesture, and may control the robot 200 according to the robot control command associated with the gesture at the specified command start time.
これにより、作業者がジェスチャーにより、ロボット200が実際に命令を実行する時間を指定すること等が可能になる。 As a result, it is possible for the operator to designate a time for the robot 200 to actually execute the command by a gesture.
ここで、図4を用いて8つの具体例を説明する。まず、一つ目のケース1では、作業者のハンドパターンとして、握りこぶしの形状パターンが検出されたものとする。なお、この際に、検出する握りこぶしは左右どちらの手であっても構わない。 Here, eight specific examples will be described with reference to FIG. First, in the first case 1, it is assumed that a fist shape pattern is detected as the hand pattern of the operator. At this time, the fist to be detected may be either the left or right hand.
そして、検出した握りこぶしの形状パターンに関連付けられている通知画像と、命令開始時間と、ロボット制御コマンドとを特定する。ここでは、ロボット制御コマンドとして、現在ロボット200が実行中の命令をリセットするコマンドと、命令開始時間として「即時(今すぐ実行する)」が特定される。そして、ロボット200は、現在実行中の命令を即時にリセットする。そして、そのロボット制御コマンドの内容を表す「RESET」という文字を含む通知画像が表示部500に表示される。 Then, the notification image associated with the detected fist shape pattern, the command start time, and the robot control command are specified. Here, a command for resetting the command currently being executed by the robot 200 and “immediate (execute immediately)” are specified as the command start time as the robot control command. Then, the robot 200 immediately resets the command currently being executed. Then, a notification image including the characters “RESET” representing the contents of the robot control command is displayed on the display unit 500.
ケース2〜4もケース1と同様である。ケース2では、ハンドパターンとして平手の形状パターンが検出された場合に、ロボット200を即時停止する。ケース3では、ハンドパターンとして親指のみを立てた手の形状パターンが検出された場合には、ロボット200に対して作業者が退席することを通知し、ロボット200の動作を作業者不在時の動作へと変更する。作業者不在時の動作としては、例えば、これまで作業者が行っていた作業をロボット200(又は他のロボット)が行うようにしたり、作業を一時停止にしたりする。さらに、ケース4では、ハンドパターンとして親指と人差し指を立てた手の形状パターンが検出された場合には、ロボット200に対して作業者が入場することを通知し、作業者在籍時の動作に変更する。例えば、これまでロボット200が行っていた作業を作業者が行うようにする。 Cases 2 to 4 are the same as Case 1. In case 2, when a palm shape pattern is detected as a hand pattern, the robot 200 is immediately stopped. In case 3, when a hand shape pattern with only the thumb as a hand pattern is detected, the robot 200 is notified that the worker is leaving, and the operation of the robot 200 is performed when the worker is absent. Change to As an operation when the worker is absent, for example, the robot 200 (or another robot) performs the work that the worker has been doing so far, or the work is temporarily stopped. Further, in case 4, when the hand pattern with the thumb and index finger raised is detected as the hand pattern, the robot 200 is notified that the worker will enter, and the operation is changed to the operation when the worker is enrolled. To do. For example, the worker performs the work that has been performed by the robot 200 until now.
また、ケース5では、ハンドパターンとして人差し指のみを立てた右手の形状パターンが検出された場合に、加工済みのワークを作業者に受け渡すことを指示するロボット制御コマンドが特定される。この場合には、あるワークに対してロボット200に割り当てられた作業工程が終了した際に、ロボット200がそのワークを把持し、境界ラインセンサー(図3のSE1及びSE2)を一時的に解除して、作業者の机(図3ではDSK2)にワークを運ぶ処理が行われる。 In case 5, when a right hand shape pattern in which only the index finger is raised is detected as a hand pattern, a robot control command for instructing delivery of the processed workpiece to the operator is specified. In this case, when the work process assigned to the robot 200 for a certain work is completed, the robot 200 grasps the work and temporarily releases the boundary line sensors (SE1 and SE2 in FIG. 3). Thus, a process of carrying the workpiece to the operator's desk (DSK2 in FIG. 3) is performed.
さらに、ケース6では、ハンドパターンとして人差し指と中指を立てた右手の形状パターンを検出した場合に、例えばケース5の命令実行後に元の作業へ戻ることを指示するロボット制御コマンドが特定される。また、この際には、命令開始時間が3秒後と特定される。したがって、この場合には、ハンドパターンを検出してから3秒後に、ロボット200のハンド(把持部)を開放し、元の作業工程に戻り、境界ラインセンサーを稼働状態に戻す処理が行われる。ケース7及びケース8も同様である。 Further, in case 6, when a shape pattern of the right hand with the index finger and middle finger raised is detected as the hand pattern, for example, a robot control command that instructs to return to the original work after executing the command of case 5 is specified. At this time, the instruction start time is specified as 3 seconds later. Therefore, in this case, 3 seconds after the hand pattern is detected, the hand (gripping unit) of the robot 200 is released, the process returns to the original work process, and the boundary line sensor is returned to the operating state. The same applies to Case 7 and Case 8.
また、ロボットシステム300がハンドパターンによる指示を正しく判別できていない場合には、そもそもロボットシステム300が作業者の手を認識できていない可能性が高い。そのため、ハンドパターンによる指示が正しくロボットシステム300に伝わっているか否かを作業者が確認する際には、ロボットシステム300が作業者の手を認識できているか否かも確認できればより良い。 In addition, when the robot system 300 cannot correctly determine the instruction by the hand pattern, it is highly likely that the robot system 300 cannot recognize the operator's hand in the first place. Therefore, when the operator confirms whether or not the instruction by the hand pattern is correctly transmitted to the robot system 300, it is better if the robot system 300 can also confirm whether or not the operator's hand can be recognized.
そこで、表示制御部150は、ロボット制御部130により特定されたロボット制御コマンドの内容を表す記号画像が、作業者の手に対応する位置に配置された通知画像を、表示部500に表示する制御を行ってもよい。 Therefore, the display control unit 150 controls the display unit 500 to display a notification image in which a symbol image representing the content of the robot control command specified by the robot control unit 130 is arranged at a position corresponding to the hand of the worker. May be performed.
具体例を図5(A)〜図5(F)に示す熱画像(撮像画像)を用いて説明する。例えば、撮像情報に基づいて、図5(A)のようなハンドパターンTMP1を検出した場合には、表示制御部150は、図5(A)の撮像画像を鏡像反転して、ハンドパターンTMP1の位置に記号画像PIC1が配置された図5(D)のような通知画像を表示部500に表示する。 A specific example will be described with reference to thermal images (captured images) shown in FIGS. For example, when the hand pattern TMP1 as shown in FIG. 5A is detected based on the imaging information, the display control unit 150 mirrors the captured image of FIG. A notification image as shown in FIG. 5D in which the symbol image PIC1 is arranged at the position is displayed on the display unit 500.
同様に、表示制御部150は、図5(B)のようなハンドパターンTMP2を検出した場合には、図5(B)の撮像画像を鏡像反転して、ハンドパターンTMP2の位置に記号画像PIC2が配置された図5(E)のような通知画像を表示し、図5(C)のようなハンドパターンTMP3を検出した場合には、図5(C)の撮像画像を鏡像反転して、ハンドパターンTMP3の位置に記号画像PIC3が配置された図5(F)のような通知画像を表示する。なお、ここで鏡像反転を行う理由は、自分の姿が鏡に映っているような通知画像を作業者に見せて、より視認性と判別性を向上させるためである。 Similarly, when detecting the hand pattern TMP2 as shown in FIG. 5B, the display control unit 150 mirrors the captured image of FIG. 5B and displays the symbol image PIC2 at the position of the hand pattern TMP2. 5E is displayed, and when the hand pattern TMP3 as shown in FIG. 5C is detected, the captured image in FIG. A notification image as shown in FIG. 5F in which the symbol image PIC3 is arranged at the position of the hand pattern TMP3 is displayed. Here, the reason for performing the mirror image inversion is to improve visibility and discriminability by showing the operator a notification image in which his / her appearance is reflected in the mirror.
また、作業者の手に対応する位置とは、元の撮像画像に映る手の位置と同じ位置であってもよいし、前述したように、鏡像反転後の手の位置などであってもよい。 In addition, the position corresponding to the hand of the operator may be the same position as the hand shown in the original captured image, or may be the position of the hand after mirror image reversal as described above. .
これにより、ロボットシステム300が作業者の手を認識できているか否かを作業者が確認すること等が可能になる。その結果、ハンドパターンによりロボットシステムに正しく指示が伝わったかどうかを作業者がさらに容易に確認すること等が可能になる。 Thereby, it is possible for the operator to check whether or not the robot system 300 can recognize the operator's hand. As a result, it becomes possible for the operator to more easily confirm whether or not the instruction is correctly transmitted to the robot system by the hand pattern.
また、前述したように、図4及び図5の例のように手の形状パターンからハンドパターンを検出するだけでなく、図6のように手の位置からジェスチャーを検出してもよい。 Further, as described above, not only the hand pattern is detected from the hand shape pattern as in the examples of FIGS. 4 and 5, but also the gesture may be detected from the position of the hand as shown in FIG.
例えば、図6のケース1のように、作業者の手を首の正面に位置させるジェスチャーを検出した場合には、図5のケース1と同様に、即時、現在実行中の命令をリセットする。ケース2〜ケース8も、図5のケース2〜ケース8と同様であり、図示した手の位置によってジェスチャーを検出する点のみが異なる。 For example, as in case 1 of FIG. 6, when a gesture that positions the operator's hand in front of the neck is detected, the currently executed instruction is reset immediately, as in case 1 of FIG. 5. Cases 2 to 8 are also the same as Cases 2 to 8 in FIG. 5, and differ only in that a gesture is detected depending on the position of the illustrated hand.
そして、図5(A)〜図5(F)と同様に、図7(A)のジェスチャーを検出した場合には、図7(D)に示すように、作業者の手に対応する位置に記号画像PIC1を配置した通知画像を表示する。同様に、図7(B)のジェスチャーを検出した場合には、図7(E)のように、記号画像PIC2を配置した通知画像を表示し、図7(C)のジェスチャーを検出した場合には、図7(F)のように、記号画像PIC3を配置した通知画像を表示する。 Similarly to FIGS. 5A to 5F, when the gesture of FIG. 7A is detected, as shown in FIG. 7D, the gesture corresponds to the operator's hand. A notification image in which the symbol image PIC1 is arranged is displayed. Similarly, when the gesture of FIG. 7B is detected, a notification image in which the symbol image PIC2 is arranged is displayed as shown in FIG. 7E, and when the gesture of FIG. 7C is detected. Displays the notification image in which the symbol image PIC3 is arranged as shown in FIG.
また、図8(A)のように、作業者WKが作業台DSKの上で通常の生産作業を行っている際には、ロボットシステム300が、ロボット200へ指示を出す作業者のジェスチャーまたはハンドパターンを誤検出してしまう可能性がある。一方で、作業者が通常の生産作業を行う際には、主に肩より下の領域で手を動かしていることが多い。 Further, as shown in FIG. 8A, when the worker WK is performing a normal production work on the work table DSK, the robot system 300 makes an gesture or hand of the worker who gives an instruction to the robot 200. There is a possibility that the pattern is erroneously detected. On the other hand, when an operator performs normal production work, the hand is often moved mainly in an area below the shoulder.
そこで、ロボット制御部130は、取得された撮像情報に基づいて、作業者の肩の上方領域に設定された検出領域内から作業者のジェスチャーを検出してもよい。 Therefore, the robot control unit 130 may detect the operator's gesture from the detection area set in the upper area of the worker's shoulder based on the acquired imaging information.
ここで、肩の上方領域とは、肩を基準として設定された領域であり、肩の一部の領域を含む領域であってもよい。例えば、図8(A)の例では、領域DARのことを指す。 Here, the upper region of the shoulder is a region set on the basis of the shoulder, and may be a region including a partial region of the shoulder. For example, in the example of FIG. 8A, the area DAR is indicated.
また、検出領域とは、作業者のジェスチャーの検出処理を行う領域のことをいう。言い換えれば、ロボットシステム300は、検出領域内で行われたジェスチャーのみを検出し、検出領域外で行われたジェスチャーを検出しない。 Further, the detection area refers to an area in which an operator gesture detection process is performed. In other words, the robot system 300 detects only gestures performed within the detection area, and does not detect gestures performed outside the detection area.
これにより、ロボット200へ指示を出すジェスチャーと同じジェスチャーを作業者が検出領域外で偶然にしてしまった場合でも、ロボットシステム300によるジェスチャーの誤検出を防ぐこと等が可能になる。 This makes it possible to prevent erroneous detection of gestures by the robot system 300 even when an operator accidentally makes the same gesture as that for instructing the robot 200 outside the detection area.
また、ロボット制御部130は、取得された撮像情報に基づいて、作業者のジェスチャーを検出しない検出除外領域を設定し、検出除外領域以外の領域に検出領域を設定してもよい。 Further, the robot control unit 130 may set a detection exclusion region that does not detect the operator's gesture based on the acquired imaging information, and may set a detection region in a region other than the detection exclusion region.
これにより、例えば肩の上方領域であっても、ジェスチャーの検出が失敗しやすい領域では、ジェスチャーの検出処理を行わないようにして、ジェスチャーの誤検出を防ぐこと等が可能になる。 As a result, for example, even in the region above the shoulder, it is possible to prevent erroneous gesture detection by not performing gesture detection processing in a region where gesture detection is likely to fail.
実際に、作業者WKが生産作業を行う場合には、図8(B)に示すようにマスクMSKを着用している場合が多い。そのため、ロボットシステム300が撮像画像の温度情報等に基づいて、作業者WKの顔を認識できないことが多く、作業者WKの顔と手を混同してしまう可能性もある。 Actually, when the worker WK performs production work, the mask MSK is often worn as shown in FIG. For this reason, the robot system 300 often cannot recognize the face of the worker WK based on the temperature information of the captured image and the like, and the face of the worker WK may be confused with the hand.
そこで、ロボット制御部130は、少なくとも作業者の顔領域を含む領域を検出除外領域として設定してもよい。なお、検出除外領域は、作業者の顔領域の一部を含む領域であっても良い。 Therefore, the robot control unit 130 may set an area including at least the worker's face area as a detection exclusion area. The detection exclusion area may be an area including a part of the operator's face area.
図8(B)の例では、検出除外領域UDARを作業者WKの顔領域を含む領域に設定しており、検出除外領域UDARの外の領域に検出領域DARを設定している。 In the example of FIG. 8B, the detection exclusion area UDAR is set to an area including the face area of the worker WK, and the detection area DAR is set to an area outside the detection exclusion area UDAR.
これにより、作業者の顔領域でジェスチャーまたはハンドパターンの検出処理を行わないようにして、ジェスチャーまたはハンドパターンの誤検出を防ぐこと等が可能になる。 This makes it possible to prevent erroneous detection of a gesture or hand pattern by not performing the gesture or hand pattern detection process on the face area of the operator.
また、ロボット制御部130は、作業者と混在して生産作業を行う第1のロボットを第1のロボット制御コマンドにより制御し、第1のロボットと異なる第2のロボットを第2のロボット制御コマンドにより制御してもよい。 Further, the robot control unit 130 controls the first robot that performs the production work in a mixed manner with the worker by the first robot control command, and controls the second robot different from the first robot to the second robot control command. It may be controlled by.
しかし、第1のロボット制御コマンド群と第2のロボット制御コマンド群の中に、同一のジェスチャーに関連付けられているロボット制御コマンドがある場合には、例えば、作業者が第1のロボットにだけ動作指示を出そうと思い、そのジェスチャーを行った場合でも、そのジェスチャーにより第2のロボットにも動作指示を出してしまう場合もある。 However, when there is a robot control command associated with the same gesture in the first robot control command group and the second robot control command group, for example, the operator operates only on the first robot. Even if the user wants to give an instruction and performs the gesture, the gesture may give an operation instruction to the second robot.
そこで、ロボット制御部130は、取得された撮像情報に基づいて、作業者の肩の上方領域に設定された第1の検出領域内から作業者のジェスチャーを検出した場合には、検出したジェスチャーが第1の検出領域に関連付けられているか否かを判定し、検出したジェスチャーが第1の検出領域に関連付けられていると判定した場合に、検出したジェスチャーに関連付けられた第1のロボット制御コマンドにより第1のロボットを制御してもよい。 Therefore, when the robot control unit 130 detects the operator's gesture from the first detection region set in the upper region of the worker's shoulder based on the acquired imaging information, the detected gesture is If it is determined whether or not the detected gesture is associated with the first detection area, and it is determined that the detected gesture is associated with the first detection area, the first robot control command associated with the detected gesture The first robot may be controlled.
一方、ロボット制御部130は、取得された撮像情報に基づいて、作業者の肩の上方領域に設定され、第1の検出領域と異なる第2の検出領域内から作業者のジェスチャーを検出した場合には、検出したジェスチャーが第2の検出領域に関連付けられているか否かを判定し、検出したジェスチャーが第2の検出領域に関連付けられていると判定した場合に、検出したジェスチャーに関連付けられた第2のロボット制御コマンドにより第2のロボットを制御してもよい。 On the other hand, when the robot control unit 130 detects the operator's gesture from the second detection area that is set in the upper area of the worker's shoulder and is different from the first detection area, based on the acquired imaging information. Determines whether or not the detected gesture is associated with the second detection area, and if it is determined that the detected gesture is associated with the second detection area, the detected gesture is associated with the detected gesture The second robot may be controlled by the second robot control command.
例えば、前述した図6のケース5及びケース6のように、作業者の右側領域において行われたジェスチャーは、作業者の右側に配置された第1のロボット(例えば図3のRB2)へ動作を指示するものとして扱い、図6のケース7及びケース8のように、作業者の左側領域におけるジェスチャーは、作業者の左側に配置された第2のロボット(例えば図3のRB1)へ動作を指示するものとして扱う。 For example, as in the case 5 and case 6 of FIG. 6 described above, a gesture performed in the right side area of the worker moves to the first robot (for example, RB2 in FIG. 3) arranged on the right side of the worker. As in case 7 and case 8 in FIG. 6, the gesture in the left area of the worker instructs the second robot (for example, RB1 in FIG. 3) arranged on the left side of the worker. Treat as what you want.
これにより、作業者は、同じジェスチャーでも、そのジェスチャーを行う領域を変えることによって、複数のロボットに動作指示を出すこと等が可能になる。 As a result, even with the same gesture, the operator can issue operation instructions to a plurality of robots by changing the area where the gesture is performed.
一方で、第1のロボットへ動作指示を出す領域と、第2のロボットへ動作指示を出す領域が分かれていると、緊急時などに両方のロボットへ同時に指示を出すのが難しい場合がある。 On the other hand, if an area for issuing an operation instruction to the first robot and an area for issuing an operation instruction to the second robot are separated, it may be difficult to issue instructions to both robots simultaneously in an emergency.
そこで、ロボット制御部130は、検出したジェスチャーが緊急時用ジェスチャーであると判定した場合には、ジェスチャーを検出した検出領域が第1の検出領域及び第2の検出領域のいずれの検出領域であっても、検出したジェスチャーに関連付けられた緊急ロボット制御コマンドに従って、第1のロボット及び第2のロボットを制御してもよい。 Therefore, when the robot control unit 130 determines that the detected gesture is an emergency gesture, the detection region where the gesture is detected is either the first detection region or the second detection region. Alternatively, the first robot and the second robot may be controlled in accordance with the emergency robot control command associated with the detected gesture.
ここで、緊急時用ジェスチャーとは、緊急ロボット制御コマンドが関連付けられたジェスチャーのことをいう。 Here, the emergency gesture refers to a gesture associated with an emergency robot control command.
そして、緊急ロボット制御コマンドとは、例えば非常停止コマンドなど、他のロボット制御コマンドに比べて即時実施する必要性が高いロボット制御コマンドのことをいう。例えば、図5のケース1〜ケース4のロボット制御コマンドは、緊急ロボット制御コマンドであると言える。 The emergency robot control command refers to a robot control command that needs to be executed immediately compared to other robot control commands such as an emergency stop command. For example, it can be said that the robot control commands in case 1 to case 4 in FIG. 5 are emergency robot control commands.
図5のケース1〜ケース4のように、緊急時用ジェスチャーを検出した場合には、ジェスチャーの検出位置が第1の検出領域であっても、第2の検出領域であっても関わりなく、緊急時用ジェスチャーに関連付けられた緊急ロボット制御コマンドを特定し、第1のロボット及び第2のロボットがこれを実行する。 When the emergency gesture is detected as in the case 1 to the case 4 in FIG. 5, regardless of whether the detection position of the gesture is the first detection area or the second detection area, An emergency robot control command associated with the emergency gesture is identified and executed by the first robot and the second robot.
これにより、第1のロボットと第2のロボットの両方に緊急の動作指示を出したい場合には、位置に関わりなく、第1のロボットと第2のロボットの両方に動作指示を出すこと等が可能になる。 As a result, when it is desired to give an urgent operation instruction to both the first robot and the second robot, the operation instruction can be issued to both the first robot and the second robot regardless of the position. It becomes possible.
また、上記の各種処理は、前述したように、ロボット200の外部のロボット制御装置100が行ってもよいし、ロボット200が行ってもよい。 Further, as described above, the above-described various processes may be performed by the robot control device 100 outside the robot 200 or may be performed by the robot 200.
すなわち、ロボット200は、作業者を撮像して撮像情報を取得し、取得された撮像情報を、作業者からの指示を含むロボット制御コマンドに変換して動作し、作業者がロボット制御コマンドの内容を確認できる通知画像を表示部に表示してもよい。 That is, the robot 200 captures an image of a worker to acquire imaging information, and operates by converting the acquired imaging information into a robot control command including an instruction from the worker. A notification image that can be confirmed may be displayed on the display unit.
また、ロボット200は、取得された撮像情報から作業者の手の形状パターン、手の位置及び手の動きのうちの少なくとも一つを検出したパターンをハンドパターンとし、ハンドパターンをロボット制御コマンドに変換してもよい。 In addition, the robot 200 converts the hand pattern into a robot control command using a pattern obtained by detecting at least one of the shape pattern of the worker's hand, the position of the hand, and the movement of the hand from the acquired imaging information. May be.
また、ロボット200は、取得された撮像情報から、作業者の手の甲の認識処理を行い、認識処理の結果に基づいて、ロボット制御コマンドへの変換及び作業者の識別のうちの少なくとも一方を行ってもよい。 Further, the robot 200 performs recognition processing of the back of the worker's hand from the acquired imaging information, and performs at least one of conversion into a robot control command and identification of the worker based on the result of the recognition processing. Also good.
また、ロボット200は、ロボット制御コマンドの内容を表示する記号画像が、作業者の手に対応する位置に配置された通知画像を、表示部に表示してもよい。 In addition, the robot 200 may display a notification image in which a symbol image that displays the contents of the robot control command is arranged at a position corresponding to the hand of the operator on the display unit.
なお、本実施形態のロボットシステム300、生産システム及びロボット200等は、その処理の一部または大部分をプログラムにより実現してもよい。この場合には、CPU等のプロセッサーがプログラムを実行することで、本実施形態のロボットシステム300、生産システム及びロボット200等が実現される。具体的には、情報記憶媒体に記憶されたプログラムが読み出され、読み出されたプログラムをCPU等のプロセッサーが実行する。ここで、情報記憶媒体(コンピューターにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリー(カード型メモリー、ROM等)などにより実現できる。そして、CPU等のプロセッサーは、情報記憶媒体に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち、情報記憶媒体には、本実施形態の各部としてコンピューター(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピューターに実行させるためのプログラム)が記憶される。 Note that the robot system 300, the production system, the robot 200, and the like of the present embodiment may realize part or most of the processing by a program. In this case, the robot system 300, the production system, the robot 200, and the like of the present embodiment are realized by a processor such as a CPU executing a program. Specifically, a program stored in the information storage medium is read, and a processor such as a CPU executes the read program. Here, the information storage medium (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (DVD, CD, etc.), HDD (hard disk drive), or memory (card type). It can be realized by memory, ROM, etc. A processor such as a CPU performs various processes according to the present embodiment based on a program (data) stored in the information storage medium. That is, in the information storage medium, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit) Is memorized.
4.処理の詳細
以下では、図3の生産システムの構成例及び図9のフローチャートを用いて、本実施形態の処理の流れについて説明する。
4). Details of Processing Hereinafter, the flow of processing according to the present embodiment will be described with reference to the configuration example of the production system in FIG. 3 and the flowchart in FIG. 9.
まず、赤外線カメラCAM及び表示モニターDIS、ロボット制御装置(CP1及びCP2)、ロボット(RB1及びRB2)を起動状態にし、以下の処理において必要となるパラメーターの初期設定を行う(S1)。次に、赤外線カメラCAMにより作業者WKを撮像して、熱画像を取得する(S2)。 First, the infrared camera CAM, the display monitor DIS, the robot control devices (CP1 and CP2), and the robot (RB1 and RB2) are activated, and parameters necessary for the following processing are initialized (S1). Next, the worker WK is imaged by the infrared camera CAM, and a thermal image is acquired (S2).
次に、ステップS2で得られた熱画像から検出対象物の候補領域を抽出する(S3)。具体的には、検出対象物と同様の温度特徴を有する領域を候補領域として抽出する。例えば、検出対象物が作業者WK(人)の手である場合には、肌を露出している顔及び首、手の表面温度が30℃程度の中温になることを利用して、熱画像中から例えば30℃程度の温度を有する候補領域を探索し、その候補領域の位置情報と温度情報を検出する。この際に、位置情報としては例えばその候補領域の重心座標位置を検出すればよく、温度情報としては例えばその候補領域の平均温度を検出すればよい。また重心座標位置以外にも、縦横比、充足率、実面積などの条件を満たす部位の存在を調べてもよい。なお、検出対象物が人以外のものである場合には、その検出対象物が有する温度特徴に基づいて抽出処理を行えばよい。 Next, candidate areas for detection objects are extracted from the thermal image obtained in step S2 (S3). Specifically, an area having a temperature characteristic similar to that of the detection target is extracted as a candidate area. For example, when the detection target is the hand of the worker WK (person), the thermal image is obtained by utilizing the fact that the surface temperature of the face, the neck, and the hand exposing the skin is about 30 ° C. A candidate area having a temperature of, for example, about 30 ° C. is searched for, and position information and temperature information of the candidate area are detected. At this time, as the position information, for example, the barycentric coordinate position of the candidate area may be detected, and as the temperature information, for example, the average temperature of the candidate area may be detected. In addition to the barycentric coordinate position, the existence of a part that satisfies the conditions such as the aspect ratio, the sufficiency rate, and the actual area may be examined. When the detection target is something other than a person, the extraction process may be performed based on the temperature characteristics of the detection target.
そして、ステップS3で得られた各候補領域の位置情報と温度情報とを対応付けた位置‐温度リストを作成する(S4)。 Then, a position-temperature list in which the position information of each candidate area obtained in step S3 is associated with the temperature information is created (S4).
次に、ステップS4で作成した位置‐温度リストに基づいて、ステップS3において候補領域が一つでも抽出されているか否かを判定する(S5)。 Next, based on the position-temperature list created in step S4, it is determined whether at least one candidate region has been extracted in step S3 (S5).
候補領域が一つも抽出されていないと判定した場合には、今回撮像した熱画像の中には作業者WKの手が映っていないものと判定して、ステップS2に戻る。 If it is determined that no candidate region has been extracted, it is determined that the hand of the worker WK is not reflected in the thermal image captured this time, and the process returns to step S2.
一方、候補領域が一つ以上抽出されていると判定した場合には、位置‐温度リストに基づいて、次のパターンマッチング処理の処理対象にする候補領域を選択し、選択した候補領域を実際に熱画像上に設定し(S6)、今回のパターンマッチング処理で用いるテンプレート画像を選択する(S7)。 On the other hand, if it is determined that one or more candidate areas have been extracted, the candidate area to be processed in the next pattern matching process is selected based on the position-temperature list, and the selected candidate area is actually It is set on the thermal image (S6), and a template image used in the current pattern matching process is selected (S7).
ここで、テンプレート画像とは、例えば作業者WKの手の形状パターンの画像や、作業者WKの手の温度分布を示す熱画像など、検出対象物の典型的な特徴を表す画像のことを指す。言い換えれば、テンプレート画像は、検出対象物を表す画像の一例である。テンプレート画像は、ロボットシステムがあらかじめ撮像して記憶しておく等してもよい。 Here, the template image refers to an image representing typical characteristics of the detection target, such as an image of the shape pattern of the hand of the worker WK or a thermal image showing the temperature distribution of the hand of the worker WK. . In other words, the template image is an example of an image representing a detection target. The template image may be captured and stored in advance by the robot system.
そして、パターンマッチング処理を行い、位置‐温度リストにリストアップされている各候補領域内に作業者WKの手が存在するか否かを特定し、候補領域内に作業者WKの手が存在すると判定した場合には、作業者WKの手の位置を検出する(S8)。 Then, pattern matching processing is performed to determine whether or not a worker WK hand exists in each candidate area listed in the position-temperature list, and if the worker WK hand exists in the candidate area If it is determined, the position of the hand of the worker WK is detected (S8).
ここで、パターンマッチング処理とは、熱画像から抽出した温度情報等に基づいて、検出対象物の候補領域とテンプレート画像との比較処理を行い、検出対象物の候補領域内にテンプレート画像と一致する領域があると判断した場合に、検出対象物がその候補領域内に存在すると判断し、検出対象物の候補領域内にテンプレート画像と一致する領域がないと判断した場合に、検出対象物がその候補領域内に存在しないと判断する処理のことをいう。 Here, the pattern matching process is a process for comparing the candidate area of the detection target object with the template image based on temperature information extracted from the thermal image, and matches the template image in the candidate area of the detection target object. When it is determined that there is a region, it is determined that the detection target exists in the candidate region, and when it is determined that there is no region that matches the template image in the candidate region of the detection target, the detection target is This refers to processing for determining that a candidate area does not exist.
具体的に、作業者WKの手を検出する場合には、作業者WKの手の候補領域と人の手のテンプレート画像に対して濃度値の相関演算を行うことによって、作業者WKの手の有無とその詳細な位置を検出する。ただし、本発明はこれに限定されるものではなく、他にもエッジ画像をテンプレート画像として記憶しておき、エッジ画像と候補領域との相関値を計算することにより最終的な対象物の有無とその位置を検出してもよい。 Specifically, when detecting the hand of the worker WK, the density calculation is performed on the candidate region of the worker WK and the template image of the hand of the worker WK, thereby calculating the hand of the worker WK. The presence / absence and its detailed position are detected. However, the present invention is not limited to this, and in addition, the edge image is stored as a template image, and the presence / absence of the final object is calculated by calculating the correlation value between the edge image and the candidate region. The position may be detected.
次に、ステップS4で作成された位置‐温度リストにリストアップされている全ての候補領域に対してパターンマッチング処理が行われたか否かを判定する(S9)。位置‐温度リストの全ての候補領域に対して、パターンマッチング処理が終了していなければ、処理対象となる候補領域を切り替えるために、ステップS6に戻り、次の候補領域の設定処理を行う。 Next, it is determined whether or not the pattern matching process has been performed for all candidate areas listed in the position-temperature list created in step S4 (S9). If the pattern matching process has not been completed for all candidate areas in the position-temperature list, the process returns to step S6 to perform the next candidate area setting process in order to switch the candidate areas to be processed.
一方、位置‐温度リストにリストアップされている全ての候補領域についてパターンマッチング処理が終了している場合には、図6の例に示すように、検出した作業者WKの手の位置に関連付けられたロボット制御コマンド及び命令開始時間、記号画像の特定処理を行う(S10)。 On the other hand, when the pattern matching process has been completed for all candidate areas listed in the position-temperature list, as shown in the example of FIG. 6, the pattern is associated with the detected position of the hand of the worker WK. The robot control command, the command start time, and the symbol image are specified (S10).
そして、通知画像の生成処理を行い(S11)、生成した通知画像を表示部に表示する(S12)。ここで、通知画像の生成処理では、まず撮像した熱画像の中心を通る縦軸に対して線対称になるように、熱画像を鏡像反転し、次に、鏡像反転後の熱画像において作業者WKの手が映る位置に、ステップS10において特定した記号画像を配置設定(重畳)した通知画像を生成する処理を行う。具体的には、図7(D)、図7(E)、図7(F)のような通知画像を生成する。なお、通知画像を表示する際には、警告音を発したり、回転警告燈を点灯させたり、記号画像に色彩を付けて表示したり、記号画像の点滅表示を行ったりしてもよい。 Then, notification image generation processing is performed (S11), and the generated notification image is displayed on the display unit (S12). Here, in the notification image generation process, first, the thermal image is mirror-inverted so as to be line-symmetric with respect to the vertical axis passing through the center of the captured thermal image, and then the worker in the thermal image after the mirror image inversion A process of generating a notification image in which the symbol image identified in step S10 is set (superposed) at the position where the hand of WK is shown is performed. Specifically, notification images as shown in FIGS. 7D, 7E, and 7F are generated. When displaying the notification image, a warning sound may be emitted, a rotation warning lamp may be turned on, the symbol image may be displayed with a color, or the symbol image may be blinked.
最後に、ステップS10において特定した命令開始時間に、ロボット制御コマンドを実行し、ロボットを動作させ(S13)、ステップS2に戻る。 Finally, the robot control command is executed at the instruction start time specified in step S10 to operate the robot (S13), and the process returns to step S2.
5.第1の変形例
また、ステレオカメラを用いて、作業者WKの手の位置を検出する処理の流れを、図10のフローチャートを用いて説明する。なお、この処理は、図9のフローチャートのステップS2〜ステップS8に相当する。
5. First Modification A flow of processing for detecting the position of the hand of the worker WK using a stereo camera will be described with reference to the flowchart of FIG. This process corresponds to steps S2 to S8 in the flowchart of FIG.
まず、左カメラから得られる左カメラ画像に映る作業者WKの手を検出する(S20)。作業者WKの手の検出処理の具体的な流れは、図11のフローチャートのようになる。 First, the hand of the worker WK shown in the left camera image obtained from the left camera is detected (S20). A specific flow of the process of detecting the hand of the worker WK is as shown in the flowchart of FIG.
すなわち、まず左カメラ画像から肌色領域を抽出し(S30)、肌色領域が抽出されたか否かを判定する(S31)。肌色領域が抽出されなかった場合には、抽出エラーが発生したとして、手の検出処理を途中終了する。 That is, first, a skin color area is extracted from the left camera image (S30), and it is determined whether or not a skin color area is extracted (S31). If the skin color area is not extracted, it is determined that an extraction error has occurred, and the hand detection process is terminated halfway.
一方、肌色領域が抽出された場合には、抽出された肌色領域に対して、手の形状のパターンマッチング処理を行う(S32)。なお、このパターンマッチング処理は、前述したパターンマッチング処理と同様の処理である。ただし、ここでは手が検出できさえすればよいので、複数の形状パターンとパターンマッチング処理を行ってもよい。 On the other hand, when the skin color area is extracted, the pattern matching process of the hand shape is performed on the extracted skin color area (S32). This pattern matching process is the same as the pattern matching process described above. However, since it is only necessary to detect the hand here, pattern matching processing with a plurality of shape patterns may be performed.
次に、手を検出したか否かを判定し(S33)、手を検出した場合には、正常に手の検出処理を終了する。一方、手を検出できなかった場合には、検出エラーが発生したとして、手の検出処理を途中終了する。 Next, it is determined whether or not a hand has been detected (S33). If a hand is detected, the hand detection process is normally terminated. On the other hand, if the hand cannot be detected, it is determined that a detection error has occurred, and the hand detection process is terminated halfway.
次に、図10のフローチャートへ戻り、右カメラから得られる右カメラ画像に対しても、前述した図11の手の検出処理を行う(S21)。 Next, returning to the flowchart of FIG. 10, the above-described hand detection process of FIG. 11 is also performed on the right camera image obtained from the right camera (S21).
そして、左カメラ画像において検出した手の位置と、右カメラ画像において検出した手の位置とのマッチング処理を行い、実空間での手の位置を特定する(S22)。さらに、特定した手の位置に基づいて、カメラから手までの距離を算出する(S23)。 Then, matching processing between the position of the hand detected in the left camera image and the position of the hand detected in the right camera image is performed, and the position of the hand in the real space is specified (S22). Further, the distance from the camera to the hand is calculated based on the identified hand position (S23).
その後は、特定した手の位置又は距離に関連付けられたロボット制御プログラム及び命令開始時間、記号画像を特定し、特定した命令開始時間に、特定したロボット制御プログラムに従ってロボットを動作させる。また、特定した記号画像に基づいて、通知画像を生成し、表示部にこれを表示する。 Thereafter, the robot control program, the command start time, and the symbol image associated with the specified hand position or distance are specified, and the robot is operated according to the specified robot control program at the specified command start time. Further, a notification image is generated based on the identified symbol image and displayed on the display unit.
6.第2の変形例
また、ロボット制御部130は、取得された撮像情報に基づいて、作業者の手の甲の認識処理を行い、認識処理の結果に基づいて、ロボット制御コマンドの特定処理及び作業者の識別処理のうちの少なくとも一方を行ってもよい。
6). Second Modification Also, the robot control unit 130 performs recognition processing for the back of the worker's hand based on the acquired imaging information, and based on the recognition processing result, the robot control command identification processing and the operator's At least one of the identification processes may be performed.
ここで、作業者の識別処理とは、あらかじめ手の甲の情報が登録されている複数の作業者の中から、現在生産作業を行っている作業者を特定する処理のことをいう。 Here, the worker identification process refers to a process of identifying a worker who is currently performing a production work from a plurality of workers in which information on the back of the hand is registered in advance.
これにより、例えば未登録者によるロボットの不正操作を防止すること等が可能になる。 Thereby, for example, it is possible to prevent an unauthorized operation of the robot by an unregistered person.
また、ロボット制御部130は、手の甲の形状パターン又は作業者の手の甲に設けられた記号情報に基づいて、作業者の手の甲の認識処理を行ってもよい。 The robot control unit 130 may perform recognition processing for the back of the operator's hand based on the shape pattern of the back of the hand or the symbol information provided on the back of the operator's hand.
ここで、作業者の手の甲に設けられた記号情報とは、例えば作業者が装着する手袋に描かれた又は切り抜かれた任意の記号や図形に関する情報のことをいう。 Here, the symbol information provided on the back of the operator's hand refers to information on an arbitrary symbol or figure drawn or cut out on a glove worn by the operator, for example.
これにより、作業者の手の甲の情報をあらかじめ登録していない場合であっても、手の甲に記号情報が設けられていない不正な人物により、ロボットが操作されるのを防止すること等が可能になる。 As a result, even if the information on the back of the operator's hand is not registered in advance, it is possible to prevent the robot from being operated by an unauthorized person having no symbol information on the back of the hand. .
ここで、カラーカメラと赤外線カメラを用いた作業者の認識処理の具体的な流れについて、図12のフローチャートを用いて説明する。 Here, a specific flow of worker recognition processing using a color camera and an infrared camera will be described with reference to the flowchart of FIG.
まず、カラーカメラにより生産現場を撮像し、取得したカラー画像から肌色領域を抽出する(S40)。そして、肌色領域が抽出できなかった場合には(S41)、作業者が存在しないとして判定して、処理を終了する。 First, the production site is imaged by a color camera, and a skin color region is extracted from the acquired color image (S40). If the skin color area cannot be extracted (S41), it is determined that there is no worker, and the process ends.
一方、カラー画像から肌色領域が抽出できた場合には(S41)、手の甲の形状のテンプレート画像を用いて、パターンマッチング処理を行い、手の甲の検出処理を行う(S42)。なお、このパターンマッチング処理は、図11のステップS32のパターンマッチング処理と同様であるが、前述したように作業者の手の甲に設けられた記号情報に基づいて行ってもよい。 On the other hand, when the skin color region can be extracted from the color image (S41), the pattern matching process is performed using the template image of the back of the hand, and the back of the hand is detected (S42). This pattern matching process is the same as the pattern matching process in step S32 of FIG. 11, but may be performed based on the symbol information provided on the back of the operator's hand as described above.
そして、手の甲が検出されたか否かを判定し(S43)、手の甲が検出されていないと判定した場合には、ステップS40の処理に戻る。 Then, it is determined whether or not the back of the hand has been detected (S43). If it is determined that the back of the hand has not been detected, the process returns to step S40.
一方、手の甲が検出されたと判定した場合には、赤外線カメラから取得された熱画像において手の甲の領域を特定する(S44)。 On the other hand, if it is determined that the back of the hand has been detected, the region of the back of the hand is specified in the thermal image acquired from the infrared camera (S44).
そして、不図示のデータベースDB内に記憶されている最初の人物の特徴情報を取得する(S45)。ここで、人物の特徴情報とは、例えば、血管パターンや手の形状パターン、手の甲の温度分布パターン等のその人物固有の特徴を表す情報のことを指す。人物の特徴情報の取得処理が失敗した場合には(S46)、ステップS40に戻る。 Then, the feature information of the first person stored in the database DB (not shown) is acquired (S45). Here, the feature information of a person refers to information representing features unique to the person, such as a blood vessel pattern, a hand shape pattern, and a temperature distribution pattern of the back of the hand. If the process of acquiring the person characteristic information has failed (S46), the process returns to step S40.
一方、人物の特徴情報の取得処理が成功した場合には(S46)、赤外画像における手の甲の領域の特徴を抽出し(S47)、データベースDBから取得した人物の特徴情報と、赤外画像において抽出した手の甲の領域の特徴情報とを比較する特徴照合処理を行い(S48)、特徴が一致していると判断する場合には(S49)、カラー画像及び赤外画像に映る作業者は、今回の特徴照合処理で用いた特徴情報に対応する人物であると判定し、処理を終了する。 On the other hand, if the acquisition process of the person feature information is successful (S46), the feature of the back of the hand in the infrared image is extracted (S47), and the person feature information acquired from the database DB and the infrared image are extracted. A feature matching process for comparing the extracted feature information on the back of the hand region is performed (S48), and when it is determined that the features match (S49), the operator reflected in the color image and the infrared image is It is determined that the person corresponds to the feature information used in the feature matching process, and the process ends.
一方、特徴が合致しなかった場合には(S49)、データベースDB内における次の人物の特徴を取得し(S50)、ステップS46に戻る。 On the other hand, if the characteristics do not match (S49), the characteristics of the next person in the database DB are acquired (S50), and the process returns to step S46.
以上のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、ロボットシステム、プログラム、生産システム及びロボットの構成、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。 Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described at least once together with a different term having a broader meaning or the same meaning in the specification or the drawings can be replaced with the different term in any part of the specification or the drawings. In addition, the configurations and operations of the robot system, program, production system, and robot are not limited to those described in this embodiment, and various modifications can be made.
100 ロボット制御装置、110 撮像情報取得部、130 ロボット制御部、150 表示制御部、
200 ロボット、210 アーム、220 ハンド、300 ロボットシステム、400 撮像部、
500 表示部、600 生産システム
DESCRIPTION OF SYMBOLS 100 Robot control apparatus, 110 Imaging information acquisition part, 130 Robot control part, 150 Display control part,
200 robot, 210 arm, 220 hand, 300 robot system, 400 imaging unit,
500 display units, 600 production systems
Claims (22)
前記作業者を撮像する撮像部から撮像情報を取得する撮像情報取得部と、
前記撮像情報に基づいて前記ロボットを制御するロボット制御部と、
表示画像を表示する表示部の表示制御を行う表示制御部と、
を含み、
前記ロボット制御部は、
取得された前記撮像情報に基づいて前記作業者のジェスチャーを検出し、検出した前記ジェスチャーに関連付けられたロボット制御コマンドを特定し、
前記表示制御部は、
前記ロボット制御部が特定した前記ロボット制御コマンドを前記作業者へ通知する通知画像を前記表示部に表示する制御を行うことを特徴とするロボットシステム。 A robot that performs production work mixed with workers in the production system;
An imaging information acquisition unit that acquires imaging information from an imaging unit that images the worker;
A robot controller that controls the robot based on the imaging information;
A display control unit that performs display control of a display unit that displays a display image;
Including
The robot controller is
Detecting the operator's gesture based on the acquired imaging information, identifying a robot control command associated with the detected gesture,
The display control unit
A robot system which performs control to display a notification image for notifying the operator of the robot control command specified by the robot control unit on the display unit.
前記表示制御部は、
前記ロボット制御部が特定した前記ロボット制御コマンドの内容を表す記号画像を含む前記通知画像を、前記表示部に表示する制御を行うことを特徴とするロボットシステム。 In claim 1,
The display control unit
The robot system characterized by performing control which displays the said notification image containing the symbol image showing the content of the said robot control command which the said robot control part specified on the said display part.
前記ロボット制御部は、
取得された前記撮像情報に基づいて前記作業者のハンドパターンを検出し、検出した前記ハンドパターンに関連付けられた前記ロボット制御コマンドを特定することを特徴とするロボットシステム。 In claim 1 or 2,
The robot controller is
A robot system characterized by detecting a hand pattern of the worker based on the acquired imaging information and specifying the robot control command associated with the detected hand pattern.
前記ロボット制御部は、
取得された前記撮像情報に基づいて前記作業者の手の形状パターン、手の位置及び手の動きのうちの少なくとも一つを前記ハンドパターンとして検出し、検出した前記ハンドパターンに関連付けられた前記ロボット制御コマンドを特定することを特徴とするロボットシステム。 In claim 3,
The robot controller is
Based on the acquired imaging information, the robot detects at least one of the hand pattern of the operator, the position of the hand, and the movement of the hand as the hand pattern, and is associated with the detected hand pattern A robot system characterized by specifying a control command.
前記表示制御部は、
前記ロボット制御部が特定した前記ロボット制御コマンドの内容を表示する記号画像が、前記作業者の手に対応する位置に配置された前記通知画像を、前記表示部に表示する制御を行うことを特徴とするロボットシステム。 In claim 3 or 4,
The display control unit
The symbol image displaying the content of the robot control command specified by the robot control unit is controlled to display the notification image arranged at a position corresponding to the hand of the worker on the display unit. A robot system.
前記ロボット制御部は、
取得された前記撮像情報に基づいて、前記作業者の肩の上方領域に設定された検出領域内から前記作業者の前記ジェスチャーを検出することを特徴とするロボットシステム。 In any one of Claims 1 thru | or 5,
The robot controller is
A robot system that detects the gesture of the worker from a detection region set in an upper region of the shoulder of the worker based on the acquired imaging information.
前記ロボット制御部は、
前記作業者と混在して生産作業を行う第1のロボットを第1のロボット制御コマンドにより制御し、前記第1のロボットと異なる第2のロボットを第2のロボット制御コマンドにより制御し、
前記ロボット制御部は、
取得された前記撮像情報に基づいて、前記作業者の肩の前記上方領域に設定された第1の検出領域内から前記作業者の前記ジェスチャーを検出した場合には、検出した前記ジェスチャーが前記第1の検出領域に関連付けられているか否かを判定し、検出した前記ジェスチャーが前記第1の検出領域に関連付けられていると判定した場合に、検出した前記ジェスチャーに関連付けられた前記第1のロボット制御コマンドにより前記第1のロボットを制御し、
取得された前記撮像情報に基づいて、前記作業者の肩の前記上方領域に設定され、前記第1の検出領域と異なる第2の検出領域内から前記作業者の前記ジェスチャーを検出した場合には、検出した前記ジェスチャーが前記第2の検出領域に関連付けられているか否かを判定し、検出した前記ジェスチャーが前記第2の検出領域に関連付けられていると判定した場合に、検出した前記ジェスチャーに関連付けられた前記第2のロボット制御コマンドにより前記第2のロボットを制御することを特徴とするロボットシステム。 In claim 6,
The robot controller is
A first robot that performs production work in a mixed manner with the worker is controlled by a first robot control command; a second robot that is different from the first robot is controlled by a second robot control command;
The robot controller is
Based on the acquired imaging information, when the gesture of the worker is detected from within a first detection region set in the upper region of the worker's shoulder, the detected gesture is the first The first robot associated with the detected gesture when it is determined whether the detected gesture is associated with the first detection area, and when it is determined that the detected gesture is associated with the first detection area. Controlling the first robot by a control command;
When the gesture of the worker is detected from within a second detection area that is set in the upper area of the shoulder of the worker based on the acquired imaging information and is different from the first detection area Determining whether or not the detected gesture is associated with the second detection region, and determining that the detected gesture is associated with the second detection region; A robot system, wherein the second robot is controlled by the associated second robot control command.
前記ロボット制御部は、
検出した前記ジェスチャーが緊急時用ジェスチャーであると判定した場合には、前記ジェスチャーを検出した前記検出領域が前記第1の検出領域及び前記第2の検出領域のいずれの前記検出領域であっても、検出した前記ジェスチャーに関連付けられた緊急ロボット制御コマンドに従って、前記第1のロボット及び前記第2のロボットを制御することを特徴とするロボットシステム。 In claim 7,
The robot controller is
When it is determined that the detected gesture is an emergency gesture, whether the detection area where the gesture is detected is the detection area of the first detection area or the second detection area A robot system that controls the first robot and the second robot in accordance with an emergency robot control command associated with the detected gesture.
前記ロボット制御部は、
取得された前記撮像情報に基づいて、前記作業者の前記ジェスチャーを検出しない検出除外領域を設定し、前記検出除外領域以外の領域に前記検出領域を設定することを特徴とするロボットシステム。 In any of claims 6 to 8,
The robot controller is
A robot system that sets a detection exclusion region that does not detect the gesture of the worker based on the acquired imaging information, and sets the detection region in a region other than the detection exclusion region.
前記ロボット制御部は、
少なくとも前記作業者の顔領域を含む領域を前記検出除外領域として設定することを特徴とするロボットシステム。 In claim 9,
The robot controller is
A robot system characterized in that an area including at least the face area of the worker is set as the detection exclusion area.
前記ロボット制御部は、
検出した前記ジェスチャーに基づいて命令開始時間を特定し、特定した前記命令開始時間に、前記ジェスチャーに関連付けられた前記ロボット制御コマンドに従って、前記ロボットを制御することを特徴とするロボットシステム。 In any one of Claims 1 thru | or 10.
The robot controller is
An instruction start time is specified based on the detected gesture, and the robot is controlled according to the robot control command associated with the gesture at the specified instruction start time.
前記ロボット制御部は、
取得された前記撮像情報に基づいて、前記作業者の手の甲の認識処理を行い、前記認識処理の結果に基づいて、前記ロボット制御コマンドの特定処理及び前記作業者の識別処理のうちの少なくとも一方を行うことを特徴とするロボットシステム。 In any one of Claims 1 thru | or 11,
The robot controller is
Based on the acquired imaging information, the back of the operator's hand is recognized, and at least one of the robot control command specifying process and the worker identifying process is performed based on the result of the recognition process. Robot system characterized by performing.
前記作業者を撮像する撮像部から撮像情報を取得する撮像情報取得部と、
前記撮像情報に基づいて前記ロボットを制御するロボット制御部と、
を含み、
前記ロボット制御部は、
取得された前記撮像情報に基づいて、前記作業者の手の甲の認識処理を行い、前記認識処理の結果に基づいて、前記ロボットを制御するために用いるロボット制御コマンドの特定処理及び前記作業者の識別処理のうちの少なくとも一方を行うことを特徴とするロボットシステム。 A robot that performs production work mixed with workers in the production system;
An imaging information acquisition unit that acquires imaging information from an imaging unit that images the worker;
A robot controller that controls the robot based on the imaging information;
Including
The robot controller is
Based on the acquired imaging information, recognition processing of the back of the operator's hand is performed, and based on the recognition processing result, identification processing of the robot control command used for controlling the robot and identification of the operator A robot system that performs at least one of processing.
前記ロボット制御部は、
手の甲の形状パターン又は前記作業者の手の甲に設けられた記号情報に基づいて、前記作業者の手の甲の前記認識処理を行うことを特徴とするロボットシステム。 In claim 12 or 13,
The robot controller is
A robot system that performs the recognition processing of the back of the operator's hand based on a shape pattern of the back of the hand or symbol information provided on the back of the operator's hand.
前記作業者を撮像する撮像部から撮像情報を取得する撮像情報取得部と、
前記撮像情報に基づいて前記ロボットを制御するロボット制御部と、
表示画像を表示する表示部の表示制御を行う表示制御部として、
コンピューターを機能させ、
前記ロボット制御部は、
取得された前記撮像情報に基づいて前記作業者のジェスチャーを特定し、特定した前記ジェスチャーに関連付けられたロボット制御コマンドを特定し、
前記表示制御部は、
前記ロボット制御部が特定した前記ロボット制御コマンドを前記作業者へ通知する通知画像を前記表示部に表示する制御を行うことを特徴とするプログラム。 A robot that performs production work mixed with workers in the production system;
An imaging information acquisition unit that acquires imaging information from an imaging unit that images the worker;
A robot controller that controls the robot based on the imaging information;
As a display control unit that performs display control of a display unit that displays a display image,
Make the computer work,
The robot controller is
Identifying the operator's gesture based on the acquired imaging information, identifying a robot control command associated with the identified gesture,
The display control unit
The program which controls to display the notification image which notifies the said robot control command which the said robot control part specified to the said worker on the said display part.
前記作業者を撮像する撮像部から撮像情報を取得する撮像情報取得部と、
前記撮像情報に基づいて前記ロボットを制御するロボット制御部として、
コンピューターを機能させ、
前記ロボット制御部は、
取得された前記撮像情報に基づいて、前記作業者の手の甲の認識処理を行い、前記認識処理の結果に基づいて、前記ロボットを制御するために用いるロボット制御コマンドの特定処理及び前記作業者の識別処理のうちの少なくとも一方を行うことを特徴とするプログラム。 A robot that performs production work mixed with workers in the production system;
An imaging information acquisition unit that acquires imaging information from an imaging unit that images the worker;
As a robot controller that controls the robot based on the imaging information,
Make the computer work,
The robot controller is
Based on the acquired imaging information, recognition processing of the back of the operator's hand is performed, and based on the recognition processing result, identification processing of the robot control command used for controlling the robot and identification of the operator A program that performs at least one of the processes.
前記作業者を撮像する撮像部と、
前記撮像部から撮像情報を取得する撮像情報取得部と、
前記撮像情報に基づいて前記ロボットを制御するロボット制御部と、
表示画像を表示する表示部と、
前記表示部の表示制御を行う表示制御部と、
を含み、
前記ロボット制御部は、
取得された前記撮像情報に基づいて前記作業者のジェスチャーを検出し、検出した前記ジェスチャーに関連付けられたロボット制御コマンドを特定し、
前記表示制御部は、
前記ロボット制御部が特定した前記ロボット制御コマンドを前記作業者へ通知する通知画像を前記表示部に表示する制御を行うことを特徴とする生産システム。 A robot that performs mixed production with workers,
An imaging unit for imaging the worker;
An imaging information acquisition unit for acquiring imaging information from the imaging unit;
A robot controller that controls the robot based on the imaging information;
A display unit for displaying a display image;
A display control unit that performs display control of the display unit;
Including
The robot controller is
Detecting the operator's gesture based on the acquired imaging information, identifying a robot control command associated with the detected gesture,
The display control unit
A production system for performing a control to display a notification image for notifying the worker of the robot control command specified by the robot control unit on the display unit.
前記作業者を撮像して撮像情報を取得し、
取得された前記撮像情報を前記ロボット制御コマンドに変換して動作し、
前記作業者が前記ロボット制御コマンドの内容を確認できる通知画像を表示部に表示することを特徴とするロボット。 A robot that operates based on a robot control command including an instruction from an operator,
Imaging the worker to obtain imaging information,
Operates by converting the acquired imaging information into the robot control command,
A robot that displays a notification image on the display unit so that the worker can confirm the content of the robot control command.
取得された前記撮像情報から前記作業者の手の形状パターン、手の位置及び手の動きのうちの少なくとも一つを検出したパターンをハンドパターンとし、前記ハンドパターンを前記ロボット制御コマンドに変換することを特徴とするロボット。 In claim 18,
A pattern obtained by detecting at least one of the shape pattern of the worker's hand, the position of the hand, and the movement of the hand from the acquired imaging information is used as a hand pattern, and the hand pattern is converted into the robot control command. Robot characterized by.
取得された前記撮像情報から、前記作業者の手の甲の認識処理を行い、前記認識処理の結果に基づいて、前記ロボット制御コマンドへの変換及び前記作業者の識別のうちの少なくとも一方を行うことを特徴とするロボット。 In any of claims 18 or 19
A recognition process of the back of the operator's hand is performed from the acquired imaging information, and at least one of conversion to the robot control command and identification of the operator is performed based on a result of the recognition process. Characteristic robot.
前記通知画像は、
前記ロボット制御コマンドの内容を表す記号画像を含むことを特徴とするロボット。 In any of claims 18 to 20,
The notification image is
A robot comprising a symbol image representing the contents of the robot control command.
前記ロボット制御コマンドの内容を表示する前記記号画像が、前記作業者の手に対応する位置に配置された前記通知画像を、前記表示部に表示することを特徴とするロボット。 In claim 21,
The robot characterized by displaying the said notification image by which the said symbol image which displays the content of the said robot control command was arrange | positioned in the position corresponding to the said operator's hand on the said display part.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012258233A JP6221224B2 (en) | 2012-11-27 | 2012-11-27 | Robot system, program, production system and robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012258233A JP6221224B2 (en) | 2012-11-27 | 2012-11-27 | Robot system, program, production system and robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014104527A true JP2014104527A (en) | 2014-06-09 |
JP6221224B2 JP6221224B2 (en) | 2017-11-01 |
Family
ID=51026454
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012258233A Expired - Fee Related JP6221224B2 (en) | 2012-11-27 | 2012-11-27 | Robot system, program, production system and robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6221224B2 (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105334851A (en) * | 2014-08-12 | 2016-02-17 | 深圳市银星智能科技股份有限公司 | Mobile device capable of sensing gesture |
WO2016193058A1 (en) * | 2015-05-29 | 2016-12-08 | Kuka Roboter Gmbh | Method for determining a path point |
WO2017033367A1 (en) * | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | Remote control robot system |
JP2018015863A (en) * | 2016-07-29 | 2018-02-01 | 川崎重工業株式会社 | Robot system, teaching data generation system, and teaching data generation method |
JP2018015824A (en) * | 2016-07-26 | 2018-02-01 | 公立大学法人会津大学 | Device for operating robots, method and program implemented in the same device |
DE102016221861A1 (en) | 2016-11-08 | 2018-05-09 | Volkswagen Aktiengesellschaft | Device and method for acting on objects |
CN108491767A (en) * | 2018-03-06 | 2018-09-04 | 北京因时机器人科技有限公司 | Autonomous roll response method, system and manipulator based on Online Video perception |
CN109732606A (en) * | 2019-02-13 | 2019-05-10 | 深圳大学 | Long-range control method, device, system and the storage medium of mechanical arm |
JP2019084669A (en) * | 2017-11-06 | 2019-06-06 | 邦夫 戸熊 | Processing assembling method for enabling interchanging between robot work and person work |
WO2019180916A1 (en) * | 2018-03-23 | 2019-09-26 | 三菱電機株式会社 | Robot control device |
JP2020066080A (en) * | 2018-10-23 | 2020-04-30 | ファナック株式会社 | Robot system and robot control method for cooperative work with person |
JP2020142344A (en) * | 2019-03-08 | 2020-09-10 | トヨタ自動車株式会社 | Environmental monitoring system |
WO2020213545A1 (en) * | 2019-04-17 | 2020-10-22 | ソニー株式会社 | Robot, transmission method, and transmission estimation method |
DE102019115763A1 (en) * | 2019-06-11 | 2020-12-17 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Method for operating a human machine interface |
CN112894820A (en) * | 2021-01-29 | 2021-06-04 | 清华大学深圳国际研究生院 | Flexible mechanical arm remote operation man-machine interaction device and system |
CN117021117A (en) * | 2023-10-08 | 2023-11-10 | 电子科技大学 | Mobile robot man-machine interaction and positioning method based on mixed reality |
KR20240130927A (en) | 2023-02-22 | 2024-08-30 | 한국기술교육대학교 산학협력단 | Collaborative robot system using machine learning-based hand signal recognition and its control method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000202790A (en) * | 1999-01-14 | 2000-07-25 | Sharp Corp | Robot device |
JP2003080482A (en) * | 2001-09-07 | 2003-03-18 | Yaskawa Electric Corp | Robot teaching device |
JP2011042011A (en) * | 2009-08-21 | 2011-03-03 | Tokyo Metropolitan Univ | Robot control device, method and program, and robot |
JP2011221699A (en) * | 2010-04-07 | 2011-11-04 | Yaskawa Electric Corp | Operation instruction recognition device and robot |
-
2012
- 2012-11-27 JP JP2012258233A patent/JP6221224B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000202790A (en) * | 1999-01-14 | 2000-07-25 | Sharp Corp | Robot device |
JP2003080482A (en) * | 2001-09-07 | 2003-03-18 | Yaskawa Electric Corp | Robot teaching device |
JP2011042011A (en) * | 2009-08-21 | 2011-03-03 | Tokyo Metropolitan Univ | Robot control device, method and program, and robot |
JP2011221699A (en) * | 2010-04-07 | 2011-11-04 | Yaskawa Electric Corp | Operation instruction recognition device and robot |
Cited By (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105334851A (en) * | 2014-08-12 | 2016-02-17 | 深圳市银星智能科技股份有限公司 | Mobile device capable of sensing gesture |
WO2016193058A1 (en) * | 2015-05-29 | 2016-12-08 | Kuka Roboter Gmbh | Method for determining a path point |
CN107921646B (en) * | 2015-08-25 | 2021-05-18 | 川崎重工业株式会社 | Remote operation robot system |
WO2017033367A1 (en) * | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | Remote control robot system |
JP7007910B2 (en) | 2015-08-25 | 2022-01-25 | 川崎重工業株式会社 | Remote control robot system |
CN107848116B (en) * | 2015-08-25 | 2021-09-28 | 川崎重工业株式会社 | Remote operation robot system |
CN107921645B (en) * | 2015-08-25 | 2021-09-10 | 川崎重工业株式会社 | Remote operation robot system |
CN107848116A (en) * | 2015-08-25 | 2018-03-27 | 川崎重工业株式会社 | Tele-manipulator system |
CN107921645A (en) * | 2015-08-25 | 2018-04-17 | 川崎重工业株式会社 | Tele-manipulator system |
CN107921646A (en) * | 2015-08-25 | 2018-04-17 | 川崎重工业株式会社 | Tele-manipulator system |
US11103322B2 (en) | 2015-08-25 | 2021-08-31 | Kawasaki Jukogyo Kabushiki Kaisha | Remote control robot system |
JPWO2017033366A1 (en) * | 2015-08-25 | 2018-06-07 | 川崎重工業株式会社 | Remote control robot system |
JPWO2017033367A1 (en) * | 2015-08-25 | 2018-06-07 | 川崎重工業株式会社 | Remote control robot system |
JPWO2017033365A1 (en) * | 2015-08-25 | 2018-06-14 | 川崎重工業株式会社 | Remote control robot system |
US10631942B2 (en) | 2015-08-25 | 2020-04-28 | Kawasaki Jukogyo Kabushiki Kaisha | Remote control robot system |
US10835333B2 (en) | 2015-08-25 | 2020-11-17 | Kawasaki Jukogyo Kabushiki Kaisha | Remote control robot system |
EP3342564A4 (en) * | 2015-08-25 | 2019-05-29 | Kawasaki Jukogyo Kabushiki Kaisha | Remote control robot system |
WO2017033366A1 (en) * | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | Remote control robot system |
WO2017033365A1 (en) * | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | Remote control robot system |
JP2018015824A (en) * | 2016-07-26 | 2018-02-01 | 公立大学法人会津大学 | Device for operating robots, method and program implemented in the same device |
JP2018015863A (en) * | 2016-07-29 | 2018-02-01 | 川崎重工業株式会社 | Robot system, teaching data generation system, and teaching data generation method |
DE102016221861B4 (en) | 2016-11-08 | 2022-05-05 | Volkswagen Aktiengesellschaft | Device and method for influencing objects |
DE102016221861A1 (en) | 2016-11-08 | 2018-05-09 | Volkswagen Aktiengesellschaft | Device and method for acting on objects |
JP2019084669A (en) * | 2017-11-06 | 2019-06-06 | 邦夫 戸熊 | Processing assembling method for enabling interchanging between robot work and person work |
CN108491767A (en) * | 2018-03-06 | 2018-09-04 | 北京因时机器人科技有限公司 | Autonomous roll response method, system and manipulator based on Online Video perception |
JP6625266B1 (en) * | 2018-03-23 | 2019-12-25 | 三菱電機株式会社 | Robot controller |
WO2019180916A1 (en) * | 2018-03-23 | 2019-09-26 | 三菱電機株式会社 | Robot control device |
JP2020066080A (en) * | 2018-10-23 | 2020-04-30 | ファナック株式会社 | Robot system and robot control method for cooperative work with person |
CN111085993A (en) * | 2018-10-23 | 2020-05-01 | 发那科株式会社 | Robot system for performing cooperative work with human and robot control method |
US11235463B2 (en) | 2018-10-23 | 2022-02-01 | Fanuc Corporation | Robot system and robot control method for cooperative work with human |
CN109732606A (en) * | 2019-02-13 | 2019-05-10 | 深圳大学 | Long-range control method, device, system and the storage medium of mechanical arm |
JP2020142344A (en) * | 2019-03-08 | 2020-09-10 | トヨタ自動車株式会社 | Environmental monitoring system |
WO2020213545A1 (en) * | 2019-04-17 | 2020-10-22 | ソニー株式会社 | Robot, transmission method, and transmission estimation method |
DE102019115763A1 (en) * | 2019-06-11 | 2020-12-17 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Method for operating a human machine interface |
CN112894820A (en) * | 2021-01-29 | 2021-06-04 | 清华大学深圳国际研究生院 | Flexible mechanical arm remote operation man-machine interaction device and system |
KR20240130927A (en) | 2023-02-22 | 2024-08-30 | 한국기술교육대학교 산학협력단 | Collaborative robot system using machine learning-based hand signal recognition and its control method |
CN117021117A (en) * | 2023-10-08 | 2023-11-10 | 电子科技大学 | Mobile robot man-machine interaction and positioning method based on mixed reality |
CN117021117B (en) * | 2023-10-08 | 2023-12-15 | 电子科技大学 | Mobile robot man-machine interaction and positioning method based on mixed reality |
Also Published As
Publication number | Publication date |
---|---|
JP6221224B2 (en) | 2017-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6221224B2 (en) | Robot system, program, production system and robot | |
US9323343B2 (en) | Information processing method and information processing apparatus | |
JP6030430B2 (en) | Control device, vehicle and portable terminal | |
US10678329B2 (en) | Line-of-sight input device, and method of line-of-sight input | |
JP5232930B1 (en) | Information processing apparatus, electronic device, and program | |
CN103207671A (en) | Touch free operation of ablator workstation by use of depth sensors | |
US9916043B2 (en) | Information processing apparatus for recognizing user operation based on an image | |
CN103207670A (en) | Touch free operation of devices by use of depth sensors | |
KR20150032019A (en) | Method and apparatus for providing user interface by using eye tracking | |
US10133900B2 (en) | Controlling the output of contextual information using a computing device | |
JP2014134383A (en) | Three-dimensional measuring device, input method, and program | |
JP2020019127A (en) | Cooperative operation support device | |
US20220281109A1 (en) | Robot system, terminal, control method for robot system, and control method for terminal | |
JP6498802B1 (en) | Biological information analysis apparatus and face type simulation method thereof | |
JP2019028968A (en) | Biological information analyzer capable of marking cheek rouge region | |
JP2018109557A (en) | Position detection device, object detection sensor, position detection system, position detection method, and position detection program | |
CN105228286B (en) | A kind of lamp control system and method for contactless humanbody control | |
JP6289655B2 (en) | Screen operation apparatus and screen operation method | |
JP7331462B2 (en) | ROBOT SYSTEM, ROBOT CONTROL METHOD AND ELECTRONIC DEVICE | |
KR102499576B1 (en) | Electric apparatus and method for control thereof | |
JP2009205498A (en) | Information presentation device, information presentation method, information presentation program, and recording medium recorded with the program | |
JP2012103836A (en) | Shadow image display system, shadow image display method and shadow image display program | |
JP2018109558A (en) | Rotational deviation quantity detection device, object detection sensor, rotational deviation quantity detection system, rotational deviation quantity detection method, and rotational deviation quantity detection program | |
JP2017211739A (en) | User interface device and user interface program | |
KR20170116554A (en) | Apparatus for sharing data and providing reward in accordance with shared data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151119 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20160609 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20160621 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160908 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160921 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170316 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170918 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6221224 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |