[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7342676B2 - 遠隔操作システム及び遠隔操作方法 - Google Patents

遠隔操作システム及び遠隔操作方法 Download PDF

Info

Publication number
JP7342676B2
JP7342676B2 JP2019225287A JP2019225287A JP7342676B2 JP 7342676 B2 JP7342676 B2 JP 7342676B2 JP 2019225287 A JP2019225287 A JP 2019225287A JP 2019225287 A JP2019225287 A JP 2019225287A JP 7342676 B2 JP7342676 B2 JP 7342676B2
Authority
JP
Japan
Prior art keywords
grasping
captured image
input information
grasped
door
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019225287A
Other languages
English (en)
Other versions
JP2021094605A (ja
Inventor
貴史 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019225287A priority Critical patent/JP7342676B2/ja
Priority to US17/088,233 priority patent/US11904481B2/en
Priority to EP20212657.9A priority patent/EP3835002B1/en
Priority to KR1020200171172A priority patent/KR102573687B1/ko
Priority to CN202011461713.XA priority patent/CN112975952B/zh
Publication of JP2021094605A publication Critical patent/JP2021094605A/ja
Priority to KR1020230014060A priority patent/KR20230022918A/ko
Application granted granted Critical
Publication of JP7342676B2 publication Critical patent/JP7342676B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36159Detachable or portable programming unit, display, pc, pda
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36168Touchscreen
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/375673-D vision, stereo vision, with two cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39449Pendant, pda displaying camera images overlayed with graphics, augmented reality
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39543Recognize object and plan hand shapes in grasping movements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40532Ann for vision processing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40563Object detection
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45108Aid, robot for aid to, assist human disabled

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Manufacturing & Machinery (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Description

本発明は、遠隔操作システム及び遠隔操作方法に関する。
エンドエフェクタを備える被操作対象(例えば、アームの先端の把持部(例えば、ハンドや吸着部)をエンドエフェクタとして備えるロボット等)を遠隔操作して把持動作等を実行させる技術が知られている。例えば、特許文献1には、ロボット周辺を撮像した撮像画像を表示し、ユーザが撮像画像に対して手書きで入力した指示に基づいて、ロボットに対する操作内容を推定する技術が開示されている。
特許第5326794号公報
しかし、特許文献1に開示された技術は、予め設定された指示図形(〇、×、△等)を手書きで入力することによって、ロボットを遠隔操作するものである。そのため、最近は、より直感的な操作によって被操作対象を遠隔操作することが望まれている。
本発明は、このような問題を解決するためになされたものであり、より直感的な操作が可能な遠隔操作システム及び遠隔操作方法を提供するものである。
本発明の第1の態様における遠隔操作システムは、
エンドエフェクタを備える被操作対象を遠隔操作する遠隔操作システムであって、
前記被操作対象が存在する環境を撮像する撮像部と、
前記撮像部が撮像した前記環境の撮像画像に基づいて、前記エンドエフェクタが把持可能な把持可能部を認識する認識部と、
前記撮像画像を表示すると共に、表示した前記撮像画像に対する手書き入力情報の入力を受け付ける操作端末と、
前記認識部が認識した前記把持可能部と、前記撮像画像に対して入力された前記手書き入力情報と、に基づいて、前記把持可能部の中から前記エンドエフェクタによる把持が要求されている把持対象物を推定すると共に、前記把持対象物に対して要求されている前記エンドエフェクタによる把持動作の仕方を推定する推定部と、
を備える。
本発明の第2の態様における遠隔操作方法は、
エンドエフェクタを備える被操作対象を遠隔操作する遠隔操作システムによる遠隔操作方法であって、
前記被操作対象が存在する環境を撮像し、
前記環境の撮像画像を表示した操作端末において、表示した前記撮像画像に対する手書き入力情報の入力を受け付け、
前記撮像画像に基づいて、前記エンドエフェクタが把持可能な把持可能部を認識し、
前記把持可能部と、前記撮像画像に対して入力された前記手書き入力情報と、に基づいて、前記把持可能部の中から前記エンドエフェクタによる把持が要求されている把持対象物を推定すると共に、前記把持対象物に対して要求されている前記エンドエフェクタによる把持動作の仕方を推定する。
上述した本発明の態様によれば、より直感的な操作が可能な遠隔操作システム及び遠隔操作方法を提供できる。
本実施形態に係る遠隔操作システムが利用される全体環境の例を示す概念図である。 ロボットが存在する第1環境の例を示す図である。 手書き入力情報の例を示す図である。 手書き入力情報の例を示す図である。 手書き入力情報の例を示す図である。 ロボットの外観構成例を示す外観斜視図である。 ロボットのブロック構成例を示すブロック図である。 ロボットが取得した撮像画像の例を示す図である。 第1学習済みモデルが出力する把持可能領域の例を示す図である。 手書き入力情報の例を示す図である。 第2学習済みモデル用の教師データの例を示す図である。 第2学習済みモデル用の教師データの例を示す図である。 遠隔端末のブロック構成例を示すブロック図である。 本実施形態に係る遠隔操作システムの全体的な処理の流れの例を示すフロー図である。 図14のステップS13の処理の詳細な流れの例を示すフロー図である。 手書き入力情報の例を示す図である。 手書き入力情報が複数入力された例を示す図である。
以下、発明の実施形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。また、以下の実施形態では、被操作対象として、アームの先端のハンドをエンドエフェクタとして備えるロボットを例に挙げて説明するが、被操作対象はこれに限定されるものではない。
図1は、本実施形態に係る遠隔操作システム10が利用される全体環境の例を示す概念図である。第1環境において様々な動作を実行するロボット100は、第1環境から離れた第2環境に居る遠隔操作者たるユーザが遠隔端末300(操作端末)を操作することにより、インターネット600に接続されたシステムサーバ500を介して、遠隔操作される。
ロボット100は、第1環境において、無線ルータ700を介してインターネット600と接続されている。また、遠隔端末300は、第2環境において、無線ルータ700を介してインターネット600と接続されている。システムサーバ500は、インターネット600に接続されている。ロボット100は、遠隔端末300の操作に従って、ハンド124による把持動作等を実行する。
なお、本実施形態においては、ハンド124による把持動作には、把持対象物を単に把持する(つかむ)動作に限らず、例えば、以下の動作等も含むとする。
・把持対象物をつかんで持ち上げる動作
・把持対象物がタンス等の扉や引き出しのつまみである場合、つまみをつかんで扉や引き出しを開閉する動作
・把持対象物がドアのドアノブである場合、ドアノブをつかんでドアを開閉する動作
ロボット100は、ステレオカメラ131(撮像部)によって、ロボット100が存在する第1環境を撮像し、インターネット600を介して、撮像画像を遠隔端末300に送信する。また、ロボット100は、撮像画像に基づいて、ハンド124が把持可能な把持可能物を認識する。
図2は、ロボット100が存在する第1環境の例を示す図である。図2の例では、第1環境において、テーブル400、タンス410,420,430、及びドア440が存在している。また、第1環境に存在する把持可能物は、テーブル400に載置された物体401,402、タンス410のつまみ411、タンス420のつまみ421,422、タンス430のつまみ431,432、及びドア440のドアノブ441である。
遠隔端末300は、例えば、タブレット端末であり、タッチパネルが重畳して配置された表示パネル341を有する。表示パネル341には、ロボット100から受信した撮像画像が表示され、ユーザは、ロボット100が存在する第1環境を間接的に視認することができる。また、ユーザは、表示パネル341に表示された撮像画像に対して、ハンド124による把持を要求する把持対象物に対する把持動作の仕方を模擬した画像(第1画像)である手書き入力情報を手書きで入力することができる。手書き入力情報の入力方法としては、表示パネル341に重畳して配置されたタッチパネル上で、ユーザの指やタッチペン等を用いて、撮像画像の該当部分をタッチする方法等があるが、これには限定されない。図3~図5は、撮像画像310に対して入力された手書き入力情報の例を示す図である。図3の例は、テーブル400に載置された直方体上の物体401を上からつかむことを模擬した手書き入力情報901を示している。図4の例は、テーブル400に載置された円柱上の物体402を横からつかむことを模擬した手書き入力情報902を示している。図5の例は、タンス410のつまみ411をつかんで扉を開けることを模擬した手書き入力情報903を示している。図3~図5に示されるように、手書き入力情報の画像は、線等の図形のみからなる画像でも良く、線等の図形と文字との組み合わせからなる画像でも良い。ユーザが撮像画像に対して入力した手書き入力情報は、インターネット600を介してロボット100へ送信される。
ロボット100は、撮像画像から認識した把持可能物と、その撮像画像に対してユーザが入力した手書き入力情報と、に基づいて、把持可能部の中からハンド124による把持が要求されている把持対象物を推定すると共に、推定した把持対象物に対して要求されているハンド124による把持動作の仕方を推定する。
図6は、ロボット100の外観構成例を示す外観斜視図である。ロボット100は、大きく分けて、台車部110と本体部120とによって構成される。台車部110は、円筒形状の筐体内に、それぞれが走行面に接地する2つの駆動輪111と1つのキャスター112とを支持している。2つの駆動輪111は、互いに回転軸芯が一致するように配設されている。それぞれの駆動輪111は、不図示のモータによって独立して回転駆動される。キャスター112は、従動輪であり、台車部110から鉛直方向に延びる旋回軸が車輪の回転軸から離れて車輪を軸支するように設けられており、台車部110の移動方向に倣うように追従する。
台車部110は、上面の周縁部にレーザスキャナ133を備える。レーザスキャナ133は、水平面内の一定の範囲をステップ角ごとにスキャンして、それぞれの方向に障害物が存在するか否かを出力する。さらに、レーザスキャナ133は、障害物が存在する場合には、その障害物までの距離を出力する。
本体部120は、主に、台車部110の上面に搭載された胴部121、胴部121の上面に載置された頭部122、胴部121の側面に支持されたアーム123、及びアーム123の先端部に設置されたハンド124を備える。アーム123とハンド124は、不図示のモータを介して駆動され、把持対象物を把持する。胴部121は、不図示のモータの駆動力により、台車部110に対して鉛直軸周りに回転することができる。
頭部122は、主に、ステレオカメラ131及び表示パネル141を備える。ステレオカメラ131は、同じ画角を有する2つのカメラユニットが互いに離間して配置された構成を有し、それぞれのカメラユニットで撮像された撮像信号を出力する。
表示パネル141は、例えば液晶パネルであり、設定されたキャラクターの顔をアニメーションで表示したり、ロボット100に関する情報をテキストやアイコンで表示したりする。表示パネル141にキャラクターの顔を表示すれば、表示パネル141が擬似的な顔部であるかの印象を周囲の人達に与えることができる。
頭部122は、不図示のモータの駆動力により、胴部121に対して鉛直軸周りに回転することができる。そのため、ステレオカメラ131は、任意の方向を撮像することができ、また、表示パネル141は、任意の方向へ向けて表示内容を呈示することができる。
図7は、ロボット100のブロック構成例を示すブロック図である。ここでは、把持対象物及び把持動作の仕方の推定に関係する主な要素について説明するが、ロボット100の構成としては他の要素も備え、また、把持対象物及び把持動作の仕方の推定に寄与する他の要素が加えられることもあり得る。
制御部150は、例えばCPUであり、例えば胴部121に備えられたコントロールユニットに格納されている。台車駆動ユニット145は、駆動輪111と、駆動輪111を駆動するための駆動回路やモータと、を含む。制御部150は、台車駆動ユニット145へ駆動信号を送ることにより、駆動輪の回転制御を実行する。また、制御部150は、台車駆動ユニット145からエンコーダ等のフィードバック信号を受け取って、台車部110の移動方向や移動速度を把握する。
上体駆動ユニット146は、アーム123及びハンド124と、胴部121及び頭部122と、これらを駆動するための駆動回路やモータと、を含む。制御部150は、上体駆動ユニット146へ駆動信号を送ることにより、把持動作やジェスチャーを実現する。また、制御部150は、上体駆動ユニット146からエンコーダ等のフィードバック信号を受け取って、アーム123及びハンド124の位置や移動速度、胴部121及び頭部122の向きや回転速度を把握する。
表示パネル141は、制御部150が生成した画像信号を受信して表示する。また、制御部150は、上述のように、キャラクター等の画像信号を生成して、表示パネル141へ表示させる。
ステレオカメラ131は、制御部150からの要求に従って、ロボット100が存在する第1環境を撮像し、撮像信号を制御部150へ引き渡す。制御部150は、撮像信号を用いて画像処理を実行したり、予め定められたフォーマットに従って撮像信号を撮像画像に変換したりする。レーザスキャナ133は、制御部150からの要求に従って移動方向に障害物が存在するか否かを検出し、その検出結果である検出信号を制御部150へ引き渡す。
ハンドカメラ135は、例えば距離画像センサであり、把持対象物の距離、形状、方向等を認識するために用いられる。ハンドカメラ135は、対象空間から入射する光学像を光電変換するピクセルが二次元状に配列された撮像素子を含み、ピクセルごとに被写体までの距離を制御部150へ出力する。具体的には、ハンドカメラ135は、パターン光を対象空間に照射する照射ユニットを含み、その反射光を撮像素子で受光して、画像におけるパターンの歪みや大きさから各ピクセルが捉えた被写体までの距離を出力する。なお、制御部150は、より広い周辺環境の様子をステレオカメラ131で把握し、把持対象物近傍の様子をハンドカメラ135で把握する。
メモリ180は、不揮発性の記憶媒体であり、例えばソリッドステートドライブが用いられる。メモリ180は、ロボット100を制御するための制御プログラムの他にも、制御や演算に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶している。特に、メモリ180は、撮像画像を入力画像として、その撮像画像に写っている把持可能物を出力する第1学習済みモデル181と、手書き入力情報の画像を入力画像として、その手書き入力情報が模擬する把持動作の意味を出力する第2学習済みモデル182と、を記憶している。
通信ユニット190は、例えば無線LANユニットであり、無線ルータ700との間で無線通信を行う。通信ユニット190は、遠隔端末300から送られてくる手書き入力情報を受信して制御部150へ引き渡す。また、通信ユニット190は、制御部150の制御に従って、ステレオカメラ131で撮像された撮像画像を遠隔端末300へ送信する。
制御部150は、メモリ180から読み出した制御プログラムを実行することによりロボット100全体の制御と様々な演算処理とを実行する。また、制御部150は、制御に関わる様々な演算や制御を実行する機能実行部としての役割も担う。このような機能実行部として、制御部150は、認識部151及び推定部152を含む。
認識部151は、ステレオカメラ131のいずれか一方のカメラユニットで撮像された撮像画像を入力画像とし、メモリ180から読み出した第1学習済みモデル181から、その撮像画像に写っている、ハンド124が把持可能な把持可能領域を得て、把持可能部を認識する。
図8は、ロボット100がステレオカメラ131により取得した、第1環境の撮像画像310の例を示す図である。図8の撮像画像310には、つまみ411を備えるタンス410と、つまみ421,422を備えるタンス420と、が写っている。認識部151は、このような撮像画像310を入力画像として第1学習済みモデル181に与える。
図9は、図8の撮像画像310を入力画像とした場合に、第1学習済みモデル181が出力する把持可能領域の例を示す図である。具体的には、つまみ411を囲む領域が把持可能領域801として、つまみ421を囲む領域が把持可能領域802として、つまみ422を囲む領域が把持可能領域803として、それぞれ検出される。そのため、認識部151は、把持可能領域801,802,803にそれぞれ囲まれたつまみ411,421,422を、把持可能部として認識する。
第1学習済みモデル181は、ハンド124が把持可能な把持可能部が写る画像と、その画像のうちどの領域が把持可能部であるかの正解値と、の組み合わせである教師データにより学習を行ったニューラルネットワークである。このとき、教師データを、画像中の把持可能部の距離、方向をさらに示す教師データとすることにより、第1学習済みモデル181を、撮像画像を入力画像として、把持可能部を出力するだけでなく、その把持可能部の距離、方向をも出力する学習済みモデルとすることもできる。なお、第1学習済みモデル181は、深層学習により学習を行ったニューラルネットワークであると良い。また、第1学習済みモデル181は、教師データを随時追加して、追加学習をさせても良い。
推定部152は、認識部151が撮像画像から認識した把持可能物と、その撮像画像に対してユーザが入力した手書き入力情報と、に基づいて、認識部151が認識した把持可能部の中からハンド124による把持が要求されている把持対象物を推定すると共に、推定した把持対象物に対して要求されているハンド124による把持動作の仕方を推定する。
図10は、遠隔端末300において、ユーザが図8の撮像画像310に対して入力した手書き入力情報の例を示す図である。図10の例では、撮像画像310上のつまみ411の位置において、手書き入力情報904が入力されている。そのため、推定部152は、認識部151が把持可能部として認識したつまみ411,421,422のうち、ハンド124による把持が要求されている把持対象物は、つまみ411であると推定する。なお、推定部152は、撮像画像310上の手書き入力情報904の入力位置を任意の方法で認識することができる。例えば、遠隔端末300が、撮像画像310上の手書き入力情報904の入力位置を示す位置情報を、手書き入力情報904に含めて送信することとすれば、推定部152は、その位置情報に基づいて、手書き入力情報904の入力位置を認識できる。又は、遠隔端末300が、手書き入力情報904が入力された状態に加工された撮像画像310を送信することとすれば、推定部152は、その撮像画像310に基づいて、手書き入力情報904の入力位置を認識できる。
さらに、推定部152は、ユーザが撮像画像に対して入力した手書き入力情報の画像を入力画像とし、メモリ180から読み出した第2学習済みモデル182から、その手書き入力情報が模擬する把持動作の意味を得て、把持対象物に対して要求されているハンド124による把持動作の仕方を推定する。
第2学習済みモデル182は、手書き入力情報の画像と、その手書き入力情報が模擬する把持動作の意味と、の組み合わせである教師データにより学習を行ったニューラルネットワークである。図11は、第2学習済みモデル182用の教師データの例を示す図である。図11の例は、「つかむ」という把持動作を意味する3つの画像と、「開ける」という把持動作を意味する4つの画像と、を第2学習済みモデル182に学習させるための教師データである。また、図11の教師データと比較して、より細かい教師データを第2学習済みモデル182に学習させても良い。図12は、「つかむ」という把持動作をより細かく第2学習済みモデル182に学習させるための教師データの例を示す図である。図12の例では、教師データは、「上からつかむ」、「横からつかむ」、「斜め上から掴む」という把持動作をそれぞれ意味する画像を、第2学習済みモデル182に学習させるための教師データである。なお、第2学習済みモデル182は、深層学習により学習を行ったニューラルネットワークであると良い。また、第2学習済みモデル182は、教師データを随時追加して、追加学習をさせても良い。
図10の例では、推定部152は、第2学習済みモデル182から、手書き入力情報904が「開ける」という把持動作の意味であることを認識する。そのため、推定部152は、把持対象物であるつまみ411に対して要求されている把持動作は、つまみ411をつかんで扉を開ける、という動作であると推定する。
以上のようにして、推定部152は、ハンド124による把持が要求されている把持対象物と、把持対象物に対して要求されているハンド124による把持動作の仕方と、を推定することができる。また、第1学習済みモデル181によっては、ステレオカメラ131により取得した撮像画像から、把持対象物の距離、方向を得ることができる。なお、把持対象物の距離、方向は、第1環境の撮像画像を画像解析して得ても良いし、その他のセンサからの情報により得ても良い。また、レーザスキャナ133からの検出信号によりロボット100の移動方向に障害物が存在するか否かを検出することもできる。
そのため、制御部150は、把持対象物の距離、方向、障害物の存在の有無等に基づいて、ロボット100が、現在位置から、障害物を回避しつつ、把持対象物の近傍に移動させるための経路を生成し、生成した経路に応じた駆動信号を、台車駆動ユニット145へ送信する。台車駆動ユニット145は、その駆動信号に応じて、把持対象物の近傍にロボット100を移動させる。
制御部150は、ロボット100が把持対象物の近傍に移動した時点で、把持対象物に対して要求されているハンド124による把持動作を開始するための準備を行う。具体的には、まず、制御部150は、ハンドカメラ135が把持対象物を観察できる位置へアーム123を駆動する。続いて、制御部150は、ハンドカメラ135に把持対象物を撮像させ、把持対象物の状態を認識する。
そして、制御部150は、把持対象物の状態と、把持対象物に対して要求されているハンド124による把持動作の仕方と、に基づいて、把持対象物に対して要求されている把持動作を実現するためのハンド124の軌道を生成する。このとき、制御部150は、所定の把持条件を満たすように、ハンド124の軌道を生成する。所定の把持条件は、ハンド124が把持対象物を把持するときの条件や、ハンド124が把持対象物を把持するまでの軌道の条件等を含む。ハンド124が把持対象物を把持するときの条件は、例えば、ハンド124が把持対象物を把持するときに、アーム123を伸ばし過ぎないようにする等である。また、ハンド124が把持対象物を把持するまでの軌道の条件は、例えば、把持対象物が引き出しのつまみである場合、ハンド124が直線軌道を取ること等である。
制御部150は、ハンド124の軌道を生成すると、生成した軌道に応じた駆動信号を上体駆動ユニット146へ送信する。ハンド124は、その駆動信号に応じて、把持対象部に対する把持動作を行う。
図13は、遠隔端末300のブロック構成例を示すブロック図である。ここでは、ロボット100から受信した撮像画像に対して手書き入力情報を入力する処理に関係する主な要素について説明するが、遠隔端末300の構成としては他の要素も備え、また、手書き入力情報を入力する処理に寄与する他の要素が加えられることもあり得る。
演算部350は、例えばCPUであり、メモリ380から読み出した制御プログラムを実行することにより遠隔端末300全体の制御と様々な演算処理とを実行する。表示パネル341は、例えば液晶パネルであり、例えばロボット100から送られてきた撮像画像を表示する。
入力ユニット342は、表示パネル141に重畳して配置されたタッチパネルや、表示パネル141の周縁部に設けられた押しボタン等を含む。入力ユニット342は、ユーザがタッチパネルへのタッチによって入力した、ハンド124による把持を要求する把持対象物に対する把持動作の仕方を模擬した画像である手書き入力情報を、演算部350へ引き渡す。手書き入力情報の例は、例えば図3~図5に示した通りである。
メモリ380は、不揮発性の記憶媒体であり、例えばソリッドステートドライブが用いられる。メモリ380は、遠隔端末300を制御するための制御プログラムの他にも、制御や演算に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶している。
通信ユニット390は、例えば無線LANユニットであり、無線ルータ700との間で無線通信を行う。通信ユニット390は、ロボット100から送られてくる撮像画像を受信して演算部350へ引き渡す。また、通信ユニット390は、演算部350と協働して、手書き入力情報をロボット100へ送信する。
次に、本実施形態に係る遠隔操作システム10の全体的な処理について説明する。図14は、本実施形態に係る遠隔操作システム10の全体的な処理の流れの例を示すフロー図である。左側のフローはロボット100の処理フローを表し、右側のフローは遠隔端末300の処理フローを表す。また、システムサーバ500を介して行う手書き入力情報や撮像画像のやり取りを、点線の矢印で示している。
ロボット100の制御部150は、ロボット100が存在する第1環境を、ステレオカメラ131に撮像させ(ステップS11)、その撮像画像を、通信ユニット190を介して遠隔端末300へ送信する(ステップS12)。
遠隔端末300の演算部350は、ロボット100から通信ユニット390を介して撮像画像を受信すると、受信した撮像画像を表示パネル341に表示する。以降、演算部350は、撮像画像に対する手書き入力情報の入力を受け付ける状態に遷移する(ステップS31)。ユーザが、タッチパネルである入力ユニット342を介して、撮像画像に対して手書き入力情報を入力すると(ステップS31のYes)、演算部350は、その手書き入力情報を、通信ユニット390を介してロボット100へ送信する(ステップS32)。
ロボット100の認識部151は、遠隔端末300から、ユーザが撮像画像に対して入力した手書き入力情報を受信すると、その撮像画像に基づいて、把持可能物を認識する。ロボット100の推定部152は、認識部151が撮像画像から認識した把持可能物と、その撮像画像に対してユーザが入力した手書き入力情報と、に基づいて、認識部151が認識した把持可能部の中からハンド124による把持が要求されている把持対象物を推定すると共に、推定した把持対象物に対して要求されているハンド124による把持動作の仕方を推定する(ステップS13)。
以降、ロボット100の制御部150は、台車駆動ユニット145を制御して、把持対象物の近傍にロボット100を移動させ、ロボット100が把持対象物の近傍に移動した時点で、把持対象物に対して要求されている把持動作を実現するためのハンド124の軌道を生成する(ステップS14)。制御部150は、ハンド124の軌道を生成すると、生成した軌道に応じて上体駆動ユニット146を制御し、ハンド124によって把持対象部に対する把持動作が行われる(ステップS15)。
次に、図14のステップS13の処理の詳細について説明する。図15は、ロボット100による図14のステップS13の処理の詳細な流れの例を示すフロー図である。
遠隔端末300から、ユーザが撮像画像に対して入力した手書き入力情報を受信すると、まず、認識部151は、その撮像画像を入力画像とし、メモリ180から読み出した第1学習済みモデル181から、その撮像画像に写っている把持可能領域を得て、把持可能部を認識する(ステップS131)。
次に、推定部152は、認識部151が認識した把持可能部の中から、撮像画像上の手書き入力情報の入力位置に基づいて、ハンド124による把持が要求されている把持対象物を推定する(ステップS132)。なお、撮像画像上の手書き入力情報の入力位置は、例えば、上述した方法と同様の方法を用いて認識すれば良い。
次に、推定部152は、手書き入力情報の画像を入力画像とし、メモリ180から読み出した第2学習済みモデル182から、その手書き入力情報が模擬する把持動作の意味を得て、把持対象物に対して要求されているハンド124による把持動作の仕方を推定する(ステップS133)。
以上説明したように本実施形態によれば、認識部151は、ロボット100が存在する環境を撮像した撮像画像に基づいて、ハンド124が把持可能な把持可能部を認識する。推定部152は、認識部151が撮像画像から認識した把持可能部と、その撮像画像に対してユーザが入力した手書き入力情報と、に基づいて、把持可能部の中からハンド124による把持が要求されている把持対象物を推定すると共に、推定した把持対象物に対して要求されているハンド124による把持動作の仕方を推定する。
これにより、ユーザは、予め設定された指示図形を思い出しながら手書き入力をしなくても、遠隔操作によってロボット100に把持動作を実行させることができる。従って、より直感的な操作が可能な遠隔操作システム10を実現することができる。
なお、本発明は上記実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
例えば、上記実施の形態では、手書き入力情報は、ハンド124による把持を要求する把持対象物に対する把持動作の仕方を模擬した画像であったが、これには限定されない。手書き入力情報は、把持動作の程度を示す画像をさらに含んでいても良い。この場合、推定部152は、手書き入力情報に基づいて、把持対象物に対して要求されている把持動作の程度をさらに推定しても良い。図16は、把持動作の程度を示す画像を含む手書き入力情報の例を示す図である。図16の例は、図5の手書き入力情報903と同様の画像に、把持動作の程度を示す「30°」という画像が追加された手書き入力情報905を示している。図16の例では、推定部152は、つまみ411に対して要求されている把持動作は、つまみ411をつかんで扉を30°開ける、という動作であると推定する。これにより、ユーザは、よりきめ細やかな直感的な操作が可能になる。
また、上記実施の形態では、撮像画像に対して1つの手書き入力情報が入力される例を説明したが、これには限定されない。撮像画像に対しては複数の手書き入力情報が入力されても良い。撮像画像に対して複数の手書き入力情報が入力された場合、推定部152は、複数の手書き入力情報毎に、把持対象物及び把持動作の仕方を推定する。このとき、推定部152は、把持動作の順番を、把持動作に対応する手書き入力情報が入力された順番と推定しても良い。又は、手書き入力情報は、把持動作の順番を示す画像をさらに含むものとし、推定部152は、手書き入力情報に基づいて、把持動作の順番をさらに推定しても良い。図17は、把持動作の順番を示す画像を含む手書き入力情報が複数入力された例を示す図である。図17の例は、撮像画像310に対して、つまみ422に対する手書き入力情報906及びつまみ411に対する手書き入力情報907という2つの手書き入力情報が入力された例を示している。ここで、手書き入力情報906は、把持動作の順番を示す「1」という画像を含み、手書き入力情報907は、把持動作の順番を示す「2」という画像を含んでいる。そのため、図17の例では、推定部152は、1番目に、つまみ422に対して要求されている把持動作(つまみ422をつかんで引き出しを開ける、という動作)を実行し、2番目に、つまみ411に対して要求されている把持動作(つまみ411をつかんで扉を開ける、という動作)を実行すると推定する。
また、上記実施の形態では、第1学習済みモデル181及び第2学習済みモデル182という2つの学習済みモデルを用いていたが、これには限定されない。第1学習済みモデル181及び第2学習済みモデル182の代わりに、第1学習済みモデル181の出力を第2学習済みモデル182に適用した転移学習済みモデルを用いても良い。この転移学習済みモデルは、例えば、手書き入力情報が入力された撮像画像を入力画像として、その撮像画像に写っている把持可能物と、その把持可能物のうちの把持対象物と、その手書き入力情報が模擬する把持対象物に対する把持動作の意味と、を出力するモデルとなる。
また、上記実施の形態では、認識部151及び推定部152がロボット100に備えられていたが、これには限定されない。認識部151及び推定部152は、遠隔端末300に備えられていても良いし、システムサーバ500に備えられていても良い。
また、上記実施の形態では、ロボット100と遠隔端末300とがインターネット600及びシステムサーバ500を介して、撮像画像や手書き入力情報をやり取りしていたが、これには限定されない。ロボット100と遠隔端末300とは、直接通信によって、撮像画像や手書き入力情報をやり取りしても良い。
また、上記実施の形態では、ロボット100に備えられている撮像部(ステレオカメラ131)を用いていたが、これには限定されない。撮像部は、ロボット100が存在する第1環境の任意の場所に備えられた任意の撮像部であれば良い。また、撮像部は、ステレオカメラに限定されず、単眼カメラ等であっても良い。
また、上記実施の形態では、被操作対象が、アーム123の先端のハンド124をエンドエフェクタとして備えるロボット100である例を説明したが、これには限定されない。被操作対象は、エンドエフェクタを備え、エンドエフェクタを用いて把持動作を実行するものであれば良い。また、エンドエフェクタは、ハンド以外の他の把持部(例えば、吸着部等)であっても良い。
10 遠隔操作システム、100 ロボット、110 台車部、111 駆動輪、112 キャスター、120 本体部、121 胴部、122 頭部、123 アーム、124 ハンド、131 ステレオカメラ、133 レーザスキャナ、135 ハンドカメラ、141 表示パネル、145 台車駆動ユニット、146 上体駆動ユニット、150 制御部、151 認識部、152 推定部、180 メモリ、181 第1学習済みモデル、182 第2学習済みモデル、190 通信ユニット、300 遠隔端末、310 撮像画像、341 表示パネル、342 入力ユニット、350 演算部、380 メモリ、390 通信ユニット、400 テーブル、401,402 物体、410,420,430 タンス、411,421,422,431,432 つまみ、440 ドア、441 ドアノブ、500 システムサーバ、600 インターネット、700 無線ルータ、801~803 把持可能領域、901~907 手書き入力情報

Claims (10)

  1. エンドエフェクタを備える被操作対象を遠隔操作する遠隔操作システムであって、
    前記被操作対象が存在する環境を撮像する撮像部と、
    前記撮像部が撮像した前記環境の撮像画像に基づいて、前記エンドエフェクタが把持可能な把持可能部を認識する認識部と、
    前記撮像画像を表示すると共に、表示した前記撮像画像に対する手書き入力情報の入力を受け付ける操作端末と、
    前記認識部が認識した前記把持可能部と、前記撮像画像に対して入力された前記手書き入力情報と、に基づいて、前記把持可能部の中から前記エンドエフェクタによる把持が要求されている把持対象物を推定すると共に、前記把持対象物に対して要求されている前記エンドエフェクタによる把持動作を推定する推定部と、
    を備え、
    前記推定部は、前記認識部が認識した前記把持可能部と、前記撮像画像に対して入力された前記手書き入力情報と、に基づいて、前記把持対象物に対して要求されている前記把持動作の程度をさらに推定し、
    前記把持動作は、前記把持対象物が扉のつまみである場合は前記つまみをつかんで前記扉を開閉する動作、又は、前記把持対象物がドアのドアノブである場合は前記ドアノブをつかんで前記ドアを開閉する動作であり、
    前記把持動作の程度は、前記扉又は前記ドアの開度を示す、
    遠隔操作システム。
  2. エンドエフェクタを備える被操作対象を遠隔操作する遠隔操作システムであって、
    前記被操作対象が存在する環境を撮像する撮像部と、
    前記撮像部が撮像した前記環境の撮像画像に基づいて、前記エンドエフェクタが把持可能な把持可能部を認識する認識部と、
    前記撮像画像を表示すると共に、表示した前記撮像画像に対する手書き入力情報の入力を受け付ける操作端末と、
    前記認識部が認識した前記把持可能部と、前記撮像画像に対して入力された前記手書き入力情報と、に基づいて、前記把持可能部の中から前記エンドエフェクタによる把持が要求されている把持対象物を推定すると共に、前記把持対象物に対して要求されている前記エンドエフェクタによる把持動作を推定する推定部と、
    を備え、
    前記推定部は、前記認識部が認識した前記把持可能部と、前記撮像画像に対して入力された前記手書き入力情報と、に基づいて、前記把持対象物に対して要求されている前記把持動作の程度をさらに推定し、
    前記手書き入力情報は、前記把持対象物に対する把持動作を模擬した第1画像と、該把持動作の程度を示す画像と、を含み、
    前記把持動作は、前記把持対象物が扉のつまみである場合は前記つまみをつかんで前記扉を開閉する動作、又は、前記把持対象物がドアのドアノブである場合は前記ドアノブをつかんで前記ドアを開閉する動作であり、
    前記把持動作の程度は、前記扉又は前記ドアの開度を示す、
    遠隔操作システム。
  3. エンドエフェクタを備える被操作対象を遠隔操作する遠隔操作システムであって、
    前記被操作対象が存在する環境を撮像する撮像部と、
    前記撮像部が撮像した前記環境の撮像画像に基づいて、前記エンドエフェクタが把持可能な把持可能部を認識する認識部と、
    前記撮像画像を表示すると共に、表示した前記撮像画像に対する手書き入力情報の入力を受け付ける操作端末と、
    前記認識部が認識した前記把持可能部と、前記撮像画像に対して入力された前記手書き入力情報と、に基づいて、前記把持可能部の中から前記エンドエフェクタによる把持が要求されている把持対象物を推定すると共に、前記把持対象物に対して要求されている前記エンドエフェクタによる把持動作を推定する推定部と、
    を備え、
    前記推定部は、前記撮像画像に対して複数の前記手書き入力情報が入力された場合、前記認識部が認識した前記把持可能部と、前記撮像画像に対して入力された複数の前記手書き入力情報と、に基づいて、複数の前記手書き入力情報毎に、前記把持対象物を推定すると共に、前記把持対象物に対して要求されている前記把持動作を推定し、
    前記推定部は、前記認識部が認識した前記把持可能部と、前記撮像画像に対して入力された複数の前記手書き入力情報と、に基づいて、複数の前記手書き入力情報によりそれぞれ前記把持動作が要求されている複数の前記把持対象物の順番をさらに推定し、
    前記手書き入力情報は、前記把持対象物に対する把持動作を模擬した第1画像と、該把持動作の順番を示す画像と、を含み、
    前記把持動作は、以下の動作のうち、少なくとも1つである、
    (A)前記把持対象物を単に把持する動作、
    (B)前記把持対象物をつかんで持ち上げる動作、
    (C)前記把持対象物が扉又は引き出しのつまみである場合は前記つまみをつかんで前記扉又は引き出しを開閉する動作、
    (D)前記把持対象物がドアのドアノブである場合は前記ドアノブをつかんで前記ドアを開閉する動作、
    遠隔操作システム。
  4. エンドエフェクタを備える被操作対象を遠隔操作する遠隔操作システムであって、
    前記被操作対象が存在する環境を撮像する撮像部と、
    前記撮像部が撮像した前記環境の撮像画像に基づいて、前記エンドエフェクタが把持可能な把持可能部を認識する認識部と、
    前記撮像画像を表示すると共に、表示した前記撮像画像に対する手書き入力情報の入力を受け付ける操作端末と、
    前記認識部が認識した前記把持可能部と、前記撮像画像に対して入力された前記手書き入力情報と、に基づいて、前記把持可能部の中から前記エンドエフェクタによる把持が要求されている把持対象物を推定すると共に、前記把持対象物に対して要求されている前記エンドエフェクタによる把持動作を推定する推定部と、
    を備え、
    前記推定部は、前記撮像画像に対して複数の前記手書き入力情報が入力された場合、前記認識部が認識した前記把持可能部と、前記撮像画像に対して入力された複数の前記手書き入力情報と、に基づいて、複数の前記手書き入力情報毎に、前記把持対象物を推定すると共に、前記把持対象物に対して要求されている前記把持動作を推定し、
    前記推定部は、複数の前記手書き入力情報が入力された順番に基づいて、複数の前記手書き入力情報によりそれぞれ前記把持動作が要求されている複数の前記把持対象物の順番をさらに推定し、
    前記把持動作は、以下の動作のうち、少なくとも1つである、
    (A)前記把持対象物を単に把持する動作、
    (B)前記把持対象物をつかんで持ち上げる動作、
    (C)前記把持対象物が扉又は引き出しのつまみである場合は前記つまみをつかんで前記扉又は引き出しを開閉する動作、
    (D)前記把持対象物がドアのドアノブである場合は前記ドアノブをつかんで前記ドアを開閉する動作、
    遠隔操作システム。
  5. 前記手書き入力情報は、前記把持対象物に対する把持動作を模擬した第1画像を含む、
    請求項1又は4に記載の遠隔操作システム。
  6. 前記推定部は、前記手書き入力情報の前記第1画像を入力画像とする学習済みモデルを用いて、前記把持対象物に対して要求されている前記把持動作を推定する、
    請求項2、3、又は5に記載の遠隔操作システム。
  7. エンドエフェクタを備える被操作対象を遠隔操作する遠隔操作システムによる遠隔操作方法であって、
    前記被操作対象が存在する環境を撮像するステップと、
    前記環境の撮像画像を表示した操作端末において、表示した前記撮像画像に対する手書き入力情報の入力を受け付けるステップと、
    前記撮像画像に基づいて、前記エンドエフェクタが把持可能な把持可能部を認識する認識ステップと、
    前記把持可能部と、前記撮像画像に対して入力された前記手書き入力情報と、に基づいて、前記把持可能部の中から前記エンドエフェクタによる把持が要求されている把持対象物を推定すると共に、前記把持対象物に対して要求されている前記エンドエフェクタによる把持動作を推定する推定ステップと、を含み、
    前記推定ステップでは、前記認識ステップが認識した前記把持可能部と、前記撮像画像に対して入力された前記手書き入力情報と、に基づいて、前記把持対象物に対して要求されている前記把持動作の程度をさらに推定し、
    前記把持動作は、前記把持対象物が扉のつまみである場合は前記つまみをつかんで前記扉を開閉する動作、又は、前記把持対象物がドアのドアノブである場合は前記ドアノブをつかんで前記ドアを開閉する動作であり、
    前記把持動作の程度は、前記扉又は前記ドアの開度を示す、
    遠隔操作方法。
  8. エンドエフェクタを備える被操作対象を遠隔操作する遠隔操作システムによる遠隔操作方法であって、
    前記被操作対象が存在する環境を撮像するステップと、
    前記環境の撮像画像を表示した操作端末において、表示した前記撮像画像に対する手書き入力情報の入力を受け付けるステップと、
    前記撮像画像に基づいて、前記エンドエフェクタが把持可能な把持可能部を認識する認識ステップと、
    前記把持可能部と、前記撮像画像に対して入力された前記手書き入力情報と、に基づいて、前記把持可能部の中から前記エンドエフェクタによる把持が要求されている把持対象物を推定すると共に、前記把持対象物に対して要求されている前記エンドエフェクタによる把持動作を推定する推定ステップと、を含み、
    前記推定ステップでは、前記認識ステップが認識した前記把持可能部と、前記撮像画像に対して入力された前記手書き入力情報と、に基づいて、前記把持対象物に対して要求されている前記把持動作の程度をさらに推定し、
    前記手書き入力情報は、前記把持対象物に対する把持動作を模擬した第1画像と、該把持動作の程度を示す画像と、を含み、
    前記把持動作は、前記把持対象物が扉のつまみである場合は前記つまみをつかんで前記扉を開閉する動作、又は、前記把持対象物がドアのドアノブである場合は前記ドアノブをつかんで前記ドアを開閉する動作であり、
    前記把持動作の程度は、前記扉又は前記ドアの開度を示す、
    遠隔操作方法。
  9. エンドエフェクタを備える被操作対象を遠隔操作する遠隔操作システムによる遠隔操作方法であって、
    前記被操作対象が存在する環境を撮像するステップと、
    前記環境の撮像画像を表示した操作端末において、表示した前記撮像画像に対する手書き入力情報の入力を受け付けるステップと、
    前記撮像画像に基づいて、前記エンドエフェクタが把持可能な把持可能部を認識する認識ステップと、
    前記把持可能部と、前記撮像画像に対して入力された前記手書き入力情報と、に基づいて、前記把持可能部の中から前記エンドエフェクタによる把持が要求されている把持対象物を推定すると共に、前記把持対象物に対して要求されている前記エンドエフェクタによる把持動作を推定する推定ステップと、を含み、
    前記推定ステップでは、前記撮像画像に対して複数の前記手書き入力情報が入力された場合、前記認識ステップが認識した前記把持可能部と、前記撮像画像に対して入力された複数の前記手書き入力情報と、に基づいて、複数の前記手書き入力情報毎に、前記把持対象物を推定すると共に、前記把持対象物に対して要求されている前記把持動作を推定し、
    前記推定ステップでは、前記認識ステップが認識した前記把持可能部と、前記撮像画像に対して入力された複数の前記手書き入力情報と、に基づいて、複数の前記手書き入力情報によりそれぞれ前記把持動作が要求されている複数の前記把持対象物の順番をさらに推定し、
    前記手書き入力情報は、前記把持対象物に対する把持動作を模擬した第1画像と、該把持動作の順番を示す画像と、を含み、
    前記把持動作は、以下の動作のうち、少なくとも1つである、
    (A)前記把持対象物を単に把持する動作、
    (B)前記把持対象物をつかんで持ち上げる動作、
    (C)前記把持対象物が扉又は引き出しのつまみである場合は前記つまみをつかんで前記扉又は引き出しを開閉する動作、
    (D)前記把持対象物がドアのドアノブである場合は前記ドアノブをつかんで前記ドアを開閉する動作、
    遠隔操作方法。
  10. エンドエフェクタを備える被操作対象を遠隔操作する遠隔操作システムによる遠隔操作方法であって、
    前記被操作対象が存在する環境を撮像するステップと、
    前記環境の撮像画像を表示した操作端末において、表示した前記撮像画像に対する手書き入力情報の入力を受け付けるステップと、
    前記撮像画像に基づいて、前記エンドエフェクタが把持可能な把持可能部を認識する認識ステップと、
    前記把持可能部と、前記撮像画像に対して入力された前記手書き入力情報と、に基づいて、前記把持可能部の中から前記エンドエフェクタによる把持が要求されている把持対象物を推定すると共に、前記把持対象物に対して要求されている前記エンドエフェクタによる把持動作を推定する推定ステップと、を含み、
    前記推定ステップでは、前記撮像画像に対して複数の前記手書き入力情報が入力された場合、前記認識ステップが認識した前記把持可能部と、前記撮像画像に対して入力された複数の前記手書き入力情報と、に基づいて、複数の前記手書き入力情報毎に、前記把持対象物を推定すると共に、前記把持対象物に対して要求されている前記把持動作を推定し、
    前記推定ステップでは、複数の前記手書き入力情報が入力された順番に基づいて、複数の前記手書き入力情報によりそれぞれ前記把持動作が要求されている複数の前記把持対象物の順番をさらに推定し、
    前記把持動作は、以下の動作のうち、少なくとも1つである、
    (A)前記把持対象物を単に把持する動作、
    (B)前記把持対象物をつかんで持ち上げる動作、
    (C)前記把持対象物が扉又は引き出しのつまみである場合は前記つまみをつかんで前記扉又は引き出しを開閉する動作、
    (D)前記把持対象物がドアのドアノブである場合は前記ドアノブをつかんで前記ドアを開閉する動作、
    遠隔操作方法。
JP2019225287A 2019-12-13 2019-12-13 遠隔操作システム及び遠隔操作方法 Active JP7342676B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2019225287A JP7342676B2 (ja) 2019-12-13 2019-12-13 遠隔操作システム及び遠隔操作方法
US17/088,233 US11904481B2 (en) 2019-12-13 2020-11-03 Remote control system and remote control method
EP20212657.9A EP3835002B1 (en) 2019-12-13 2020-12-09 Remote control system and remote control method
KR1020200171172A KR102573687B1 (ko) 2019-12-13 2020-12-09 원격 조작 시스템 및 원격 조작 방법
CN202011461713.XA CN112975952B (zh) 2019-12-13 2020-12-11 远程操作系统及远程操作方法
KR1020230014060A KR20230022918A (ko) 2019-12-13 2023-02-02 원격 조작 시스템 및 원격 조작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019225287A JP7342676B2 (ja) 2019-12-13 2019-12-13 遠隔操作システム及び遠隔操作方法

Publications (2)

Publication Number Publication Date
JP2021094605A JP2021094605A (ja) 2021-06-24
JP7342676B2 true JP7342676B2 (ja) 2023-09-12

Family

ID=73789864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019225287A Active JP7342676B2 (ja) 2019-12-13 2019-12-13 遠隔操作システム及び遠隔操作方法

Country Status (5)

Country Link
US (1) US11904481B2 (ja)
EP (1) EP3835002B1 (ja)
JP (1) JP7342676B2 (ja)
KR (2) KR102573687B1 (ja)
CN (1) CN112975952B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9314924B1 (en) * 2013-06-14 2016-04-19 Brain Corporation Predictive robotic controller apparatus and methods
JP7547994B2 (ja) * 2020-12-22 2024-09-10 トヨタ自動車株式会社 撮影システム、その撮影方法及びプログラム
JP7563267B2 (ja) * 2021-03-24 2024-10-08 トヨタ自動車株式会社 物品回収システム、物品回収ロボット、物品回収方法、及び物品回収プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009214212A (ja) 2008-03-10 2009-09-24 Toyota Motor Corp 動作教示システム及び動作教示方法
JP2010264553A (ja) 2009-05-15 2010-11-25 Toyota Motor Corp 遠隔操作システム及び遠隔操作方法
JP2013184257A (ja) 2012-03-08 2013-09-19 Sony Corp ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
US20150190925A1 (en) 2014-01-07 2015-07-09 Irobot Corporation Remotely Operating a Mobile Robot

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5326794B2 (ja) 1972-08-18 1978-08-04
JP5142243B2 (ja) 2006-09-13 2013-02-13 独立行政法人産業技術総合研究所 ロボット作業教示システムおよびロボットに対する作業教示方法
KR101447931B1 (ko) * 2011-04-12 2014-10-13 (주)미래컴퍼니 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법
KR101260367B1 (ko) 2011-09-26 2013-05-07 한국과학기술연구원 범주 인식에 의한 파지점 생성방법 및 그 방법에 대한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
JP6361213B2 (ja) * 2014-03-26 2018-07-25 セイコーエプソン株式会社 ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
US9492923B2 (en) * 2014-12-16 2016-11-15 Amazon Technologies, Inc. Generating robotic grasping instructions for inventory items
WO2017154254A1 (ja) * 2016-03-10 2017-09-14 並木精密宝石株式会社 把持ロボット及びロボットハンドの制御方法
JP2018027581A (ja) * 2016-08-17 2018-02-22 株式会社安川電機 ピッキングシステム
JP6534126B2 (ja) * 2016-11-22 2019-06-26 パナソニックIpマネジメント株式会社 ピッキングシステム及びその制御方法
JP6771744B2 (ja) 2017-01-25 2020-10-21 株式会社安川電機 ハンドリングシステム及びコントローラ
JP7136554B2 (ja) 2017-12-18 2022-09-13 国立大学法人信州大学 把持装置、学習装置、プログラム、把持システム、及び学習方法
JP7000253B2 (ja) 2018-05-31 2022-01-19 国立大学法人東海国立大学機構 力覚視覚化装置、ロボットおよび力覚視覚化プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009214212A (ja) 2008-03-10 2009-09-24 Toyota Motor Corp 動作教示システム及び動作教示方法
JP2010264553A (ja) 2009-05-15 2010-11-25 Toyota Motor Corp 遠隔操作システム及び遠隔操作方法
JP2013184257A (ja) 2012-03-08 2013-09-19 Sony Corp ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
US20150190925A1 (en) 2014-01-07 2015-07-09 Irobot Corporation Remotely Operating a Mobile Robot

Also Published As

Publication number Publication date
KR20210075865A (ko) 2021-06-23
CN112975952B (zh) 2024-08-09
EP3835002B1 (en) 2023-03-01
US11904481B2 (en) 2024-02-20
CN112975952A (zh) 2021-06-18
US20210178598A1 (en) 2021-06-17
JP2021094605A (ja) 2021-06-24
KR20230022918A (ko) 2023-02-16
EP3835002A1 (en) 2021-06-16
KR102573687B1 (ko) 2023-09-04

Similar Documents

Publication Publication Date Title
JP7342676B2 (ja) 遠隔操作システム及び遠隔操作方法
JP6942177B2 (ja) ロボットが学習した経路を自律的に走行するように初期化するためのシステムおよび方法
CN114080583B (zh) 视觉教导和重复移动操纵系统
JP5855885B2 (ja) ロボットを制御するためのヒューマン・ロボット・インターフェース装置及び方法
JP7052652B2 (ja) 移動ロボット、遠隔端末、移動ロボットの制御プログラム、および遠隔端末の制御プログラム
JP2009531184A (ja) 操作ロボットにより物体を把持するための知的インターフェース装置及びこの装置の操作方法
US11703872B2 (en) Machine learning method and mobile robot
JP7044047B2 (ja) ロボット
JP5515654B2 (ja) ロボットシステム
Shirwalkar et al. Telemanipulation of an industrial robotic arm using gesture recognition with Kinect
JP7124797B2 (ja) 機械学習方法および移動ロボット
JP7047726B2 (ja) 把持ロボットおよび把持ロボットの制御プログラム
JP7276108B2 (ja) 遠隔操作システム及び遠隔操作方法
JP6067547B2 (ja) 物体認識装置、ロボット及び物体認識方法
JP2024035640A (ja) 遠隔操作システム、遠隔操作方法、及び、制御プログラム
JP2024035639A (ja) 遠隔操作システム、遠隔操作方法、及び、制御プログラム
Stückler et al. Towards robust mobility, flexible object manipulation, and intuitive multimodal interaction for domestic service robots
JP7415775B2 (ja) ロボット
Luo Research on Control Schemes with the Vision System for Advanced Mechatronics Devices
JP2023156710A (ja) 遠隔操作システム、遠隔操作方法及びプログラム
JP2024135097A (ja) 遠隔操作制御システム、遠隔制御装置、遠隔制御方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230814

R151 Written notification of patent or utility model registration

Ref document number: 7342676

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151