[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2013111737A - ロボット装置及びその制御方法、並びにコンピューター・プログラム - Google Patents

ロボット装置及びその制御方法、並びにコンピューター・プログラム Download PDF

Info

Publication number
JP2013111737A
JP2013111737A JP2011263264A JP2011263264A JP2013111737A JP 2013111737 A JP2013111737 A JP 2013111737A JP 2011263264 A JP2011263264 A JP 2011263264A JP 2011263264 A JP2011263264 A JP 2011263264A JP 2013111737 A JP2013111737 A JP 2013111737A
Authority
JP
Japan
Prior art keywords
user
arm
robot apparatus
posture
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011263264A
Other languages
English (en)
Inventor
Satoru Shimizu
悟 清水
Wataru Kokubo
亘 小久保
Akiyoshi Tanaka
章愛 田中
Tetsuji Fukushima
哲治 福島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011263264A priority Critical patent/JP2013111737A/ja
Priority to US13/675,182 priority patent/US9020643B2/en
Priority to CN201210488642.1A priority patent/CN103128736B/zh
Publication of JP2013111737A publication Critical patent/JP2013111737A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Manipulator (AREA)

Abstract

【課題】ユーザーに過度の負担を掛けることなくユーザーと物体授受インタラクションを行なうロボット装置を提供する。
【解決手段】ロボット装置100は、ユーザーの利き腕、片麻痺、骨折などで、ユーザーが右半身又は左半身のどちらの動作し易いか(若しくは得意か)を判定し、さらにユーザーの身長などの身体特性並びにユーザーの現在の姿勢(ソファに座っている、ベッドに寝ている、など)に基づいて、ユーザーが物体を取り易い方向、ユーザーの手の届く、物体を取り易い高さを考慮した物体の受け渡しを行なう。
【選択図】 図4

Description

本明細書で開示する技術は、例えばユーザーの身の回りで活動して、家事や福祉、介護、介助などの生活支援を行なうロボット装置及びその制御方法、並びにコンピューター・プログラムに係り、特に、ユーザーと物体授受インタラクションを行なうロボット装置及びその制御方法、並びにコンピューター・プログラムに関する。
固定的なタスクを遂行するように設計され、工場などに設置されるロボット装置は従来から知られている。近年では、さまざまな作業を行えるロボット装置が実現しつつある。後者のロボット装置は、例えば福祉や介護、介助の分野に適用され、身体の不自由な人などに対して所望の物体を取ってきて手渡してくれる。
しかしながら、ロボット装置がユーザーの身体特性をほとんど考慮せずにユーザーに物体を手渡す動作を行なうと、物体を受け取るユーザーにかなりの負担を強いることになる。例えば、左半身が不自由なユーザーに対して、ユーザーの右半身側以外から物体の受け渡しを行おうとすると、ユーザーに負担を掛ける。最悪の場合、ユーザーは物体を受け取ることができない。
また、ユーザーが健常者であっても、利き腕ではない腕の側から、ロボット装置が物体の受け渡しを行おうとすると、ユーザーにストレスを与える。ユーザーが物体を受け取り損ね、物体を落として破損するおそれもある。
さらに付言すれば、ロボット装置が、物体を受け取るユーザーの手の位置や高さを考慮しないで受け渡しを行おうとすると、背の高いユーザーは屈まないと受け取れず、ユーザーに身体的な苦痛を与えてしまう。
例えば、ユーザーとの距離やユーザーと視線が合った時間などに基づいてユーザーとの親密度を検出して、インタラクションを最適化するようにインタラクションパラメーターを更新するコミュニケーション・ロボットについて提案がなされている(例えば、特許文献1を参照のこと)。しかしながら、このコミュニケーション・ロボットは、ユーザーが立っているか座っているかなどの姿勢や、ユーザーの利き腕など、ユーザーの身体特性を考慮してコミュニケーションパラメーターを更新するものではない。したがって、コミュニケーション・ロボットがユーザーとの信頼関係を確立していく過程では有効であっても、信頼関係が確立した以降によりユーザーの負担のかからない快適なインタラクションを行なうものではない。
また、ユーザーの動作と同調するとともに、さらに同調関係を変化させるロボット装置について提案がなされている(例えば、特許文献2を参照のこと)。しかしながら、同調とは引き込み合うことを意味するものであって、ユーザーの身体特性を考慮することや、ユーザーに負担を与えないようにインタラクションを行なうこととは本質的に相違するものである。
また、無線タグや赤外線タグを用いてユーザー及びユーザーの方向を認識して、そのユーザーに適したサービス、コンテンツを提供する対話ロボットについて提案がなされている(例えば、特許文献3を参照のこと)。しかしながら、この対話ロボットは、ユーザーがロボットの正面にいないがロボットの方向を向いて興味を示している場合やユーザーがロボットの方を向いてない場合でも、ユーザーに適したサービス、コンテンツを提供するものであって、ユーザーの方を向くなどユーザーの身体特性を考慮してインタラクションを行なうこととは本質的に相違するものである。
特開2006−247780号公報 特開2005−342873号公報 特開2007−268696号公報
本明細書で開示する技術の目的は、ユーザーに過度の負担を掛けることなく、ユーザーと物体授受インタラクションを行なうことができる、優れたロボット装置及びその制御方法、並びにコンピューター・プログラムを提供することにある。
本願は、上記課題を参酌してなされたものであり、請求項1に記載の技術は、
ユーザーの右腕又は左腕のうち前記物体の受け渡しに用いる受取腕を判定する受取腕判定部と、
前記受取腕の現在の手の位置を算出する手の位置算出部と、
前記手の位置算出部が算出した前記受取腕の手の位置に前記物体の受け渡し動作を行なう受け渡し動作部と、
を具備するロボット装置である。
本願の請求項2に記載の技術によれば、請求項1に記載のロボット装置の受取腕判定部は、ユーザーの利き腕、腕の障害の有無、又は、物体を受け取る動作をし易い方の腕に関する身体特性情報に基づいて、ユーザーの前記受取腕を判定するように構成されている。
本願の請求項3に記載の技術によれば、請求項2に記載のロボット装置は、ユーザー毎の利き腕、腕の障害の有無、又は、物体を受け取る動作をし易い方の腕に関する身体特性情報を、事前知識としてユーザー身体特性データベース内に有している。そして、前記受取腕判定部は、前記ユーザー身体特性データベースを参照して、物体の受け渡しを行なうユーザーの利き腕、腕の障害の有無、又は、物体を受け取る動作をし易い方の腕に関する身体特性情報を取得するように構成されている。
本願の請求項4に記載の技術によれば、請求項1に記載のロボット装置は、ユーザーの身長に関する情報を取得するユーザー身長情報取得部と、ユーザーの現在の姿勢を判定するユーザー姿勢判定部をさらに備えている。そして、前記手の位置算出部は、ユーザーの身長とユーザーの現在の姿勢に基づいて、前記受取腕の現在の手の位置を算出するように構成されている。
本願の請求項5に記載の技術によれば、請求項4に記載のロボット装置は、ユーザー毎の身長に関する身体特性情報を、事前知識としてユーザー身体特性データベース内に有している。そして、前記手の位置算出部は、前記ユーザー身体特性データベースを参照して、物体の受け渡しを行なうユーザーの身長に関する身体特性情報を取得するように構成されている。
本願の請求項6に記載の技術によれば、請求項4に記載のロボット装置は、直立、仰臥、着座の各姿勢の身体モデルを有している。そして、前記手の位置算出部は、前記ユーザー姿勢判定部が判定したユーザーの現在の姿勢に対応する身体モデルに、前記ユーザー身長情報取得部が取得したユーザーの身長を当て嵌めて、前記受取腕の現在の手の位置を算出するように構成されている。
本願の請求項7に記載の技術によれば、請求項4に記載のロボット装置は、ユーザーの顔の位置を算出する顔位置算出部をさらに備えている。そして、前記ユーザー姿勢判定部は、前記ユーザー身長情報取得部が取得したユーザーの身長とユーザーの顔の位置を比較して、ユーザーが直立した姿勢か否かを判定するように構成されている。
本願の請求項8に記載の技術によれば、請求項7に記載のロボット装置は、ユーザーの顔の姿勢を検出する顔姿勢検出部をさらに備えている。そして、前記ユーザー姿勢判定部は、ユーザーが直立姿勢でないときには、前記顔姿勢検出部が検出したユーザーの顔の姿勢に基づいて、ユーザーが仰臥又は着座のいずれの姿勢であるかを判定するように構成されている。
本願の請求項9に記載の技術によれば、請求項1に記載のロボット装置は、前記ロボット装置の居場所を移動させる移動部と、前記物体を把持することができる腕部をさらに備えている。そして、前記受け渡し動作部は、前記移動部によりユーザーの前記受取腕の方に移動する動作を行なうとともに、前記腕部を用いて把持した前記物体を前記受取腕の手の位置に差し出す動作を行なうように構成されている。
本願の請求項10に記載の技術によれば、請求項4に記載のロボット装置は、前記ロボット装置の周囲の環境に関する環境マップをさらに備えている。そして、前記ユーザー姿勢判定部は、ユーザーのいる場所の環境を前記環境マップで参照して、ユーザーの現在の姿勢を判定するように構成されている。
また、本願の請求項11に記載の技術は、
ユーザーの右腕又は左腕のうち前記物体の受け渡しに用いる受取腕を判定する受取腕判定ステップと、
前記受取腕の現在の手の位置を算出する手の位置算出ステップと、
前記手の位置算出ステップで算出した前記受取腕の手の位置に前記物体の受け渡し動作を行なう受け渡し動作ステップと、
を有するロボット装置の制御方法である。
また、本願の請求項12に記載の技術は、
ユーザーの右腕又は左腕のうち前記物体の受け渡しに用いる受取腕を判定する受取腕判定部、
前記受取腕の現在の手の位置を算出する手の位置算出部、
前記手の位置算出部が算出した前記受取腕の手の位置に前記物体の受け渡し動作を行なう受け渡し動作部、
としてコンピューターを機能させて、ロボット装置を制御するようにコンピューター可読形式で記述されたコンピューター・プログラムである。
本願の請求項12に係るコンピューター・プログラムは、コンピューター上で所定の処理を実現するようにコンピューター可読形式で記述されたコンピューター・プログラムを定義したものである。換言すれば、本願の請求項12に係るコンピューター・プログラムをコンピューターにインストールすることによって、コンピューター上では協働的作用が発揮され、本願の請求項1に係るロボット装置と同様の作用効果を得ることができる。
本明細書で開示する技術によれば、ユーザーの身体特性を考慮することによって、ユーザーに過度の負担を掛けることなくユーザーと物体授受インタラクションを行なうことができる、優れたロボット装置及びその制御方法、並びにコンピューター・プログラムを提供することができる。
本明細書で開示する技術によれば、ロボット装置は、ユーザーの利き腕、片麻痺、骨折などで、ユーザーが右半身又は左半身のどちらの動作し易いか(若しくは得意か)を判定し、さらにユーザーの身長などの身体特性並びにユーザーの現在の姿勢(ソファに座っている、ベッドに寝ている、など)に基づいて、ユーザーが物体を取り易い方向、ユーザーの手の届く、物体を取り易い高さを考慮した物体の受け渡しが可能となる。
本明細書で開示する技術によれば、ユーザーは、無理のない姿勢で(疲れずに)物体を受け取ることができる。すなわち、ユーザーは、ロボット装置から物体を受け取る際の負担が軽減されるとともに、ロボット装置との間で自然なインタラクションが可能となる。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、本明細書で開示する技術を適用可能なロボット装置100の外観を示した図である。 図2は、本明細書で開示する技術を適用可能なロボット装置100の関節自由度構成を模式的に示した図である。 図3は、図1に示したロボット装置100の制御システムの構成を模式的に示した図である。 図4は、ロボット装置100が物体授受インタラクションを実現するための機能的構成を模式的に示した図である。 図5は、ロボット装置100が物体授受インタラクションを実現するための処理手順(ユーザーから物体授受の指示を受け付けてからユーザーに近づくまで)を示したフローチャートである。 図6は、ロボット装置100が物体授受インタラクションを実現するための処理手順(ユーザーの姿勢推定)を示したフローチャートである。 図7は、ロボット装置100が物体授受インタラクションを実現するための処理手順(ユーザーの手の位置を推定してから物体の受け渡しを行なうまで)を示したフローチャートである。 図8は、ユーザー身体特性データベース404の構成例を示した図である。 図9Aは、ユーザーが仰臥しているときのユーザーの顔の姿勢を示した図である。 図9Bは、ユーザーが直立又は着座しているときのユーザーの顔の姿勢を示した図である。 図10Aは、人の直立身体モデルを示した図である。 図10Bは、人の仰臥身体モデルを示した図である。 図10Cは、人の着座身体モデルを示した図である。 図11は、ロボット装置100が立っているユーザーの利き腕の手の位置に物体を差し出す様子、並びに、ロボット装置100が着座しているユーザーの利き腕の手の位置に物体を差し出す様子を示した図である。 図12は、ロボット装置100が立っているユーザーの怪我をしていない方(受け取り易い方)の手の位置に物体を差し出す様子を示した図である。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
図1には、本明細書で開示する技術を適用可能なロボット装置100の外観を示している。ロボット装置100は、複数のリンクを関節で接続されたリンク構造体であり、各関節はアクチュエーターによって動作する。また、図2には、このロボット装置100の関節自由度構成を模式的に示している。図示のロボット装置100は、家庭内など時々刻々、動的に変化する周囲環境に設置され、家事や介護などの生活支援を行なうが、工場などに設置されて固定的なタスクを遂行することも可能である。
図示のロボット装置100は、双腕型であり、また、移動手段として、ベース部に対向する2輪の駆動輪101R及び101Lを備えている。各駆動輪101R及び101Lは、それぞれピッチ回りに回転する駆動輪用アクチュエーター102R及び102Lによって駆動する。なお、図2中において、参照番号151、152、153は、実在しない劣駆動関節であり、ロボット装置100の床面に対するX方向(前後方向)の並進自由度、Y方向(左右方向)の並進自由度、並びに、ヨー回りの回転自由度にそれぞれ相当し、ロボット装置100が仮想世界を動き回ることを表現したものである。
移動手段は、腰関節を介して上体に接続される。腰関節は、ピッチ回りに回転する腰関節ピッチ軸アクチュエーター103によって駆動する。上体は、左右2肢の腕部と、首関節を介して接続される頭部で構成される。左右の腕部は、それぞれ肩関節3自由度、肘関節2自由度、手首関節2自由度の、計7自由度とする。肩関節3自由度は、肩関節ピッチ軸アクチュエーター104R/L、肩関節ロール軸アクチュエーター105R/L、肩関節ヨー軸アクチュエーター106R/Lによって駆動する。肘関節2自由度は、肘関節ピッチ軸アクチュエーター107R/L、肘関節ヨー軸アクチュエーター108R/Lによって駆動する。手首関節2自由度は、手首関節ロール軸アクチュエーター109R/L、手首関節ピッチ軸アクチュエーター110R/Lによって駆動する。また、首関節2自由度は、首関節ピッチ軸アクチュエーター111、首関節ヨー軸アクチュエーター112によって駆動する。また、左右の腕部の先端の手関節1自由度は、手関節ロール軸アクチュエーター113R/Lによって駆動する。本実施形態では、手関節ロール軸アクチュエーター113R/Lを駆動することによって、手先による物体の把持動作を実現することができるものとする。
なお、図示のロボット装置100は、対向2輪式の移動手段を備えているが、本明細書で開示する技術の要旨は、対向2輪式の移動手段に限定されるものではない。例えば、脚式の移動手段を備えたロボット装置100であっても、同様に本明細書で開示する技術を適用することができる。
各軸のアクチュエーターには、関節角を計測するためのエンコーダー、トルクを発生するためのモーター、モーターを駆動するための電流制御型モーター・ドライバーの他、十分な発生力を得るための減速機が取り付けられている。また、アクチュエーターには、アクチュエーターの駆動制御を行なうマイクロコンピューターが併設されている(いずれも図2には図示しない)。
ロボット装置100のダイナミクス演算は、ホスト・コンピューター上で実行され、各関節アクチュエーターのトルク又は関節角度の制御目標値を生成する。制御目標値は、アクチュエーターに併設された制御用マイコンに送信され、制御用マイコン上で実行されるアクチュエーターの制御に用いられる。また、各関節アクチュエーターは、力制御方式又は位置制御方式により制御される。
図3には、図1に示したロボット装置100の制御システムの構成を模式的に示している。ロボット装置100は、全体の動作の統括的制御やその他のデータ処理を行なう制御ユニット310と、入出力部320と、駆動部330とを備えている。以下、各部について説明する。
入出力部320は、入力部として、ロボット装置100の目に相当するカメラ321、距離センサー322、ロボット装置100の耳に相当するマイクロフォン323などを備えている。また、入出力部320は、出力部として、ロボット装置100の口に相当するスピーカー324などを備えている。ここで、カメラ321は、ステレオカメラであり、測位が可能であるとする。また、距離センサー322は、例えば、レーザー・レンジ・ファインダーなどの空間センサーで構成される。また、ロボット装置100は、例えばマイクロフォン323からのユーザーの音声入力により、タスクの指示を受けることができる。但し、ロボット装置100は、有線、無線、あるいは記録メディアなどを介した他のタスクの指示の入力手段(図示しない)を備えていてもよい。
また、入出力部320は、無線通信部325を備えている。ロボット装置100は、無線通信部325により、Wi−Fiなどの通信路を介してユーザーのタブレット端末(図示しない)などとデータ通信を行なうことができる。
駆動部330は、ロボット装置100の各関節における自由度を実現するための機能モジュールであり、それぞれの関節におけるロール、ピッチ、ヨーなど軸毎に設けられた複数の駆動ユニットで構成される。各駆動ユニットは、所定軸回りの回転動作を行なうモーター331と、モーター331の回転位置を検出するエンコーダー332と、エンコーダー332の出力に基づいてモーター331の回転位置や回転速度を適応的に制御するドライバー333の組み合わせで構成される。
制御ユニット310は、認識部311と、駆動制御部312と、環境マップ313を備えている。
認識部311は、入出力部320のうちカメラ321や距離センサー322といった入力部から得られる情報に基づいて、周囲の環境の認識を行なう。例えば、認識部311は、カメラ321の位置を推定する自己位置推定処理により得られる、カメラ321の位置姿勢情報と、カメラ321の撮像画像から物体を検出する画像認識処理により得られる物体情報から、環境マップ313を事前に構築したり更新したりする。
駆動制御部312は、入出力部320のうち出力部や、駆動部330の駆動を制御する。例えば、駆動制御部312は、ロボット装置100がタスクを実現するための、駆動部330の制御を行なう。ここで言う、ロボット装置100が実現するタスクには、ユーザーが指示した物体の受け渡しなどのユーザーとの物理的なインタラクションが含まれ、インタラクションを実現するために、駆動輪用アクチュエーター102R及び102Lや腕部の各関節アクチュエーターを駆動させる。
ロボット装置100がユーザーの身体特性をほとんど考慮せずに物体授受のインタラクションを行なうと、物体を受け取るユーザーにかなりの負担を強いることになる。最悪の場合、ユーザーに物体を受け渡すことができなくなる。そこで、本実施形態では、ロボット装置100は、物体授受インタラクションの際に、ユーザーの身体特性を考慮することによって、ユーザーに過度の負担を掛けないようにしている。
図4には、ロボット装置100が物体授受インタラクションを実現するための機能的構成を模式的に示している。図示の各機能ブロックは、基本的には、上述した認識部311並びに駆動制御部312が実行する処理として実現される。
ユーザー認識部401は、カメラ321の撮影画像を顔認識することによりユーザーを認識して、ユーザーの識別情報(ユーザーID)を、ユーザー身長情報取得部402と利き腕判定部403に出力する。変形例として、ユーザーがRFIDタグを身に付けており、ユーザー認識部401がタグ・リーダーを装備して、RFIDタグからユーザーIDを読み取るようにしてもよい。
ユーザー身体特性データベース404は、各ユーザーの身体特性をユーザーIDで管理している。ユーザー身体特性データベース404で管理している身体特性の詳細については後述に譲る。ユーザー身長情報取得部402は、ユーザー認識部401から受け取ったユーザーIDをユーザー身体特性データベース404に問い合わせて、ユーザーの身長情報を取得する。また、利き腕判定部403は、ユーザー認識部401から受け取ったユーザーIDをユーザー身体特性データベース404に問い合わせて、ユーザーの利き腕を判定する。なお、ユーザー身体特性データベース404は、ロボット装置100内部に装備する他、通信路を介して外部に設置されていてもよい。
移動経路計画部405は、利き腕判定部403で判定したユーザーの利き腕まで近づくための移動経路を計画する。そして、移動制御部406は、移動経路計画部405が計画した移動経路に従って移動するよう、駆動輪用アクチュエーター102R及び102Lの駆動を制御する。
顔姿勢検出部407は、カメラ321の撮影画像を顔検出処理して、ユーザーの顔の姿勢を検出する。また、顔位置算出部408は、カメラ321の撮影画像を顔検出処理して、ユーザーの顔の位置(高さ)を算出する。
ユーザー姿勢判定部409は、ユーザー身長情報取得部402で取得したユーザーの身長情報と、顔姿勢検出部407が検出した顔の姿勢と、顔位置算出部408が算出した顔位置とから、現在のユーザーの姿勢を判定する。ユーザーの身長に対する現在の顔の位置(高さ)により、ユーザーが立っているかいないかを判定することができる。また、ユーザーが立っていないときには、仰臥している場合と着座している場合が考えられるが、顔の姿勢に基づいてこれらのうちいずれであるかを判定することができる。
なお、ロボット装置100は、自己位置推定を行なうと同時に、環境マップ313の生成及び更新を行なっている(前述)。ユーザー姿勢判定部409は、この環境マップ313の情報を用いて、ユーザーの姿勢を推定するように構成することもできる。例えば、ユーザーの顔がベッドの上にあるときには、ユーザーは寝ている可能性が高いと判断することができる。
ユーザーの手の位置算出部410は、ユーザー姿勢判定部409が判定したユーザーの姿勢から、ユーザーの利き腕の現在の手の位置を算出する。後述するように、直立、仰臥、着座の各姿勢についての身体モデルに、ユーザー身長情報取得部402で取得したユーザーの身長情報を当て嵌めることによって、ユーザーの手の位置を算出することができる。
腕部軌道計画部411は、ユーザーの手の位置算出部410が算出したユーザーの手の位置で物体の授受を行なうための、左右いずれかの腕部の軌道を計画する。そして、腕部制御部412は、腕部軌道計画部411が計画した腕部の軌道に従って腕部が移動するよう、腕部の各関節アクチュエーターの駆動を制御する。
図5〜図7には、ロボット装置100が物体授受インタラクションを実現するための処理手順をフローチャートの形式で示している。このうち、図5は、ユーザーから物体授受の指示を受け付けてからユーザーに近づくまでの処理手順を示し、図6は、ユーザーの姿勢を推定する処理手順を示し、図7は、ユーザーの手の位置を推定してから物体の受け渡しを行なうまでの処理手順を示している。
まず、図5を参照しながら、ロボット装置100がユーザーから物体授受の指示を受け付けてからユーザーに近づくまでの処理手順について説明する。
まず、ロボット装置100は、ユーザーから物体を持ってくるよう指示を受ける(ステップS501)。ユーザーからの指示方法に関しては、図示していないが、音声によるもの、タブレット端末などからの通信によるものなどを挙げることができる。また、ユーザーから指示を受けた時点で、ロボット装置100は、ユーザーの大まかな位置は取得できているものとする(指示が音声による場合は、音源方位推定技術などで位置情報を取得できる。また、ユーザーがタブレット端末から指示する場合は、通信により位置情報を取得できる)。
次いで、ユーザー認識部401が、指示したユーザーが既知のユーザーであるかどうかを判別する(ステップS502)。
ここで、指示したユーザーが未知の場合には(ステップS502のNo)、ロボット装置100は、ユーザーの近くに移動する(ステップS503)。そして、ユーザー認識部401は、カメラ321の撮影画像を用いた顔認識や、無線タグによる個人認識を行ない、ユーザーIDを特定する(ステップS504)。
次いで、利き腕判定部403は、ユーザー認識部401から渡されたユーザーIDをユーザー身体特性データベース404に問い合わせて、ユーザーの利き腕情報を取得して(ステップS505)、利き腕を判定する(ステップS506)。なお、ここで言う「利き腕」は、本来の意味での利き腕に限定されない(後述)。
そして、ユーザーが右利きであれば(ステップS506のYes)、移動経路計画部405は、ユーザーの右腕に近づくための移動経路を計画し、移動制御部406は、この移動経路に従ってロボット装置100をユーザーの右腕側に移動させる(ステップS507)。また、ユーザーが左利きであれば(ステップS506のNo)、移動経路計画部405は、ユーザーの左腕に近づくための移動経路を計画し、移動制御部406は、この移動経路に従ってロボット装置100をユーザーの右腕側に移動させる(ステップS508)
図8には、ユーザー身体特性データベース404の構成例を示している。図示のユーザー身体特性データベース404は、ユーザーを識別するためのユーザーIDと、そのユーザーに関する身体特性データへのポインターを対応付けたユーザー・データ801と、ユーザー毎の身体特性データ802で構成される。
ユーザー毎の身体特性データ802は、ユーザーの利き腕に関する利き腕情報と、そのユーザーの身長に関する身長情報から構成される。
利き腕情報は、本来の意味での利き腕に限定されない。例えば、障害や麻痺などにより身体動作に制限があるユーザーにとって自由に動かせる側の腕と解釈してもよい。また、骨折やけがなどのために一時的に身体動作に制限があるユーザーにとって自由に動かせる側の腕、物体を受け取るのに適した側の腕、物体を受け取り易い方の腕、と解釈してもよい。図8中では利き腕情報を「右 or 左」と簡素化して描いているが、「右利きだが左手でも持てる」、あるいは「左手に障害があるので右手でしか持てない」、などのように、利き腕と反対側の腕が使えるかどうかの情報を、利き腕情報に付加する構成にしてもよい。例えば、環境内の障害物などにより、ユーザーの右半身側からの手渡しが困難な場合などに、この情報を基にユーザーの左半身側からアプローチしてもよいかどうか判断する、などの応用が可能であろう。
身長情報は、ユーザーの身長そのものの情報に限定されない。すなわち、ユーザーの手の位置を推定するのに有用な、ユーザーの身体の大きさ、特に高さに関連した情報であればよい。例えば、大人、子供の2種類のカテゴリーに分類して管理するという簡素な構成にしてもよい。
図5〜図7に示した処理手順を実行する上では、利き腕情報並びに身長情報は、事前にユーザー身体特性データベース404に登録しておくものとする。但し、本明細書で開示する技術の要旨はこれに限定されるものではなく、例えば、ユーザーとの音声インタラクションなどと組み合わせることにより、ユーザーが利き腕情報、身長情報に相当する情報を教示し、ロボットが情報を獲得してユーザー身体特性データベース404を更新するようにしてもよい。
なお、ステップS501において指示を入力したユーザーが新規のため、顔認識や無線タグによりユーザー認識部401がユーザーを特定できない場合がある。このような場合、ユーザー身体特性データベース404上に、例えば「右利き、170cm」などのデフォルト・ユーザーの設定を用意しておき、それに基づいてユーザーに移動するように構成してもよい。
続いて、図6を参照しながら、ロボット装置100がユーザーの姿勢を推定する処理手順について説明する。
顔姿勢検出部407は、カメラ321の撮影画像を顔認識し、この認識処理の過程において、顔の姿勢を同時に算出する(ステップSS601)。例えば、本出願人に既に譲渡されている特開2005−284487号公報には、顔認識処理と同時に顔の姿勢を算出する方法について開示している。
また、顔位置算出部408は、世界座標でのユーザーの顔の位置を、ステレオカメラなどにより算出する(ステップS602)。
さらに、ユーザー身体情報取得部402は、ユーザー認識部401から渡されたユーザーIDをユーザー身体特性データベース404に問い合わせて、ユーザーの身体情報を取得する(ステップS603)。
続いて、ユーザー姿勢判定部409は、ユーザー身体情報取得部402が取得したユーザーの身体情報を基に、ユーザーの現在の姿勢が、立っている、寝ている、座っている、の3状態のいずれに相当するかを判断する。このため、まず、ステップS602で取得した顔の位置(高さ)がユーザーの身長とほぼ一致するかどうかをチェックする(ステップS604)。
顔の位置(高さ)がユーザーの身長とほぼ一致するときには(ステップS604のYes)、ユーザー姿勢判定部409は、ユーザーが現在立っている姿勢であると判定する。
他方、顔の位置(高さ)がユーザーの身長と一致しないときには(ステップS604のNo)、ユーザー姿勢判定部409は、ユーザーが現在寝ている、座っている、の2状態のいずれであるかを判定するために、ステップS601で取得した顔の姿勢を所定の閾値と大小比較する(ステップS605)。
顔の姿勢に関して、ロール、ピッチ、ヨーの3自由度があるが、ここではカメラ画像中の回転角θ(ロール角)の絶対値を用いる。回転角θの絶対値|θ|がある閾値θthを超えるときには(ステップS605のYes)、ユーザー姿勢判定部409は、図9Aに示すように、ユーザーが仰臥していると判定することができる。あるいは、ユーザー姿勢判定部409は、環境マップ313を参照して、ユーザーがベッドにいることからユーザーが仰臥していると判定することができる。ユーザーの顔がベッドの上にあるときには、ユーザーは寝ている可能性が高いと判断することができるからである。
また、回転角θの絶対値|θ|がある閾値θth以下であるときには(ステップS605のNo)、ユーザー姿勢判定部409は、図9Bに示すように、ユーザーが直立又は着座しているときである。顔の位置(高さ)が身長と一致せず(ステップS604のNo)、直立でないことが既に判明しているので、ここでは着座していると判定する。あるいは、ユーザー姿勢判定部409は、環境マップ313を参照して、ユーザーがソファにいることからユーザーが着座していると判定することができる。
続いて、図7を参照しながら、ロボット装置100がユーザーの手の位置を推定してから物体の受け渡しを行なうまでの処理手順について説明する。
図6に示した処理手順を経て、ユーザーが立っていることが分かったときには(ステップS701)、ユーザーの手の位置算出部410は、図10Aに示すような人の直立身体モデルと、ステップS603で取得したユーザーの身長情報から、ステップS506で判定したユーザーの利き腕の現在の手の位置、すなわち、直立しているユーザーが物体を取り易い方向、ユーザーの手の届く、物体を取り易い高さを算出する(ステップS702)。
また、図6に示した処理手順を経て、ユーザーが仰臥していることが分かったときには(ステップS703)、ユーザーの手の位置算出部410は、図10Bに示すような人の仰臥身体モデルと、ステップS603で取得したユーザーの身長情報から、ステップS506で判定したユーザーの利き腕の現在の手の位置、すなわち、仰臥しているユーザーが物体を取り易い方向、ユーザーの手の届く、物体を取り易い高さを算出する(ステップS704)。
また、図6に示した処理手順を経て、ユーザーが着座していることが分かったときには(ステップS705)、ユーザーの手の位置算出部410は、図10Cに示すような人の着座身体モデルと、ステップS603で取得したユーザーの身長情報から、ステップS506で判定したユーザーの利き腕の現在の手の位置、すなわち、着座しているユーザーが物体を取り易い方向、ユーザーの手の届く、物体を取り易い高さを算出する(ステップS706)。
ユーザーの手の位置算出部410が算出したユーザーの利き腕の手の位置を、ステップS602で算出した、世界座標におけるユーザーの顔の位置姿勢を用いて座標変換する。腕部軌道計画部411は、この手の位置でユーザーと物体の授受を行なうための、左右いずれかの腕部の軌道を計画する。そして、腕部制御部412は、腕部軌道計画部411によって計画した腕部の軌道に従って腕部が移動するように利き腕部の各関節アクチュエーターの駆動を制御して、物体を差し出す(ステップS707)。
ここで、ステップS702、S704、S706で行なわれる、ユーザーの手の位置の算出方法について説明する。
ロボット装置100と物体授受インタラクションを行なうときのユーザーの基本的な姿勢を、立っている、寝ている、座っている、の3状態に分類し、これらに相当する人の身体モデルをそれぞれ図10A、図10B、図10Cのように考える。そして、各々のモデルに対し、ユーザーから見て、前方向x、左方向y、上方向zとなるような座標系を設定する。
図10Aに示した人の直立身体モデルにおける、顔の位置を基準としたときの手の位置(Δx,Δy,Δz)standingは、下式(1)として定義できる。
Figure 2013111737
但し、上式(1)において、Lは人の身長である。また、α、βは、人体の寸法を計測して得られるパラメーターである。身長に依存するパラメーターαと身長に依存しないパラメーターβから、利き腕の手の位置を算出している。
同様にして、図10Bに示した人の仰臥身体モデルにおける、顔の位置を基準としたときの手の位置(Δx,Δy,Δz)lyingは、下式(2)として定義できる。
Figure 2013111737
また、図10Cに示した人の着座身体モデルにおける、顔の位置を基準としたときの手の位置(Δx,Δy,Δz)sitingは、下式(3)として定義できる。
Figure 2013111737
図11(A)には、ロボット装置100が、ユーザーが立っていると判定されたときに、人の直立身体モデルとユーザーの身長情報から、利き腕と判定されたユーザーの手の位置に物体を差し出す様子を示している。
上述したように、ユーザーの本来の利き腕が骨折や怪我などにより一時的に身体動作に制限がある場合には、その反対側の腕が利き腕として判定される。図12には、ロボット装置100が、立っているユーザーの怪我をしていない方(受け取り易い方)の手の位置に物体を差し出す様子を示している。
また、図11(B)には、ロボット装置100が、ユーザーが着座していると判定されたときに、人の着座身体モデルとユーザーの身長情報から、利き腕と判定されたユーザーの手の位置に物体を差し出す様子を示している。図11(A)に示した、立っているユーザーに物体を差し出す場合と比較して、着座しているユーザーに物体を差し出すときにはロボット装置100が上げる高さの位置が低くなることが分かる。
このように、ロボット装置100は、ユーザーの利き腕、片麻痺、骨折などで、ユーザーが右半身又は左半身のどちらの動作し易いか(若しくは得意か)を判定し、さらにユーザーの身長などの身体特性並びにユーザーの現在の姿勢(ソファに座っている、ベッドに寝ている、など)に基づいて、ユーザーが物体を取り易い方向、ユーザーの手の届く、物体を取り易い高さを考慮した物体の受け渡しが可能となる。したがって、本明細書で開示する技術によれば、ユーザーは、無理のない姿勢で(疲れずに)物体を受け取ることができる。ユーザーは、ロボット装置から物体を受け取る際の負担が軽減されるとともに、ロボット装置との間で自然なインタラクションが可能となる。
なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)ユーザーの右腕又は左腕のうち前記物体の受け渡しに用いる受取腕を判定する受取腕判定部と、前記受取腕の現在の手の位置を算出する手の位置算出部と、前記手の位置算出部が算出した前記受取腕の手の位置に前記物体の受け渡し動作を行なう受け渡し動作部と、を具備するロボット装置。
(2)前記受取腕判定部は、ユーザーの利き腕、腕の障害の有無、又は、物体を受け取る動作をし易い方の腕に関する身体特性情報に基づいて、ユーザーの前記受取腕を判定する、上記(1)に記載のロボット装置。
(3)ユーザー毎の利き腕、腕の障害の有無、又は、物体を受け取る動作をし易い方の腕に関する身体特性情報を、事前知識としてユーザー身体特性データベース内に有し、前記受取腕判定部は、前記ユーザー身体特性データベースを参照して、物体の受け渡しを行なうユーザーの利き腕、腕の障害の有無、又は、物体を受け取る動作をし易い方の腕に関する身体特性情報を取得する、上記(2)に記載のロボット装置。
(4)ユーザーの身長に関する情報を取得するユーザー身長情報取得部と、ユーザーの現在の姿勢を判定するユーザー姿勢判定部をさらに備え、前記手の位置算出部は、ユーザーの身長とユーザーの現在の姿勢に基づいて、前記受取腕の現在の手の位置を算出する、上記(1)に記載のロボット装置。
(5)ユーザー毎の身長に関する身体特性情報を、事前知識としてユーザー身体特性データベース内に有し、前記手の位置算出部は、前記ユーザー身体特性データベースを参照して、物体の受け渡しを行なうユーザーの身長に関する身体特性情報を取得する、上記(4)に記載のロボット装置。
(6)直立、仰臥、着座の各姿勢の身体モデルを有し、前記手の位置算出部は、前記ユーザー姿勢判定部が判定したユーザーの現在の姿勢に対応する身体モデルに、前記ユーザー身長情報取得部が取得したユーザーの身長を当て嵌めて、前記受取腕の現在の手の位置を算出する、上記(4)に記載のロボット装置。
(7)ユーザーの顔の位置を算出する顔位置算出部をさらに備え、前記ユーザー姿勢判定部は、前記ユーザー身長情報取得部が取得したユーザーの身長とユーザーの顔の位置を比較して、ユーザーが直立した姿勢か否かを判定する、上記(4)に記載のロボット装置。
(8)ユーザーの顔の姿勢を検出する顔姿勢検出部をさらに備え、前記ユーザー姿勢判定部は、ユーザーが直立姿勢でないときには、前記顔姿勢検出部が検出したユーザーの顔の姿勢に基づいて、ユーザーが仰臥又は着座のいずれの姿勢であるかを判定する、上記(7)に記載のロボット装置。
(9)前記ロボット装置の居場所を移動させる移動部と、前記物体を把持することができる腕部をさらに備え、前記受け渡し動作部は、前記移動部によりユーザーの前記受取腕の方に移動する動作を行なうとともに、前記腕部を用いて把持した前記物体を前記受取腕の手の位置に差し出す動作を行なう、上記(1)に記載のロボット装置。
(10)前記ロボット装置の周囲の環境に関する環境マップをさらに備え、前記ユーザー姿勢判定部は、ユーザーのいる場所の環境を前記環境マップで参照して、ユーザーの現在の姿勢を判定する、上記(4)に記載のロボット装置。
(11)ユーザーの右腕又は左腕のうち前記物体の受け渡しに用いる受取腕を判定する受取腕判定ステップと、前記受取腕の現在の手の位置を算出する手の位置算出ステップと、前記手の位置算出ステップで算出した前記受取腕の手の位置に前記物体の受け渡し動作を行なう受け渡し動作ステップと、を有するロボット装置の制御方法。
(12)ユーザーの右腕又は左腕のうち前記物体の受け渡しに用いる受取腕を判定する受取腕判定部、前記受取腕の現在の手の位置を算出する手の位置算出部、前記手の位置算出部が算出した前記受取腕の手の位置に前記物体の受け渡し動作を行なう受け渡し動作部、としてコンピューターを機能させて、ロボット装置を制御するようにコンピューター可読形式で記述されたコンピューター・プログラム。
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書では、時々刻々、動的に変化する生活環境下において活動する生活支援ロボットに適用することを想定した実施形態を中心に説明してきたが、本明細書で開示する技術の要旨はこれに限定されるものではない。勿論、工場内に配置され、なすべきタスクが事前に分かっているような産業用ロボットにも、同様に本明細書で開示する技術を適用することができる。
要するに、例示という形態により本明細書で開示する技術について説明してきたが、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
100…ロボット装置
101…駆動輪
102…駆動輪用アクチュエーター
103…腰関節ピッチ軸アクチュエーター
104…肩関節ピッチ軸アクチュエーター
105…肩関節ロール軸アクチュエーター
106…肩関節ヨー軸アクチュエーター
107…肘関節ピッチ軸アクチュエーター
108…肘関節ヨー軸アクチュエーター
109…手首関節ロール軸アクチュエーター
110…手首関節ピッチ軸アクチュエーター
111…首関節ピッチ軸アクチュエーター
112…首関節ヨー軸アクチュエーター
113…手関節ロール軸アクチュエーター
151、152、153…劣駆動関節
310…制御ユニット
311…認識部
312…駆動制御部
313…環境マップ
320…入出力部
321…カメラ
322…距離センサー
323…マイクロフォン
324…スピーカー
325…無線通信部
330…駆動部
331…モーター
332…エンコーダー
333…ドライバー
401…ユーザー認識部
402…ユーザー身長情報取得部
403…利き腕判定部
404…ユーザー身体特性データベース
405…移動経路計画部
406…移動制御部
407…顔姿勢検出部
408…顔位置算出部
409…ユーザー姿勢判定部
410…ユーザーの手の位置算出部
411…腕部軌道計画部
421…腕部制御部

Claims (12)

  1. ユーザーの右腕又は左腕のうち前記物体の受け渡しに用いる受取腕を判定する受取腕判定部と、
    前記受取腕の現在の手の位置を算出する手の位置算出部と、
    前記手の位置算出部が算出した前記受取腕の手の位置に前記物体の受け渡し動作を行なう受け渡し動作部と、
    を具備するロボット装置。
  2. 前記受取腕判定部は、ユーザーの利き腕、腕の障害の有無、又は、物体を受け取る動作をし易い方の腕に関する身体特性情報に基づいて、ユーザーの前記受取腕を判定する、
    請求項1に記載のロボット装置。
  3. ユーザー毎の利き腕、腕の障害の有無、又は、物体を受け取る動作をし易い方の腕に関する身体特性情報を、事前知識としてユーザー身体特性データベース内に有し、
    前記受取腕判定部は、前記ユーザー身体特性データベースを参照して、物体の受け渡しを行なうユーザーの利き腕、腕の障害の有無、又は、物体を受け取る動作をし易い方の腕に関する身体特性情報を取得する、
    請求項2に記載のロボット装置。
  4. ユーザーの身長に関する情報を取得するユーザー身長情報取得部と、
    ユーザーの現在の姿勢を判定するユーザー姿勢判定部と、
    をさらに備え、
    前記手の位置算出部は、ユーザーの身長とユーザーの現在の姿勢に基づいて、前記受取腕の現在の手の位置を算出する、
    請求項1に記載のロボット装置。
  5. ユーザー毎の身長に関する身体特性情報を、事前知識としてユーザー身体特性データベース内に有し、
    前記手の位置算出部は、前記ユーザー身体特性データベースを参照して、物体の受け渡しを行なうユーザーの身長に関する身体特性情報を取得する、
    請求項4に記載のロボット装置。
  6. 直立、仰臥、着座の各姿勢の身体モデルを有し、
    前記手の位置算出部は、前記ユーザー姿勢判定部が判定したユーザーの現在の姿勢に対応する身体モデルに、前記ユーザー身長情報取得部が取得したユーザーの身長を当て嵌めて、前記受取腕の現在の手の位置を算出する、
    請求項4に記載のロボット装置。
  7. ユーザーの顔の位置を算出する顔位置算出部をさらに備え、
    前記ユーザー姿勢判定部は、前記ユーザー身長情報取得部が取得したユーザーの身長とユーザーの顔の位置を比較して、ユーザーが直立した姿勢か否かを判定する、
    請求項4に記載のロボット装置。
  8. ユーザーの顔の姿勢を検出する顔姿勢検出部をさらに備え、
    前記ユーザー姿勢判定部は、ユーザーが直立姿勢でないときには、前記顔姿勢検出部が検出したユーザーの顔の姿勢に基づいて、ユーザーが仰臥又は着座のいずれの姿勢であるかを判定する、
    請求項7に記載のロボット装置。
  9. 前記ロボット装置の居場所を移動させる移動部と、
    前記物体を把持することができる腕部と、
    をさらに備え、
    前記受け渡し動作部は、前記移動部によりユーザーの前記受取腕の方に移動する動作を行なうとともに、前記腕部を用いて把持した前記物体を前記受取腕の手の位置に差し出す動作を行なう、
    請求項1に記載のロボット装置。
  10. 前記ロボット装置の周囲の環境に関する環境マップをさらに備え、
    前記ユーザー姿勢判定部は、ユーザーのいる場所の環境を前記環境マップで参照して、ユーザーの現在の姿勢を判定する、
    請求項4に記載のロボット装置。
  11. ユーザーの右腕又は左腕のうち前記物体の受け渡しに用いる受取腕を判定する受取腕判定ステップと、
    前記受取腕の現在の手の位置を算出する手の位置算出ステップと、
    前記手の位置算出ステップで算出した前記受取腕の手の位置に前記物体の受け渡し動作を行なう受け渡し動作ステップと、
    を有するロボット装置の制御方法。
  12. ユーザーの右腕又は左腕のうち前記物体の受け渡しに用いる受取腕を判定する受取腕判定部、
    前記受取腕の現在の手の位置を算出する手の位置算出部、
    前記手の位置算出部が算出した前記受取腕の手の位置に前記物体の受け渡し動作を行なう受け渡し動作部、
    としてコンピューターを機能させて、ロボット装置を制御するようにコンピューター可読形式で記述されたコンピューター・プログラム。
JP2011263264A 2011-12-01 2011-12-01 ロボット装置及びその制御方法、並びにコンピューター・プログラム Pending JP2013111737A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011263264A JP2013111737A (ja) 2011-12-01 2011-12-01 ロボット装置及びその制御方法、並びにコンピューター・プログラム
US13/675,182 US9020643B2 (en) 2011-12-01 2012-11-13 Robot apparatus, control method thereof, and computer program
CN201210488642.1A CN103128736B (zh) 2011-12-01 2012-11-26 机器人装置、其控制方法和计算机程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011263264A JP2013111737A (ja) 2011-12-01 2011-12-01 ロボット装置及びその制御方法、並びにコンピューター・プログラム

Publications (1)

Publication Number Publication Date
JP2013111737A true JP2013111737A (ja) 2013-06-10

Family

ID=48489511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011263264A Pending JP2013111737A (ja) 2011-12-01 2011-12-01 ロボット装置及びその制御方法、並びにコンピューター・プログラム

Country Status (3)

Country Link
US (1) US9020643B2 (ja)
JP (1) JP2013111737A (ja)
CN (1) CN103128736B (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016068253A (ja) * 2014-09-30 2016-05-09 トヨタ自動車株式会社 ロボットによる物体手渡しシステム
JP2016159155A (ja) * 2015-02-26 2016-09-05 トヨタ自動車株式会社 ユーザの健康記録に基づいてパーソナライズされた看護の提供
CN106217377A (zh) * 2015-10-14 2016-12-14 山东世纪元通智能科技有限公司 路径点式行走机器人的控制方法
JP2017047518A (ja) * 2015-09-04 2017-03-09 トヨタ自動車株式会社 搬送車の移動経路設定方法
CN109465836A (zh) * 2018-11-16 2019-03-15 哈尔滨珀思臻科技开发有限公司 用于妇幼保健院发放就诊卡的迎宾机器人及其控制方法
WO2020071080A1 (ja) 2018-10-05 2020-04-09 ソニー株式会社 情報処理装置、制御方法及びプログラム
JPWO2021130929A1 (ja) * 2019-12-25 2021-07-01

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014129110A1 (ja) * 2013-02-25 2014-08-28 パナソニック株式会社 ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラム
US10725550B2 (en) * 2014-01-07 2020-07-28 Nod, Inc. Methods and apparatus for recognition of a plurality of gestures using roll pitch yaw data
CN103879386B (zh) * 2014-02-25 2016-03-16 西安航天精密机电研究所 一种基于全自动换电机器人的电池箱标定方法
JP6397226B2 (ja) * 2014-06-05 2018-09-26 キヤノン株式会社 装置、装置の制御方法およびプログラム
CN108724171B (zh) * 2017-09-25 2020-06-05 北京猎户星空科技有限公司 智能机器人的控制方法、装置和智能机器人
JP6916157B2 (ja) * 2018-10-23 2021-08-11 ファナック株式会社 人と協働作業を行うロボットシステム、及びロボット制御方法
WO2020090332A1 (ja) * 2018-10-30 2020-05-07 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP7234787B2 (ja) * 2019-05-09 2023-03-08 オムロン株式会社 作業分析装置、作業分析方法およびプログラム
US12032377B2 (en) * 2021-05-25 2024-07-09 Ubkang (Qingdao) Technology Co., Ltd. Mobility aid robot navigating method and mobility aid robot using the same
CN113551663B (zh) * 2021-06-21 2024-03-19 北京理工大学 图像与地磁组合的飞行器姿态解算系统及方法
CN116620802B (zh) * 2023-07-19 2023-10-24 中建安装集团有限公司 一种利用室内施工智能物料运输系统的运输方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100422709B1 (ko) * 2001-10-05 2004-03-16 엘지전자 주식회사 영상 의존적인 얼굴 영역 추출방법
JP2003205483A (ja) * 2001-11-07 2003-07-22 Sony Corp ロボットシステム及びロボット装置の制御方法
JP2003296855A (ja) * 2002-03-29 2003-10-17 Toshiba Corp 監視装置
JPWO2004075135A1 (ja) * 2003-02-19 2006-06-01 松下電器産業株式会社 監視電子機器システム、監視方法、プログラムおよび、記録媒体
CN1601549A (zh) * 2003-09-26 2005-03-30 中国科学院自动化研究所 基于多特征融合的人脸定位与头部姿势识别方法
JP4179230B2 (ja) 2004-06-07 2008-11-12 ソニー株式会社 ロボット装置及びその動作制御方法
WO2006043396A1 (ja) * 2004-10-19 2006-04-27 Matsushita Electric Industrial Co., Ltd. ロボット装置
JP4460528B2 (ja) * 2004-12-14 2010-05-12 本田技研工業株式会社 識別対象識別装置およびそれを備えたロボット
JP5120745B2 (ja) 2005-03-10 2013-01-16 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット
JP4800819B2 (ja) 2006-03-31 2011-10-26 富士通株式会社 対話ロボットシステム
JP5161435B2 (ja) * 2006-06-26 2013-03-13 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理システム、コンピュータの制御方法及びプログラム
JP4243326B2 (ja) * 2007-06-27 2009-03-25 パナソニック株式会社 ロボットアームの制御装置及び制御方法、ロボット、及びプログラム
KR20100086262A (ko) * 2009-01-22 2010-07-30 삼성전자주식회사 로봇 및 그 제어방법
US8452451B1 (en) * 2011-05-06 2013-05-28 Google Inc. Methods and systems for robotic command language

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016068253A (ja) * 2014-09-30 2016-05-09 トヨタ自動車株式会社 ロボットによる物体手渡しシステム
JP2016159155A (ja) * 2015-02-26 2016-09-05 トヨタ自動車株式会社 ユーザの健康記録に基づいてパーソナライズされた看護の提供
US9694496B2 (en) 2015-02-26 2017-07-04 Toyota Jidosha Kabushiki Kaisha Providing personalized patient care based on electronic health record associated with a user
JP2017047518A (ja) * 2015-09-04 2017-03-09 トヨタ自動車株式会社 搬送車の移動経路設定方法
CN106217377A (zh) * 2015-10-14 2016-12-14 山东世纪元通智能科技有限公司 路径点式行走机器人的控制方法
CN106313043A (zh) * 2015-10-14 2017-01-11 山东世纪元通智能科技有限公司 一种路径点式行走机器人系统的控制方法
WO2020071080A1 (ja) 2018-10-05 2020-04-09 ソニー株式会社 情報処理装置、制御方法及びプログラム
KR20210069041A (ko) 2018-10-05 2021-06-10 소니그룹주식회사 정보 처리 장치, 제어 방법 및 프로그램
US12128560B2 (en) 2018-10-05 2024-10-29 Sony Corporation Information processing device, control method, and program
CN109465836A (zh) * 2018-11-16 2019-03-15 哈尔滨珀思臻科技开发有限公司 用于妇幼保健院发放就诊卡的迎宾机器人及其控制方法
JPWO2021130929A1 (ja) * 2019-12-25 2021-07-01
JP7493816B2 (ja) 2019-12-25 2024-06-03 東京ロボティクス株式会社 ロボット、システム、方法及びプログラム

Also Published As

Publication number Publication date
CN103128736B (zh) 2016-12-21
US20130144440A1 (en) 2013-06-06
US9020643B2 (en) 2015-04-28
CN103128736A (zh) 2013-06-05

Similar Documents

Publication Publication Date Title
JP2013111737A (ja) ロボット装置及びその制御方法、並びにコンピューター・プログラム
US11345041B2 (en) Robot device, method of controlling the same, computer program, and robot system
US11072068B2 (en) Robot apparatus and method of controlling robot apparatus
JP4786519B2 (ja) ロボットによる物体を移動するサービスに必要な情報の取得方法と該方法を用いたロボットによる物体移動サービスシステム
US20190278295A1 (en) Robot control system, machine control system, robot control method, machine control method, and recording medium
JP6194971B2 (ja) ユーザの健康記録に基づいてパーソナライズされた看護の提供
US8996176B2 (en) Robot apparatus, method for controlling the same, and computer program
JP2013111726A (ja) ロボット装置及びその制御方法、並びにコンピューター・プログラム
JP7561873B2 (ja) ロボットアシスタント
JP5145569B2 (ja) 対象物特定方法および装置
KR20150119734A (ko) 병실 도우미 로봇
Luo et al. Team Northeastern's approach to ANA XPRIZE Avatar final testing: A holistic approach to telepresence and lessons learned
Bley et al. Supervised navigation and manipulation for impaired wheelchair users
JP2013188815A (ja) 制御装置及び制御方法、並びにコンピューター・プログラム
Higa et al. A vision-based assistive robotic arm for people with severe disabilities
Rohmer et al. Laser based driving assistance for smart robotic wheelchairs
Koike et al. Development of an intraoral interface for human-ability extension robots
CN116100565A (zh) 基于外骨骼机器人的沉浸式实时远程操作平台
JP2013173209A (ja) ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
JP2022155623A (ja) ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム
CN117001715A (zh) 一种面向视觉功能障碍者的智能辅助系统及方法
CN115225682A (zh) 管理服务器、远程操作系统、远程操作方法以及存储介质