[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2005131713A - コミュニケーションロボット - Google Patents

コミュニケーションロボット Download PDF

Info

Publication number
JP2005131713A
JP2005131713A JP2003367228A JP2003367228A JP2005131713A JP 2005131713 A JP2005131713 A JP 2005131713A JP 2003367228 A JP2003367228 A JP 2003367228A JP 2003367228 A JP2003367228 A JP 2003367228A JP 2005131713 A JP2005131713 A JP 2005131713A
Authority
JP
Japan
Prior art keywords
action
data
robot
behavior
interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003367228A
Other languages
English (en)
Inventor
Takayuki Kanda
崇行 神田
Yasuyuki Sumi
康之 角
Kenji Mase
健二 間瀬
Kiyoshi Kogure
潔 小暮
Hiroshi Ishiguro
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2003367228A priority Critical patent/JP2005131713A/ja
Publication of JP2005131713A publication Critical patent/JP2005131713A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【構成】 環境内に設置される周囲状況観測装置16によって周囲の状況が観測され、人間P2等に装着される人間用観測装置18によって当該人間の視点からの状況が観測され、また、ロボット本体12によって当該ロボットの視点からの状況が観測される。展示物B1…や人間用観測装置18等には赤外線タグ14等が取り付けられ、これによって各観測装置では識別情報を含むデータが取得される。したがって、このような環境内における人間や展示物等の間のインタラクションが観測され、その人間の行動履歴がデータベースに逐次記録される。そして、対話相手についての過去の行動データを解析し、その状態に基づいて、対話相手に提示すべき案内や推薦等の行動が決定され、ロボット本体12は当該行動を実行する。
【効果】 対話相手の過去の行動に応じた行動を提示することができる。
【選択図】 図1

Description

この発明はコミュニケーションロボットに関し、特にたとえば、対話対象の行動を観測して、たとえば身振りや音声等の身体動作を用いてコミュニケーションをする、コミュニケーションロボットに関する。
この種の従来のコミュニケーションロボットの一例が、たとえば本件出願人による特許文献1に開示されている。この特許文献1のロボットでは、たとえば、身振りや音声を用いて対話相手にポスター等のような展示物を見るように案内する行動が実行される。
米国特許第6604021号明細書
特許文献1の従来技術では、対話相手に対して案内をすることができるが、その対話相手の過去の行動の如何にかかわらず、一義的にプログラミングされたガイド方法を実行するのみであった。
それゆえに、この発明の主たる目的は、対話相手の過去の行動に応じた行動を実行できる、コミュニケーションロボットを提供することである。
請求項1の発明は、対話対象の行動を観測してコミュニケーションをするコミュニケーションロボットであって、対話対象の行動履歴を取得するセンサ、センサによって取得された行動履歴を記録する記録手段、対話対象から対話相手を決定する相手決定手段、記録手段に記録された対話相手に関する行動履歴に基づいて当該ロボットの行動を決定する行動決定手段、および行動決定手段によって決定された行動を実行する実行手段を備える、コミュニケーションロボットである。
請求項1の発明では、たとえば所定の空間における人間等のような当該ロボットの対話対象の行動を観測してコミュニケーションを図る。センサは対話対象の行動履歴を取得し、取得された行動履歴は記録手段によって記録される。相手決定手段は対話対象の中から対話相手を決定し、行動決定手段は、その対話相手に関する行動履歴に基づいて、当該ロボットの提示すべき行動を決定する。そして、実行手段は、決定された行動を、その対話相手に対して実行する。したがって、請求項1の発明によれば、対話相手に対してその過去の行動に応じた行動を提示することができる。
請求項2の発明は、請求項1に従属するコミュニケーションロボットであり、センサは、対話対象を識別するための識別情報および対話対象のインタラクションの対象物を識別するための識別情報の少なくとも一方を取得する。
請求項2の発明では、センサによって、対話対象を識別するための識別情報、および対話対象のインタラクションないし行動の対象物(実施例ではたとえば展示物やロボット本体、ぬいぐるみ等)を識別するための識別情報のうち少なくとも一方を取得する。対話対象を識別するための識別情報を取得する場合、センサは当該対話対象以外の場所に、たとえば他の対話対象、対象物または環境を構成する構造物等に設けられている。したがって、対話対象の識別情報が取得される場合、当該識別情報の付与された対話対象は、センサの設けられた他の対話対象、対象物または構造物等に対してインタラクションをしていることが把握される。また、対象物を識別するための識別情報を取得する場合、センサは当該対象物以外の場所に、たとえば対話対象、他の対象物、または環境を構成する構造物等に設けられている。したがって、対象物の識別情報が取得される場合、当該識別情報の付与された対象物に対して、センサの装着された対話対象がインタラクションをしていることが把握される。そして、記録手段は、対話相手を識別可能な識別情報によって記述された行動履歴、および対象物を識別可能な識別情報によって記述された行動履歴のうち少なくとも一方を記録する。行動決定手段は、対話対象の識別情報が取得される場合、記録手段の行動履歴の中から、対話相手に関する行動履歴をその対話相手の識別情報によって容易に特定し参照することができる。また、対象物の識別情報が取得される場合には、対話相手に設けられるセンサによって取得された行動履歴が、対話相手に関する行動履歴である。このように、センサによって対話対象および対象物の少なくとも一方の識別情報を取得することによって、行動決定手段は対話相手に対する行動を容易に決定することができる。
請求項3の発明は、請求項2に従属するコミュニケーションロボットであり、行動決定手段は、対話相手とインタラクションの対象物との位置関係に基づいて対話相手に関する行動履歴の状態を解析し、該解析結果に基づいて行動を決定する。
請求項3の発明では、行動決定手段は、対話相手に関する行動履歴データを、対話相手とそのインタラクションの対象物との位置関係に基づいて解析する。対話相手とインタラクションの対象物との位置関係は、対話対象の識別情報によって記述される行動履歴や、インタラクション対象物の識別情報によって記述される行動履歴、あるいはこれらの組み合わせ等によって把握することができる。この解析によって対話相手に関する行動履歴の状態を把握することができる。したがって、把握された過去の行動の状態に基づいて、提示する行動を容易に決定することができる。
請求項4の発明は、請求項1ないし3のいずれかに従属するコミュニケーションロボットであり、過去の行動に対応して当該ロボットの提示すべき行動を規定した規則を記憶する規則記憶手段をさらに備え、行動決定手段は、対話相手に関する行動履歴と規則とに基づいて、行動を決定する。
請求項4の発明では、規則記憶手段には、過去の行動に対応して当該ロボットの提示すべき行動を規定した規則が記憶される。そして、行動決定手段は、対話相手に関する行動履歴と規則記憶手段の規則とに基づいて、提示すべき行動を決定する。したがって、過去の行動と規則とを照合することによって、対話相手に提示する行動を容易に決定することができる。
請求項5の発明は、請求項1ないし4のいずれかに従属するコミュニケーションロボットであり、行動決定手段によって決定される行動は、対話相手のインタラクションした対象物に関連する案内ないし推薦をする動作を含む。
請求項5の発明では、対話相手のインタラクションした対象物に関連する案内ないし推薦をする動作が実行されるので、対話相手はインタラクションによって得た知識等を補完したり深めたりすることができ、有益な情報を得ることができる。
この発明によれば、対話相手の過去の行動データに基づいて、当該対話相手に対して提示する行動を決定するので、対話相手の過去の行動に応じた行動を提示することができる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1を参照して、この実施例のコミュニケーションロボット(以下、単に「ロボット」とも言う。)10は、1または複数の対話対象である人間等の行動を観測してコミュニケーションをするものである。具体的には、ロボット10は、所定の空間において対話相手である人間に対して、当該人間の過去の行動に応じた行動を提示するためのものであり、実際に身振りや発話等の身体動作を用いて行動を提示するロボット本体12を含む。この実施例では、一例として、種々の展示物等が配置された展示会場において、訪問者P1,P2,P3…等に案内をする場合を想定している。
ロボット10では、空間内におけるロボット本体12の対話対象である少なくとも1人の人間と、その人間のたとえばインタラクション(相互作用)の対象物であるたとえば展示物やロボット本体12等との間のインタラクションに関するデータ、すなわち対話対象の行動に関するデータが逐次記録されて蓄積される。そして、この蓄積された行動の履歴に基づいて対話相手に提示すべき行動が決定され、ロボット本体12は、たとえば案内ないし推薦情報やインタラクションした対象物に関する情報等をその身振りまたは音声を含む身体動作(行動)によって提示する。このため、展示会場内には対話対象たる訪問者等のインタラクションを検知するための各種のセンサ類が設けられるとともに、検知対象物にはこの実施例では赤外線タグ14がそれぞれ取り付けられている。
たとえば、複数の周囲状況観測装置16が環境を構成する構造物である天井または壁等の所定の位置に設置され、それぞれの設置箇所の周囲でのインタラクションが観測される。また、訪問者P2,P3や説明員Q1等には人間用観測装置18がそれぞれ装着され、それぞれの人間の視点ないし位置からのインタラクションが観測される。また、1または複数のぬいぐるみ型観測装置20も環境内の所定の場所に配置され、当該ぬいぐるみの視点ないし位置からのインタラクションが観測される。そして、ロボット本体12もその視点ないし位置からインタラクションを観測する装置として機能する。
また、赤外線タグ14は、対象物自体またはその近傍もしくは環境内の天井または壁等に取り付けられる。この図1の例では、展示物として説明用ボードないしポスターB1,B2,B3,B4…および説明用コンピュータM1,M2,M3…の所定位置にそれぞれ取り付けられるとともに、訪問者P1、ぬいぐるみ20、およびロボット本体12のたとえば胸部等にそれぞれ取り付けられている。各赤外線タグ14は、当該対象物を識別するための識別情報(ID番号等)を赤外線の点滅により送信する。また、訪問者P2,P3および説明員Q1に装着される人間用観測装置18にも、同様に、赤外線タグ(図示せず)が取り付けられ、当該訪問者および説明員等の対話対象を識別するための識別情報が送信される。このように、観測されて記録されるインタラクションデータは、対象物の識別情報で記述されるデータや、対話対象の識別情報で記述されるデータを含む。
赤外線タグ14および人間用観測装置18に取り付けられる赤外線タグは、赤外線LED,駆動回路および内部電池等を含み、当該赤外線タグが取り付けられた対象物に対して一意的に割り付けられたID番号が識別可能なように赤外線LEDを点滅制御する。赤外線LEDとしては、たとえば光通信用高出力発光ダイオード(スタンレイ社製DN311)等が適用され、指向性が弱くかつ可視光に近い800nm程度のものを好適に用いることができる。駆動回路はマイクロコンピュータ等から構成され、たとえば、Atmel社製4MHz駆動マイコンAT90S2323等を用いることができる。具体的には、駆動回路は、マンチェスタ符号化方式によりエンコードしたID番号(6bit)およびパリティビットと、スタートビット(1bit)およびエンドビット(2bit)とを200Hz周期の点滅により繰り返し送信する。
図2にはロボット10の構成の一例が示される。この図2を参照して、ロボット10は、周囲状況観測装置16、人間用観測装置18、ぬいぐるみ型観測装置20、データ取得サーバ(処理コンピュータ)22、ロボット本体12、インタラクションデータベース24、ロボット動作データベース26およびガイドルールデータベース28等を含む。なお、この図2では、図示を容易にするために、周囲状況観測装置16、人間用観測装置18、ぬいぐるみ型観測装置20およびロボット本体12をそれぞれ1個のみ示しているが、周囲状況観測装置16は1または複数の観測位置に設けられ、人間用観測装置18はたとえば説明員および訪問者ごとに設けられ、ぬいぐるみ型観測装置20およびロボット本体12は必要数だけ設けられるのは言うまでもない。
周囲状況観測装置16は、たとえば赤外線カメラ30、CCDカメラ32、マイク34および据置型コンピュータ36等を含む。この周囲状況観測装置16によって、その周囲におけるインタラクションが観測され、検知範囲内の赤外線タグ14等の識別情報および位置情報等が取得されるとともに、ビデオデータおよび音声データ等が取得される。
赤外線カメラ30は、撮影範囲内に位置する赤外線タグ14または人間用観測装置18に取り付けられた赤外線タグ等から発せられる赤外線を検出するためのものであり、画像処理装置38を介して据置型コンピュータ36に接続される。赤外線カメラ30は、たとえば赤外線フィルタ、レンズ、CMOSイメージセンサ等を含む。
赤外線フィルタは主に近赤外線のみ透過させ、レンズはその近赤外線をCMOSイメージセンサ上に結像させる。赤外線フィルタとしては、たとえば、可視光をブロックし、近赤外光をパスするエドモンド社製プラスチックIRパスフィルタ等を使用できる。レンズの画角はたとえば60度程度であり、この場合、CMOSイメージセンサのピクセル当りの集光率が高くなり、遠距離に位置する赤外線タグ14等を容易に発見することができる。
CMOSイメージセンサは、レンズにより結像された近赤外線から構成される近赤外線画像を撮影して画像処理装置38へ出力する。CMOSイメージセンサとしては、たとえば、三菱電機社製人口網膜LSI(M64283FP)等を使用でき、この場合の解像度は128×128pixelである。
画像処理装置38は、CMOSイメージセンサの制御およびデータ処理等を行う。たとえば近赤外線画像から赤外線タグを検出し、検出した赤外線タグの点滅状態からID番号を検出するとともに、赤外線画像上の赤外線タグのXY座標を検出する。そして、検出したID番号およびXY座標等のデータをRS232C等のデータ伝送規格に従って据置型コンピュータ36へ出力する。画像処理装置38としては、たとえば、Cygnal社製49MHz駆動マイコンC8051F124を使用できる。
この場合、CMOSイメージセンサを115200Hzのクロックで駆動させ、撮像(シャッター開放)後、1クロック毎に1pixelの明るさがアナログ値でシリアル出力される。このため、全画素撮影時の最短フレームレートは、(シャッタースピード)+(128×128×クロックスピード)となるが、たとえば128×128pixelのうち8×8pixelを検出領域に設定して500Hzのシャッタースピードで撮像した場合、400Hzのフレームレートを実現することができ、読み出し速度を高速化することができる。このように、赤外線タグ14等の点滅周期(200Hz)の2倍のフレームレート(400Hz)で読み込むため、単一LEDを用いて非同期通信を行うことができる。
ここで、赤外線タグ検出処理について説明する。この赤外線タグ検出処理は、画像処理装置38に予め記憶されている検出処理プログラムを実行することによって行われるものであり、後述する人間用観測装置18やロボット本体12でも同様の処理が行われる。
まず、画像処理装置38は、赤外線カメラ(CMOSイメージセンサ)30を初期化し、全画面(たとえば128×128pixel)の赤外線画像を撮影する。次に、画像処理装置38は、赤外線画像の中から所定サイズの光点、たとえば1pixelの光点を赤外線タグとして抽出し、所定サイズより大きな光点を排除する。このように、赤外線画像の中から所定サイズの光点を検出するという簡便な処理によって赤外線タグを検出することができるので、この赤外線タグ処理を高速化することができる。
次に、画像処理装置38は、抽出した光点を中心とするたとえば8×8pixelの領域を検出領域として決定し、CMOSイメージセンサによって検出領域を既定回数、たとえば、((送信ビット数+スタートビット数+エンドビット数)×2×2)回読み込み、読み込んだ赤外線画像から赤外線タグの点滅状態を検出してID番号を検出するとともに、パリティチェックを行い、読み込みデータの判定処理を行う。
このように、赤外線画像から光点を含む検出領域を決定し、この検出領域の赤外線画像のみを用いて赤外線タグの点滅状態を検出しているので、処理対象となる赤外線画像を必要最小限に限定することができ、この赤外線タグ検出処理を高速化することができる。これによって、人の動きに充分に追従することができ、動き予測等の演算コストの高い処理を省略することができる。ここで、パリティチェックが正しければ、画像処理装置38は、赤外線タグのID番号およびXY座標を出力し、パリティチェックが正しくなければ、検出領域の読み込みを再度行い、上述の赤外線検出処理を検出されたすべての光点に対して行う。
また、CCDカメラ32は、周囲の可視光の映像を撮影するためのものであり、図示しないレンズ等を含み、可視光画像を撮影して映像信号を据置型コンピュータ36へ出力する。CCDカメラ32としては、たとえば、アナログビデオ出力を有するキーエンス社製小型CCDカメラ(水平画角44度)等を使用できる。ここで、レンズの光軸は、赤外線カメラ30のレンズの光軸に合わせられており、したがって、撮影範囲内の軸方向に位置する対象物を識別するだけでなく、当該対象物の可視光画像も同時に撮影することができる。
マイク34は、周囲音を検出するためのものであり、無指向性のものが適用され、音声処理回路40を介して据置型コンピュータ36に接続される。マイク34は集音して音声処理回路40へ出力し、音声処理回路40は録音された音声信号を据置型コンピュータ36へ出力する。
据置型コンピュータ36は、入力される赤外線タグ14等のID番号、赤外線タグ14等の赤外線画像におけるXY座標、可視光画像および音声等の各データに対して、観測時刻を特定するための時間情報の付加等の所定の処理を行い、各情報をデータ取得サーバ22へ送信する。この時間情報の付与によって、各観測装置16,18,20および12等で分散的に観測される各インタラクションデータの時間的な同期を取っている。なお、時間的な同期を取る方法は、たとえば、全ての装置がワールドクロックに合わせて観測動作を行ったり、また、各装置が独立に内部クロックを持ち、たとえばデータ取得サーバ22から送信される所定の同期信号を基準にオフセットを調整したりするようにしてもよい。なお、据置型コンピュータ36はデータ取得サーバ22と無線により接続されてもよい。
人間用観測装置18は、たとえば赤外線カメラ42、CCDカメラ44、マイク46、生体センサ48および携帯型コンピュータ50等を含む。人間用観測装置18は、図1から分かるように、たとえば耳かけ式ネックバンド方式ヘッドセットとして構成され、説明員Q1…や訪問者P2,P3…等の頭部に装着される。赤外線カメラ42およびCCDカメラ44等はたとえば直方体形状の筺体に一体に内蔵されて人の視線方向にカメラ軸が向けられ、マイク46はユーザの口元付近に配置される。人間用観測装置18の装着される人間を識別するための赤外線タグは、この筺体の側面に一体的に固定される。また、生体センサ48は、説明員または訪問者等の指等に装着され、携帯型コンピュータ50は、説明員または訪問者等に背負われて使用される。この人間用観測装置18によって、当該人間の視点等からのインタラクションが観測され、検知範囲内の赤外線タグ14等の識別情報および位置情報等が取得されるとともに、ビデオデータおよび音声データならびに当該装置18の装着された人間の生体データ等が取得される。
赤外線カメラ42は、画像処理装置52を介して携帯型コンピュータ50に接続される。これら赤外線カメラ42および画像処理装置52は、上述した周囲状況観測装置16の赤外線カメラ30および画像処理装置38と同様に構成されかつ動作する。ただし、レンズの画角はたとえば90度程度に設定され、この場合、対面での会話状態等において比較的近距離で広範囲に位置する赤外線タグ14等を容易に検出することができる。この赤外線カメラ42等によって、視線方向の撮影範囲内に存在する赤外線タグ14等のID番号およびXY座標を検出し、検出したID番号およびXY座標等のデータを携帯型コンピュータ50へ出力する。
CCDカメラ44は、人の視線方向の可視光画像を撮影して映像信号を携帯型コンピュータ50へ出力する。このCCDカメラ44も、上述した周囲状況観測装置16のCCDカメラ32と同様に構成されかつ動作する。この人間用観測装置18でも、CCDカメラ44のレンズの光軸は、赤外線カメラ42のレンズの光軸に合わせられており、したがって、視線方向に位置する対象物を識別するだけでなく、当該対象物の可視光画像も同時に撮影することができる。
マイク46は、説明員または訪問者等の音声や周囲音を検出するためのものであり、音声処理回路54を介して携帯型コンピュータ50に接続される。音声処理回路54はマイク46から出力された音声信号を携帯型コンピュータ50へ出力する。
生体センサ48は、生体データ処理回路56を介して携帯型コンピュータ50に接続される。生体センサ48等は、たとえば、人間の脈拍、手の表面の伝導性(発汗)、温度の3個のセンサを備える生体データ記録用モジュール(Procomp+)等から構成される。生体センサ48は、説明員または訪問者の脈拍、発汗状態および体温を検出し、生体データ処理回路56は、たとえば検出された各データの平均値を数秒ごとにそれぞれ計算し、リアルタイムに生体データをAD変換して携帯型コンピュータ50へ送信する。
携帯型コンピュータ50は、入力される赤外線タグ14等のID番号、赤外線タグ14等の赤外線画像におけるXY座標、可視光画像、音声、および生体データ等の各データに対して、観測時刻を特定するための時間情報の付加等の所定の処理を行い、各情報をデータ取得サーバ22へ無線により送信する。
ぬいぐるみ型観測装置20は、たとえば、視覚、聴覚および触覚等を有し、説明員および訪問者は通常のぬいぐるみで遊ぶ感覚でこのぬいぐるみ型観測装置20を保持する。このぬいぐるみ型観測装置20によって、ぬいぐるみ自身の視点からの説明員および訪問者等の状況等が観測され、映像データ、音声データおよび触覚データ等のインタラクションデータが取得される。ぬいぐるみ型観測装置20は、たとえばCCDカメラ58、マイク60、触覚センサ62および携帯型コンピュータ64等を含む。CCDカメラ58は、ぬいぐるみの視線方向の可視光画像を撮影して映像信号を携帯型コンピュータ64に出力する。マイク60は説明員または訪問者等の音声や周囲音を検出するためのものであり、音声処理回路66を介して携帯型コンピュータ64に接続される。音声処理回路66はマイク60から出力された音声信号を携帯型コンピュータ64へ出力する。触覚センサ62はたとえば説明員または訪問者等の接触を検知する接触センサないし圧力センサ等であり、図示しない処理回路を介して触覚データを携帯型コンピュータ64に出力する。そして、携帯型コンピュータ64は、入力される可視光画像、音声、および触覚データ等の各データに対して、観測時刻を特定するための時間情報の付加等の所定の処理を行い、各情報をデータ取得サーバ22へ無線により送信する。なお、ぬいぐるみ型観測装置20では、たとえばぬいぐるみの抱きかかえられたときの体勢データ等も検出するようにしてもよい。
ロボット本体12は、たとえば、知覚、聴覚および触覚等を有するヒューマノイド型で自律移動型のものであり、ロボット本体12自身の視点から展示会場の状況、説明員および訪問者の状況等を観測する。そして、観測した赤外線タグ14等のID番号およびXY座標や映像データ、音声データおよび触覚データ等のインタラクションデータに時間情報等を付加して、データ取得サーバ22へ無線により送信する。
また、このロボット本体12は、身振りおよび音声を用いて対話相手との間でコミュニケーション行動を実行することができる。たとえば、対話相手の存在を検知してその方に顔を向けたり、さらに「こんにちは」と能動的に話しかけたり、また、触られた場合その接触箇所に顔を向けたりといった様々なコミュニケーション行動を実行できる。そして、この実施例では、たとえばロボット本体12の外部の処理コンピュータとしても機能するデータ取得サーバ22から身体動作データを受信して、当該身体動作データを実行することによって、対話相手の過去の行動に応じた案内などの行動を提示することもできる。
図3および図4を参照してロボット本体12の一例を詳細に説明する。図3に示すように、ロボット本体12は台車68を含み、この台車68の下面にはロボット本体12を自律移動させる車輪70が設けられる。車輪70は車輪モータ72(図4参照)によって駆動され、台車68すなわちロボット本体12を前後左右任意の方向に動かすことができる。
なお、図3においては省略するが、台車68の前面には、衝突センサ74(図3参照)が取り付けられ、この衝突センサ74は台車68への人や他の障害物の接触を検知する。つまり、ロボット本体12の移動中に障害物との接触を検知すると、直ちに車輪70の駆動を停止してロボット本体12の移動を急停止させる。
また、この実施例では、ロボット本体12の背の高さは、人、特に子供に威圧感を与えることのないように、100cm程度とされる。ただし、この背の高さは変更可能である。
台車68の上には、多角形柱のセンサ取付パネル76が設けられ、このセンサ取付パネル76の各面には、超音波距離センサ78が取り付けられる。この超音波距離センサ78は、センサ取付パネル76すなわちロボット本体12の周囲の主として人との距離を計測するものである。
また、台車68の上には、さらに、その下部がセンサ取付パネル76に囲まれて、ロボット本体12の胴体が直立するように設けられる。この胴体は、下部胴体80と上部胴体82とによって構成され、下部胴体80および上部胴体82は、連結部84によって互いに連結される。図示は省略するが、連結部84には昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体82の高さすなわちロボット本体12の背の高さを変化させることができる。昇降機構は、後述するように、腰モータ86(図4参照)によって駆動される。
上部胴体82のほぼ中央には、1つの全方位カメラ88と1つの赤外線カメラ90と1つのマイク92とが設けられる。全方位カメラ88は、ロボット本体12の周囲を撮影するものであり、後述する眼カメラ94とは区別される。この全方位カメラ88としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。赤外線カメラ90は、上述の赤外線カメラ30または42等と同様に、赤外線タグ14等の発する赤外線を検出するためのものである。また、マイク92は、周囲の音、とりわけ人の声を取り込む。なお、これら全方位カメラ88,赤外線カメラ90およびマイク92の設置位置は上部胴体82に限られず適宜変更され得る。
また、たとえば上部胴体82の胸部には、当該ロボット本体12を識別するためのID番号を発する赤外線タグ14が取り付けられている。
上部胴体82の両肩には、それぞれ、肩関節96Rおよび96Lによって、上腕98Rおよび98Lが設けられる。肩関節96Rおよび96Lは、それぞれ、3軸の自由度を有する。すなわち、肩関節96Rは、X軸、Y軸およびZ軸のそれぞれの軸廻りにおいて上腕98Rの角度を制御できる。Y軸は、上腕98Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に対して、それぞれ異なる方向から直交する軸である。他方、肩関節96Lは、A軸、B軸およびC軸のそれぞれの軸廻りにおいて上腕98Lの角度を制御できる。B軸は、上腕98Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に対して、それぞれ異なる方向から直交する軸である。
また、上腕98Rおよび98Lのそれぞれの先端には、肘関節100Rおよび100Lを介して、前腕102Rおよび102Lが設けられる。肘関節100Rおよび100Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕102Rおよび102Lの角度を制御できる。
なお、上腕98Rおよび98Lならびに前腕102Rおよび102Lの変位を制御するX軸,Y軸,Z軸,W軸およびA軸,B軸,C軸,D軸では、それぞれ、「0度」がホームポジションであり、このホームポジションでは、図3に示すように、上腕98Rおよび98Lならびに前腕102Rおよび102Lは下方に向けられる。
また、図示は省略するが、上部胴体82の肩関節96Rおよび96Lを含む肩の部分や上述の上腕98Rおよび98Lならびに前腕102Rおよび102Lには、それぞれ、タッチセンサ(図4で包括的に示す。:104)が設けられていて、これらのタッチセンサ104は、人がロボット本体12の当該各部位に触れたかどうかを検知する。
前腕102Rおよび102Lのそれぞれの先端には、手に相当する球体106Rおよび106Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
上部胴体82の中央上方には、首関節108を介して頭部110が設けられる。首関節108は、3軸の自由度を有し、S軸、T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上(鉛直上向き)に向かう軸であり、T軸およびU軸は、それぞれ、そのS軸に対して異なる方向で直交する軸である。頭部110には、人の口に相当する位置に、スピーカ112が設けられる。スピーカ112は、ロボット本体12が、それの周辺の人に対して音声ないし音によってコミュニケーションを取るために用いられる。ただし、スピーカ112は、ロボット本体12の他の部位、たとえば胴体などに設けられてもよい。
また、頭部110には、目に相当する位置に眼球部114Rおよび114Lが設けられる。眼球部114Rおよび114Lは、それぞれ眼カメラ94Rおよび94Lを含む。以下、右の眼球部114Rと左の眼球部114Lとをまとめて眼球部114ということがあり、また、右の眼カメラ94Rと左の眼カメラ94Lとをまとめて眼カメラ94ということもある。
眼カメラ94は、ロボット本体12に接近した人の顔や他の部分ないし物体等を撮影して、それに対応する映像信号を取り込む。眼カメラ94としては、上述した全方位カメラ88と同様のカメラを用いることができる。
たとえば、眼カメラ94は眼球部114内に固定され、眼球部114は眼球支持部(図示せず)を介して頭部110内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部110に対して設けられる軸であり、α軸は頭部110の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部110の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部110がホームポジションにあるとき、α軸はS軸と平行であり、β軸はU軸と平行であるように設定される。このような頭部110において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部114ないし眼カメラ94の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。
なお、眼カメラ94の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、眼カメラ94のカメラ軸は頭部110の正面側(顔)が向く方向に向けられ、視線は正視状態となる。
図4は、ロボット本体12の電気的な構成を示すブロック図であり、この図4を参照して、ロボット本体12は、全体を制御するCPU116を含む。CPU116は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス118を介して、メモリ120、モータ制御ボード122、センサ入力/出力ボード124および音声入力/出力ボード126に接続される。
メモリ120は、図示は省略するが、ROMやRAMを含み、ROMにはロボット本体12の制御プログラムが予め記憶され、RAMはワークメモリやバッファメモリとして用いられる。制御プログラムはたとえばコミュニケーション行動を実行するためのプログラム、インタラクションを観測してデータを取得するためのプログラム、取得したデータに時間情報等を付加するためのプログラム、データをデータ取得サーバ(処理コンピュータ)22との間で送受信するためのプログラム、受信した身体動作データを実行するためのプログラム等を含む。メモリ120にはまた、コミュニケーション行動の実行の際にスピーカ112から発生すべき音声または声の音声データ(音声合成データ)および所定の身振りを提示するための角度データ等を含む身体動作データ等も必要に応じて記憶される。
モータ制御ボード122は、たとえばDSPで構成され、各腕や頭部および眼球部等の各軸モータの駆動を制御する。すなわち、モータ制御ボード122は、CPU116からの制御データを受け、右眼球部114Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図4では、まとめて「右眼球モータ」と示す。)128の回転角度を制御する。同様に、モータ制御ボード122は、CPU116からの制御データを受け、左眼球部114Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図4では、まとめて「左眼球モータ」と示す。)130の回転角度を制御する。
また、モータ制御ボード122は、CPU116からの制御データを受け、右肩関節96RのX軸、Y軸およびZ軸のそれぞれの角度を制御する3つのモータと右肘関節100RのW軸の角度を制御する1つのモータとの計4つのモータ(図4では、まとめて「右腕モータ」と示す。)132の回転角度を調節する。同様に、モータ制御ボード122は、CPU116からの制御データを受け、左肩関節96LのA軸、B軸およびC軸のそれぞれの角度を制御する3つのモータと左肘関節100LのD軸の角度を制御する1つのモータとの計4つのモータ(図4では、まとめて「左腕モータ」と示す。)134の回転角度を調整する。
さらに、モータ制御ボード122は、CPU116からの制御データを受け、頭部110のS軸、T軸およびU軸のそれぞれの角度を制御する3つのモータ(図4では、まとめて「頭部モータ」と示す。)136の回転角度を制御する。さらにまた、モータ制御ボード122は、CPU116からの制御データを受け、腰モータ86および車輪70を駆動する2つのモータ(図3では、まとめて「車輪モータ」と示す。)72の回転角度を制御する。
なお、この実施例では、車輪モータ72を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ72と同様に、直流モータを用いるようにしてもよい。
センサ入力/出力ボード124もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU116に与える。すなわち、超音波距離センサ78のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード124を通してCPU116に入力される。また、全方位カメラ88からの映像信号が、必要に応じてこのセンサ入力/出力ボード124で所定の処理を施された後、CPU116に入力される。眼カメラ94からの映像信号も、同様にして、CPU116に入力される。
また、赤外線カメラ90からの映像信号は、上述の周囲状況観測装置16の画像処理装置38や人間用観測装置18の画像処理装置52と同様に、赤外線画像から赤外線タグを検出して、赤外線タグの点滅状態からID番号を検出するとともに、赤外線画像上の赤外線タグのXY座標を検出する。そして、赤外線タグのID番号およびXY座標等のデータはCPU116に入力される。
また、上述した複数のタッチセンサ(図4では、まとめて「タッチセンサ104」と示す。)からの信号がセンサ入力/出力ボード124を介してCPU116に与えられる。さらに、上述した衝突センサ74からの信号も、同様にして、CPU116に与えられる。
音声入力/出力ボード126もまた、同様に、DSPで構成され、CPU116から与えられる音声合成データに従った音声または声がスピーカ112から出力される。また、マイク92からの音声入力が、音声入力/出力ボード126を介してCPU116に取り込まれる。
CPU116は、このセンサ入力/出力ボード124を介して取り込んだ映像データ、音声データ、触覚データ、赤外線タグのID番号およびXY情報等のインタラクションデータに観測時刻を特定するための時間情報等を付加する。
また、CPU116は、バス118を介して通信LANボード138に接続される。通信LANボード138は、DSPで構成され、CPU116から送られる送信データを無線通信装置140に与え、無線通信装置140から送信データを、図示は省略するが、たとえば、無線LANのようなネットワークを介してデータ取得サーバ22に送信させる。また、通信LANボード138は、無線通信装置140を介してデータを受信し、受信したデータをCPU116に与える。つまり、取得したインタラクションデータ等をデータ取得サーバ22に送信し、また、処理コンピュータ22から送信された身体動作データ等を受信する。
図2に戻って、データ取得サーバ22は、たとえば、ROM、CPU、RAMおよび外部記憶装置等を含み、インタラクションDB24と接続される。データ取得サーバ22は、各観測装置から送信される各インタラクションデータをインタラクションDB24に格納する。この実施例では、インタラクションDB24は、SQL(Structured Query Language)サーバ24aおよびAVデータ用サーバ24b等のデータベースサーバを含み、インタラクションデータのうち、赤外線タグ14等のID番号およびXY座標ならびに生体データ等をSQLサーバ24aに与えて蓄積させ、映像データおよび音声データをAVデータ用サーバ24bに与えて蓄積させる。
SQLサーバ24aは、ROM、CPU、RAMおよび外部記憶装置等を含み、時間情報等が付与されたID番号、XY座標および生体データ等のインタラクションデータを機械可読な状態でデータベース化して記憶する。また、各インタラクションデータはどの観測装置で取得されたかも特定可能に記憶される。
AVデータ用サーバ24bは、ROM、CPU、RAMおよび外部記憶装置等を含み、映像データおよび音声データ等のインタラクションデータを機械可読な状態でデータベース化して記憶する。なお、一度のセッションをひとつの膨大なビデオファイルにするのは現実的ではないので、AVデータ用サーバ24bは、たとえば、ビデオデータを1分ごとに別々のファイルとして記憶し、インタラクションDB24を利用する際にファイルが1分ごとに分かれていることを意識しなくてすむように、各ビデオデータのインデックスデータをSQLサーバ24aにより管理している。
データ取得サーバ22はまた、ロボット動作DB26およびガイドルールDB28とも接続される。ロボット動作DB26は、ロボット本体12に実行させるための複数の身体動作データを予め記憶している。身体動作データは、その身体動作が身振りを含む場合には各軸モータ等の角度制御データを含み、その身体動作が発話を含む場合には音声合成データを含む。
ガイドルールDB28は、対話相手の過去の行動に対応する当該ロボット本体12の提示すべき行動を規定した規則に関する複数のデータを予め記憶している。つまり、たとえば、過去の行動に関する所定の条件に対応付けて、当該条件を満足しまたは満足しない場合に実行すべき所定の行動が規定されている。この実施例では、対話相手の過去の行動に応じて、たとえばその人が見たり訪問したりするなどのインタラクションをした対象物に関連して、さらなる説明などの案内や推薦行動等を行うことや、インタラクションした対象物自体に関する情報の提示を行うこと等が規定される。たとえば、ロボット本体12は対話相手が見てきたものについて話しかけたり、それに関連して他に見ておいた方が良いものがあればそれについて情報提供したりする。したがって、対話相手にとっては、インタラクションによって得た知識や体験を補完したりさらに深めたりすることが可能であり、有益な情報を得ることができる。ガイドルールの一例としては、たとえば、対話相手が過去に展示物B1を見たがそれに関連する展示物B4をまだ見ていない場合には、展示物B4を見ることを薦める発話をするというようなルールが規定されている。また、たとえば、対話相手がぬいぐるみ型観測装置20で遊んだ場合には、当該ぬいぐるみに関する情報を発話することや、生体データに変化があった場合の対象物に関する情報を提示すること等が規定される。
このロボット10では、上述のような周囲状況観測装置16、人間用観測装置18、ぬいぐるみ型観測装置20、およびロボット本体12等によって、展示会場等の環境内の状況、具体的には、当該環境内における対話対象たる1または複数の人間(説明員、訪問者)と、人間のインタラクションの対象物たる展示物、ぬいぐるみ20、ロボット本体12等との間のインタラクションが観測される。このようにあらゆるところにセンサ類が設けられているので、この実施例の展示会場等の環境は、ユビキタスなセンサ環境と呼べる。このようなユビキタスセンサ環境で各インタラクションデータがリアルタイムに取得されて、データ取得サーバ22によってインタラクションDB24に逐次記録される。
たとえば、人間用観測装置18によって説明員Q1の視界に入った訪問者P1等がインタラクションの対象物として識別され、周囲状況観測装置16によって説明員Q1が対象物として識別されるとともに、周囲状況観測装置16の周囲の対象物として訪問者P1、ロボット本体12等が識別される。このようにして、展示会場内に遍在する周囲状況観測装置16等に加えて、インタラクションの主体となる説明員および訪問者が身につけた人間用観測装置18を利用することによって、同一イベントを複数の観測装置によって多角的に、局所的な視点および全体的な視点から、記録することができる。また、ぬいぐるみ型観測装置20やロボット本体12等によって、客観的かつ局所的な視点からインタラクションを記録することができる。また、人間用観測装置18および周囲状況観測装置16の視野に入った人や物体のID番号を自動認識することによって、蓄積されるインタラクションデータに実時間でインデックスを付けることができる。したがって、説明員および訪問者は「見ること」で無意識のうちに他人や物体とのインタラクションにインデックスを付与することができる。また、検出された人間および対象物のID番号と、測定された他のインタラクションデータとがそれぞれの観測時刻を特定可能な状態で記憶されているので、各インタラクションデータ内の人間および対象物を識別して人間のインタラクションを人間と対象物との関係から解析することができ、人が何気なく扱っている言語化されていない日常常識(非言語情報)を体系的に蓄積して機械可読な状態に辞書化することができる。
そして、この実施例では、ロボット本体12によって、環境内の人間に対して、そのインタラクションデータに応じた行動(この実施例では案内や推薦等)が提示される。具体的には、データ取得サーバ22において、インタラクションDB24に記憶された対話相手のインタラクションデータが解析されて、ガイドルールDB28に記憶されたガイドルールに基づいて、ロボット本体12に実行させる行動が決定される。そして、データ取得サーバ22は決定した行動を実行させるためのデータをロボット本体12に送信し、これに応じてロボット本体12は当該行動を実行する。したがって、ロボット本体12によって、対話相手に対してその過去の行動に適応した案内等の所定の行動を提示することができる。
このように、データ取得サーバ22は、観測されたインタラクションデータを取得して記録させるだけでなく、ロボット本体12の行動を制御する外部の処理コンピュータとしても機能するものである。
図5には、この処理コンピュータ22のガイド提示に関する具体的な動作の一例が示される。このガイド提示処理は、たとえばインタラクションデータの記録中に所定の時間周期で起動される。
まず、ステップS1で、処理コンピュータ22のCPUは、対話対象が有るか否かを判断する。たとえば、現時刻の直近の観測時刻においてロボット本体12の赤外線カメラ90によって観測されたインタラクションデータに、訪問者等のID番号があるかどうかをSQLサーバ24aに照会する。ここで、対話対象の有無を判断する際には、ロボット本体12をその周辺で移動させて視野を移動させるようにしてもよい。このステップS1で“NO”であれば、つまり、対話対象がいない場合には、このガイド提示処理を終了する。
なお、対話対象の有無の判断はロボット本体12以外の観測装置によって検出されたインタラクションデータに基づいて行われてもよい。たとえば、ロボット本体12の赤外線カメラ90からのデータに訪問者等のID番号が検出されない場合でも、ロボット本体12のID番号の検出されるインタラクションデータを探索し、当該インタラクションデータにおいて検出される訪問者等のID番号について、当該訪問者等がロボット本体12の近くに存在しているとみなせるので、対話対象に設定するようにしてもよい。この場合、ロボット本体12に周囲を調査させて視野を移動させることで、当該訪問者を捕らえることができる。
あるいは、ロボット本体12のID番号が検出されないインタラクションデータであっても、訪問者等のID番号が検出されるならば、そのID番号について対話対象に設定してもよい。この場合には、当該ID番号の検出されるインタラクションデータを観測した観測装置を特定し、この観測装置がたとえば環境内に設置される周囲状況観測装置16である場合には当該装置の設置箇所の方へロボット本体12を移動させて当該訪問者等を捕らえさせるようにしてもよいし、特定された観測装置が人間用観測装置18である場合にも当該人間用観測装置18のID番号を捕らえられるようにロボット本体12を適宜に移動させるようにしてもよい。
一方、ステップS1で“YES”であれば、ステップS3で、インタラクションDB24のSQLサーバ24aから対話対象のID番号を取得して、対話相手として決定する。
続いて、ステップS5で、当該対話相手について、インタラクションDB24から過去の行動データを取得する。つまり、たとえば対話相手のID番号の検出されたインタラクションデータをSQLサーバ24aに照会し、該当するインタラクションデータをSQLサーバ24aおよびAVデータサーバ24bから取得する。インタラクションデータには、対話相手を識別可能なID番号で記述されたデータが含まれるので、簡単に取得して参照することができる。
そして、ステップS7で、インタラクションDB24から取得した行動データを解析する。この解析処理では、たとえば、人および対象物のID番号およびXY座標等を用いて、対話相手と人または対象物との位置関係を特定し、この特定した位置関係に基づいて、当該インタラクションデータの意味するイベントの状態を判定する。
図6にはイベントの種類の一例が模式的に示される。すべてのイベントは、周囲状況観測装置16、人間用観測装置18およびロボット本体12等が赤外線タグ14等を捕えるという意味では、これ以上単純化できないくらい単純な要素であるが、周囲状況観測装置16、人間用観測装置18およびロボット本体12等と赤外線タグ14等を付与された対象物との組合わせによって様々な意味を解釈することが可能となる。なお、イベントの状態は、この図6の例に特に限定されず、種々の変更および付加が可能である。
たとえば、図6(A)に示すように、ある人Aが装着している人間用観測装置18(白丸表示)によって他の人Bの赤外線タグ14等(黒丸表示)が観測され、同時に、人Bが装着している人間用観測装置18によって人Aの赤外線タグ14等が観測されている場合には、このインタラクション状態は人Aと人Bとが対話をしている状態であると判定できる。
また、環境側に設置された周囲状況観測装置16により人に付与された赤外線タグ14等が観測された場合、その人が当該設置エリアに滞在している状態と判定でき、図6(B)に示すように、同一の周囲状況観測装置16(白丸表示)によって複数の人A,Bの赤外線タグ14等が同時に観測された場合には、それらの人々A,Bが同じエリアに共在する状態と判定できる。
また、図6(C)に示すように、人Aが装着している人間用観測装置18によってある対象物Cに付与された赤外線タグ14(黒丸表示)が観測されている場合には、その人Aがその対象物Cを注視している状態と判定できる。また、図示は省略するが、複数の人の人間用観測装置18によって同一の対象物の赤外線タグ14が同時に観測された場合には、それらの人々が同じものに対して共同注意を向けている状態であると考えられる。さらに、共同注意に参加している人の人数が増えた場合、注意を向けられている対象物は重要な社会的イベントを担っている状態と考えられる。
また、図6(D)に示すように、環境側に設置された周囲状況観測装置16によって、ある対象物Cに付与された赤外線タグ14およびある人Aの赤外線タグ14等が同時に観測されている場合には、その人Aがその対象物Cの設置場所を訪問している状態と解釈できる。
また、図6(E)に示すように、ある人Aが装着している人間用観測装置18によって、他の人Bの赤外線タグ14等が観測され、かつ、そのイベントが所定時間以上継続されている場合には、人Aが人Bを凝視している状態を意味するものと解釈することもできる。あるいは、図6(C)に示すように、人Aが装着している人間用観測装置18によって、ある対象物Cに付与された赤外線タグ14が観測され、かつそのイベントが所定時間以上継続されている場合には、人Aが対象物Cを凝視している状態を意味するものと解釈してもよい。
また、図6(F)に示すように、人Aが装着している人間用観測装置18によって、ある対象物Cに付与された赤外線タグ14が観測され、同時に、その対象物Cに設置された周囲状況観測装置16によって人Aの赤外線タグ14等が観測されている場合には、その人Aがその対象物Cを注視している状態を意味するものと解釈してもよい。
なお、これらのイベント状態の解釈が重複した場合には、予め優先順位を設定しておき、優先順位の高いものを採用するようにしてよい。
このようにして、図5のステップS7で、対話相手のインタラクションデータが解析されて、その過去の行動の履歴がたとえば上述のようなイベント状態等で把握される。したがって、把握された過去の行動の状態に基づくことで、提示すべき行動を容易に決定することができる。
また、たとえば生体データ等を用いることも可能である。つまり、たとえば、対話相手の人または対象物とのインタラクションにおける脈拍、発汗状態および体温等の高まりや変化等を検出して、検出した変化等に基づいて当該インタラクションデータのイベント状態を判定するようにしてもよい。
続いて、ステップS9で、処理コンピュータ22のCPUは、ガイドルールDB28から、解析した行動データに関連するガイドルールを取得する。たとえば、対話相手が展示物B1を訪問していた場合には、展示物B1を訪問したことを条件に含むルールを検索して、適合するルールを取得する。
そして、ステップS11で、解析した過去の行動データと取得したガイドルールとに基づいて実行すべき行動(この実施例ではガイド内容)を決定する。ガイドルールは過去の行動に対応して実行すべき行動が規定されているので、過去の行動とガイドルールとを照合することによって、容易に行動を決定することができる。たとえば、対話相手が展示物B1を訪問したが展示物B4を訪問していない場合には、展示物B4の方に指差し動作をしながら「展示物B4も見るといいよ」と発話する等の推薦を行うことが決定される。また、たとえば、説明員Q1から直接説明を受けた方が分かりやすいような展示物B2を訪問しているが説明員Q1と対話していない場合には、「展示物B2の説明を説明員Q1に聞くといいよ」と発話することが決定される。なお、先のステップS9で、行動の提示を規定したルールが複数取得された場合には、ルールの適用順はたとえばランダムにあるいは優先度等に従って決定される。
続いて、ステップS13では、ロボット動作DB26から、決定したガイド内容に関する身体動作データを取得し、ステップS15で当該身体動作データをロボット本体12に送信する。ロボット本体12ではこの身体動作データを受信すると、ロボット本体12のCPU116は当該身体動作データに基づいて行動処理を実行する。したがって、対話相手に対して、その過去の行動に応じたガイドや推薦等の行動が提示される。つまり、先の例の1つで言えば、たとえば、ロボット本体12は「展示物B4も見るといいよ」との発話音声をそのスピーカ112から出力する。
このように、コミュニケーションを図る機能を備えたロボット本体12の身振りおよび音声の少なくとも一方を含む身体動作によって、対話相手の過去の行動に応じた適切な案内ないし推薦等に相当する所定の行動が提示されるので、対話相手にとってはとても親しみを感じることができるだろうし、自分の行動が把握されていることによって安心感を与えることもできる。したがって、たとえば音声ガイダンスを携帯ラジオや携帯電話等から単に提供するような場合に比べて、提示した案内等を対話相手にきちんと聞いてもらえることが期待できるし、対話相手がその案内に従った行動を取る可能性も高めることができる。
ステップS17では、他に提示するガイド内容が有るか否かを判断する。たとえばステップS9において行動の提示を規定したルールが複数取得されて、適用されていないルールが残っている場合等には、このステップS17で“YES”と判断され、この場合にはステップS11に戻って、残りのルールについて処理が繰り返される。
ステップS17で“NO”であれば、続くステップS19で、別の対話対象がいるかどうかを判断する。たとえば、インタラクションDB24のSQLサーバ24aに対して、現時刻の直近の観測時刻においてロボット本体12の赤外線カメラ90によって観測されたインタラクションデータに訪問者のID番号(先に対話相手に決定されたID番号を除く。)があるかどうかを照会する。このステップS19で“YES”であれば、ステップS3に戻って、インタラクションDB24からID番号を取得し、先のID番号とは別のID番号を対話相手に決定して、当該別の対話相手に対してステップS5からの処理を繰り返す。
一方、ステップS19で“YES”であれば、対話対象がいないのでこのガイド提示処理を終了する。
この実施例によれば、所定の環境内における人間や対象物のインタラクションを観測して、人間の行動を記録することができるとともに、記録された対話相手についての過去のインタラクションデータに基づいて、当該対話相手に対してロボット本体12によって提示すべき行動を決定することができる。したがって、対話相手の過去の行動に応じた適切な案内や推薦等の情報を提示することができる。このため、対話相手に親しみを感じさせたり安心感を与えることができ、たとえば、提示した案内等を対話相手に有効に利用してもらえることが期待できる。
また、過去に案内等を提示した対話相手が後に対話対象として再び現れた場合等には、行動データの解析処理(図5のステップS7)において、その対話相手がロボット本体12の案内に従って行動したかどうかも把握することができる。つまり、たとえば、まず、図5のステップS15で処理コンピュータ22が身体動作データをロボット本体12に送信し、ロボット本体12によって対話相手に対して案内を提示した後、当該対話相手と提示した身体動作に関する情報とを関連付けてインタラクションDB24に記録しておく。そして、再び当該対話相手が現れた場合には、ステップS7で、当該対話相手のその後のインタラクションデータに、提示した案内に従ったインタラクションないしイベント状態が含まれているかどうかを判定すればよい。たとえば展示物B4を見ることを推薦した場合には、展示物B4との間で、図6(C),(D)または(F)に示すようなイベント状態があったかどうかを判定する。これによって、その対話相手がロボット本体12の案内を聞く人であるか否か、あるいはロボット本体12を信用する人であるかどうか等を把握することができる。そして、さらに、その結果に応じたガイドルールをガイドルールDB28に予め登録しておくことによって、たとえば当該対話相手に対してロボット本体12の提示するガイド内容、その提示の仕方や接し方等を変化させることができる。
なお、上述の実施例では、ロボット本体12の外部の処理コンピュータ22によって、図5に示すようなガイド提示処理を実行するようにしていたが、このガイド提示処理を実行するためのプログラム等をロボット本体12の内部に備えるようにして、この処理をロボット本体12によって実行するようにしてもよい。ただし、この場合、ステップS15では、ロボットDB26から取得した身体動作データの実行を処理する。なお、この場合には、ロボット動作DB26およびガイドルールDB28をロボット本体12内に備えるようにしてもよい。
また、上述の各実施例では、赤外線タグおよび赤外線カメラ等を用いて、人間や対象物を識別するための識別情報を取得するようにしていたが、識別情報の取得方法は適宜変更され得る。たとえば、無線タグ(RFID)および無線タグ読取装置を用いて識別情報を取得するようにしてもよい。たとえば無線タグ読取装置を対象物に関連して設けかつ人間に無線タグを装着させた場合、または、人間に無線タグ読取装置を装着させかつ対象物に関連して無線タグを設けた場合等には、当該無線タグ読取装置の検知範囲に入ることによってRFIDの検出されたインタラクションデータの解析において、その人間と対象物とのインタラクションがあったと判定することができる。
また、上述の各実施例では、識別情報として、人間および対象物を個別に識別可能なものを設定し、個別のインタラクションデータを記録して、たとえば個々の人間の行動に応じた行動を提示するようにしていたが、識別情報は、センサ類で取得可能なものであれば、人間や対象物を何らかの特徴や共通性等に基づいて分類したときの所定の単位を識別するものであってもよい。つまり、たとえば、人間の場合、服もしくは毛髪等の色や、年寄りもしくは若い等の年齢層などの違いを識別情報としてよい。このような場合、その単位ごとのインタラクションデータを記録して、対話相手に対しては、その属する単位についての過去の行動に応じた所定の行動を提示することとなる。つまり、同じ属性の人々の行動履歴に基づいてロボット本体12の提示すべき行動が決定される。なお、上述の色の識別情報は、識別タグ等を設けなくても、たとえば画像データによって人間そのものから直接取得することができる。また、年齢層に関しては、たとえば人間にモーションキャプチャ用のマーカを装着し、モーションキャプチャシステムを用いてたとえば歩くとき等の動きデータを取得して解析することで検知することも可能である。
この発明の一実施例のコミュニケーションロボットの概要を示す図解図である。 図1実施例のロボットの構成を示すブロック図である。 図1のロボット本体の外観を示す図解図(正面図)である。 図1のロボット本体の内部構成を示すブロック図である。 図2の処理コンピュータのガイド提示処理の動作の一例を示すフロー図である。 行動データの解析において判定されるイベントの状態の一例を示す図解図である。
符号の説明
10 …コミュニケーションロボット
12 …ロボット本体
14 …赤外線タグ
16 …周囲状況観測装置
18 …人間用観測装置
20 …ぬいぐるみ型観測装置
22 …処理コンピュータ
24 …インタラクションデータベース
26 …ロボット動作データベース
28 …ガイドルールデータベース
116 …CPU

Claims (5)

  1. 対話対象の行動を観測してコミュニケーションをするコミュニケーションロボットであって、
    前記対話対象の行動履歴を取得するセンサ、
    前記センサによって取得された前記行動履歴を記録する記録手段、
    前記対話対象から対話相手を決定する相手決定手段、
    前記記録手段に記録された前記対話相手に関する行動履歴に基づいて当該ロボットの行動を決定する行動決定手段、および
    前記行動決定手段によって決定された前記行動を実行する実行手段を備える、コミュニケーションロボット。
  2. 前記センサは、対話対象を識別するための識別情報および前記対話対象のインタラクションの対象物を識別するための識別情報の少なくとも一方を取得する、請求項1記載のコミュニケーションロボット。
  3. 前記行動決定手段は、前記対話相手と前記インタラクションの対象物との位置関係に基づいて前記対話相手に関する行動履歴の状態を解析し、該解析結果に基づいて前記行動を決定する、請求項2記載のコミュニケーションロボット。
  4. 過去の行動に対応して当該ロボットの提示すべき行動を規定した規則を記憶する規則記憶手段をさらに備え、
    前記行動決定手段は、前記対話相手に関する行動履歴と前記規則とに基づいて、前記行動を決定する、請求項1ないし3のいずれかに記載のコミュニケーションロボット。
  5. 前記行動決定手段によって決定される行動は、前記対話相手のインタラクションした対象物に関連する案内ないし推薦をする動作を含む、請求項1ないし4のいずれかに記載のコミュニケーションロボット。
JP2003367228A 2003-10-28 2003-10-28 コミュニケーションロボット Pending JP2005131713A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003367228A JP2005131713A (ja) 2003-10-28 2003-10-28 コミュニケーションロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003367228A JP2005131713A (ja) 2003-10-28 2003-10-28 コミュニケーションロボット

Publications (1)

Publication Number Publication Date
JP2005131713A true JP2005131713A (ja) 2005-05-26

Family

ID=34645291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003367228A Pending JP2005131713A (ja) 2003-10-28 2003-10-28 コミュニケーションロボット

Country Status (1)

Country Link
JP (1) JP2005131713A (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007118129A (ja) * 2005-10-27 2007-05-17 Advanced Telecommunication Research Institute International コミュニケーションロボットおよびそれを用いた注意制御システム
JP2007148902A (ja) * 2005-11-29 2007-06-14 Nec Corp 個人端末を用いた個人管理方法及びそのシステム
JP2007265329A (ja) * 2006-03-30 2007-10-11 Advanced Telecommunication Research Institute International 道案内システム
JP2007276080A (ja) * 2006-04-11 2007-10-25 Toyota Motor Corp 案内ロボット
JP2009104426A (ja) * 2007-10-24 2009-05-14 Advanced Telecommunication Research Institute International インタラクティブ看板システム
JP2010110864A (ja) * 2008-11-06 2010-05-20 Nec Corp ロボットシステム、コミュニケーション活性化方法及びプログラム
JP2010231713A (ja) * 2009-03-30 2010-10-14 National Institute Of Advanced Industrial Science & Technology 侵入検知機能付き安全位置検出装置
JP2011248798A (ja) * 2010-05-31 2011-12-08 Harumi Iwata 複数窓口システム
JP2012161851A (ja) * 2011-02-03 2012-08-30 Advanced Telecommunication Research Institute International ロボットシステムおよびそれに用いる空間陣形認識装置
US20150094851A1 (en) * 2013-09-27 2015-04-02 Honda Motor Co., Ltd. Robot control system, robot control method and output control method
JP2016068197A (ja) * 2014-09-30 2016-05-09 富士ソフト株式会社 ロボット
JP2017170568A (ja) * 2016-03-24 2017-09-28 株式会社国際電気通信基礎技術研究所 サービス提供ロボットシステム
EP3279754A1 (en) 2016-07-15 2018-02-07 Hitachi, Ltd. Control apparatus, control system, and control method
JP2021534988A (ja) * 2018-08-28 2021-12-16 ディリジェント ロボティクス,インコーポレイテッド スキルのロボット学習及び実行のためのシステム、装置、及び方法
CN114488879A (zh) * 2021-12-30 2022-05-13 深圳鹏行智能研究有限公司 一种机器人控制方法以及机器人
US11833684B2 (en) 2017-02-25 2023-12-05 Diligent Robotics, Inc. Systems, apparatus, and methods for robotic learning and execution of skills
US11904470B2 (en) 2021-02-08 2024-02-20 Diligent Robotics, Inc. Systems, apparatuses, and methods for robotic learning and execution of skills including navigation and manipulation functions

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007118129A (ja) * 2005-10-27 2007-05-17 Advanced Telecommunication Research Institute International コミュニケーションロボットおよびそれを用いた注意制御システム
JP2007148902A (ja) * 2005-11-29 2007-06-14 Nec Corp 個人端末を用いた個人管理方法及びそのシステム
JP2007265329A (ja) * 2006-03-30 2007-10-11 Advanced Telecommunication Research Institute International 道案内システム
JP2007276080A (ja) * 2006-04-11 2007-10-25 Toyota Motor Corp 案内ロボット
JP4539600B2 (ja) * 2006-04-11 2010-09-08 トヨタ自動車株式会社 案内ロボット
JP2009104426A (ja) * 2007-10-24 2009-05-14 Advanced Telecommunication Research Institute International インタラクティブ看板システム
JP2010110864A (ja) * 2008-11-06 2010-05-20 Nec Corp ロボットシステム、コミュニケーション活性化方法及びプログラム
JP2010231713A (ja) * 2009-03-30 2010-10-14 National Institute Of Advanced Industrial Science & Technology 侵入検知機能付き安全位置検出装置
JP2011248798A (ja) * 2010-05-31 2011-12-08 Harumi Iwata 複数窓口システム
JP2012161851A (ja) * 2011-02-03 2012-08-30 Advanced Telecommunication Research Institute International ロボットシステムおよびそれに用いる空間陣形認識装置
US20150094851A1 (en) * 2013-09-27 2015-04-02 Honda Motor Co., Ltd. Robot control system, robot control method and output control method
US9517559B2 (en) * 2013-09-27 2016-12-13 Honda Motor Co., Ltd. Robot control system, robot control method and output control method
JP2016068197A (ja) * 2014-09-30 2016-05-09 富士ソフト株式会社 ロボット
JP2017170568A (ja) * 2016-03-24 2017-09-28 株式会社国際電気通信基礎技術研究所 サービス提供ロボットシステム
EP3279754A1 (en) 2016-07-15 2018-02-07 Hitachi, Ltd. Control apparatus, control system, and control method
US10339381B2 (en) 2016-07-15 2019-07-02 Hitachi, Ltd. Control apparatus, control system, and control method
US11833684B2 (en) 2017-02-25 2023-12-05 Diligent Robotics, Inc. Systems, apparatus, and methods for robotic learning and execution of skills
JP2021534988A (ja) * 2018-08-28 2021-12-16 ディリジェント ロボティクス,インコーポレイテッド スキルのロボット学習及び実行のためのシステム、装置、及び方法
US11904470B2 (en) 2021-02-08 2024-02-20 Diligent Robotics, Inc. Systems, apparatuses, and methods for robotic learning and execution of skills including navigation and manipulation functions
CN114488879A (zh) * 2021-12-30 2022-05-13 深圳鹏行智能研究有限公司 一种机器人控制方法以及机器人
CN114488879B (zh) * 2021-12-30 2024-05-31 深圳鹏行智能研究有限公司 一种机器人控制方法以及机器人

Similar Documents

Publication Publication Date Title
JP2005131713A (ja) コミュニケーションロボット
JP4599522B2 (ja) コミュニケーションロボット
JP7375770B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7351383B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP3974098B2 (ja) 関係検知システム
JP4822319B2 (ja) コミュニケーションロボットおよびそれを用いた注意制御システム
JP2006247780A (ja) コミュニケーションロボット
US20200269421A1 (en) Information processing device, information processing method, and program
JP2010231359A (ja) 遠隔操作装置
CN113303791A (zh) 一种机动车驾驶人在线自助体检系统、移动终端及存储介质
JP2015066621A (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
CN116061210A (zh) 信息处理装置、信息处理方法和计算机存储介质
JP2007160473A (ja) ロボットにおける対話相手識別方法およびロボット
WO2021005878A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
CN113661036A (zh) 信息处理装置、信息处理方法以及程序
WO2019123744A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6887035B1 (ja) 制御システム、制御装置、制御方法及びコンピュータプログラム
JP4517086B2 (ja) コミュニケーションロボットシステムおよびロボット制御装置
JP4095537B2 (ja) 体験表示装置、体験表示方法及び体験表示プログラム
EP3992987A1 (en) System and method for continously sharing behavioral states of a creature
JP2007160427A (ja) ロボット制御システム
JP4779114B2 (ja) コミュニケーションロボット
JP4012872B2 (ja) 情報管理装置、情報管理方法及び情報管理プログラム
US11182976B2 (en) Device for influencing virtual objects of augmented reality
JP2004227276A (ja) 人間のコミュニケーション行動記録システムおよび方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060901

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061026

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070313