図1を参照して、この実施例のロボット制御システム100は、展示物E(ここでは第1〜第3展示物E1〜E3)が置かれた展示会場などの空間(環境)で利用される。展示会場の中では、人(ユーザ)およびロボット10が任意に移動することができ、天井には複数の距離画像センサ12(12a,12b,…)が設けられている。
ロボット10は、相互作用指向のロボット(コミュニケーションロボット)でもあり、人のようなコミュニケーション(インターラクションともいう)の対象との間で、身振り手振りのような身体動作および音声の少なくとも一方を含むコミュニケーション行動を実行する機能を備えている。また、ロボット10はコミュニケーションの一環として、展示物Eについての説明(コンテンツ)をユーザに対して出力したり、展示会場を案内したりするサービスを行う。ロボット10は、サービスを行う上で必要であれば、展示会場内を自律的に移動したり、中央制御装置14が付与する行動命令に基づいて動作したりする。
また、実施例の空間は展示物Eが置かれた展示会場であるが、これに限らずショッピングモール、会社のフロア、博物館またはアトラクション会場などでも、ロボット制御システム100は利用可能である。
なお、図1では簡単のため、ユーザは1人しか示していないが、展示会場にはさらに多くのユーザがいてもよい。同様にロボット10も1台しか示していないが、ロボット制御システム100は2台以上のロボット10を同時に制御することができる。
図2を参照して、ロボット制御システム100の中央制御装置14は、一定時間(たとえば、1秒)毎に距離画像センサ12a,12bによって、任意に移動するユーザの位置を検出すると共に、ユーザの向き(頭の向きおよび体の向き)を検出する。また、中央制御装置14は、ネットワーク1000を介してロボット10と無線通信を行い、必要であればロボット10の行動を制御する。
図3は中央制御装置14の電気的な構成を示すブロック図である。図3を参照して、中央制御装置14は、距離画像センサ12a,12b,プロセッサ16,メモリ18,通信LANボード20および無線通信装置22を含む。プロセッサ16は、マイクロコンピュータあるいはCPUと呼ばれることもある。プロセッサ16には、先述した距離画像センサ12aおよび距離画像センサ12bに加えて、他の距離画像センサ12が接続されてもよい。なお、距離画像センサ12a,12b,…を区別する必要がない場合、単に「距離画像センサ12」と言う。
距離画像センサ12は、赤外光またはレーザーなどの光を照射し、対象物から反射した光(反射光)をCCDセンサなどの光学センサによって捉える。距離画像センサ12は、光が戻るまでの時間を画素ごとに計測することで、対象物までの実際の距離を測距する。実施例の距離画像センサ12には、ASUS(登録商標)社製のXtionと呼ばれる製品が採用されている。なお、他の実施例では、距離画像センサ12は、Microsoft(登録商標)社製のKinect(登録商標)センサ、パナソニック社製(登録商標)製の3次元距離画像センサD−IMager(登録商標)などを使用することも可能である。この種のセンサは、3次元距離計測センサ、3Dスキャナなどと呼ばれる場合もある。
プロセッサ16は、このような距離画像センサ12を通じて対象の3次元情報を取得する。距離画像センサ12からの3次元情報には、対象物の形状および対象物までの距離が含まれている。たとえば、ユーザが距離画像センサ12によってセンシングされると、ユーザを上から見たときの頭部および両肩の形状と、頭部および両肩までの距離が3次元情報として得られる。
たとえば、空間には35個の距離画像センサ12が所定の位置(既知)に設置されており、コンピュータ12は、各々から3次元情報を取得して、3次元空間(ワールド座標系)における位置(たとえば、重心など特徴点の位置座標(x,y,z))およびユーザの向き(たとえば、頭部および両肩など特徴部位の向き)を計算することが出来る。
メモリ18はROM,HDDおよびRAMを含む。ROMおよびHDDには、中央制御装置14の動作を制御するための制御プログラムが予め記憶される。また、RAMは、プロセッサ16のワークメモリやバッファメモリとして用いられる。
通信LANボード20は、たとえばDSPで構成され、プロセッサ16から与えられた送信データを無線通信装置22に与え、無線通信装置22は送信データを、ネットワーク1000を介してロボット10に送信する。たとえば、送信データは、ロボット10の自立移動に必要なデータや、サービスを行うために必要なデータおよびロボット10に指示する行動命令の信号(コマンド)などである。また、通信LANボード20は、無線通信装置22を介してデータを受信し、受信したデータをプロセッサ16に与える。
図4はこの実施例のロボット10の外観を示す正面図である。図4を参照して、ロボット10は台車40を含み、台車40の下面にはロボット10を自律移動させる2つの車輪42および1つの従輪44が設けられる。2つの車輪42は車輪モータ46(図5参照)によってそれぞれ独立に駆動され、台車40すなわちロボット10を前後左右の任意方向に動かすことができる。また、従輪44は車輪42を補助する補助輪である。したがって、ロボット10は、配置された空間内を自律制御によって移動可能である。
台車40の上には、円柱形のセンサ取り付けパネル48が設けられ、このセンサ取り付けパネル48には、多数の赤外線距離センサ50が取り付けられる。これらの赤外線距離センサ50は、センサ取り付けパネル48すなわちロボット10の周囲の物体(人や障害物など)との距離を測定するものである。
なお、この実施例では、距離センサとして、赤外線距離センサを用いるようにしてあるが、赤外線距離センサに代えて、LRFや、超音波距離センサおよびミリ波レーダなどを用いることもできる。
センサ取り付けパネル48の上には、胴体52が直立するように設けられる。また、胴体52の前方中央上部(人の胸に相当する位置)には、上述した赤外線距離センサ50がさらに設けられ、ロボット10の前方の主として人との距離を計測する。また、胴体52には、その側面側上端部のほぼ中央から伸びる支柱54が設けられ、支柱54の上には、全方位カメラ56が設けられる。全方位カメラ56は、ロボット10の周囲を撮影するものであり、後述する眼カメラ80とは区別される。この全方位カメラ56としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ50および全方位カメラ56の設置位置は、当該部位に限定されず適宜変更され得る。
胴体52の両側上端部(人の肩に相当する位置)には、それぞれ、肩関節58Rおよび肩関節58Lによって、上腕60Rおよび上腕60Lが設けられる。図示は省略するが、肩関節58Rおよび肩関節58Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節58Rは、直交する3軸のそれぞれの軸廻りにおいて上腕60Rの角度を制御できる。肩関節58Rの或る軸(ヨー軸)は、上腕60Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節58Lは、直交する3軸のそれぞれの軸廻りにおいて上腕60Lの角度を制御できる。肩関節58Lの或る軸(ヨー軸)は、上腕60Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。
また、上腕60Rおよび上腕60Lのそれぞれの先端には、肘関節62Rおよび肘関節62Lが設けられる。図示は省略するが、肘関節62Rおよび肘関節62Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕64Rおよび前腕64Lの角度を制御できる。
前腕64Rおよび前腕64Lのそれぞれの先端には、手66Rおよび手66Lがそれぞれ設けられる。各手66には、人と同じように親指、人差し指、中指、薬指および小指が設けられている。手66の親指および人差し指の根本には指関節(図示せず)が設けられており、それぞれを独立して動かすことができる。また、中指、薬指および小指は一体成型され、親指および人差し指と同様、根元に指関節が設けられている。そして、中指、薬指および小指はまとめて動かすことが出来る。
また、手66Rおよび手66Lのそれぞれ根元には、手首が設けられる。図示は省略するが、左右の手首は、それぞれ1軸の自由度を有し、この軸(ヨー軸)の軸回りにおいて手66Rおよび手66Lの角度を制御できる。また、図示は省略するが手66Rおよび手66Lの親指、人差し指および残りの3本の指(中指、薬指および小指)の指関節は、それぞれ1自由度を有し、この軸の軸回りにおいて指の角度を制御できる。
従って、ロボット10は、親指、中指、薬指および小指が折り曲げられた指さしの状態の手66で任意の対象をポインティングしたり、手を開いた状態で上腕60、前腕64および手66の全体を使って任意の対象をポインティングしたりすることが可能となる。そのため、上腕60、前腕64および手66はポインティング手段と呼ばれることもある。
なお、他の実施例では、人と同じようにそれぞれの指が独立し、かつ人の指と同じ数の指関節を持つ手66が採用されてもよい。この場合、ロボット10は、ポインティングだけでなく、物を指で掴んだり、手話によるコミュニケーションを行ったりすることが可能となる。
また、図示は省略するが、台車40の前面、肩関節58Rと肩関節58Lとを含む肩に相当する部位、上腕60R、上腕60L、前腕64R、前腕64L、手66Rおよび手66Lには、それぞれ、接触センサ68(図5で包括的に示す)が設けられる。台車40の前面の接触センサ68は、台車40への人や他の障害物の接触を検知する。したがって、ロボット10は、自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪42の駆動を停止してロボット10の移動を急停止させることができる。また、その他の接触センサ68は、当該各部位に触れたかどうかを検知する。なお、接触センサ68の設置位置は、当該部位に限定されず、適宜な位置(人の胸、腹、脇、背中および腰に相当する位置)に設けられてもよい。
胴体52の中央上部(人の首に相当する位置)には首関節70が設けられ、さらにその上には頭部72が設けられる。図示は省略するが、首関節70は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット10の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。
頭部72には、人の口に相当する位置に、スピーカ74が設けられる。スピーカ74は、ロボット10が、それの周辺の人に対して音声ないし音によってコミュニケーションを取るために用いられる。また、人の耳に相当する位置には、マイク76Rおよびマイク76Lが設けられる。以下、右のマイク76Rと左のマイク76Lとをまとめてマイク76と言うことがある。マイク76は、周囲の音、とりわけコミュニケーションを実行する対象である人の音声を取り込む。さらに、人の目に相当する位置には、眼球部78Rおよび眼球部78Lが設けられる。眼球部78Rおよび眼球部78Lは、それぞれ眼カメラ80Rおよび眼カメラ80Lを含む。以下、右の眼球部78Rと左の眼球部78Lとをまとめて眼球部78と言うことがある。また、右の眼カメラ80Rと左の眼カメラ80Lとをまとめて眼カメラ80と言うことがある。
眼カメラ80は、ロボット10に接近した人の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。また、眼カメラ80は、上述した全方位カメラ56と同様のカメラを用いることができる。たとえば、眼カメラ80は、眼球部78内に固定され、眼球部78は、眼球支持部(図示せず)を介して頭部72内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部72の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部72の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部78ないし眼カメラ80の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ74、マイク76および眼カメラ80の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。
このように、この実施例のロボット10は、車輪42の独立2軸駆動、肩関節58の3自由度(左右で6自由度)、肘関節62の1自由度(左右で2自由度)、手首の1自由度(左右で2自由度)、指関節の1自由度(左右の各指で6自由度)、首関節70の3自由度および眼球支持部の2自由度(左右で4自由度)の合計25自由度を有する。
図5はロボット10の電気的な構成を示すブロック図である。この図5を参照して、ロボット10は、プロセッサ90を含む。プロセッサ90は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス92を介して、メモリ94、モータ制御ボード96、センサ入力/出力ボード98、音声入力/出力ボード110および通信LANボード130に接続される。
メモリ94はROMおよびRAMを含む。ROMには、ロボット10の動作を制御するための制御プログラムが予め記憶される。たとえば、各センサの出力(センサ情報)を検知するための検知プログラムや、外部コンピュータ(中央制御装置14)との間で必要なデータやコマンドを送受信するための通信プログラムなどが記憶される。また、RAMは、プロセッサ90のワークメモリやバッファメモリとして用いられる。
モータ制御ボード96は、たとえばDSPで構成され、各腕や首関節および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード96は、プロセッサ90からの制御データを受け、右眼球部78Rの2軸のそれぞれの角度を制御する2つのモータ(図5では、まとめて「右眼球モータ112」と示す)の回転角度を制御する。同様に、モータ制御ボード96は、プロセッサ90からの制御データを受け、左眼球部78Lの2軸のそれぞれの角度を制御する2つのモータ(図5では、まとめて「左眼球モータ114」と示す)の回転角度を制御する。
また、モータ制御ボード96は、プロセッサ90からの制御データを受け、肩関節58Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節62Rの角度を制御する1つのモータとの計4つのモータ(図5では、まとめて「右腕モータ116」と示す)の回転角度を制御する。同様に、モータ制御ボード96は、プロセッサ90からの制御データを受け、肩関節58Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節62Lの角度を制御する1つのモータとの計4つのモータ(図5では、まとめて「左腕モータ118」と示す)の回転角度を制御する。
また、モータ制御ボード96は、プロセッサ90からの制御データを受け、右の手首の1軸の角度を制御する1つのモータと右手66Rの3つの指関節のそれぞれの角度を制御する3つのモータとの4つのモータ(図5では、まとめて「右手モータ120」と示す)の回転角度を制御する。同様に、モータ制御ボード96は、プロセッサ90からの制御データを受け、左手の手首の1軸の角度を制御する1つのモータと左手66Lの3つの指関節のそれぞれの角度を制御する3つのモータとの4つのモータ(図5では、まとめて「左手モータ122」と示す)の回転角度を制御する。
ここで、指関節の角度は、モータの回転がそのまま反映されるわけではなく、モータの回転によって動作する流体圧シリンダによって制御される。具体的には、流体圧シリンダには、動作流体を移動させるピストンが移動自在に収容されており、このピストンの位置がモータの回転によって変化する。そして、流体圧シリンダの動きに応じて指関節の角度が変化する。なお、流体圧シリンダを用いたロボットの手については、たとえば特開2013−96514号公報に詳しく説明されているので、ここでは、その公開公報を参照することによって、詳細な説明を省略する。
さらに、モータ制御ボード96は、プロセッサ90からの制御データを受け、首関節70の直交する3軸のそれぞれの角度を制御する3つのモータ(図5では、まとめて「頭部モータ124」と示す)の回転角度を制御する。
そして、モータ制御ボード96は、プロセッサ90からの制御データを受け、車輪42を駆動する2つのモータ(図5では、まとめて「車輪モータ46」と示す)の回転角度を制御する。なお、この実施例では、車輪モータ46を除くモータは、制御を簡素化するためにステッピングモータ(すなわち、パルスモータ)を用いる。ただし、車輪モータ46と同様に直流モータを用いるようにしてもよい。また、ロボット10の身体部位を駆動するアクチュエータは、電流を動力源とするモータに限らず適宜変更されてもよい。たとえば、他の実施例では、エアアクチュエータなどが適用されてもよい。
センサ入力/出力ボード98は、モータ制御ボード96と同様に、DSPで構成され、各センサからの信号を取り込んでプロセッサ90に与える。すなわち、赤外線距離センサ50のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード98を通じてプロセッサ90に入力される。また、全方位カメラ56からの映像信号が、必要に応じてセンサ入力/出力ボード98で所定の処理を施してからプロセッサ90に入力される。眼カメラ80からの映像信号も、同様に、プロセッサ90に入力される。また、上述した複数の接触センサ68(図5では、まとめて「接触センサ68」と示す)からの信号がセンサ入力/出力ボード98を介してプロセッサ90に与えられる。
音声入力/出力ボード110もまた、同様に、DSPで構成され、プロセッサ90から与えられる音声合成データに従った音声または声がスピーカ74から出力される。また、マイク76からの音声入力が、音声入力/出力ボード110を介してプロセッサ90に与えられる。
通信LANボード130は、たとえばDSPで構成され、プロセッサ90から与えられた送信データを無線通信装置132に与え、無線通信装置132は送信データを、ネットワーク1000を介して外部コンピュータ(中央制御装置14)に送信する。また、通信LANボード130は、無線通信装置132を介してデータを受信し、受信したデータをプロセッサ90に与える。たとえば、送信データとしては、全方位カメラ56および目カメラ80によって撮影された周囲の映像データなどである。
図6には、図1の展示会場に対応する地図が示される。図6を参照して、この展示会場には、入口付近に第1展示物E1が、出口付近には第2展示物E2および第3展示物E3が、それぞれ配置されている。地図上では、展示会場の一隅を原点Oとして、互いに直交する壁面沿いにX軸およびY軸が定義されており、各展示物E1〜E3等の位置は、X−Y座標系で記述される。
訪問者の移動速度はv、移動方向はθv(t)、頭の向きはθh、体の向きはθbのように表現される。なお、移動速度vと移動方向θv(t)は、訪問者の現在位置P(t)(適宜“位置P(t)”または単に“位置P”のように略記)の変化に基づき計算される。各種の方向θは、たとえば、X軸またはY軸もしくは適宜な基準線に対する角度であってもよいし、位置P(t)を始点とする単位ベクトルであってもよい。
図7には、展示会場を訪れた人(訪問者)の典型的な行動(振る舞い)が示される。図7(A)の訪問者は、展示物を見ることなく、足早に展示会場を通り抜けている。図7(B)の訪問者は、1つ1つの展示物をじっくり見て回っている。図7(C)の訪問者は、見るべき展示物が定まらず、展示会場内をぶらぶらしている。
言い換えると、訪問者が図7(A)のような振る舞いを示す場合、訪問の目的は展示物を見ることではない(別の目的があって展示室を通過している:“出口に向かうこと”が目的とも言える)と推定される。訪問者が図7(B)のような振る舞いを示す場合、訪問の目的は展示物を見て回ることであると推定される。訪問者が図7(C)のような振る舞いを示す場合、訪問の目的は興味を引く展示物を見つけること(何を見るべきか迷っている状態)であると推定される。
なお、訪問者が特定の展示物に直行するような振る舞いを示す場合、訪問の目的はその展示物を見ることであると推定される。また、訪問者が展示物をちら見しながら展示会場を通り抜けるような振る舞いを示す場合、訪問の目的は展示物を見ることではないが、展示物に興味はあると推定される。さらに、訪問者が展示物を見ながら別の展示物(あるいはロボット)をちら見するような振る舞いを示す場合、訪問の目的は展示物を見ることであるが、ちら見の対象にも興味があると推定される。
この実施例では、まず、訪問者の振る舞いを上記のように分類して、その振る舞いごとに、注目対象と、これに対応する観測値の理想的な動きとを記述したモデルを“インバースモデル”として定義する。
図8には、インバースモデルの一例が示される。この例では、“目的地に向かって歩く”,“注目している展示物に向かって歩く”,“目的地に向かって(展示物を)ちら見しながら歩く”,“展示物を見て回る”および“展示物を見ながら別の展示物もちら見する”という5種類の振る舞い毎に、注目対象として“長期的な注目対象CA”,“短期的な注目対象TA”および“目的地D”と、これに対応する観測値として“移動方向θv(t)”,“移動速度v”,“顔の向きθh”および“体の向きθb”とが記述されている。
“目的地に向かって歩く”場合、注目対象は“CA=NULL(存在せず),TA=NULL,D=目的地(たとえば出口)”であり、これに対応する観測値は、移動方向θv(t)が目的地への方向(言い換えると、位置P(t)が目的地Dつまり出口に向かう直線Lに沿って移動している状態:図7(A)参照)、移動速度が平均的な歩行速度(v=vpref)、そして頭の向きおよび体の向きが共に目的地Dつまり出口に向かう向き(θh=θb=θD(t))となる。
“注目している展示物に向かって歩く”場合、注目対象は“CA=展示物(たとえば第2展示物E2),TA=NULL,D=展示物(たとえば第2展示物E2)”であり、これに対応する観測値は、移動方向θv(t)が目的地Dつまり展示物(たとえば第2展示物E2)への方向、移動速度が“注目点を持つと落ちる速度”つまり平均的な歩行速度から一定程度減速した速度(v=vpref−ve)、そして頭の向きおよび体の向きが共に目的地Dつまり展示物(たとえば第2展示物E2)に向かう向き(θh=θb=θD(t))となる(図10参照:後述)。
“目的地に向かって(展示物を)ちら見しながら歩く”場合、注目対象はCA=NULL,TA=展示物(たとえば第1展示物E1),D=目的地(たとえば出口)であり、これに対応する観測値は、移動方向θv(t)が目的地Dつまり出口への方向、移動速度が“注目点を持つことで落ちる速度”(v=vpref−ve)、頭の向きが“展示物に引っ張られる向き”つまり目的地D(出口)に向かう向きから展示物の方向に一定程度逸れた向き(θD(t)+kh(θTA(t)−θD(t)):これを“ちら見の頭向きモデル”と呼ぶ)、そして体の向きも“展示物に引っ張られる向き”つまり目的地D(出口)に向かう向きから展示物の方向に一定程度逸れた向き(θD(t)+kb(θTA(t)−θD(t)):これを“ちら見の体向きモデル”と呼ぶ)となる。
なお、ちら見の頭向きモデルおよびちら見の体向きモデルにおいて、展示物に引っ張られる程度を示す係数khおよびkbは、一般にkh>kbである。つまり、体よりも頭の向きの方が、移動に伴い展示物側に大きく逸れる(図11(A),図11(B)参照:後述)。
“展示物を見て回る”場合(ただし、展示物の周りを単純に回る動作に限らず、適宜、逆回りしたり、展示物に近付いたり、減速ないし立ち止まったりしてもよい)、注目対象はCA=展示物(たとえば第1展示物E1),TA=NULL,D=NULLであり、これに対応する観測値は、移動方向θv(t)が展示物(たとえば第1展示物E1)の周りを回る方向(言い換えると、位置P(t)が展示物を中心とする円弧Cに沿って移動している状態:図7(B)参照)、移動速度が閲覧状態の速度(v=vlook:立ち止まっているか、ゆっくり移動している状態)、頭の向きおよび体の向きが共に注目対象CA(たとえば第1展示物E1)に向かう向き(θh=θb=θCA(t))となる。
“展示物を見ながら別の展示物もちら見する”場合(ただし、展示物を見て回る動作では、展示物の周りを単純に回る動作に限らず、適宜、逆回りしたり、展示物に近付いたり、減速ないし立ち止まったりしてもよい)、注目対象はCA=展示物(たとえば第1展示物E1),TA=別の展示物(たとえば第3展示物E3),D=NULLであり、これに対応する観測値は、移動方向θv(t)が展示物(たとえば第1展示物E1)の周りを回る方向(言い換えると、位置P(t)が展示物を中心とする円弧Cに沿って移動している状態:図7(B)参照)、移動速度が閲覧状態の速度(v=vlook)、頭の向きが注目対象TA(たとえば第3展示物E3)に向かう向き(θb=θTA(t))、そして体の向きが注目対象CA(たとえば第1展示物E1)に向かう向き(θh=θCA(t))となる。
そして、このようなインバースモデルに基づき、観測値(位置P(t),頭向きθh,体向きθb(t))の時系列変化と最もよく一致する、振る舞いおよび注目対象(CA,TA,D)を求めることで、注目対象を推定することができる。
図9には、図7(A)に示したように訪問者が出口に向かって歩く際の、観測値の時系列変化と、注目対象が示される。図9(A)は、展示室に入った直後の第1時点での状態を、図9(B)は第1展示物E1の前を通り過ぎる第2時点での状態を、それぞれ示している。図9(A)および図9(B)を比較すればわかるように、第1時点および第2時点のいずれでも、観測値は“移動方向=出口への方向,v=vpref,θh=θb=θD(t)”である。つまり、観測値の時系列変化は、“移動方向=出口への方向,v=vpref,θh=θb=θD(t)”のまま一定である。
そして、インバースモデルとの比較から、この時系列変化に最もよく一致する振る舞いおよび注目対象は“目的地に向かって歩く”および“CA=NULL,TA=NULL,D=出口”なので、注目対象は、長期的なものも短期的なものも存在せず、訪問者は出口に向かって単に歩いている状態と推定される。
図10には、訪問者が注目している展示物(ここでは第2展示物E2)に向かって歩く際の、観測値の時系列変化と、注目対象が示される。観測値の時系列変化は、“移動方向=第2展示物E2への方向,v=vpref−ve,θh=θb=θD(t)”のまま一定である。インバースモデルとの比較から、この時系列変化に最もよく一致する振る舞いおよび注目対象は“目的地に向かって歩く”および“CA=第2展示物E2,TA=NULL,D=第2展示物E2”なので、注目対象は、長期的なものが第2展示物E2で、短期的なものは存在せず、訪問者は注目している第2展示物E2に向かって歩いている状態と推定される。
図11には、訪問者が目的地(ここでは出口)に向かって展示物(ここでは第1展示物E1)をちら見しながら歩く際の、観測値の時系列変化と、注目対象が示される。図11(A)は、展示室に入った直後の第1時点での状態を、図11(B)は第1展示物E1の前を通り過ぎる第2時点での状態を、それぞれ示している。図11(A)および図11(B)を比較すればわかるように、観測値のうち移動方向θv(t)および移動速度vは、第1時点および第2時点で同じ値(θv(t)=出口への方向,v=vpref−ve)であるが、頭の向きθhおよび体の向きθbは、位置P(t)の移動に伴って第1展示物E1に引っ張られるように回転していることから、θh=ちら見の頭モデル,θb=ちら見の体モデルとなる。
そして、インバースモデルとの比較から、この時系列変化に最もよく一致する振る舞いおよび注目対象は“目的地に向かってちら見しながら歩く”および“CA=NULL,TA=第1展示物E1,D=出口”なので、長期的な注目対象は存在しないが、短期的な注目対象が第1展示物E1であり、訪問者は出口に向かって第1展示物E1をちら見しながら歩いている状態と推定される。
なお、図9〜図11から明らかなように、展示物に注目しながら歩いている状態は、“注目点を持つと落ちる速度”によって、単に目的地に向かって歩いている状態から区別される。また、展示物をちら見しながら歩いている状態は、“展示物に引っ張られる頭および体の向き”によって、単に目的地に向かって歩いている状態から区別される。
図12には、図7(B)に示したように訪問者が展示物を見て回る際(ここでは第1展示物E1に注目している時点)の、観測値の時系列変化と、注目対象が示される。観測値の時系列変化は、“移動方向=展示物の周りを回る方向,v=vlook,θh=θb=θCA”のまま一定である。インバースモデルとの比較から、この時系列変化に最もよく一致する振る舞いおよび注目対象は“展示物を見て回る”および“CA=第1展示物E1,TA=NULL,D=NULL”なので、注目対象は、長期的なものが第1展示物E1で、短期的なものは存在せず、訪問者は展示物を見まわっている状態と推定される。
図13には、訪問者が展示物(ここでは第1展示物E1)を見ながら他の展示物(ここでは第3展示物E3)もちら見する際の、観測値の時系列変化と、注目対象が示される。観測値のうち移動方向θv(t),移動速度vおよび体の方向θbは、“移動方向=展示物の周りを回る方向,v=vlook,θb=θCA(t)”のまま一定であるが、頭の方向θhは“θh=θCA(t)”と“θh=θTA(t)”の間で変化する。インバースモデルとの比較から、この時系列変化に最もよく一致する振る舞いおよび注目対象は“展示物を見ながら他の展示物もちら見する”および“CA=第1展示物E1,TA=第3展示物E3,D=NULL”なので、長期的な注目対象(第1展示物E1)と、短期的な注目対象(第3展示物E3)とがあり、訪問者は第1展示物E1を見ながら第3展示物E3もちら見している状態と推定される。
図14には、訪問者が展示会場を訪れた大局的な訪問目的(以下“訪問目的”ないし“Global Purpose”と呼ぶ)と、その行動パターンを記述するモデルが示される。この例では、訪問目的は、passing−by(通り抜ける),Exhaustive−visit(見て回る),wandering(ぶらぶらする)の3つに分類される。
passing−byは、展示物に興味を示さず展示会場を素通りするような行動パターンであり、出口に向かうケースが尤もらしく、出口への方向から外れれば外れるほど尤度が低くなるようなモデルで表現される。
Exhaustive−visitは、展示物に興味を持ち、1つ1つ見て回るるような行動パターンであり、未訪問の展示物に興味を示す可能性が高く、既訪問の展示物からは興味が移り易くなるようなモデルで表現される。
wanderingは、特に興味を持つ展示物はなく、興味を引くものを探すような行動パターンであり、注目対象(CA,TA)の移り変わり(入れ替わり)
が多い軌跡ほど尤もらしいようなモデルで表現される。
ロボット10は、観測値(P(t),θb,θh)の時系列変化に尤もよく一致する振る舞いおよび注目対象を図8に示したインバースモデルから推定し、さらには、その推定結果の時時系列変化に最もよく一致する訪問目的を図14に示した訪問目的モデルから推定する。
そして、ロボット10は、訪問者との間で、上記のようにして推定した注目対象および/または訪問目的に応じたインターラクション(説明,対話,挨拶,ジェスチャなど)を行う。たとえば、訪問者が展示物を見ていれば、その展示物について説明や対話を行い、場内をぶらぶら歩きまわっていれば、展示の概要やお勧めの展示物の説明を行い、ロボット10自身をちら見していれば、視線を返したり挨拶を行う、といったインターラクションを行う。
図15には、展示会場で活動するロボット10のメモリ84のマップが、図16〜図19には、ロボット10のプロセッサ90によって実行されるロボット制御処理のフローが、それぞれ示される。
図15を参照して、メモリ94は、非遷移領域150および遷移領域170を含み、非遷移領域150には、ロボット制御プログラム152と、インバースモデル情報154,訪問目的モデル情報156および地図情報158とが記憶される。ロボット制御プログラム152は、注目対象推定プログラム152a,訪問目的推定プログラム152bおよびインターラクション制御プログラム152cを含む。遷移領域170には、距離画像情報172,観測値情報174,振る舞い&注目対象情報176および訪問目的情報178が記憶される。
ロボット制御プログラム152は、プロセッサ90を介して各種ハードウェア(40〜132:図4〜図5参照)を制御することで、展示会場(図1参照)内でロボット10に上述したような処理動作を行わせるためのプログラムであり、図16のフローに対応する。注目対象推定プログラム152aは、観測値情報174,インバースモデル情報154および地図情報158に基づき訪問者の振る舞いを介して注目対象を推定するためのプログラムであり、図17のフローに対応する。
訪問目的推定プログラム152bは、振る舞い&注目対象情報176に基づき訪問者が展示会場を訪問した目的を推定するためのプログラムであり、図18のフローに対応する。インターラクション制御プログラム152cは、振る舞い&注目対象情報176および訪問目的情報178に基づき訪問者とのインターラクションを制御するためのプログラムであり、図19のフローに対応する。
インバースモデル情報154は、図8に示したようなインバースモデルを示す情報であり、ロボット制御プログラム152(注目対象推定プログラム152a)によって定義される。ただし、インバースモデルの詳細なパラメータは、中央制御装置14によって事前に作成され、ロボット10が展示会場で活動するとき中央制御装置14から取得されてよい。
訪問目的モデル情報156は、図14に示したような訪問目的モデルを示す情報であり、ロボット制御プログラム152(訪問目的推定プログラム152b)によって定義される。ただし、訪問目的モデルの詳細なパラメータは、中央制御装置14によって事前に作成され、ロボット10が展示会場で活動するとき中央制御装置14から取得されてよい。
地図情報158は、図6に示した展示会場の地図に対応する情報であり、第1〜第3展示物E1〜E3および出入口の位置情報などを含む。
距離画像情報172は、距離画像センサ12a,12b,…でリアルタイムに得られる3次元の距離画像を示す情報であり、中央制御装置14によって所定周期たとえば1秒周期で書き込まれる(更新される)。
観測値情報174は、距離画像情報172から計算される観測値、具体的には、時刻tにおける訪問者の位置P(t),体の方向θb(t)および頭の方向θh(t)等を示す情報であり、中央制御装置14によって所定周期たとえば1秒周期で書き込まれる(更新される)。位置P(t)からは、必要に応じて移動方向θv(t)および移動速度vも計算される。
なお、観測値情報174の計算は、この実施例では中央制御装置14のプロセッサ14が行っているが、他の実施例では、ロボット10のプロセッサ90が行ってもよいし、両者で分担しても構わない。
振る舞い&注目対象情報176は、訪問者の振る舞い(目的地に向かって歩く,展示物を見て回る等)および注目対象(長期的な注目対象CA,短期的な注目対象TA,目的地D)を示す情報であり、注目対象推定プログラム152aによって観測値情報174およびインバースモデル情報154に基づき推定される。
訪問目的情報178は、訪問者が展示会場を訪問した目的を示す情報であり、訪問目的推定プログラム152bによって振る舞い&注目対象情報176から推定される。訪問目的情報178には、exhausive−visit,passing−by,wanderingの確率と、それに基づく尤もらしい訪問目的(grobal purpose)が記述される。
図6〜図12で説明したような注目対象推定処理,訪問目的推定処理およびインターラクション制御処理は、プロセッサ90が、図15に示された各種のプログラムおよび情報(152〜158)に基づき、図16〜図19のフローに従う処理を実行することにより実現される。
図16を参照して、ロボット10が展示会場で活動を開始するにあたり、CPU90は、最初、ステップS1で、地図情報158から第1〜第3展示物E1〜E3および出入口に関する情報を、長期的な注目対象CA,短期的な注目対象TA,目的地D(以下単にCA,TA,Dのように略記)の候補として取得する。
次に、ステップS3で、訪問者の状態群Hの遷移を記述するインバースモデルを定義する。
具体的には、まず、時刻tにおける訪問者の状態H(t)が、2次元位置をP(t),体方向をθb(t),頭方向をθh(t)として、次式(数1)で定義される。
これを仮説として、訪問者の振る舞いは、次式(数2)で記述することができる。
ここで、inverse_modelは、要するに、現在の時刻での(CA,TA,D)が決まると、1タイムステップ後の時刻における理想的な(P,θb,θh)が計算できる、という状態遷移を表している。
この場合、時刻tでの注目対象は、次式(数3)により推定される。
すなわち、可能なCAi(t),TAi(t),Di(t)のセットのうち、観測値と推定値との誤差が最小のものが、注目対象(CA(t),TA(t),D(t))として出力されて、振る舞い&注目対象情報176に記述されることになる。
また、このインバースモデルは、前述した5種類の振る舞いに関し以下のモデル(数4〜数11)を含む。
次式(数4)は、移動速度(方向のみ)のモデルであり、もし目的地があればその目的地への方向に向かい(上段)、そうでなければ、長期的な注目対象への方向に向かう(下段)ことを示す。
次式(数5)は、位置の時系列変化を表すモデルであり、次のタイムステップでの位置は、速度分だけ移動したものとして計算できることを示す。
次式(数6)は、頭の向きを示すモデルであり、もし短期的な注目対象がなければ、頭の向きは進行方向を向いたままであり(上段)、そうでなければ注目対象に向かう方向に引っ張られる(下段)ことを示す(図11参照)。
次式(数7)は、体の向きを示すモデルであり、もし短期的な注目対象がなければ、体の向きは進行方向を向いたままであり(上段)、そうでなければ注目対象に向かう方向に引っ張られる(下段)ことを示す(図11参照)。
なお、上の2式(数6,数7)の下段に含まれる係数(注目対象に引っ張られる程度を示す比例定数)kh,kbは、先に図11で説明したようにkh>kbである。
次式(数8)は、注目対象の有無による移動速度の大きさ(絶対値)の変化を示すモデルであり、注目対象がなければ、移動速度は通常の歩行速度のまま位置され(上段)、そうでなければ一定程度減速する(下段)ことを示す。
次式(数9)は、注目対象の周りをぐるぐる回る動きを示すモデルであり、ぐるぐる回る動きを表しているときに、ある程度対象に近づいたら確実にぐるぐる回る動きに入り(上段)、そうでなければぐるぐる回る動きから抜ける(下段)ことを示す。
次式(数10)は、上式(数9)における、どの程度対象に近付いたらぐるぐる回る動きに入るかの判定基準を示す。判定基準は、所定距離dlookと、1タイムステップ前の位置および現在の注目対象の間の距離と、のうち小さい方となる。
次式(数11)は、次のタイムステップに移ったときに注目対象がどれくらいの確率で変化するかに関するモデル(確率の変化式)を示す。
上式(数11)では、前と同じ状態が続く(CA,TA,Dのいずれも変化しない)確率が“1−ptransition”で、状態が変わる(CA,TA,Dの少なくとも1つが変化する)確率がptransitionで、それぞれ表現される。
ptransitionの分岐は、あまり短い間は0(上段)、じっくり見ている間はplook(中段)、それ以外はpwalk(下段)となる。つまり、じっくり見ている(目的地がない)ときと、(目的地に向かって)歩いているときとで、状態が変化する確率に違いが出る。一般には、じっくり見ているときよりも歩いているときの方が目移りし易いことから、plook<pwalkとなる。
インバースモデルの定義が完了すると、プロセッサ90は、次に、ステップS5で、インバースモデルにパーティクルフィルタを適用して、状態群H内の各状態Sti(CA,TA,D)を初期化する。
具体的には、まず、状態S(t)の内訳は、パーティクルxi(t)および重みwi(t)を用いて、次式(数12)で記述される。
ステップS5では、訪問者の状態群H内の各状態Sti(CA,TA,D)、つまり上式(数12)の(CAi(s),TAi(s),Di(s))が初期化される。
次に、ステップS6に進んで、図7に示したような訪問目的モデルを定義して、非遷移領域150に訪問目的モデル情報156として記憶する。そして、ステップS7で、訪問目的情報176に含まれるexhausive−visit,passing−by,wanderingの確率を初期化する。
その後、ステップS9に進んで、この処理を終了するか否かの判断を行い、YESであれば処理を終了する。ステップS9でNOであれば、ステップS11に進む。
ステップS11では、インバースモデルによる注目対象の推定を行う。なお、この注目対象推定処理の詳細については、後に図17を用いて詳しく説明する。次のステップS13では、推定した注目対象の遷移に基づいて、訪問者が展示会場を訪れた目的を推定する。なお、この訪問目的推定処理の詳細については、後に図18を用いて詳しく説明する。そして、ステップS15で、推定した注目対象および/または訪問目的に基づいて、訪問者とのインターラクションを行う。なお、このインターラクション制御処理の詳細については、後に図19を用いて詳しく説明する。その後、ステップS9に戻って、たとえば1秒周期で上記と同様の処理を繰り返す。
図17を参照して、注目対象推定処理では、まず、ステップS31で、遷移領域170の観測値情報174から、人位置P(t),体方向θb(t),頭方向θh(t)を取得する。これらの観測値は、上式(数1)にセットされる。
次に、ステップS33で、状態群H内の各状態Stiについて、インバースモデルとP(t),θb(t),θh(t)の比較を行い、一致度wi(t)を計算する。
具体的には、まず、現在の観測値をセットした上式(数1)を仮説として、上式(数2)に基づき、現在から1タイムステップ後の状態が計算される。次式(数13)は、その予測結果を示す。
次に、観測値と予測結果との間の尤度が、次式(数14)の要領で計算される。
ここで、Φ(χ,μ,σ)は、正規分布n(μ,σ)の累積密度関数である。
なお、上式(数14)は、位置P(t)に関する計算式であり、体方向θb(t),頭方向θh(t)に関する計算式は、上式(数14)において、左辺の“liklihood”の添え字pをb,hに、右辺の|P(t)−Pi(t)|を|θb(t)−θbi(t)|,|θh(t)−θhi(t)|に、それぞれ置き換えたものとなる。
一致度wi(t)は、上記3成分の尤度の積を(t−k+1)〜tのkタイムステップに渡って合計した値として、次式(数15)で計算される。
こうして一致度wi(t)が求まると、ステップS35に進んで、(CA,TA,D)の組み合わせ毎に一致度wi(t)の総和を計算して、最も大きな総和となった組み合わせを推定結果として出力する。
具体的には、まず、時刻tにおける(CAx,TAy,Dz)の尤度が、(CAx,TAy,Dz)と一致する状態Stiの一致度wi(t)の総和として、次式(数16)で計算される。
上式(数16)では、(CAx,TAy,Dz)と一致する状態Stiの一致度wi(t)には同じ重みwi(t)を与え(上段)、そうでない状態には重みを与えていない(下段)。
そして、次式(数17)の演算によって、上式(数16)で計算される尤度が最大となるような(CA,TA,D)が推定結果として出力され、振る舞い&注目対象情報176に記述される。
その後、ステップS37で、各状態Stiの一致度wi(t)に従い、各状態Stiの数を調整(リサンプリング)した後、ステップS39に進んで、状態群H内の各状態Sti(CA,TA,D)の次状態を予測、つまりパーティクルを移動(更新)する。そして、上位のフロー(図16)に戻る。
したがって、たとえば1秒周期でパーティクルを移動しながら上記と同様の処理が繰り返され、遷移領域170の振る舞い&注目対象情報176の(CA,TA,D)が更新されていく。
次に、図18を参照して、訪問目的推定処理では、まず、ステップS51で、振る舞い&注目対象情報176から、時刻tでの(CA,TA,D)を取得する。次に、ステップS53で、取得した(CA,TA,D)と訪問目的モデルとの比較に基づき、exhausive−visit,passing−by,wanderingの確率を計算する。
具体的には、まず、取得した(CA,TA,D)から、次式(数18)のような入力データXが生成される。
次に、入力データXに対して、次式(数19)のような演算が実行される。
ここで、λは訪問目的モデルである。訪問目的情報178に含まれるexhausive−visit,passing−by,wanderingの確率は、上式(数19)の演算結果に基づき更新される。
そして、ステップS55に進んで、上式(数19)の計算結果のうち、最も確率の大きい推定結果を尤もらしい訪問目的として出力する。具体的には、訪問目的(Grobal purpose)は、次式(数20)で計算される。
[数20]
Global purpose =argmaxλlog(p(X|λ) )
なお、上の2式(数19および数20)による演算を“Classifier”と呼ぶ。Classifierの概念を図20に示す。図20からわかるように、へは、kタイムステップ分の(CA,TA,D)のセットが順次Classifier入力され、Classifierでは、(CA,TA,D)の遷移からexhausive−visit,passing−by,wanderingの確率が計算され、そのうち最も確率の高いものがGrobal purposeとして出力される。
Classifierの出力は、訪問目的情報178に記述される。その後、プロセッサ90の処理は、上位のフロー(図16)に戻る。
したがって、たとえば1秒周期で上記と同様の処理が繰り返され、訪問目的情報178の内容が更新されていく。
次に、図19を参照して、インターラクション制御処理では、プロセッサ90は、振る舞い&注目対象情報176および訪問目的情報178等を参照しつつ、以下の処理を行う。
まず、ステップS61で、“CA=展示物”か否かを判別する。ステップS61でYES(CAが第1〜第3展示物E1〜E3のいずれか)であれば、ステップS63に進む。ステップS63でNO(CAが展示物でなく、たとえばNULL,ロボット,出口等)であれば、ステップS61でYESと判別して、ステップS69に移る。
ステップS63では、眼カメラ80等のセンシング結果に基づきモータ制御ボード96を介して車輪モータ46を駆動することによって、訪問者に近付く(ロボット10自身を訪問者に向かって移動させる)。そして、ステップS65で、赤外線距離センサ50等のセンシング結果に基づき、訪問者に十分近付いたか否かを判別し、NOであれば、上位のフロー(図16)に戻る。ステップS65でYESであれば、ステップS67で当該展示物の説明を行い、その後、上位のフローに戻る。
ステップS69では、“訪問目的=wandering”か否かを判別する。そして、ステップS69でYESであれば、ステップS71に進み、NO(exhaustive−visitまたはpassing−by)であれば、ステップS77に移る。
ステップS71では、訪問者に近付き、そして、ステップS73で、十分近付いたか否かを判別して、NOであれば、上位のフローに戻る。ステップS73でYESであれば、ステップS67でお勧めの展示物の説明を行った後、上位のフローに戻る。
ステップS77では、“CA=ロボット”または“TA=ロボット”か否かを判別する。そして、ステップS77でYES(CAまたはTAのどちらかがロボット)であれば、ステップS79に進み、NO(CAおよびTAのどちらもロボットではない)であれば、上位のフローに戻る。
ステップS79では、訪問者に近付き、そして、ステップS81で、十分近付いたか否かを判別して、NOであれば、上位のフローに戻る。ステップS81でYESであれば、ステップS83で訪問者への挨拶を行った後、上位のフローに戻る。
なお、ここでは注目対象および訪問目的に応じて3種類のインターラクションを行ったが、より多くの種類のインターラクションが可能である。
したがって、たとえば1秒周期で上記と同様の処理が繰り返され、インターラクションが進行していく。たとえば、入口から入ってきた訪問者が第1展示物E1に注目し始めると、ステップS61の判別結果がNOからYESに変化して、ステップS63つまり訪問者に近付く動作(移動)が開始され、この動作は、ステップS65の判別結果がNOからYESに変化する(十分近付く)まで継続される。ロボット10が訪問者に十分近付くと、ステップS67の説明が開始される。
なお、訪問者に十分近付く前に、訪問者が第1展示物E1への注目をやめた場合、ステップS65の判別結果がYESからNOに変化する結果、訪問者に近付く動作はその時点で終了されることになる。
以上から明らかなように、この実施例では、ロボット10は、展示物(E1〜E3)が展示された展示会場内で人(訪問者)とのインターラクションを行うロボットであり、インバースモデル154および訪問目的モデル156をメモリ94に保持している。
インバースモデル154には、人の会場での振る舞いを分類して、その振る舞いごとに、人の注目対象(長期的な注目対象CA,短期的な注目対象TAおよび目的地D)と、これに対応する人の位置(P(t)),頭向き(θh)および体向き(θb)の理想的な動きとが記述してある。また、訪問目的モデル156には、人の会場での行動パターンを分類して、その行動パターンごとに、人が会場を訪問した目的と、これに対応する人の注目対象の遷移とが記述してある。
そして、中央制御装置14が人の位置,頭向きおよび体向きを距離画像センサ12a,12bで観測しており、ロボット10のプロセッサ90は、中央制御装置14から観測値(P(t),θh,θb)を取得して、観測値の推移とインバースモデル154との比較に基づき人の注目対象(CA,TA,D)を推定する(S11)。こうして、観測値の推移から人の振る舞いを介して注目対象を推定することで、注目対象を精度よく推定できる。
また、プロセッサ90は、上記の推定結果つまり注目対象(CA,TA,D)の推移と訪問目的モデルとの比較に基づいて、人が会場を訪問した目的を推定する(S13)。したがって、推定した注目対象を利用して、より大局的な訪問目的の推定が可能になる。
さらに、プロセッサ90は、上記2種類の推定結果つまり注目対象(CA,TA,D)および訪問目的の少なくとも一方に基づいて、人とのインターラクションを制御する(S15)。したがって、人の注目対象および/または訪問目的に応じたインターラクションをロボットに行わせることができる。
なお、実施例のロボット10は、車輪42で移動するロボットであるが、二足歩行を行うロボットであってもよい。この発明のロボットは、自律的にまたは遠隔制御によって移動でき、かつ人とのインターラクションが可能なものであれば、形態には依存しない。
なお、実施例では、展示会場(ロボット10の外部)に配置された距離画像センサ12a,12bの出力から人の位置P(t),頭向きθh,体向きθbを計算しているが、ロボット10の内部センサ群(50,56,80)の出力も考慮して計算を行ってよい。ロボット10に距離画像センサ12を搭載するなどして、内部センサのみで計算を行うことも考えられる。
なお、実施例では、図16〜図19に示したロボット制御処理のうち、インバースモデルおよび訪問目的モデルを定義する処理と、人の位置および向きを距離画像センサ12a,12bで観測する処理のみ、中央制御装置14のプロセッサ16が担当し、それ以外の処理は、ロボット10側で行ったが、大半の処理を中央制御装置14側で行うような構成も可能である。その場合、図15に示したメモリ94のマップは、メモリ16のマップとなる。
あるいは、展示会場内にロボット10が複数台配置される場合、図19のインターラクション制御のみ各ロボット10のプロセッサ90が行い、それ以外の処理は中央制御装置14側で行うような構成も考えられる。
なお、以上の説明では、一実施例として、展示会場に適用されるロボット制御システム100について説明したが、この発明は、各種の場所(空間)で人の注目対象を検出する注目対象検出システムに適用できる。