JP4976903B2 - ロボット - Google Patents
ロボット Download PDFInfo
- Publication number
- JP4976903B2 JP4976903B2 JP2007099175A JP2007099175A JP4976903B2 JP 4976903 B2 JP4976903 B2 JP 4976903B2 JP 2007099175 A JP2007099175 A JP 2007099175A JP 2007099175 A JP2007099175 A JP 2007099175A JP 4976903 B2 JP4976903 B2 JP 4976903B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- utterance
- robot
- information
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Manipulator (AREA)
Description
特許文献1に記載のロボットは、ユーザに向かって能動的かつ積極的にインターネット上の情報を発信する対話型のロボット装置である。このロボットは、ユーザが対話不可能な領域に存在することを検知した場合や、ユーザが対話可能な領域に存在していることを検知しているがユーザの発話を検知できない場合には、動き部位を操作し、反応的ではない自発的動作を行わせ、ユーザの注意を引き、ユーザのロボットへの接近を誘発する。また、このロボットは、ユーザが発話する場合には、テキストの出力やブラウザの動作を停止させてユーザの発話を優先する。
また、かかる構成によれば、ロボットは、対象とする人物に所定の話題に関する発話を行った後に、その人物の視線方向から興味度を算出し、興味度が上昇した話題に関する情報を取得することができる。一般に、人は発話者の話す内容に興味を持っているときに視線を発話者の方へ向けるので、ロボットが話題を音声出力した後で検出された人物の視線方向は、音声出力された話題に関するその人物の興味を反映することとなる。したがって、算出された興味度は、人物の興味を反映するものとなる。また、興味度が下降した場合、具体的には、人物がロボットから視線をそむけた場合には、ロボットは、発話中の話題を提供することを中断する。したがって、ロボットから話題を提供された人物は、興味の無い話題を聞き続けなくてよいので、ロボットに親しみを感じ易くなる。
請求項2に記載の発明によれば、ロボットは、同じ場所であっても騒音に依存して異なる方法で発話を行うことが可能となる。
請求項3に記載の発明によれば、ロボットは、周囲の環境に応じて定められた行動と人物の状況に応じて定められた行動とを統合することができる。
請求項4に記載の発明によれば、ロボットは、発話音量の変化に対して自然な身振りを行うことができる。
請求項6に記載の発明によれば、ロボットは、対話相手の嗜好する話題を推定して発話するので、対話相手である人物がロボットに好意や親しみを感じ易くなる。また、ロボットは、話題を切り替えて人物との会話を継続させることによってその人物の嗜好等の情報を効果的に収集することができる。
図1に示すように、ロボット制御システムAは、ロボットRと、このロボットRと無線通信によって接続された基地局1と、この基地局1とロボット専用ネットワーク2を介して接続された管理用コンピュータ3と、この管理用コンピュータ3にネットワーク4を介して接続された端末5とから構成される。
ロボットRは、管理用コンピュータ3から入力された実行命令に従ってタスクを実行するものであり、ロボットRがタスクを実行する領域として予め設定されたタスク実行エリア内に、少なくとも一台配置されている。
ここで、図1には、来訪者を会議室などの所定の場所に案内するという内容のタスク(案内タスク)を実行中のロボットRAと、荷物をある人に渡すという内容のタスク(荷物配達タスク)を実行中のロボットRBと、新たなタスクが割り当てられるまで待機中のロボットRCとが、例示されている。
基地局1は、ロボットRと管理用コンピュータ3との間のデータ交換を仲介するものである。
具体的には、基地局1は、管理用コンピュータ3から出力された実行命令をロボットRに送信すると共に、ロボットRから送信されたロボットRの状態に関するデータ(ステータス情報)やロボットRが実行命令を受信したことを示す信号(受信報告信号)を受信して、管理用コンピュータ3に出力するものである。
基地局1は、ロボットRと管理用コンピュータ3との間のデータ交換を確実に行えるようにするために、タスク実行エリア内に少なくとも一つ設けられている。
なお、タスク実行エリアが建物の数フロアに亘って設定されている場合には、フロア毎に設けられていることが好ましく、一つの基地局1では総てのタスク実行エリアをカバーできない場合には、複数の基地局1がタスク実行エリア内に設けられていることが好ましい。
図4に示すように、タスク情報データベース400には、タスク毎に割り当てられた固有の識別子であるタスクID、タスクの優先度、タスクの重要度、タスクを実行させるロボットの識別子であるロボットID、案内や運搬(荷物配達)などのタスクの内容、タスク実行エリア内におけるタスクを開始する位置(開始位置)、タスク実行エリア内におけるタスクを終了する位置(終了位置)、タスクの実行に要する時間(所要時間)、そしてタスクの開始予定時刻(開始時刻)、タスクの終了予定時刻(終了時刻)、そしてタスクの状態などが、情報項目として含まれている。
図5に示すように、タスクスケジュールテーブル500は、ロボットRに実行させるタスクの実行順位、タスク情報データベース400(図4参照)に登録されたタスクを特定するためのタスクID、タスクの優先度、タスクの内容、そしてタスクの状態を情報項目として含むテーブルである。
このタスクスケジュールテーブル500では、これら情報項目が、タスク実行エリア内に配置されたロボットR毎に整理されており、どの様なタスクが、どのような順番で各ロボットRに割り当てられているのかを把握できるようになっている。
端末5は、ネットワーク4を介して管理用コンピュータ3に接続し、管理用コンピュータ3の記憶部3aに、人物に関する情報などを登録する、もしくは登録されたこれらの情報を修正するものである。また、端末5は、ロボットRに実行させるタスクの登録や、管理用コンピュータ3において設定されるタスクスケジュールの変更や、ロボットRの動作命令の入力などを行うものである。
ロボットRは、図6に示すように、頭部R1、腕部R2、脚部R3、胴部R4および背面格納部R5に加えて、これら各部R1〜R5の適所に、カメラC,C、スピーカS、マイクMC,MC、画像処理部10、音声処理部20、記憶部30、主制御部40、自律移動制御部50、無線通信部60、バッテリ70、対象検知部80、および周辺状態検知部90を有する。
さらに、ロボットRは、ロボットRの向いている方向を検出するジャイロセンサSR1や、予め設定された地図上におけるロボットRの存在する位置座標を取得するためのGPS(Global Positioning System)受信器SR2を有している。
カメラ(撮影手段)C,Cは、ロボットRの前方移動方向側の映像をデジタルデータとして取り込むことができるものであり、例えば、カラーCCD(Charge-Coupled Device)カメラが使用される。カメラC,Cは、左右に平行に並んで配置され、撮影した画像は画像処理部10に出力される。このカメラC,Cと、スピーカSおよびマイクMC,MCは、いずれも頭部R1の内部に配設される。スピーカ(音声出力手段)Sは、音声処理部20で音声合成された所定の音声を発することができる。
画像処理部(画像処理手段)10は、カメラC,Cが撮影した画像(撮影画像)を処理して、撮影された画像からロボットRの周囲の状況を把握するため、周囲の障害物や人物の認識を行う部分である。この画像処理部10は、ステレオ処理部11a、移動体抽出部11b、顔認識部11cおよび視線検出部11dを含んで構成される。
ステレオ処理部11aは、左右のカメラC,Cが撮影した2枚の画像の一方を基準としてパターンマッチングを行い、左右の画像中の対応する各画素の視差を計算して視差画像を生成し、生成した視差画像および元の画像を移動体抽出部11bに出力する。なお、この視差は、ロボットRから撮影された物体までの距離を表すものである。
移動体の抽出をするために、移動体抽出部11bは、過去の数フレーム(コマ)の画像を記憶しており、最も新しいフレーム(画像)と、過去のフレーム(画像)を比較して、パターンマッチングを行い、各画素の移動量を計算し、移動量画像を生成する。そして、視差画像と、移動量画像とから、カメラC,Cから所定の距離範囲内で、移動量の多い画素がある場合に、人物があると推定し、その所定距離範囲のみの視差画像として、移動体を抽出し、顔認識部11cへ移動体の画像を出力する。
認識された顔の位置は、ロボットRが移動するときの情報として、また、その人とのコミュニケーションを取るため、主制御部40に出力されると共に、視線検出部11dに出力される。
視線検出部11dは、目周辺の画像を解析して目が閉じているかどうかを判断し、目が閉じられていない場合に瞳孔を検出し、検出した瞳孔の位置と眼球の位置から視線方向を検出する。例えば、視線方向は、顔認識部11cで認識された顔の位置および姿勢、並びに瞳孔の中心位置の関係で求められる。この場合、視線検出部11dで検出される視線方向は、眼球の中心位置と瞳孔の中心位置とを結ぶベクトルとして求められる。求められた視線方向は、興味度を算出する際に用いるために主制御部40に出力される。
音声処理部20は、音声合成部21aと、音声認識部21bと、音源定位部21cと、騒音測定部21dおよび発話情報検出部21eを有する。
音声合成部21aは、主制御部40が決定し、出力してきた発話行動の指令に基づき、文字情報(テキストデータ)から音声データを生成し、スピーカSに音声を出力する部分である。音声データの生成には、予め記憶部30に記憶している文字情報(テキストデータ)と音声データとの対応関係を利用する。なお、音声データは、管理用コンピュータ3から取得され、記憶部30に保存される。
音声認識部(音声認識手段)21bは、マイクMC,MCから音声データが入力され、入力された音声データから文字情報(テキストデータ)を生成し、主制御部40に出力するものである。音声認識部21bは、音声から人物の状況を判別可能に音声認識する。例えば、「はい」、「何ですか?」のような音声を認識することで、主制御部40において、「人物からの反応がある」と判別することが可能となる。なお、音声データと文字情報(テキストデータ)との対応関係は、記憶部30に予め記憶されている。
音源定位部21cは、マイクMC,MC間の音圧差および音の到達時間差に基づいて音源位置(ロボットRが認識する平面状の位置)を特定し、主制御部40に出力するものである。音源位置は、例えば、ロボットRの立っている方向(z軸方向)周りの回転角θzで表される。
発話情報検出部(発話情報検出)21eは、マイクMC,MCから入力する音声から認識対象とする人物の音声に関する人物発話情報を検出する。人物発話情報は、人物の音声の音量、音質、話速のうちの少なくとも1つを示すものである。検出された人物発話情報は、興味度を算出する際に用いるために主制御部40に出力される。
記憶部(記憶手段)30は、例えば、一般的なハードディスク等から構成され、管理用コンピュータ3から送信された必要な情報(ローカル地図データ、会話用データなど)を記憶するものである。本実施形態では、会話用データとして、通常用途で発話される通常口調用データと、特別な用途で発話される特別口調用データとが記憶される。ここで、通常口調は、例えば、人が日常的な場面で用いる口語の口調であり、特別口調は、例えば、人がビジネスや儀礼などの場面で用いる敬語の口調である。
また、記憶部30は、後記するように、主制御部40の各種動作を行うために必要な情報を記憶している。
主制御部40は、画像処理部10、音声処理部20、記憶部30、自律移動制御部50、無線通信部60、対象検知部80、および周辺状態検知部90を統括制御するものである。また、ジャイロセンサSR1、およびGPS受信器SR2が検出したデータは、主制御部40に出力され、ロボットRの行動を決定するために利用される。この主制御部40は、例えば、管理用コンピュータ3と通信を行うための制御、管理用コンピュータ3から取得したタスク実行命令に基づいて所定のタスクを実行するための制御、ロボットRを目的地に移動させるための制御、人物を識別するための制御、人物と対話するための制御を行うために、種々の判断を行ったり、各部の動作のための指令を生成したりする。
自律移動制御部50は、主制御部40の指示に従い頭部R1、腕部R2および脚部R3を駆動するものである。この自律移動制御部50は、図示を省略するが、頭部R1を駆動する頭部制御部、腕部R2を駆動する腕部制御部、脚部R3を駆動する脚部制御部を有し、これら頭部制御部、腕部制御部および脚部制御部は、頭部R1、腕部R2および脚部R3を駆動するアクチュエータに駆動信号を出力する。この自律移動制御部50および脚部R3は移動手段を構成する。
無線通信部60は、管理用コンピュータ3とデータの送受信を行う通信装置である。無線通信部60は、公衆回線通信装置61aおよび無線通信装置61bを有する。
公衆回線通信装置61aは、携帯電話回線やPHS(Personal Handyphone System)回線などの公衆回線を利用した無線通信手段である。一方、無線通信装置61bは、IEEE802.11b規格に準拠するワイヤレスLANなどの、近距離無線通信による無線通信手段である。
無線通信部60は、管理用コンピュータ3からの接続要求に従い、公衆回線通信装置61aまたは無線通信装置61bを選択して管理用コンピュータ3とデータ通信を行う。
対象検知部(対象検知手段)80は、ロボットRの周囲にタグTを備える人物が存在するか否かを検知するものである。対象検知部80は、複数の発光部81(図6では1つのみ表示した)を備える。これら発光部81は、例えば、LEDから構成され、ロボットRの頭部R1外周に沿って前後左右などに配設される(図示は省略する)。対象検知部80は、発光部81から、各発光部81を識別する発光部IDを示す信号を含む赤外光をそれぞれ発信すると共に、この赤外光を受信したタグTから受信報告信号を受信する。いずれかの赤外光を受信したタグTは、その赤外光に含まれる発光部IDに基づいて、受信報告信号を生成するので、ロボットRは、この受信報告信号に含まれる発光部IDを参照することにより、当該ロボットRから視てどの方向にタグTが存在するかを特定することができる。また、対象検知部80は、タグTから取得した受信報告信号の電波強度に基づいて、タグTまでの距離を特定する機能を有する。したがって、対象検知部80は、受信報告信号に基づいて、タグTの位置(距離および方向)を、人物の位置として特定することができる。さらに、対象検知部80は、発光部81から赤外光を発光するだけではなく、ロボットIDを示す信号を含む電波を図示しないアンテナから発信する。これにより、この電波を受信したタグTは、赤外光を発信したロボットRを正しく特定することができる。なお、対象検知部80およびタグTについての詳細は、例えば、特開2006−192563号公報に開示されている。
周辺状態検知部90は、ロボットRの周辺状態を検知するものであり、ジャイロセンサSR1やGPS受信器SR2によって検出された自己位置データを取得可能になっている。また、周辺状態検知部90は、探索域に向かってスリット光を照射するレーザ照射部91と、探索域に向かって赤外線を照射する赤外線照射部92と、スリット光または赤外線が照射された探索域を撮像する床面カメラ93とを有する。この周辺状態検知部90は、床面カメラ93で撮像したスリット光画像(スリット光が照射されたときの画像)を解析して路面状態を検出する。また、周辺状態検知部90は、床面カメラ93で撮像した赤外線画像(赤外線が照射されたときの画像)を解析してマークM(図2参照)を検出し、検出されたマークMの位置(座標)からマークMとロボットRとの相対的な位置関係を計算する。なお、周辺状態検知部90についての詳細は、例えば、特開2006−167844号公報に開示されている。
図7は、図6に示したロボットの主制御部の構成を示すブロック図である。
主制御部40は、静止障害物統合部41と、オブジェクトデータ統合部42と、行動パターン部43と、身振り統合部44と、内部状態検出部45と、行動計画管理部46と、モチベーション管理部47とを備えている。
ここで、図8を参照して、オブジェクトデータ記憶手段31に記憶されるオブジェクトマップの構成を説明する。図8は、オブジェクトデータの一例を示す図である。
オブジェクトマップは、時刻別に分類された複数の時刻別データ801を備えている。この時刻別データ801には、それぞれ、時刻情報としてのカウント802と、姿勢データ、カメラ姿勢および騒音レベルと、表803が付されている。姿勢データは、例えば顔の位置(x,y,z)と顔の向き(θx,θy,θz)で表され、カメラ姿勢は、例えばパン、チルト、ロールの各軸周りの回転角度(pan,tilt,role)で表される。また、騒音レベルは、騒音測定部21d(図6参照)によって検出されたものであり、デシベル(dB)で表される。また、この表803では、列に識別すべき対象(オブジェクト)が配され、行に、このオブジェクトを特徴付ける複数の項目が配されており、オブジェクト別に(列ごとに)レコードが蓄積されている。以下に、各項目の詳細を説明する。
ボディ位置805は、画像処理部10から出力される位置座標データであり、ロボットRが認識している座標平面における人物(オブジェクト)の重心位置座標(x,y)で表される。
速度806は、画像処理部10から出力される速度データであり、ロボットRが認識している座標平面における人物(オブジェクト)の移動速度(Vx,Vy)で表される。
人物確度808は、人物ID807の確度を示すものであり、完全一致を100%として定められている。
人物ライフカウント809は、人物ID807に登録されたデータのオブジェクトデータ上での経過時間を表している。
RFID位置811は、対象検知部80から出力される位置データであり、ロボットRの周囲におけるタグ(オブジェクト)までの距離および方向で定まる領域で表される。
RFID確度812は、RFID識別番号810のデータ(識別番号)の確度を示すものである。
RFIDライフカウント813は、RFID識別番号810に登録されたデータ(識別番号)のオブジェクトマップ上での経過時間を表している。
音源確度815は、音源位置814のデータの確度を示すものである。
音源ライフカウント816は、音源位置814に登録されたデータ(位置座標)のオブジェクトマップ上での経過時間を表している。
TOTAL_ID818は、人物ID807とRFID識別番号810に基づいてオブジェクトデータ統合部42で決定されたオブジェクトの識別番号である。
TOTAL_確度819は、人物確度808とRFID確度812とに基づいてオブジェクトデータ統合部42で決定されたオブジェクトの識別番号の確度を示すものである。
行動パターン部43は、後記するように、ロボットRの予め定められた行動(行動パターン)に伴って人物に発話を行う前にその人物へのアプローチ行動を制御するアプローチ行動制御手段48を備えている。
また、行動パターン部43は、行動パターンを実行するための各種プログラム(モジュール)を格納すると共に、この行動パターンを実行するときに、記憶部30を参照して、行動パターンに反映するものである。
モチベーション指数記憶手段33は、モチベーション指数を記憶するものである。モチベーション指数は、モチベーション管理部47が管理するものなので詳細は後記する。
また、シナリオ記憶手段34は、所定の発話を行うときに頭部R1、腕部R2、脚部R3のうちの少なくとも1つの部位を移動させる身体動作である身振りを指定する予め作成されたシナリオを記憶する。
局所回避モジュールは、歩行中に障害物が検知されたときに、静止障害物統合部41で統合された障害物情報に基づいて、障害物を回避する迂回経路を探索するものである。
案内モジュールは、例えば、タスク実行エリア内の案内開始地点に来訪した来訪客を案内領域301(図3参照)の受付305にいる受付スタッフのもとへ案内するタスクを実行するものである。
人対応モジュールは、例えば、物品運搬タスクや案内タスクの実行時に所定のシナリオに基づいて、発話、姿勢の変更、腕部R2の上下移動や把持等を行うものである。
アプローチ行動制御手段48は、図10に示すように、環境情報検出手段110と、人状況判別手段120と、応対行動制御手段130とを備え、これらによって記憶部30に記憶された各種の情報やデータに基づいて後記する制御を行う。
ここで、人物の状況とは、その人物が現在なすべき何かに集中している状況や、他者から話しかけられると、困惑、迷惑、不快を感じるような様々な状況を指す。また、人物の状況とは、人物ごとに異なり、また同一人物でも時、場所、場面等の種々の条件によって異なる。そこで、本実施形態では、人物の状況として、誰もが他者から話しかけられたくないと感じるような普遍性のある状況の例として、「人物が休息中(睡眠中)であること」と、「人物が既に対話中であること」との2つの事例に対応させるように構成した。
休息中画像条件は、撮影画像において、例えば、人物が目を閉じた状態が所定時間続いている場合、人物が顔を正面を向いているときに比較して下に向けた状態が所定時間続いている場合、人物の顔の位置が座っているときの顔の位置に比較して低い状態が所定時間続いている場合等を指すものである。
対話中画像条件は、撮影画像において、例えば、人物が口の開閉を行っている場合、2人の人物の顔の向きや視線方向が逆方向である場合等を指すものである。
<環境情報検出手段>
図10に示すように、環境情報検出手段110は、例えばGPS受信器SR2で検出された現在位置に対応する発話出力情報を、ローカル地図データ記憶手段32に記憶された地図データからロボットRの環境に起因した情報として検出するものである。検出された発話出力情報は、応対行動制御手段130に出力される。
人状況判別手段120は、記憶部30に記憶された人物状況データを作成するために用いられた画像条件と、画像処理部10で処理された撮影画像の処理結果と、音声認識部21bで音声認識された結果とに基づいて、対象とする人物の状況を判別するものである。この人状況判別手段120は、個人状況推定手段121と、集団状況推定手段122と、発話タイミング決定手段123と、興味推定手段124とを備える。
集団状況推定手段122は、対象とする人物の付近に他の人物が認識されないか否かを判別し、他の人物が認識される場合に、対話中画像条件と撮影画像の処理結果とに基づいて、対象とする人物を含む複数の人物が対話中であるか否かを判別するものである。なお、複数の人物を認識する方法としては、オブジェクトデータ統合部42による識別、画像処理部10の画像処理による識別、対象検知部80(図6参照)のタグ検知による識別のいずれの方法を用いてもよい。
発話タイミング決定手段123は、対象とする人物が休息中ではなく、かつ、対話中ではないと判別された場合であって、視線検出部11dで検出された視線方向がロボットRの方向に向いているときに発話タイミングであると決定するものである。ここで、視線方向がロボットRの方向を向いているときとは、視線方向がロボットRの方向と完全一致しているときだけを指すものではなく、視線方向が予め設定された範囲内を向いていればよい。
本実施形態では、興味推定手段124は、興味度を算出する方法として、人物を撮像した画像に基づく画像判定モードと、入力される人物の音声に基づく音声判定モードと、それらを統合した統合判定モードとを有しており、各モードは適宜切替可能に構成されている。
また、音声判定モードにおいて、興味推定手段124は、対象とする人物に対して所定の話題に関する発話を行った後に音声認識部21bで音声認識されたキーワードやフレーズ等の認識結果または発話情報検出手部21eで検出された音量、音質、話速の人物発話情報を数値化した興味度を算出する。この場合、興味推定手段124は、検出されたキーワードが多いほど、また音量が大きいほど、また音質が高いほど、また話速が速いほど大きくなるように興味度を算出する。なお、例えば、「面白い」等のキーワードや「詳しく教えて」等のフレーズごとに所定の重み付けをしてもよい。
また、統合判定モードにおいて、興味推定手段124は、画像判定モードで算出された興味度と、音声判定モードで算出された興味度とに所定の重み付けを行ってから加算した和を最終的な興味度として算出する。
応対行動制御手段130は、人状況判別手段120で判別された人物の状況および人物からの反応に対応する発話出力情報を記憶部30に記憶された人物状況データから抽出し、抽出した発話出力情報と環境情報検出手段110で検出された発話出力情報とに基づいて、対象とする人物に対する発話の可否、発話音量および発話口調のうちの少なくとも1つを決定するものである。この応対行動制御手段130は、発話レベル調整手段131と、身振り調整手段132と、話題制御手段133と、行動統括制御手段134とを備えている。
第1終了条件:予め設定された時間が経過しても発話可能な環境にならないとき。
第2終了条件:予め設定された時間が経過しても対象とする人物が対話中であるとき。
第3終了条件:予め設定された時間が経過しても対象とする人物が休息中であるとき。
第4終了条件:予め設定された終了タイミングであるとき。なお、第4終了条件は、バッテリ補給が必要な場合やタスクを実行するための時刻となった場合等を含む。
図6に示したロボットRの動作について主にアプローチ行動制御手段48の動作を中心に図11を参照(適宜図1、図6、図7および図10参照)して説明する。図11は、図6に示したロボットRの動作を示すフローチャートである。ロボットRは、主制御部40によって、無線通信部60を介して管理用コンピュータ3からローカル地図等の情報を予め取得しておく。また、本実施形態では、ロボットRは、現在実行すべきタスクを有していないときに、主制御部40のモチベーション管理部47によって追加された行動計画によって選択された人物の所在地に移動し、その人物と対話するために発話を行う前に、主制御部40のアプローチ行動制御手段48が動作を開始することとする。また、アプローチ行動制御手段48の興味推定手段124は、興味度を算出する方法として、人物を撮像した画像に基づく画像判定モードに設定されているものとする。
ここで、話題の展開の具体例について、図12を参照(適宜図10参照)して説明する。人物情報記憶手段35には、例えば、9種類の話題が記憶されているものとする。これらの話題は、図12に示すように、例えば、9個のノード1201〜1209と、それらを結ぶリンクとを用いて記述することができる。ノード1201は、「スポーツ」に関する話題を示している。ノード1201は、ノード1202〜1204にそれぞれ接続されている。ノード1202〜1204は、「陸上」、「水泳」、「球技」に関する話題をそれぞれ示している。ロボットRは、話題制御手段133によって、例えば、ノード1201から話題の提供を開始し、ノード1201において話題の提供が終了した時点で、例えば、話題提供中の興味度の平均値に応じて、ノード1202〜1204の中から、次に提供する話題を選択する。なお、他のノード1205〜1209は、図12においてノード1201〜1204と同様なものを示しているので詳細な説明を省略する。これによれば、ロボットRは、質問を多用することなく人物が嗜好すると推定される情報を発話するので対話が自然なものとなり、対話相手の人物がロボットRに親しみを感じ易くなる。
R ロボット
R1 頭部
R2 腕部
R3 脚部
R4 胴部
R5 背面格納部
1 基地局
2 ロボット専用ネットワーク
3 管理用コンピュータ
3a 記憶部
4 ネットワーク
5 端末
10 画像処理部(画像処理手段)
11a ステレオ処理部
11b 移動体抽出部
11c 顔認識部(顔認識手段)
11d 視線検出部(視線検出手段)
20 音声処理部(音声処理手段)
21a 音声合成部
21b 音声認識部(音声認識手段)
21c 音源定位部
21d 騒音測定部(騒音測定手段)
21e 発話情報検出部(発話情報検出手段)
30 記憶部(記憶手段)
31 オブジェクトデータ記憶手段
32 ローカル地図データ記憶手段
33 モチベーション指数記憶手段
34 シナリオ記憶手段
35 人物情報記憶手段
40 主制御部
41 静止障害物統合部
42 オブジェクトデータ統合部
43 行動パターン部
44 身振り統合部(身振り統合手段)
45 内部状態検出部
46 行動計画管理部
47 モチベーション管理部
48 アプローチ行動制御手段
50 自律移動制御部(自律移動制御手段)
60 無線通信部
70 バッテリ
80 対象検知部(対象検知手段)
90 周辺状態検知部
110 環境情報検出手段
120 人状況判別手段
121 個人状況推定手段
122 集団状況推定手段
123 発話タイミング決定手段
124 興味推定手段
130 応対行動制御手段
131 発話レベル調整手段
132 身振り調整手段
133 話題制御手段
134 行動統括制御手段
C カメラ(撮影手段)
MC マイク
S スピーカ(音声出力手段)
SR1 ジャイロセンサ
SR2 GPS受信器(自己位置検出手段)
Claims (6)
- 予め設定された地図上における当該ロボットの現在位置を検出する現在位置検出手段と、コミュニケーションを行う対象とする人物を撮影手段で撮影した撮影画像から前記人物の状況を判別可能に画像処理する画像処理手段と、音声から前記人物の状況を判別可能に音声認識すると共に発話を行う音声処理手段と、前記発話を行う前に前記対象とする人物へのアプローチ行動を制御するアプローチ行動制御手段とを有したロボットであって、
予め設定された当該ロボットの発話の可否、発話音量および発話口調のうちの少なくとも1つを示す発話出力情報と前記地図上の位置を示す位置情報とを対応付けて作成された地図データと、
前記発話出力情報と予めそれぞれ設定された人物の状況を示す画像条件および人物からの反応を示す音声条件とを対応付けて作成された人物状況データとを記憶する記憶手段を備え、
前記アプローチ行動制御手段は、
検出された現在位置に対応する発話出力情報を前記地図データから当該ロボットの環境に起因した情報として検出する環境情報検出手段と、
前記予め設定された画像条件と前記撮影画像の処理結果および前記音声認識の結果とに基づいて、前記対象とする人物の状況を判別する人状況判別手段と、
前記人状況判別手段で判別された人物の状況に対応する発話出力情報を前記人物状況データから抽出し、前記抽出した発話出力情報と前記環境情報検出手段で検出された発話出力情報とに基づいて、前記対象とする人物に対する発話の可否、発話音量および発話口調のうちの少なくとも1つを決定する応対行動制御手段とを備え、
前記画像処理手段は、
前記撮影画像から前記対象とする人物の顔領域を抽出する顔認識手段と、
前記抽出された顔領域から前記対象とする人物の視線方向を検出する視線検出手段とを有し、
前記対象とする人物に対して所定の話題に関する発話を開始した後に前記視線検出手段で検出された視線方向を数値化した興味度を算出し、前記算出した興味度が上昇したか否かを判別し、前記興味度が上昇した場合に前記人物が前記話題に興味を有していると判定すると共に、前記判別結果を記録する興味推定手段と、
前記興味度が下降した場合に、前記所定の話題に関する発話を中断する話題制御手段と、を備え、
前記人物状況データは、
前記人物の状況を示す画像条件として、当該ロボットの発話の不許可を示す情報と対応付けられた画像を示す画像条件を含むと共に、前記人物からの反応を示す音声条件として当該ロボットの発話の不許可を示す情報と対応付けられた音声条件を含み、
前記人状況判別手段は、
前記対象とする人物と対話を始める前に、前記撮影画像および前記音声の処理結果が前記発話の不許可を示す情報と対応付けられた画像条件および音声条件と一致するか否かを判別し、一致する場合、前記対象とする人物の状況が当該ロボットの発話を許可する状況ではないと判別し、一致しない場合であって前記視線検出手段で検出された視線方向が当該ロボットの方向に向いている場合に発話タイミングであると決定することを特徴とするロボット。 - 当該ロボットの周囲の騒音を測定して騒音のレベルを検出する騒音測定手段をさらに備え、
前記地図データは、予め設定された騒音のレベルごとに前記発話出力情報が前記位置情報と対応付けて作成され、
前記環境情報検出手段は、検出された現在位置および検出された騒音のレベルに対応する発話出力情報を前記予め設定された騒音のレベルごとに作成された地図データから当該ロボットの環境に起因した情報として検出することを特徴とする請求項1に記載のロボット。 - 前記応対行動制御手段は、
前記人物状況データから抽出した発話出力情報と、前記環境情報検出手段で検出された発話出力情報とを比較し、両者が異なる場合に、各発話出力情報を数値化して重み付けを行って統合した統合値を算出し、前記算出された統合値が予め設定された発話の許可を示す設定値より小さい場合に、前記人物への発話を許可する行動統括制御手段と、
前記人物への発話が許可された場合に、前記統合値に基づいて発話音量のレベルの調整または発話口調の切り替えを行う発話レベル調整手段と、
を備えることを特徴とする請求項1または請求項2に記載のロボット。 - 当該ロボットの胴部にそれぞれ接続された頭部、腕部および脚部のうちの少なくとも1つの部位を駆動する駆動手段に駆動信号を出力して前記少なくとも1つの部位を自律的に移動させる自律移動制御手段と、
所定の発話を行うときに前記少なくとも1つの部位を移動させる身体動作である身振りを指定する予め作成されたシナリオを記憶するシナリオ記憶手段と、
前記対象とする人物に対して行う発話に対応した身振りを前記シナリオから抽出し、前記抽出した身振りを指定するコマンドを前記自律移動制御手段に出力する身振り統合手段と、
前記発話レベル調整手段で発話音量のレベルが調整された場合に、前記調整された発話音量のレベルに比例させて前記コマンドとして指定される身振りによる前記部位の移動幅を調整する身振り調整手段と、
をさらに備えることを特徴とする請求項3に記載のロボット。 - 前記音声処理手段は、
入力音声から前記対象とする人物の音声の音量、音質、話速のうちの少なくとも1つを示す人物発話情報を検出する発話情報検出手段を有し、
前記興味推定手段は、
前記興味度を算出する方法として、前記人物を撮像した画像に基づく画像判定モードと、前記人物の音声に基づく音声判定モードと、それらを統合した統合判定モードとを有し、
前記画像判定モードにおいて、前記対象とする人物に対して前記視線検出手段で検出された視線方向を数値化した興味度を算出し、
前記音声判定モードにおいて、前記対象とする人物に対して前記所定の話題に関する発話を開始した後に前記音声処理手段で音声認識された認識結果または前記発話情報検出手段で検出された人物発話情報を数値化した興味度を算出し、
前記統合判定モードにおいて、前記画像判定モードで算出された興味度と、前記音声判定モードで算出された興味度とに所定の重み付けを行ってから加算した和を最終的な興味度として算出し、
前記話題制御手段は、前記最終的な興味度が下降した場合に、前記所定の話題に関する発話を中断することを特徴とする請求項1ないし請求項4のいずれか一項に記載のロボット。 - 複数の話題を記憶した人物情報記憶手段をさらに備え、
前記話題制御手段は、前記興味度に基づいて、前記人物情報記憶手段に記憶された話題を切り替え、前記対象とする人物に対して前記切り替えた話題に関する発話を行うことを特徴とする請求項1ないし請求項5のいずれか一項に記載のロボット。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007099175A JP4976903B2 (ja) | 2007-04-05 | 2007-04-05 | ロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007099175A JP4976903B2 (ja) | 2007-04-05 | 2007-04-05 | ロボット |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008254122A JP2008254122A (ja) | 2008-10-23 |
JP4976903B2 true JP4976903B2 (ja) | 2012-07-18 |
Family
ID=39978228
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007099175A Expired - Fee Related JP4976903B2 (ja) | 2007-04-05 | 2007-04-05 | ロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4976903B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3832421A4 (en) * | 2018-07-27 | 2021-10-06 | Sony Group Corporation | INFORMATION PROCESSING DEVICE, ACTION DETERMINATION PROCEDURE AND PROGRAM |
US11508368B2 (en) | 2019-02-05 | 2022-11-22 | Honda Motor Co., Ltd. | Agent system, and, information processing method |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5300497B2 (ja) * | 2009-01-07 | 2013-09-25 | 株式会社東芝 | 対話装置、対話プログラムおよび対話方法 |
JP5581770B2 (ja) | 2010-03-26 | 2014-09-03 | ソニー株式会社 | ロボット装置及びロボット装置による情報提供方法 |
JP5732632B2 (ja) * | 2011-02-03 | 2015-06-10 | 株式会社国際電気通信基礎技術研究所 | ロボットシステムおよびそれに用いる空間陣形認識装置 |
JP2012213828A (ja) * | 2011-03-31 | 2012-11-08 | Fujitsu Ltd | ロボット制御装置及びプログラム |
JP2013237124A (ja) * | 2012-05-15 | 2013-11-28 | Fujitsu Ltd | 端末装置、情報提供方法及びプログラム |
JP6322927B2 (ja) * | 2013-08-14 | 2018-05-16 | 富士通株式会社 | インタラクション装置、インタラクションプログラムおよびインタラクション方法 |
JP6589514B2 (ja) * | 2015-09-28 | 2019-10-16 | 株式会社デンソー | 対話装置及び対話制御方法 |
JP2017144521A (ja) | 2016-02-18 | 2017-08-24 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JPWO2017145929A1 (ja) * | 2016-02-25 | 2018-10-25 | シャープ株式会社 | 姿勢制御装置、ロボット及び姿勢制御方法 |
WO2018012645A1 (ko) * | 2016-07-12 | 2018-01-18 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
CN106584480A (zh) * | 2016-12-31 | 2017-04-26 | 天津菲戈博特智能科技有限公司 | 机器人及其面部识别方法和语音控制方法 |
CN107223082B (zh) | 2017-04-21 | 2020-05-12 | 深圳前海达闼云端智能科技有限公司 | 一种机器人控制方法、机器人装置及机器人设备 |
JP6976131B2 (ja) * | 2017-10-16 | 2021-12-08 | 三菱重工サーマルシステムズ株式会社 | 空調システム及び空調制御方法 |
JP6845121B2 (ja) * | 2017-11-20 | 2021-03-17 | 富士ソフト株式会社 | ロボットおよびロボット制御方法 |
US10777198B2 (en) | 2017-11-24 | 2020-09-15 | Electronics And Telecommunications Research Institute | Apparatus for determining speech properties and motion properties of interactive robot and method thereof |
KR102147835B1 (ko) * | 2017-11-24 | 2020-08-25 | 한국전자통신연구원 | 인터랙티브 로봇의 발화 및 제스처 속성 결정 장치 및 방법 |
JP7081926B2 (ja) * | 2018-01-10 | 2022-06-07 | 株式会社日立製作所 | 移動体、動作制御システム、及び移動体システム |
JP6989395B2 (ja) * | 2018-01-10 | 2022-01-05 | パナソニック株式会社 | 相互作用装置、相互作用方法、相互作用プログラム及びロボット |
US20210294414A1 (en) * | 2018-08-09 | 2021-09-23 | Sony Corporation | Information processing apparatus, information processing method, and program |
WO2020091568A1 (ko) * | 2018-11-02 | 2020-05-07 | 서울대학교 산학협력단 | 사용자의 의도 예측 방법 및 이를 수행하기 위한 장치 |
KR102374448B1 (ko) | 2018-11-02 | 2022-03-15 | 서울대학교산학협력단 | 사용자의 의도 예측 방법 및 이를 수행하기 위한 장치 |
JP6560839B1 (ja) * | 2019-03-06 | 2019-08-14 | オリンパス株式会社 | 移動撮影装置、移動撮影制御装置、移動撮影システム、撮影方法及び撮影プログラム |
JP2020146826A (ja) * | 2019-03-15 | 2020-09-17 | 株式会社デンソーウェーブ | ロボット及び人の位置検出システム |
JP7382743B2 (ja) * | 2019-06-17 | 2023-11-17 | 株式会社ソニー・インタラクティブエンタテインメント | ロボットシステム |
JP2021022181A (ja) * | 2019-07-29 | 2021-02-18 | コニカミノルタ株式会社 | パーソナルスペース作成システム、パーソナルスペース作成方法及びパーソナルスペース作成プログラム |
JP7221902B2 (ja) * | 2020-03-13 | 2023-02-14 | Kddi株式会社 | ユーザの関心度に応じて対話内容を切り替える対話装置、プログラム及び方法 |
JP7430083B2 (ja) * | 2020-03-19 | 2024-02-09 | 株式会社フジタ | 発話制御装置 |
JP7434635B1 (ja) | 2023-03-28 | 2024-02-20 | Kddi株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP7434634B1 (ja) | 2023-03-28 | 2024-02-20 | Kddi株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP7397228B1 (ja) * | 2023-03-31 | 2023-12-12 | Kddi株式会社 | 情報処理装置、情報処理方法、プログラム及び情報処理システム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001188779A (ja) * | 1999-12-28 | 2001-07-10 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
JP2001188786A (ja) * | 1999-12-28 | 2001-07-10 | Sony Corp | 会話処理装置および方法、並びに記録媒体 |
JP2003191187A (ja) * | 2001-12-21 | 2003-07-08 | Sony Corp | ロボット装置及びその制御方法 |
JP2003302998A (ja) * | 2002-04-09 | 2003-10-24 | Sony Corp | 情報処理装置および方法、記録媒体、並びにプログラム |
JP3942599B2 (ja) * | 2004-02-26 | 2007-07-11 | 株式会社国際電気通信基礎技術研究所 | コミュニケーションロボット |
JP2005335001A (ja) * | 2004-05-26 | 2005-12-08 | Sony Corp | ロボット制御装置および方法、記録媒体、並びにプログラム |
JP4326437B2 (ja) * | 2004-09-10 | 2009-09-09 | 本田技研工業株式会社 | ロボットの制御装置 |
JP5120745B2 (ja) * | 2005-03-10 | 2013-01-16 | 株式会社国際電気通信基礎技術研究所 | コミュニケーションロボット |
-
2007
- 2007-04-05 JP JP2007099175A patent/JP4976903B2/ja not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3832421A4 (en) * | 2018-07-27 | 2021-10-06 | Sony Group Corporation | INFORMATION PROCESSING DEVICE, ACTION DETERMINATION PROCEDURE AND PROGRAM |
US11986959B2 (en) | 2018-07-27 | 2024-05-21 | Sony Corporation | Information processing device, action decision method and program |
US11508368B2 (en) | 2019-02-05 | 2022-11-22 | Honda Motor Co., Ltd. | Agent system, and, information processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2008254122A (ja) | 2008-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4976903B2 (ja) | ロボット | |
JP4560078B2 (ja) | コミュニケーションロボット | |
US20220217491A1 (en) | User Experience Localizing Binaural Sound During a Telephone Call | |
US10825237B2 (en) | Extended reality virtual assistant | |
JP5411789B2 (ja) | コミュニケーションロボット | |
JP5405381B2 (ja) | 音声対話装置 | |
JP5366048B2 (ja) | 情報提供システム | |
US10024667B2 (en) | Wearable earpiece for providing social and environmental awareness | |
JP4718987B2 (ja) | インターフェース装置およびそれを備えた移動ロボット | |
Chaccour et al. | Computer vision guidance system for indoor navigation of visually impaired people | |
JP4886572B2 (ja) | ロボット | |
KR102463806B1 (ko) | 이동이 가능한 전자 장치 및 그 동작 방법 | |
JP2008087140A (ja) | 音声認識ロボットおよび音声認識ロボットの制御方法 | |
JP2008084135A (ja) | 移動制御方法、移動ロボットおよび移動制御プログラム | |
KR20190106921A (ko) | 커뮤니케이션 로봇 및 그의 구동 방법 | |
JP2009248193A (ja) | 接客システム及び接客方法 | |
JP2009166184A (ja) | ガイドロボット | |
EP3584788A2 (en) | Voice recognition image feedback providing system and method | |
JP2003050559A (ja) | 自律移動ロボット | |
JP2007249427A (ja) | 情報管理システム | |
JP2023101501A (ja) | 装置、方法、及びプログラム | |
JP4764377B2 (ja) | 移動型ロボット | |
JP6887035B1 (ja) | 制御システム、制御装置、制御方法及びコンピュータプログラム | |
JP2018005308A (ja) | 徘徊抑制装置、徘徊抑制方法及び徘徊抑制プログラム | |
JP2023145957A (ja) | 情報処理装置、情報処理プログラムおよび情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120403 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120413 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4976903 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150420 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |