[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2003305674A - ロボット装置およびロボット制御方法、記録媒体、並びにプログラム - Google Patents

ロボット装置およびロボット制御方法、記録媒体、並びにプログラム

Info

Publication number
JP2003305674A
JP2003305674A JP2002108909A JP2002108909A JP2003305674A JP 2003305674 A JP2003305674 A JP 2003305674A JP 2002108909 A JP2002108909 A JP 2002108909A JP 2002108909 A JP2002108909 A JP 2002108909A JP 2003305674 A JP2003305674 A JP 2003305674A
Authority
JP
Japan
Prior art keywords
unit
content
robot
voice recognition
pet robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002108909A
Other languages
English (en)
Inventor
Satoshi Ozaki
悟士 尾崎
Hideki Noma
英樹 野間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002108909A priority Critical patent/JP2003305674A/ja
Publication of JP2003305674A publication Critical patent/JP2003305674A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Toys (AREA)

Abstract

(57)【要約】 【課題】 起動直後に自律的な行動を活発に実行するこ
とができるペットロボットを実現する。 【解決手段】 図14は、理想的なユーザの関心度の変
化を実現するための、ペットロボット1によるコンテン
ツの実際の動作イメージを示している。すなわち、ペッ
トロボット1は、起動後の所定時間、日時や季節に対応
するコンテンツを含む大きめのコンテンツが連続的に発
現されるWake Upモードとされ、その後の所定時間、自
律的に大きめのコンテンツを発現するVividモードとさ
れるようになされている。その後、所定時間ずつ、小さ
めのコンテンツが発現される第1乃至第3のBreakモー
ドとされるようになされている。この後、第1乃至第3
のBreakモード、およびVividモードが図示したように周
期的に繰り返されるようになされている。本発明は、例
えば、エンターテイメント用のペットロボットに適用す
ることができる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ロボット装置およ
びロボット制御方法、記録媒体、並びにプログラムに関
し、例えば、発現するコンテンツの選択や発現頻度を自
律的に決定するようにしたロボット装置およびロボット
制御方法、記録媒体、並びにプログラムに関する。
【0002】
【従来の技術】近年、例えば、周囲の環境や自らの内部
状態に応じて自律的に各種の行動を実行するエンターテ
イメント用のペットロボットが実現されている。
【0003】ペットロボットは、上述した自律的に行動
する機能の他、ユーザの発声を音声認識し、その認識結
果に対応して行動する機能を有しているものがある。
【0004】
【発明が解決しようとする課題】ところで、ペットロボ
ットが自律的に行動しているときには、自律行動を決定
するためや動作制御のためにリソースが多く用いられた
り、関節などに設けられるアクチュエータの動作音など
が雑音となったりすることに起因して、音声の認識率が
低下してしまい、ユーザの発声に対応して速やかに動作
させることができない。
【0005】そこで、自律的に行動する機能と音声認識
機能とを有する従来のペットロボットは、自律的に行動
する機能を優先させて音声認識の認識率の低下を許容す
るか(すなわち、自律的に行動する機能を優先させた性
格)、または自律的に行動する機能を抑制して音声認識
の認識率を向上させるか(すなわち、音声認識を優先さ
せた性格)のいずれかに性格付けられている。
【0006】ユーザは、自律的に行動する機能を優先さ
せた性格のペットロボットに対し、「言うことを聞かな
いで動き回っているので疎ましい」と感じてしまうこと
がある。また、音声認識を優先させた性格のペットロボ
ットに対し、「あまり動かないのでおもしろくない」と
感じてしまうことがある。
【0007】そこで、自律的に行動する機能を優先させ
た状態と、音声認識を優先させた状態とを適宜遷移する
ペットロボットの存在が望まれるが、従来そのようなペ
ットロボットは存在していない課題があった。
【0008】また、自律的に行動する機能を有する従来
のペットロボットは、起動直後の期間は自律的な行動が
乏しく、その後、徐々に自律的な行動が盛んとなる(動
作の大きくなる、頻度が高くなる等)ので、起動後の自
律的な行動が乏しい期間に、ペットロボットに対するユ
ーザの興味が減衰してしまう課題があった。
【0009】本発明はこのような状況に鑑みてなされた
ものであり、起動直後に自律的な行動を活発に実行する
ことができるペットロボットを実現することを目的とす
る。
【0010】
【課題を解決するための手段】本発明のロボット装置
は、予め設定されている複数のコンテンツの中から1つ
のコンテンツを選択する選択手段と、選択手段によって
選択されたコンテンツを発現する発現手段とを含み、選
択手段は、起動後の所定の期間において大きめのコンテ
ンツを選択し、発現手段は、選択手段によって選択され
たコンテンツを、起動後の所定の期間において高い頻度
で発現することを特徴とする。
【0011】前記選択手段は、季節、日付、および時刻
のうち、少なくとも1つに対応するコンテンツを選択す
るようにすることができる。
【0012】前記選択手段は、前回の終了時から今回の
起動時までの期間、設定される感情および欲求のうちの
少なくとの1つに対応して、コンテンツを選択するよう
にすることができる。
【0013】前記発現手段は、前回の終了時から今回の
起動時までの期間、設定される感情および欲求のうちの
少なくとの1つに対応して、コンテンツの発現頻度を調
整するようにすることができる。
【0014】本発明のロボット装置は、ユーザの発声を
認識する音声認識手段と、ユーザの接触を検知する検知
手段とをさらに含むことができる。
【0015】前記選択手段は、音声認識手段による音声
認識の頻度、および検知手段によるユーザの接触の頻度
の少なくとも一方に対応して、コンテンツを選択するよ
うにすることができる。
【0016】前記発現手段は、音声認識手段によって音
声認識がなされたこと、および検知手段によってユーザ
の接触が検知されたことをユーザに通知する通知手段を
含むようにすることができる。
【0017】前記音声認識手段は音階も認識するように
することができる。
【0018】前記選択手段は、音声認識手段によって所
定の音階が認識された場合、所定のコンテンツを選択す
るようにすることができる。
【0019】本発明のロボット装置は、音声認識手段に
よって所定の音階が認識された場合、発現可能なコンテ
ンツを追加する追加手段をさらに含むことができる。
【0020】本発明のロボット装置は、音声認識手段に
よって所定の音階が認識された場合、認識された音階に
対応する応答としての音階を出力する出力手段をさらに
含むことができる。
【0021】本発明のロボット装置は、画像信号を取得
する取得手段と、取得手段によって取得された画像信号
に基づいて動体を検知する検知手段と、検知手段の検知
結果に対応して、取得手段によって取得された画像信号
を保存する保存手段とをさらに含むことができる。
【0022】本発明のロボット制御方法は、予め設定さ
れている複数のコンテンツの中から1つのコンテンツを
選択する選択ステップと、選択ステップの処理で選択さ
れたコンテンツを発現する発現ステップとを含み、選択
ステップの処理は、起動後の所定の期間において大きめ
のコンテンツを選択し、発現ステップの処理は、選択ス
テップの処理で選択されたコンテンツを、起動後の所定
の期間において高い頻度で発現することを特徴とする。
【0023】本発明の記録媒体のプログラムは、予め設
定されている複数のコンテンツの中から1つのコンテン
ツを選択する選択ステップと、選択ステップの処理で選
択されたコンテンツを発現する発現ステップとを含み、
選択ステップの処理は、起動後の所定の期間において大
きめのコンテンツを選択し、発現ステップの処理は、選
択ステップの処理で選択されたコンテンツを、起動後の
所定の期間において高い頻度で発現することを特徴とす
る。
【0024】本発明のプログラムは、予め設定されてい
る複数のコンテンツの中から1つのコンテンツを選択す
る選択ステップと、選択ステップの処理で選択されたコ
ンテンツを発現する発現ステップとをコンピュータに実
行させ、選択ステップの処理は、起動後の所定の期間に
おいて大きめのコンテンツを選択し、発現ステップの処
理は、選択ステップの処理で選択されたコンテンツを、
起動後の所定の期間において高い頻度で発現することを
特徴とする。
【0025】本発明のロボット装置、ロボット制御方
法、並びにプログラムにおいては、予め設定されている
複数のコンテンツの中から1つのコンテンツが選択さ
れ、選択されたコンテンツが発現される。選択の処理
は、起動後の所定の期間において大きめのコンテンツが
選択し、発現の処理は、選択されたコンテンツが、起動
後の所定の期間において高い頻度で発現される。
【0026】
【発明の実施の形態】図1は、本発明を適用したペット
ロボット1の外観構成の例を示す斜視図である。
【0027】例えば、ペットロボット1は、4本足の小
熊形状のものとされており、胴体部ユニット2の前後左
右に、それぞれ脚部ユニット3A,3B,3C,3Dが
連結されるとともに、胴体部ユニット2の前端部と後端
部に、それぞれ頭部ユニット4と尻尾部ユニット5が連
結されている。
【0028】図2は、図1のペットロボット1の内部構
成の例を示すブロック図である。胴体部ユニット2に
は、ペットロボット1の全体を制御するコントローラ1
0、ペットロボット1の各部に電力を供給するバッテリ
11、並びにバッテリセンサ12、および熱センサ13
からなる内部センサ14などが格納されている。このコ
ントローラ10には、基本的に、CPU(Central Processi
ng Unit)10A、CPU10Aが各部を制御するためのプ
ログラムが記憶されているメモリ10B、および現在の
日時、起動後の経過時間等を示す時計10Cが設けられ
ている。
【0029】図2に示すように、頭部ユニット4には、
外部からの刺激を感知するセンサとして、音を感知する
「耳のような聴覚器官」に相当するマイクロフォン1
5、CCD(Charge Coupled Device)やCMOS(Complementary
Metal Oxide Semiconductor)イメージセンサなどから
構成され、外部の画像信号を取得する「目のような視覚
器官」に相当するカメラ16、およびユーザが接触する
ことによる圧力等を感知する「肌等のような触覚器官」
に相当するタッチセンサ17が、それぞれ所定の位置に
設けられている。また、頭部ユニット4には、対象物ま
での距離を測定する位置検出センサ18、および所定の
音階を出力するペットロボット1の「口のような発声器
官」に相当するスピーカ19が所定の位置に設置されて
いる。
【0030】脚部ユニット3A乃至3Dのそれぞれの関
節部分、脚部ユニット3A乃至3Dのそれぞれと胴体部
ユニット2の連結部分、頭部ユニット4と胴体部ユニッ
ト2の連結部分、並びに尻尾部ユニット5と胴体部ユニ
ット2の連結部分などには、アクチュエータが設置され
ている。アクチュエータは、コントローラ10から指示
に基づいて各部を動作させる。
【0031】図2の例においては、脚部ユニット3Aに
は、アクチュエータ3AA1乃至3AAKが設けられ、脚
部ユニット3Bには、アクチュエータ3BA1乃至3B
Kが設けられている。また、脚部ユニット3Cには、
アクチュエータ3CA1乃至3CAKが設けられ、脚部ユ
ニット3Dには、アクチュエータ3DA1乃至3DA K
設けられている。さらに、頭部ユニット4には、アクチ
ュエータ4A1乃至4ALが設けられており、尻尾部ユニ
ット5には、アクチュエータ5A1および5A 2がそれぞ
れ設けられている。
【0032】以下、脚部ユニット3A乃至3Dに設けら
れているアクチュエータ3AA1乃至3DAK、頭部ユニ
ット4に設けられているアクチュエータ4A1乃至4
L、および尻尾部ユニット5に設けられているアクチ
ュエータ5A1および5A2のそれぞれを個々に区別する
必要がない場合、適宜、まとめて、アクチュエータ3A
1乃至5A2と称する。
【0033】さらに、脚部ユニット3A乃至3Dには、
アクチュエータの他にスイッチ3AB乃至3DBが、ペ
ットロボット1の足の裏に相当する場所に設置されてい
る。そして、ペットロボット1が歩行したとき、スイッ
チ3AB乃至3DBが押下され、それを表わす信号がコ
ントローラ10に入力されるようになされている。
【0034】頭部ユニット4に設置されるマイクロフォ
ン15は、ユーザの発話を含む周囲の音声(音)を集音
し、得られた音声信号をコントローラ10に出力する。
カメラ16は、周囲の状況を撮像し、得られた画像信号
を、コントローラ10に出力する。タッチセンサ17
は、例えば、頭部ユニット4の上部に設けられており、
ユーザからの「撫でる」や「叩く」といった物理的な働
きかけにより受けた圧力を検出し、その検出結果を圧力
検出信号としてコントローラ10に出力する。位置検出
センサ18は、例えば、赤外線を出射し、その反射光を
受光したタイミングについての検出結果をコントローラ
10に出力する。
【0035】コントローラ10は、マイクロフォン1
5、カメラ16、タッチセンサ17、および位置検出セ
ンサ18から与えられる音声信号、画像信号、圧力検出
信号等に基づいて、周囲の状況や、ユーザからの指令、
ユーザからの働きかけなどの有無を判断し、その判断結
果に基づいて、ペットロボット1が次に実行する動作を
決定する。そして、コントローラ10は、その決定に基
づいて、必要なアクチュエータを駆動させ、これによ
り、頭部ユニット4を上下左右に振らせたり、尻尾部ユ
ニット5を動かせたり、脚部ユニット3A乃至3Dのそ
れぞれを駆動して、ペットロボット1を歩行させるなど
の動作を実行させる。このようなペットロボット1の全
体的な一連の動作を、以下、コンテンツとも記述する。
【0036】その他にも、コントローラ10は、ペット
ロボット1の頭部ユニット4などに設けられた、図示し
ないLEDを点灯、消灯または点滅させるなどの処理を行
う。
【0037】図3は、図2のコントローラ10の機能的
構成例を示すブロック図である。なお、図3に示す各機
能は、CPU10Aがメモリ10Bに記憶されている制御
プログラムを実行されることによって実現される。
【0038】コントローラ10は、基本的に、外部から
の刺激を検知するセンサ(マイクロフォン15乃至位置
検出センサ18、およびスイッチ3AB乃至3DB)か
らの各種信号を検出するセンサ入力処理部31と、セン
サ入力処理部31により検出された情報等に基づいて、
ペットロボット1を動作させる情報処理部32から構成
されている。
【0039】センサ入力処理部31を構成する角度検出
部41は、アクチュエータ3AA1乃至5A2のそれぞれ
に設けられるモータが駆動されたとき、アクチュエータ
3AA1乃至5A2のそれぞれから通知される情報に基づ
いて、その角度を検出する。角度検出部41により検出
された角度情報は、情報処理部32の行動管理部62、
および音データ生成部66に出力される。
【0040】音量検出部42は、マイクロフォン15か
ら供給される信号に基づいて、その音量を検出し、検出
した音量情報を行動管理部62、および音データ生成部
66に出力する。
【0041】音声認識部43は、マイクロフォン15か
ら供給される音声信号について音声認識を行う。例え
ば、音声認識部43は、その音声認識結果としての、例
えば、「お話ししよう」、「歩け」、「伏せ」、「ボー
ルを追いかけろ」等の指令その他を、音声認識情報とし
て、本能・感情管理部61、行動管理部62、および音
データ生成部66に通知する。
【0042】画像認識部44は、カメラ16から供給さ
れる画像信号を用いて、画像認識を行う。例えば、画像
認識部44は、その処理の結果、例えば、「赤い丸いも
の」や、「地面に対して垂直な、かつ、所定の高さ以上
の平面」等を検出したときには、「ボールがある」や、
「壁がある」等の画像認識結果を画像認識情報として、
本能・感情管理部61、行動管理部62、および音デー
タ生成部66に通知する。
【0043】圧力検出部45は、タッチセンサ17から
与えられる圧力検出信号を処理する。例えば、圧力検出
部45は、その処理の結果、所定の閾値以上で、かつ、
短時間の圧力を検出したときには、「叩かれた(しから
れた)」と認識し、所定の閾値未満で、かつ、長時間の
圧力を検出したときには、「なでられた(ほめられ
た)」と認識して、その認識結果を、状態認識情報とし
て、本能・感情管理部61、行動管理部62、および音
データ生成部66に通知する。
【0044】位置検出部46は、位置検出センサ18か
ら供給される信号に基づいて、所定の対象物までの距離
を測定し、その距離情報を行動管理部62、および音デ
ータ生成部66に通知する。例えば、位置検出部46
は、目の前にユーザの手などが差し出されたとき、その
手までの距離や、画像認識部44により認識されたボー
ルまでの距離を検出する。
【0045】スイッチ入力検出部47は、ペットロボッ
ト1の足の裏に相当する部分に設けられているスイッチ
3AB乃至3DBから供給される信号に基づき、例え
ば、ペットロボット1が歩行している状態において、そ
の歩行タイミングや、ユーザにより足の裏が触られたこ
とを本能・感情管理部61、および行動管理部62に通
知する。
【0046】一方、情報処理部32を構成する本能・感
情管理部61は、ペットロボット1の本能、および感情
を管理し、所定のタイミングで、ペットロボット1の本
能を表わすパラメータや、感情を表わすパラメータを行
動管理部62、および音データ生成部66に出力する。
【0047】ペットロボット1の本能を表わすパラメー
タや、感情を表わすパラメータ本能について、図4を参
照して説明する。図4に示すように、本能・感情管理部
61は、ペットロボット1の感情を表現する感情モデル
81と、本能を表現する本能モデル82を記憶し、管理
している。
【0048】感情モデル81は、例えば、「うれし
さ」、「悲しさ」、「怒り」、「驚き」、「恐れ」、
「嫌悪」等の感情の状態(度合い)を、所定の範囲(例
えば、0乃至100等)の感情パラメータによってそれ
ぞれ表し、音声認識部43、画像認識部44、および圧
力検出部45からの出力や時間経過等に基づいて、その
値を変化させる。
【0049】この例においては、感情モデル81は、
「うれしさ」を表わす感情ユニット81A、「悲しさ」
を表わす感情ユニット81B、「怒り」を表わす感情ユ
ニット81C、「驚き」を表わす感情ユニット81D、
「恐れ」を表わす感情ユニット81E、および、「嫌
悪」を表わす感情ユニット81Fから構成されている。
【0050】本能モデル82は、例えば、「食欲」、
「睡眠欲」、「運動欲」等の本能による欲求の状態(度
合い)を、所定の範囲の本能パラメータによってそれぞ
れ表し、音声認識部43、画像認識部44、および圧力
検出部45等からの出力や時間経過等に基づいて、その
値を変化させる。また、本能モデル82は、行動履歴に
基づいて「運動欲」を表わすパラメータを高めたり、或
いは、バッテリ11の残量(電圧)に基づいて「食欲」
を表わすパラメータを高めたりする。
【0051】この例においては、本能モデル82は、
「運動欲」を表わす本能ユニット82A、「愛情欲」を
表わす本能ユニット82B、「食欲」を表わす本能ユニ
ット82C、「好奇心」を表わす本能ユニット82D、
および「睡眠欲」を表わす本能ユニット82Eから構成
されている。
【0052】本能・感情管理部61は、このような感情
ユニット81A乃至81Fと本能ユニット82A乃至8
2Eのパラメータを変化させることにより、ペットロボ
ット1の感情と本能の状態を表現し、その変化をモデル
化している。
【0053】また、感情ユニット81A乃至81Fと本
能ユニット82A乃至82Eのパラメータは、外部から
の入力だけでなく、図の矢印で示すように、それぞれの
ユニット同士が相互に影響しあうことによっても変化さ
れる。
【0054】例えば、「うれしさ」を表現する感情ユニ
ット81Aと「悲しさ」を表現する感情ユニット81B
が相互抑制的に結合することにより、本能・感情管理部
61は、ユーザにほめてもらったときには「うれしさ」
を表現する感情ユニット81Aのパラメータを大きくす
るとともに、「悲しさ」を表現する感情ユニット81B
のパラメータを小さくするなどして、表現する感情を変
化させる。
【0055】また、感情モデル81を構成する各ユニッ
ト同士、および本能モデル82を構成する各ユニット同
士だけでなく、双方のモデルを超えて、それぞれのユニ
ットのパラメータが変化される。
【0056】例えば、図に示すように、本能モデル82
の「愛情欲」を表わす本能ユニット82Bや、「食欲」
を表わす本能ユニット82Cのパラメータの変化に応じ
て、感情モデル81の「悲しさ」を表現する感情ユニッ
ト81Bや「怒り」を表現する感情ユニット81Cのパ
ラメータが変化される。
【0057】具体的には、「食欲」を表わす本能ユニッ
ト82Cのパラメータが大きくなったとき、感情モデル
81の「悲しさ」を表現する感情ユニット81Bや、
「怒り」を表現する感情ユニット81Cのパラメータが
大きくなる。
【0058】このようにして本能・感情管理部61によ
り管理される感情のパラメータ、または本能のパラメー
タは、後述するように、例えば、所定の周期で計測さ
れ、行動管理部62、および音データ生成部66に出力
される。
【0059】なお、より詳細には、感情モデル81や本
能モデル82だけでなく、成長モデルが本能・感情管理
部61に用意され、その成長段階によって、感情モデル
81や本能モデル82の各ユニットのパラメータが変化
される。この成長モデルは、例えば、「幼年期」、「青
年期」、「熟年期」、「老年期」等の成長の状態(度合
い)を、所定の範囲の値によってそれぞれ表し、音声認
識部43、画像認識部44、および圧力検出部45等か
らの出力や時間経過等に基づいて、その値を変化させ
る。
【0060】なお、本能・感情管理部61には、音声認
識部43、画像認識部44、および圧力検出部45等か
ら認識情報が供給される他に、行動管理部62から、ペ
ットロボット1の現在、または過去の行動、具体的に
は、例えば、「長時間歩いた」などの行動の内容を示す
行動情報が供給されるようになされている。そして、本
能・感情管理部61は、同一の認識情報等が与えられた
場合であっても、行動情報により示されるペットロボッ
ト1の行動に応じて、異なる内部情報を生成する。
【0061】例えば、ペットロボット1がユーザに挨拶
をし、ユーザに頭を撫でられた場合には、ユーザに挨拶
をしたという行動情報と、頭を撫でられたという認識情
報が本能・感情管理部61に供給される。このとき、本
能・感情管理部61においては、「うれしさ」を表す感
情ユニット81Aの値が増加される。
【0062】図3の説明に戻る。行動管理部62は、音
声認識部43、および画像認識部44等から供給されて
きた情報と、本能・感情管理部61から供給されてきた
パラメータ、および時間経過等に基づいて次の行動を決
定し、決定した行動の実行を指示するコマンドを姿勢遷
移管理部63に出力する。また、行動管理部62は、ペ
ットロボット1に発話をさせるとき、あるいは所定の動
作に対応する音をスピーカ19から出力させるとき、音
の出力を指示するコマンドを音声合成部65に出力す
る。
【0063】次に、ペットロボット1の第1乃至第8の
特徴的行動について説明する。
【0064】第1の特徴的行動として、ペットロボット
1は、日付(季節)に対応するコンテンツを実行するよ
うになされている。
【0065】図5は、ペットロボット1のモード遷移を
示している。すなわち、ペットロボット1は、起動後に
Wake Up(お目覚め)モードに遷移し、そのときの運動
欲82A(Exe)82Aの値に応じてVivid(動き回る)モ
ード、またはBreak(休憩)モード、あるいは、前回の
終了時から所定の期間(例えば、5日間)以上経過して
いる場合、Love(愛情)モードに遷移するようになされ
ている。
【0066】Vividモードは、自律的な行動が音声認識
機能よりも優先される状態であり、ペットロボット1
は、活発に自律的なコンテンツを実行する。Vividモー
ドにおいて、所定の音声(「お話ししよう」、「うるさ
い」、「静かに」、「音で遊ぼう」等)が認識された場
合、Talk A(おはなし)モードに遷移するようになされ
ている。また、Vividモードにおいてペットロボット1
が疲労した場合(運動欲82Aまたは愛情欲82Bが低
下した場合)、Breakモードに遷移するようになされて
いる。
【0067】Talk A(おはなし)モードにおいては、自
律的な行動よりも音声認識機能が優先される。Breakモ
ードにおいては、比較的動きが小さいコンテンツが実行
される。
【0068】図6は、Wake Upモードの詳細を示してい
る。ペットロボット1は、電源投入後、プレリュード再
生、誕生芸再生の後、第1の特徴である季節のイベント
のコンテンツを再生する。このように連続的にコンテン
ツを発現させることにより、ペットロボット1の元気な
感じを演出する。この後、「お辞儀」のコンテンツ、
「きょろきょろと周囲を見回す」コンテンツを再生した
後、わくわくコースのコンテンツ、またはお願いコース
のコンテンツを実行するようになされている。
【0069】図7は、季節イベントに対応するコンテン
ツの例を示している。例えば、起動日が1月1日乃至1
月7日である場合、お正月に適した、「餅つき」、「た
こ揚げ」等のイベントのコンテンツが実行される。また
例えば、起動日が7月21日乃至8月31日である場
合、夏休みに適した、「スイカ割り」、「盆おどり」等
のイベントのコンテンツが実行される。図7に示した対
応表は、例えばメモリ10Bに記憶されている。なお、
日付(季節)に対応するコンテンツだけでなく、時刻に
対応してコンテンツを用意するようにしてもよい。
【0070】図8は、ペットロボット1の第1の特徴で
ある、日付(季節)に対応して異なるコンテンツを実行
する処理、すなわち、日付/季節対応処理を説明するフ
ローチャートである。
【0071】ステップS1において、コントローラ10
は、現在が、起動時、動作開始時、またはコンテンツ発
現時であるか否かを判定し、いずれかであると判定する
まで待機する。現在が、起動時、動作開始時、またはコ
ンテンツ発現時であると判定された場合、処理はステッ
プS2に進む。ステップS2において、コントローラ1
0は、内蔵する時計10Cを参照し、現在の日時を取得
する。ステップS3において、コントローラ10は、図
7に示したような対応表を参照することにより、ステッ
プS2で取得した日時に対応するコンテンツを選択す
る。ステップS4において、コントローラ10は、ステ
ップS4で選択したコンテンツを発現させる。以上、日
付/季節対応処理の説明を終了する。
【0072】第2の特徴的行動として、ペットロボット
1は、自律行動を優先しながらも所定の単語だけは認識
できるように音声認識機能を抑制した状態(図5のVivi
dモード)と、自律行動よりも音声認識機能の精度(認
識率)向上を優先した状態(図5のTalk Aモード)とを
併せ持ち、所定の条件に従って2つの状態を遷移するよ
うになされている。なお、ペットロボット1は、自律行
動を優先する状態であるのか、音声認識機能を優先する
状態であるのかをユーザに通知するために、頭部ユニッ
ト4などに設けられたLEDを点灯、消灯または点滅させ
るなどするようになされている。
【0073】図9は、自律行動を優先した状態と、音声
認識機能を優先した状態とを遷移させる条件を示してい
る。
【0074】自律行動を優先した状態においては、歩行
の他、大きめ(全身を用いる、高速で動く、大きな音量
を発する、多くの色を発色させる)のコンテンツが発現
される。また、それらコンテンツの発現頻度が高められ
る。
【0075】自律行動を優先した状態において、誤認識
され難い所定の単語(「お話ししよう」等)が音声認識
の結果として得られた場合、音声認識機能を優先した状
態に遷移するようになされている。なお、所定の音声が
認識された場合だけでなく、例えば所定のセンサが所定
の信号を検知した場合においても、自律行動を優先した
状態から音声認識機能を優先した状態に遷移するように
してもよい。
【0076】音声認識機能を優先した状態に遷移した場
合、音声認識機能を優先した状態であることを示すため
に、所定のLEDが発光される。あるいは、音声認識機能
を優先した状態であることを示すために、ペットロボッ
ト1が所定の姿勢(例えば、端座した姿勢)となるよう
にしてもよい。
【0077】音声認識機能を優先した状態においては、
自律的な行動が抑制されて、例えば首をきょろきょろす
る、うつむくなどの小さめの(全身の一部だけを用い
る、低速で動く、無音あるいは小音を発する、単色で発
色させる)のコンテンツが発現される。また、それらコ
ンテンツの発現頻度が低められる。
【0078】音声認識機能を優先した状態において、ユ
ーザから動作を指令する発声を認識した場合、それに対
応するコンテンツを実行するようになされている。
【0079】音声認識機能を優先した状態において、ユ
ーザとのコミュニケーション(ユーザからの発声、接触
等)のない状態が所定の時間(例えば、300秒間)経
過した場合、自律行動を優先した状態に戻るようになさ
れている。
【0080】第3の特徴的行動として、ペットロボット
1は、例えば所定のテレビジョン番組で放送される所定
の音階を認識した場合、所定のコンテンツを実行するよ
うになされている。また、ペットロボット1は、所定の
音階を認識した場合、動作可能なコンテンツが追加され
るようになされている。
【0081】図10は、テレビジョン番組等で放送され
る所定の音階と、それに対応して実行されるコンテンツ
を示している。例えば、音階(サウンド6)が放送さ
れ、その音階をペットロボット1が認識した場合、「気
軽な挨拶」を示すコンテンツが実行されるようになされ
ている。また例えば、音階(サウンド23)が放送さ
れ、その音階をペットロボット1が認識した場合、「ダ
ンス」のコンテンツが実行されるようになされている。
【0082】図11は、テレビジョン番組等で放送され
る所定の音階と、それに対応して動作可能なコンテンツ
に追加されるコンテンツを示している。例えば、音階
(サウンド12または13)が放送され、その音階をペ
ットロボット1が認識した場合、以後、「重量挙げ」を
示すコンテンツが実行可能とされるようになされてい
る。また例えば、音階(サウンド26乃至28)が放送
され、その音階をペットロボット1が認識した場合、以
後、「体操(身体をひねる)」を示すコンテンツが実行
可能とされるようになされている。
【0083】なお、自律行動を優先した状態(Vividモ
ード)において、ユーザの発声「メディアモーションチ
ェック」が認識された場合、テレビジョン番組等で放送
される所定の音階に対応して動作可能とされたコンテン
ツが連続的に再生されるようになされている。
【0084】第4の特徴的行動として、ペットロボット
1は、各起動時においてコンテンツの発現率が最も高
く、その後、周期的にコンテンツの発現率が変化するよ
うになされている。また、ペットロボット1は、今回の
起動時が前回の終了時から所定の期間(例えば5日間)
以上経過している場合、通常のようにWake Upモードに
は推移せず、一旦、ユーザに対して甘えるようなコンテ
ンツを発現するLoveモードに推移した後、Wake Upモー
ドに推移するようになされている。さらに、ペットロボ
ット1は、ユーザから構われる頻度が高い場合、Loveモ
ードに遷移するようになされている。
【0085】図12は、ペットロボット1に対するユー
ザの関心度の変化を推定したものである。同図において
横軸は時間の経過、縦軸はユーザに関心の高さを示して
いる。また、波線は従来のロボットに対するユーザの関
心の変化を示しており、実線が目標とするペットロボッ
ト1に対するユーザの関心の変化を示している。
【0086】従来のロボットの場合、起動後の動作が乏
しいので、ユーザの関心は急速に低下してしまい、その
まま電源をオフしてしまうことが多い。そこで、ペット
ロボット1の場合には、起動後の動作を活発にしてユー
ザの関心を引き、その後、周期的に動作させることによ
ってユーザの関心を適度に引くようにして、ペットロボ
ット1の起動されている時間が継続されるようにする。
【0087】図13は、図12に示した理想的なユーザ
の関心度の変化を実現するための、ペットロボット1に
よるコンテンツの理想的な動作イメージを示している。
同図において横軸は時間の経過、縦軸はコンテンツの大
きさを示している。すなわち、コンテンツの大きさは、
図12に示した理想的なユーザの関心度の変化に対応し
て変化させるようにする。
【0088】ここで、コンテンツの大きさとは、動作速
度(単位時間に移動する角度量)、同時に動かすアクチ
ュエータの数(アクチュエータの総数に対する動作する
アクチュエータの数)、動作角度(一回の動作で移動す
る角度量)、姿勢(歩行姿勢、立ち姿勢、座り姿勢、伏
せ姿勢、仰向け姿勢等)、音量(一回の動作に対応して
出力する音量、音の長さ)、発光量(一回の動作に対応
して発光するLEDの数、色の種類)、視線方向(上向
き、下向き)、動作時間(一回の動作に要する時間)、
および発現率(単位時間当たりに発現するコンテンツの
数)によって定められる。
【0089】図14は、図12に示した理想的なユーザ
の関心度の変化を実現するための、ペットロボット1に
よるコンテンツの実際の動作イメージを示している。す
なわち、ペットロボット1は、起動後の所定時間(例え
ば5分間)、日時や季節に対応するコンテンツを含む大
きめのコンテンツが連続的に発現されるWake Upモード
とされ、その後の所定時間(例えば4分間)、自律的に
大きめのコンテンツを発現するVividモードとされるよ
うになされている。その後、所定時間ずつ(例えば3分
間、1分間、4分間ずつ)、小さめのコンテンツが発現
される第1乃至第3のBreakモードとされるようになさ
れている。この後、第1乃至第3のBreakモード、およ
びVividモードが図示したように周期的に繰り返される
ようになされている。
【0090】なお、第1乃至第3のBreakモードは、5
段階に分けられるBreakモード(第1乃至第5のBreakモ
ード)の一部であり、第1乃至第5のBreakモードの中
では、第1のBreakモードが最も大きくコンテンツを発
現し、第5のBreakモードが最も小さくコンテンツを発
現する。第1のBreakモードでは、のんびり系中心のコ
ンテンツ(PERFORMANCE、SLEEPY、BABY_SLEEP等)が定
義されている。第2のBreakモードでは、暇芸系中心の
コンテンツ(PERFORMANCE等)が定義されている。第3
のBreakモードでは、大技、アピール系中心のコンテン
ツ(PERFORMANCE、SING_A_SONG、DANCE、EXERCISE、CAL
L_OWNER等)が定義されている。第4のBreakモードで
は、断り系中心のコンテンツ(EMOTIONAL PERFORMANC
E、ANGRY等)が定義されている。第5のBreakモードで
は、アピール系中心のコンテンツ(PERFORMANCE、SING_
A_SONG、DANCE、CALL_OWNER等)が定義されている。
【0091】図15は、ユーザから構われる頻度が高い
場合におけて、ペットロボット1がLoveモードに遷移す
るイメージを示している。
【0092】第5の特徴的行動として、ペットロボット
1は、ユーザによる接触を検知したり、ユーザの発声を
認識したりした場合、それをユーザに通知するために、
音階の出力あるいはLEDを発光等させた後、所定の動作
を実行するようになされている。
【0093】図16は、ペットロボット1による第5の
特徴であるインタラクティブなコンテンツ発現処理を説
明するフローチャートである。コントローラ10は、ス
テップS11において、ユーザが所定のセンサに接触し
たか否かを判定し、ステップS12において、ユーザの
発声を音声認識したか否かを判定し、ユーザが所定のセ
ンサに接触した、またはユーザの発声を音声認識したと
判定するまで待機する。ユーザが所定のセンサに接触し
た、またはユーザの発声を音声認識したと判定された場
合、処理はステップS13に進む。
【0094】ステップS13において、コントローラ1
0は、予め用意されている対応表を参照することによ
り、ユーザの接触を検知したセンサ、または音声認識し
た台詞に対するコンテンツを選択する。
【0095】ステップS14において、コントローラ1
0は、選択したコンテンツに対応して、所定の発声(音
階)の出力およびLEDの発光のうちの少なくとも一方を
実行させる。ステップS15において、コントローラ1
4は、所定のアクチュエータを制御して、選択したコン
テンツに対応する動作を実行させる。以上、インタラク
ティブなコンテンツ発現処理の説明を終了する。
【0096】第6の特徴的行動として、ペットロボット
1は、自律的に行動するVividモードにおいて、例え
ば、きょろきょろと首を振って周囲を見まわすような動
作、思考のために立ち止まるように動作などをすること
により、意志を表現するようになされている。また、ペ
ットロボット1は、自律的に行動する状態の留守番モー
ドにおいて、カメラ16からの画像信号の映像に動きの
ある物体を検出した場合、その画像信号を記憶する(写
真を撮る)ようになされている。
【0097】図17は、Vividモードにおいて自律的行
動と、カメラからの画像のような定常的に入力される情
報に対する反応(例えば、動体トラッキング)を両立す
る処理を説明するフローチャートである。この処理は、
Vividモードに遷移した時に開始され、他のモードに遷
移したときに終了される。
【0098】ステップS21において、コントローラ1
0は、自己の内部に設けた自律的行動の経過時間を計測
する自律的行動用タイマを0にリセットする。ステップ
S22において、コントローラ10は、所定のアクチュ
エータを制御して、現在の動作を静止させ、きょろきょ
ろと首を振るコンテンツを発現させる。このように静止
してきょろきょろと首を振る仕草のコンテンツを発現さ
せることにより、ペットロボット1が思考している状態
や周囲の環境を探知しているような表現が可能となる。
【0099】ステップS23において、コントローラ1
0は、自律的行動用タイマが予め決定されている所定の
時間だけ経過したか否かを判定する。自律的行動用タイ
マが予め決定されている所定の時間だけ経過していない
と判定された場合、処理はステップS24に進む。ステ
ップS24において、コントローラ10は、自律的に行
動するように各部を制御する。これに伴い、コントロー
ラ10は、自己の内部に設けた自律的行動フラグをオン
に設定する。処理はステップS21に戻り、それ以降の
処理が繰り返される。その後、ステップS23におい
て、自律的行動用タイマが予め決定されている所定の時
間だけ経過していると判定された場合、処理はステップ
S25に進む。
【0100】ステップS25において、コントローラ1
0は、カメラ16からの画像内に動きのある物体(以
下、動体と記述する)を検出したか否かを判定する。動
体を検出したと判定された場合、処理はステップS26
に進む。ステップS26において、コントローラ10
は、自律的行動フラグがオンであるか否かを判定する。
自律的行動フラグがオンであると判定された場合、処理
はステップS27に進む。
【0101】ステップS27において、コントローラ1
0は、自己の内部に設けた動体トラッキングの経過時間
を計測する動体トラッキング用タイマを0にリセットす
る。ステップS28において、コントローラ10は、動
体トラッキングを開始させる。すなわち、動体の動きに
追従して首を動かすように、頭部ユニット4の制御を開
始させる。ステップS29において、コントローラ10
は、自律的行動フラグをオフに設定する。
【0102】ステップS30において、コントローラ1
0は、動体を見失ったか否かを判定する。動体を見失っ
ていないと判定された場合、処理はステップS31に進
む。ステップS31において、コントローラ10は、動
体トラッキング用タイマが予め決定されている所定の時
間だけ経過したか否かを判定する。動体トラッキング用
タイマが予め決定されている所定の時間だけ経過してい
ないと判定された場合、処理はステップS30に戻る。
【0103】ステップS30において、動体を見失った
と判定された場合、またはステップS31において、動
体トラッキング用タイマが予め決定されている所定の時
間だけ経過したと判定された場合、処理はステップS3
2に進む。ステップS32において、コントローラ10
は、動体トラッキングを停止させる。処理はステップS
22に戻り、それ以降の処理が繰り返される。
【0104】なお、ステップS25において、動体を検
出したと判定された場合、およびステップS26におい
て、自律的行動フラグがオンではないと判定された場合
も、処理はステップS22に戻り、以降の処理が繰り返
される。
【0105】以上説明したような処理により、Vividモ
ードにおいて、ペットロボット1の内的な要因(本能値
等)と外的な要因(動体検出等)に起因する行動が複合
され、より表現応力が高いペットロボット1を実現する
ことが可能となる。
【0106】図18は、Vividモードにおける自律的探
索行動制御処理を説明するフローチャートである。ステ
ップS41において、コントローラ10は、各部を制御
して歩行動作を開始させる。ステップS42において、
コントローラ10は、障害物等を検知したか否かを判定
する。障害物等を検知したと判定された場合、処理はス
テップS43に進む。ステップS43において、コント
ローラ10は、各部を制御して、方向変換によって障害
物等を回避させる。
【0107】ステップS44において、コントローラ1
0は、ステップS41の歩行開始から所定の距離(また
は時間)だけ歩行したか否かを判定する。所定の距離
(または時間)だけ歩行したと判定されない場合、処理
はステップS42に戻り、それ以降の処理が実行され
る。その後、ステップS44において、所定の距離(ま
たは時間)だけ歩行したと判定された場合、処理はステ
ップS45に進む。ステップS45において、コントロ
ーラ10は、各部を制御して歩行を停止させる。ステッ
プS46において、コントローラ10は、本能値(運動
欲82A等)に対応し、ペットロボット1の意思を表現
するコンテンツ(きょろきょろと首振り、暇芸、旋回、
写真撮影等)を選択して実行させる。
【0108】なお、ステップS42において、障害物等
を検知していないと判定された場合、ステップS43は
スキップされる。
【0109】以上説明したように、Vividモードにおけ
る自律的探索行動制御処理によれば、歩行動作を基本と
して、ペットロボット1の意思を表現するコンテンツを
割り込ませることが可能となる。
【0110】例えば、きょろきょろと首を振る動作は、
ペットロボット1が思考している状態や周囲の環境を探
知しているような意思を示す表現である。暇芸(足で身
体を掻く等)は、自発的な行動をおこしているような意
思を示す表現である。旋回は、行動方針に変化が生じた
ような意思を示す表現である。旋回の詳細については、
図19乃至図21を制御して後述する。写真撮影は、興
味の対象を設定しているような意思を示す表現である。
【0111】旋回処理について、図19のフローチャー
トおよび図20(ペットロボット1を上方から見た図)
を参照して説明する。ステップS51において、コント
ローラ10は、停止している状態において旋回方向を決
定する。ステップS52において、コントローラ10
は、頭部ユニット4を旋回する方向に指向させる。すな
わち、頭部ユニット4の正面の方向を、図20Aに示す
状態から図20Bに示す状態に変化させる。
【0112】ステップS53において、コントローラ1
0は、頭部ユニット4の指向先を旋回する方向に維持し
たまま、胴体部ユニット2の方向を頭部ユニット4と一
致させる。すなわち、頭部ユニット4と胴体部ユニット
のそれぞれの正面の方向を、図20Bに示す状態から、
図20Cに示す状態を経て、図20Dに示す状態に変化
させる。
【0113】以上説明したように、旋回処理において
は、図21に示すように、始めに頭部ユニット4の正面
が旋回する方向に指向され、その後、胴体部ユニット2
が頭部ユニット4の指向方向と一致される。
【0114】第7の特徴的行動として、ペットロボット
1は、自律的に行動している最中の歩行を伴わないコン
テンツを実行するBreakモード(第1乃至第5のBreakモ
ード)において、それまでの運動履歴に応じて運強欲を
変化させ、運動欲82Aに対応して暇芸の種類や頻度を
変更するようになされている。
【0115】Breakモードにおいて発現させるコンテン
ツを決定する処理について、図22のフローチャートを
参照して説明する。ステップS61において、コントロ
ーラ10は、時計10Cを参照することにより、起動後
の経過時間を取得する。ステップS62において、コン
トローラ10は、起動後のタッチセンサ17の検知量、
および音声認識の認識量を取得する。ステップS63に
おいて、コントローラ10は、起動後に発現したコンテ
ンツを示す情報を取得する。
【0116】ステップS64において、コントローラ1
0は、ステップS61乃至ステップS63で取得した各
情報に基づいて本能値を調整する。
【0117】例えば、本能値の運動欲(Exercise)82A
は、図23の曲線aに示すように、その時点までに発現
したコンテンツの大きさや発現頻度に適応的に変化させ
る。すなわち、運動欲82Aが低いときには、小さめの
コンテンツが発現されているので徐々に運動欲82Aが
高まるようにし、運動欲82Aが最大値に達すると、Vi
vidモードに移動して歩行を行うため、徐々に運動欲8
2Aが下がるようになされている。また、例えば、本能
値の愛情欲(Affection)82Bは、図23の曲線baに
示すように変化させる。
【0118】ステップS65において、コントローラ1
0は、予め用意されている図24に示すような、運動欲
(Exercise)82Aと愛情欲(Affection)82Bのマトリ
クス表に基づき、Breakモード(第1乃至第5のBreakモ
ード)を決定する。例えば、運動欲(Exercise)82Aが
Highであって愛情欲(Affection)82BがLowである場
合、第4のBreakモードに決定される。また例えば、運
動欲(Exercise)82AがLowであって愛情欲(Affection)
82Bがhighである場合、第5のBreakモードに決定さ
れる。
【0119】なお、運動欲(Exercise)82Aと愛情欲(A
ffection)82BがともにVhighである場合、Vividモー
ドに遷移される。また、運動欲(Exercise)82AがVlow
である場合、Sleepモードに遷移される。
【0120】ステップS66において、コントローラ1
0は、ステップS65で決定したモードに定義されてい
るコンテンツを選択する。ステップS67において、コ
ントローラ10は、ステップS66で選択したコンテン
ツを発現させる。以上、Breakモードにおいて発現させ
るコンテンツを決定する処理の説明を終了する。
【0121】第8の特徴的行動として、ペットロボット
1は、他のペットロボット1と音階を用いて会話等のコ
ミュニケーションを実行するようになされている。
【0122】ペットロボット1は、ユーザからの所定の
操作(例えば、尻尾部ユニット5に設けられたタッチセ
ンサに17に接触する)に対応して、他のペットロボッ
ト1に対してコミュニケーションの開始を示すコマンド
を発現する(所定の音階を出力する)。このコミュニケ
ーションの開始を示すコマンドを発現したペットロボッ
ト1を、以下、マスタを記述する。反対に、コミュニケ
ーションの開始を示すコマンドを検知してそれに従うこ
ととなる他のペットロボット1を、以下、スレーブと記
述する。
【0123】マスタは、予め設定されているシナリオ
(インタビュ、相性チェック等)のうちの1つを選択し
て実行する。
【0124】例えば、インタビュのシナリオでは、以下
に示すような会話に相当する音階、または動作がマスタ
およびスレーブによって発現される。 マスタ「おはよう!」 スレーブ「おはよう!」 マスタ「お名前は?」 スレーブ「xxx」(登録されていない場合、悲しむ動
作) マスタ「オーナー名は?」 スレーブ「xxx」(登録されていない場合、悲しむ動
作) マスタ「世代は?」 スレーブ「xxx」 マスタ「さようなら」 スレーブ「さようなら」
【0125】図25は、相性チェックのシナリオを説明
するフローチャートである。ステップS71において、
マスタは、コミュニケーション開始のコマンドを発現す
る。これに対応し、ステップS81において、スレーブ
は、コミュニケーション了解のコマンドを発現する(所
定の音階を出力する)。
【0126】ステップS72において、マスタは、質問
コマンドを発現する。これに対応し、ステップS82に
おいて、スレーブは、自己の本能値に基づき、回答コマ
ンドを発現する。具体的には、以下のような会話に相当
する音階がマスタおよびスレーブによって発現される。 マスタ「おはよう!」 スレーブ「おはよう!」 マスタ「いま、楽しい?」 スレーブ「YES/NO」 マスタ「いま、怒っている?」 スレーブ「YES/NO」 マスタ「いま、悲しい?」 スレーブ「YES/NO」 マスタ「いま、疲れている?」 スレーブ「YES/NO」
【0127】ステップS73において、マスタは、スレ
ーブからの回答に基づき、相性を診断する。具体的に
は、スレーブの状態(楽しいか否か、怒っているか否
か、悲しいか否か、疲れているか否か)と、自己の状態
が2項目以上一致する場合、相性が良いと判断し、スレ
ーブの状態と、自己の状態が2項目以上一致しない場
合、相性が悪いと判断する。
【0128】ステップS74において、マスタは、ステ
ップS73で相性が良いと判断した場合、愛情シナリオ
(マスタとスレーブが同期してダンスのコンテンツを発
現する)ためのコマンドを発現する。反対に、ステップ
S73で相性が悪いと判断した場合、対決シナリオ(マ
スタとスレーブがじゃんけんをおこない、勝った方が喜
び、負けた方が悲しむコンテンツを発現する)ためのコ
マンドを発現する。
【0129】これに対応し、ステップS83において、
スレーブは、マスタからのコマンドに対応するコンテン
ツを発現する(マスタと同期してダンスを行う、または
じゃんけんを行い、勝敗に応じて喜ぶか、あるいは悲し
む)。以上、相性チェックのシナリオの説明を終了す
る。
【0130】以上、ペットロボット1の第1乃至第8の
特徴的行動の説明を終了する。
【0131】なお、上述した第1乃至第8の特徴的行動
は、図1に示したような動物型のロボットに実行させる
だけでなく、例えば、2足歩行が可能な人間型のロボッ
トや、コンピュータ内で活動する仮想ロボット等に実行
させるようにしてもよい。
【0132】なお、本明細書において、記録媒体に記録
されるプログラムを記述するステップは、記載された順
序に従って時系列的に行われる処理はもちろん、必ずし
も時系列的に処理されなくとも、並列的あるいは個別に
実行される処理をも含むものである。
【0133】
【発明の効果】以上のように、本発明によれば、起動直
後に自律的な行動を活発に実行することができるペット
ロボットを実現することが可能となる。
【図面の簡単な説明】
【図1】本発明を適用したペットロボットの外観の一例
を示す斜視図である。
【図2】図1のペットロボットの内部の構成例を示すブ
ロック図である。
【図3】ペットロボットの機能モジュールの構成例を示
すブロック図である。
【図4】図3の本能・感情管理部の機能の例を模式的に
示す図である。
【図5】ペットロボットのモード遷移を示す図である。
【図6】図5のWake Upモードの詳細を示す図である。
【図7】日付/季節に対応するコンテンツの一例を示す
図である。
【図8】ペットロボットによる日付/季節対応処理を説
明するフローチャートである。
【図9】自律行動を優先した状態と、音声認識機能を優
先した状態とを遷移させる条件を示す図である。
【図10】テレビジョン番組等で放送される所定の音階
と、それに対応して実行されるコンテンツを示す図であ
る。
【図11】テレビジョン番組等で放送される所定の音階
と、それに対応して動作可能なコンテンツに追加される
コンテンツを示す図である。
【図12】ペットロボットに対するユーザの関心度の変
化を推定した図である。
【図13】図12に示した理想的なユーザの関心度の変
化を実現するための、ペットロボットによるコンテンツ
の理想的な動作イメージを示す図である。
【図14】図12に示した理想的なユーザの関心度の変
化を実現するための、ペットロボットによるコンテンツ
の実際の動作イメージを示す図である。
【図15】ユーザから構われる頻度が高い場合におい
て、ペットロボットがLoveモードに遷移する様子を模式
的に示す図である。
【図16】ペットロボットによるインタラクティブなコ
ンテンツ発現処理を説明するフローチャートである。
【図17】Vividモードにおいて、自律的行動と定常的
に入力される情報に対する反応を両立する処理を説明す
るフローチャートである。
【図18】Vividモードにおける自律的探索行動制御処
理を説明するフローチャートである。
【図19】ペットロボットの旋回処理を説明するフロー
チャートである。
【図20】旋回処理に実行しているペットロボットの上
方から見た外観図である。
【図21】旋回処理におけるペットロボットの頭部ユニ
ット4と胴体部ユニット2の旋回のタイミングを示す図
である。
【図22】Breakモードにおいて発現させるコンテンツ
を決定する処理を説明するフローチャートである。
【図23】本能値の運動欲(Exercise)が、その時点まで
に発現したコンテンツの大きさや発現頻度に適応的に変
化されることを示す図である。
【図24】運動欲(Exercise)82Aと愛情欲(Affectio
n)82Bとのマトリクスに対応するBreakモード(第1
乃至第5のBreakモード)を示す図である。
【図25】ペットロボット(マスタ)と他のペットロボ
ット(スレーブ)の相性チェックのシナリオを説明する
フローチャートである。
【符号の説明】
31 センサ入力処理部, 32 情報処理部, 41
角度検出部, 42音量検出部, 43 音声認識
部, 44 画像認識部, 45 圧力検出部, 46
位置検出部, 47 スイッチ入力検出部, 61
本能・感情管理部, 62 行動管理部, 63 姿勢
遷移管理部, 64 制御部, 65音声合成部, 6
6 音データ生成部
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C150 CA02 DA05 DA24 DA25 DA26 DA27 DA28 DF03 DF04 DF06 DF08 DF33 ED10 ED42 ED47 ED52 EF03 EF07 EF09 EF16 EF17 EF22 EF23 EF28 EF29 EF33 EF36 3C007 AS36 CS08 KS21 KS31 KS36 KS39 KT01 MT14 WA04 WA14 WB19 WB23

Claims (15)

    【特許請求の範囲】
  1. 【請求項1】 予め設定されている複数のコンテンツを
    選択的に実行するロボット装置において、 前記予め設定されている前記複数のコンテンツの中から
    1つの前記コンテンツを選択する選択手段と、 前記選択手段によって選択された前記コンテンツを発現
    する発現手段とを含み、 前記選択手段は、起動後の所定の期間において大きめの
    コンテンツを選択し、 前記発現手段は、前記選択手段によって選択された前記
    コンテンツを、起動後の所定の期間において高い頻度で
    発現することを特徴とするロボット装置。
  2. 【請求項2】 前記選択手段は、季節、日付、および時
    刻のうち、少なくとも1つに対応する前記コンテンツを
    選択することを特徴とする請求項1に記載のロボット装
    置。
  3. 【請求項3】 前記選択手段は、前回の終了時から今回
    の起動時までの期間、設定される感情および欲求のうち
    の少なくとの1つに対応して、前記コンテンツを選択す
    ることを特徴とする請求項1に記載のロボット装置。
  4. 【請求項4】 前記発現手段は、前回の終了時から今回
    の起動時までの期間、設定される感情および欲求のうち
    の少なくとの1つに対応して、前記コンテンツの発現頻
    度を調整することを特徴とする請求項1に記載のロボッ
    ト装置。
  5. 【請求項5】 ユーザの発声を認識する音声認識手段
    と、 ユーザの接触を検知する検知手段とをさらに含むことを
    特徴とする請求項1に記載のロボット装置。
  6. 【請求項6】 前記選択手段は、前記音声認識手段によ
    る音声認識の頻度、および前記検知手段によるユーザの
    接触の頻度の少なくとも一方に対応して、前記コンテン
    ツを選択することを特徴とする請求項5に記載のロボッ
    ト装置。
  7. 【請求項7】 前記発現手段は、前記音声認識手段によ
    って音声認識がなされたこと、および前記検知手段によ
    ってユーザの接触が検知されたことをユーザに通知する
    通知手段を含むことを特徴とする請求項5に記載のロボ
    ット装置。
  8. 【請求項8】 前記音声認識手段は音階も認識すること
    を特徴とする請求項5に記載のロボット装置。
  9. 【請求項9】 前記選択手段は、前記音声認識手段によ
    って所定の音階が認識された場合、所定のコンテンツを
    選択することを特徴とする請求項8に記載のロボット装
    置。
  10. 【請求項10】 前記音声認識手段によって所定の音階
    が認識された場合、発現可能なコンテンツを追加する追
    加手段をさらに含むことを特徴とする請求項8に記載の
    ロボット装置。
  11. 【請求項11】 前記音声認識手段によって所定の音階
    が認識された場合、認識された音階に対応する応答とし
    ての音階を出力する出力手段をさらに含むことを特徴と
    する請求項8に記載のロボット装置。
  12. 【請求項12】 画像信号を取得する取得手段と、前記
    取得手段によって取得された前記画像信号に基づいて動
    体を検知する検知手段と、 前記検知手段の検知結果に対応して、前記取得手段によ
    って取得された前記画像信号を保存する保存手段とをさ
    らに含むことを特徴とする請求項1に記載のロボット装
    置。
  13. 【請求項13】 予め設定されている複数のコンテンツ
    を選択的に実行するロボット装置のロボット制御方法に
    おいて、 前記予め設定されている前記複数のコンテンツの中から
    1つの前記コンテンツを選択する選択ステップと、 前記選択ステップの処理で選択された前記コンテンツを
    発現する発現ステップとを含み、 前記選択ステップの処理は、起動後の所定の期間におい
    て大きめのコンテンツを選択し、 前記発現ステップの処理は、前記選択ステップの処理で
    選択された前記コンテンツを、起動後の所定の期間にお
    いて高い頻度で発現することを特徴とするロボット制御
    方法。
  14. 【請求項14】 予め設定されている複数のコンテンツ
    を選択的に実行するロボット装置用のプログラムであっ
    て、 前記予め設定されている前記複数のコンテンツの中から
    1つの前記コンテンツを選択する選択ステップと、 前記選択ステップの処理で選択された前記コンテンツを
    発現する発現ステップとを含み、 前記選択ステップの処理は、起動後の所定の期間におい
    て大きめのコンテンツを選択し、 前記発現ステップの処理は、前記選択ステップの処理で
    選択された前記コンテンツを、起動後の所定の期間にお
    いて高い頻度で発現することを特徴とするコンピュータ
    が読み取り可能なプログラムが記録されている記録媒
    体。
  15. 【請求項15】 予め設定されている複数のコンテンツ
    を選択的に実行するロボット装置用のコンピュータに、 前記予め設定されている前記複数のコンテンツの中から
    1つの前記コンテンツを選択する選択ステップと、 前記選択ステップの処理で選択された前記コンテンツを
    発現する発現ステップとを実行させ、 前記選択ステップの処理は、起動後の所定の期間におい
    て大きめのコンテンツを選択し、 前記発現ステップの処理は、前記選択ステップの処理で
    選択された前記コンテンツを、起動後の所定の期間にお
    いて高い頻度で発現することを特徴とするプログラム。
JP2002108909A 2002-04-11 2002-04-11 ロボット装置およびロボット制御方法、記録媒体、並びにプログラム Withdrawn JP2003305674A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002108909A JP2003305674A (ja) 2002-04-11 2002-04-11 ロボット装置およびロボット制御方法、記録媒体、並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002108909A JP2003305674A (ja) 2002-04-11 2002-04-11 ロボット装置およびロボット制御方法、記録媒体、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2003305674A true JP2003305674A (ja) 2003-10-28

Family

ID=29392516

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002108909A Withdrawn JP2003305674A (ja) 2002-04-11 2002-04-11 ロボット装置およびロボット制御方法、記録媒体、並びにプログラム

Country Status (1)

Country Link
JP (1) JP2003305674A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014075045A (ja) * 2012-10-04 2014-04-24 Sharp Corp 制御装置、制御装置の制御方法、被制御装置、サーバ、制御プログラム、および記録媒体
JP2016198843A (ja) * 2015-04-09 2016-12-01 富士通株式会社 制御方法、制御装置、及びプログラム
WO2018157388A1 (zh) * 2017-03-03 2018-09-07 深圳前海达闼云端智能科技有限公司 机器人唤醒方法、装置和机器人

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014075045A (ja) * 2012-10-04 2014-04-24 Sharp Corp 制御装置、制御装置の制御方法、被制御装置、サーバ、制御プログラム、および記録媒体
JP2016198843A (ja) * 2015-04-09 2016-12-01 富士通株式会社 制御方法、制御装置、及びプログラム
WO2018157388A1 (zh) * 2017-03-03 2018-09-07 深圳前海达闼云端智能科技有限公司 机器人唤醒方法、装置和机器人

Similar Documents

Publication Publication Date Title
JP2003340759A (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
US11024294B2 (en) System and method for dialogue management
KR100843822B1 (ko) 로봇 장치, 로봇 장치의 동작 제어 방법 및 로봇 장치의동작 제어 시스템
US20190206402A1 (en) System and Method for Artificial Intelligence Driven Automated Companion
US11003860B2 (en) System and method for learning preferences in dialogue personalization
US20180370039A1 (en) More endearing robot, method of controlling the same, and non-transitory recording medium
JP5227362B2 (ja) エモーションエンジン、エモーションエンジン・システムおよび電子デバイスの制御方法
WO2001039932A1 (fr) Robot, son procede de commande et procede d'appreciation du caractere du robot
JPH11126017A (ja) 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム
JP2010149276A (ja) ロボット装置及び動作制御方法
JP7363764B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2003039363A (ja) ロボット装置、ロボット装置の行動学習方法、ロボット装置の行動学習プログラム、及びプログラム記録媒体
US6711467B2 (en) Robot apparatus and its control method
KR100879417B1 (ko) 음성 출력 장치
JP2003305677A (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2003071763A (ja) 脚式移動ロボット
JP2002205291A (ja) 脚式ロボット及び脚式ロボットの行動制御方法、並びに記憶媒体
JP4757979B2 (ja) 電子玩具
KR20180082777A (ko) 노년층을 위한 교감 로봇시스템
JP2003340760A (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2003305674A (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP7156300B2 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2023037608A1 (ja) 自律移動体、情報処理方法、及び、プログラム
JP2005169567A (ja) コンテンツ再生システム、コンテンツ再生方法、コンテンツ再生装置
WO2023037609A1 (ja) 自律移動体、情報処理方法、及び、プログラム

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050705