JP2024159569A - Behavior Control System - Google Patents
Behavior Control System Download PDFInfo
- Publication number
- JP2024159569A JP2024159569A JP2024065472A JP2024065472A JP2024159569A JP 2024159569 A JP2024159569 A JP 2024159569A JP 2024065472 A JP2024065472 A JP 2024065472A JP 2024065472 A JP2024065472 A JP 2024065472A JP 2024159569 A JP2024159569 A JP 2024159569A
- Authority
- JP
- Japan
- Prior art keywords
- user
- robot
- emotion
- behavior
- determination unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 claims abstract description 324
- 230000009471 action Effects 0.000 claims abstract description 60
- 238000006243 chemical reaction Methods 0.000 claims description 67
- 230000008859 change Effects 0.000 claims description 18
- 230000002996 emotional effect Effects 0.000 claims description 12
- 238000010586 diagram Methods 0.000 abstract description 12
- 230000004044 response Effects 0.000 abstract description 11
- 230000003993 interaction Effects 0.000 abstract 1
- 230000006399 behavior Effects 0.000 description 165
- 230000008921 facial expression Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 19
- 238000004891 communication Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 18
- 238000000034 method Methods 0.000 description 16
- 230000015654 memory Effects 0.000 description 15
- 230000002124 endocrine Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 13
- 230000008909 emotion recognition Effects 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 11
- 206010041349 Somnolence Diseases 0.000 description 6
- 210000003128 head Anatomy 0.000 description 6
- 230000003542 behavioural effect Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 239000000126 substance Substances 0.000 description 5
- VYFYYTLLBUKUHU-UHFFFAOYSA-N dopamine Chemical compound NCCC1=CC=C(O)C(O)=C1 VYFYYTLLBUKUHU-UHFFFAOYSA-N 0.000 description 4
- 230000035807 sensation Effects 0.000 description 4
- 208000019901 Anxiety disease Diseases 0.000 description 3
- 230000036506 anxiety Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000000994 depressogenic effect Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000007958 sleep Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 229960003638 dopamine Drugs 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 239000000945 filler Substances 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000006996 mental state Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000035943 smell Effects 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007519 figuring Methods 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 229940088597 hormone Drugs 0.000 description 1
- 239000005556 hormone Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000002858 neurotransmitter agent Substances 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000028327 secretion Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 235000011888 snacks Nutrition 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002195 synergetic effect Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Abstract
【課題】ユーザの状況に対して適切な行動をロボットに実行させる。
【解決手段】育児のサポートに適用されるロボットの行動制御システムであって、育児の対象であるユーザの感情を示す感情値を決定するユーザ感情決定部と、ロボットの感情を示す感情値を決定するロボット感情決定部と、ユーザの感情値及びロボットの感情値の少なくとも一方と、ユーザとロボットを対話させる対話機能を有する文章生成モデルによって取得した情報とに基づいて、ロボットの行動を決定する行動決定部と、を備え、行動決定部は、ロボットが育児の対象であるユーザに提案する遊びの内容を決定する。
【選択図】図9
To cause a robot to perform an appropriate action in response to a user's situation.
[Solution] A robot behavior control system applied to support child care, comprising a user emotion determination unit which determines an emotion value indicating the emotion of the user who is the subject of child care, a robot emotion determination unit which determines an emotion value indicating the emotion of the robot, and a behavior determination unit which determines the behavior of the robot based on at least one of the user's emotion value and the robot's emotion value and information obtained by a sentence generation model having an interaction function that allows the user to interact with the robot, and the behavior determination unit determines the content of play that the robot will suggest to the user who is the subject of child care.
[Selection diagram] Figure 9
Description
本発明は、行動制御システムに関する。 The present invention relates to a behavior control system.
特許文献1には、ユーザの状態に対してロボットの適切な行動を決定する技術が開示されている。特許文献1の従来技術は、ロボットが特定の行動を実行したときのユーザの反応を認識し、認識したユーザの反応に対するロボットの行動を決定できなかった場合、認識したユーザの状認に適した行動に関する情報をサーバから受信することで、ロボットの行動を更新する。 Patent Document 1 discloses a technology for determining an appropriate robot behavior in response to a user's state. The conventional technology in Patent Document 1 recognizes the user's reaction when the robot performs a specific action, and if the robot is unable to determine an action to be taken in response to the recognized user's reaction, it updates the robot's behavior by receiving information about an action appropriate to the recognized user's state from a server.
しかしながら従来技術では、ユーザの行動に対して適切な行動をロボットに実行させる上で改善の余地がある。 However, conventional technology leaves room for improvement in enabling robots to perform appropriate actions in response to user actions.
本発明に係る行動制御システムは、育児のサポートに適用されるロボットの行動制御システムであって、育児の対象であるユーザの感情を示す感情値を決定するユーザ感情決定部と、ロボットの感情を示す感情値を決定するロボット感情決定部と、前記ユーザの感情値及び前記ロボットの感情値の少なくとも一方と、前記ユーザと前記ロボットを対話させる対話機能を有する文章生成モデルによって取得した情報とに基づいて、前記ロボットの行動を決定する行動決定部と、を備え、前記行動決定部は、前記ロボットが前記育児の対象であるユーザに提案する遊びの内容を決定するものである。 The behavior control system according to the present invention is a behavior control system for a robot applied to support childcare, and includes a user emotion determination unit that determines an emotion value indicating the emotion of a user who is the subject of childcare, a robot emotion determination unit that determines an emotion value indicating the emotion of a robot, and a behavior determination unit that determines the behavior of the robot based on at least one of the emotion value of the user and the emotion value of the robot and information acquired by a sentence generation model having a dialogue function that allows the user and the robot to converse with each other, and the behavior determination unit determines the content of play that the robot proposes to the user who is the subject of childcare.
本発明によれば、ユーザの状況に対して適切な行動をロボットに実行させることができる。 The present invention makes it possible to have a robot perform appropriate actions depending on the user's situation.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 The present invention will be described below through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Furthermore, not all of the combinations of features described in the embodiments are necessarily essential to the solution of the invention.
A.本実施形態
図1は、本実施形態に係るシステム5の一例を概略的に示す。システム5は、ロボット100、ロボット101、ロボット102、及びサーバ300を備える。ユーザ10、ユーザ11及びユーザ12は、それぞれロボット100、ロボット101、ロボット102のユーザである。ユーザ10、ユーザ11及びユーザ12は、例えばロボット100が配置された家の家族や、その家を訪れた他人である。ロボット100、ロボット101及びロボット102は、店舗や事務所の受付等に配置され、来訪した顧客に応対する利用形態などにも適用できる。なお、本実施形態の説明において、ロボット101及びロボット102は、ロボット100と略同一の機能を有する。そのため、ロボット100の機能を主として取り上げてシステム5を説明する。
A. This embodiment FIG. 1 shows an example of a
ロボット100は、ユーザ10と会話を行ったり、ユーザ10に映像を提供したりする。このとき、ロボット100は、通信網20を介して通信可能なサーバ300等と連携して、ユーザ10との会話や、ユーザ10への映像等の提供を行う。例えば、ロボット100は、自身で適切な会話を学習するだけでなく、サーバ300と連携して、ユーザ10とより適切に会話を進められるように学習を行う。また、ロボット100は、撮影したユーザ10の映像データ等をサーバ300に記録させ、必要に応じて映像データ等をサーバ300に要求して、ユーザ10に提供する。図1では、ロボット100として、自立移動が可能な走行ロボットを想定しているが、以下に示すAI感情エンジンや文章生成モデルなどを搭載したあらゆる端末(例えば、車載端末や携帯端末など)に適用可能である。
The
ロボット100は、人間の感情を疑似的に生成する機能を有するAI感情エンジン(後述)を搭載し、自身の感情の種類を表す感情値を決定・保持する。例えば、ロボット100は、「喜」、「怒」、「哀」、「楽」、「快」、「不快」、「安心」、「不安」、「悲しみ」、「興奮」、「心配」、「安堵」、「充実感」、「虚無感」及び「普通」のそれぞれの感情の強さを表す感情値を持つ。ロボット100は、例えば興奮の感情値が大きい状態でユーザ10と会話するときは、早いスピードで音声を発する。このように、ロボット100は、自己の感情を行動で表現することができる。
The
また、ロボット100は、文章生成モデル(チャットエンジン)とAI感情エンジン(感情エンジン)をマッチングさせることで、ユーザ10の感情に対応するロボット100の行動を決定するように構成してよい。具体的には、ロボット100は、ユーザ10の行動を認識して、当該ユーザの行動に対するユーザ10の感情を判定し、判定した感情に対応するロボット100の行動を決定するように構成してよい。
The
より具体的には、ロボット100は、ユーザ10の行動を認識した場合、予め設定されたチャットエンジンを用いて、当該ユーザ10の行動に対してロボット100がとるべき行動内容を自動で生成する。チャットエンジンは、文字による自動対話処理のためのアルゴリズム及び演算と解釈してよい。チャットエンジンは、例えば特開2018-081444号公報やchatGPT(インターネット検索<URL: https://openai.com/blog/chatgpt>)に開示される通り公知であるため、その詳細な説明を省略する。このような、チャットエンジンは、大規模言語モデル(LLM:Large Language Model)により構成されている。以上、本実施形態は、大規模言語モデルと感情エンジンとを組み合わせることにより、ユーザ10やロボット100の感情と、様々な言語情報とをロボット100の行動に反映させるということができる。つまり、本実施形態によれば、チャットエンジンと感情エンジンとを組み合わせることにより、相乗効果を得ることができる。
More specifically, when the
また、ロボット100は、ユーザ10の行動を認識する機能を有する。ロボット100は、カメラ機能で取得したユーザ10の顔画像や、マイク機能で取得したユーザ10の音声を解析することによって、ユーザ10の行動を認識する。ロボット100は、認識したユーザ10の行動等に基づいて、ロボット100が実行する行動を決定する。
The
ロボット100は、ユーザ10の感情、ロボット100の感情、及びユーザ10の行動に基づいてロボット100が実行する行動を定めたルールを記憶しており、ルールに従って各種の行動を行う。
The
具体的には、ロボット100には、ユーザ10の感情、ロボット100の感情、及びユーザ10の行動に基づいてロボット100の行動を決定するための反応ルールを有している。反応ルールには、例えば、ユーザ10の行動が「笑う」である場合に対して、「笑う」という行動が、ロボット100の行動として定められている。また、反応ルールには、ユーザ10の行動が「怒る」である場合に対して、「謝る」という行動が、ロボット100の行動として定められている。また、反応ルールには、ユーザ10の行動が「質問する」である場合に対して、「回答する」という行動が、ロボット100の行動として定められている。反応ルールには、ユーザ10の行動が「悲しむ」である場合に対して、「声をかける」という行動が、ロボット100の行動として定められている。
Specifically, the
ロボット100は、反応ルールに基づいて、ユーザ10の行動が「怒る」であると認識した場合、反応ルールで定められた「謝る」という行動を、ロボット100が実行する行動として選択する。例えば、ロボット100は、「謝る」という行動を選択した場合に、「謝る」動作を行うと共に、「謝る」言葉を表す音声を出力する。
When the
また、ロボット100の感情が「普通」(すわなち、「喜」=0、「怒」=0、「哀」=0、「楽」=0)であり、ユーザ10の状態が「1人、寂しそう」という条件が満たされた場合に、ロボット100の感情が「心配になる」という感情の変化内容と、「声をかける」の行動を実行できることが定められている。
In addition, when the emotion of the
ロボット100は、反応ルールに基づいて、ロボット100の現在の感情が「普通」であり、かつ、ユーザ10が1人で寂しそうな状態にあると認識した場合、ロボット100の「哀」の感情値を増大させる。また、ロボット100は、反応ルールで定められた「声をかける」という行動を、ユーザ10に対して実行する行動として選択する。例えば、ロボット100は、「声をかける」という行動を選択した場合に、心配していることを表す「どうしたの?」という言葉を、心配そうな音声に変換して出力する。
When the
また、ロボット100は、この行動によって、ユーザ10からポジティブな反応が得られたことを示すユーザ反応情報を、サーバ300に送信する。ユーザ反応情報には、例えば、「怒る」というユーザ行動、「謝る」というロボット100の行動、ユーザ10の反応がポジティブであったこと、及びユーザ10の属性が含まれる。
The
サーバ300は、ロボット100から受信したユーザ反応情報を記憶する。なお、サーバ300は、ロボット100だけでなく、ロボット101及びロボット102のそれぞれからもユーザ反応情報を受信して記憶する。そして、サーバ300は、ロボット100、ロボット101及びロボット102からのユーザ反応情報を解析して、反応ルールを更新する。
The
ロボット100は、更新された反応ルールをサーバ300に問い合わせることにより、更新された反応ルールをサーバ300から受信する。ロボット100は、更新された反応ルールを、ロボット100が記憶している反応ルールに組み込む。これにより、ロボット100は、ロボット101やロボット102等が獲得した反応ルールを、自身の反応ルールに組み込むことができる。
The
図2は、ロボット100の機能構成を概略的に示す。ロボット100は、センサ部200と、センサモジュール部210と、格納部220と、ユーザ状態認識部230と、ユーザ感情決定部231と、ロボット感情決定部232と、行動認識部234と、行動決定部236と、記憶制御部238と、行動制御部250と、制御対象252と、通信処理部280と、を有する。
Figure 2 shows a schematic functional configuration of the
制御対象252は、ロボット100に搭載されている表示装置、スピーカ及び目部のLED、並びに、腕、手及び足等を駆動するモータ等を含む。ロボット100の姿勢や仕草は、腕、手及び足等のモータを制御することにより制御される。ロボット100の感情の一部は、これらのモータを制御することにより表現できる。また、ロボット100の目部のLEDの発光状態を制御することによっても、ロボット100の表情を表現できる。なお、ロボット100の姿勢、仕草及び表情は、ロボット100の態度の一例である。
The
センサ部200は、マイク201と、3D深度センサ202と、2Dカメラ203と、距離センサ204とを含む。マイク201は、音声を連続的に検出して音声データを出力する。なお、マイク201は、ロボット100の頭部に設けられ、バイノーラル録音を行う機能を有してよい。3D深度センサ202は、赤外線パターンを連続的に照射して、赤外線カメラで連続的に撮影された赤外線画像から赤外線パターンを解析することによって、物体の輪郭を検出する。2Dカメラ203は、イメージセンサの一例である。2Dカメラ203は、可視光によって撮影して、可視光の映像情報を生成する。距離センサ204は、例えばレーザや超音波等を照射して物体までの距離を検出する。なお、センサ部200は、この他にも、時計、ジャイロセンサ、タッチセンサ、モータフィードバック用のセンサ等を含んでよい。
The
なお、図2に示すロボット100の構成要素のうち、制御対象252及びセンサ部200を除く構成要素は、ロボット100の行動制御システムが有する構成要素の一例である。ロボット100の行動制御システムは、制御対象252を制御の対象とする。
Note that, among the components of the
格納部220は、反応ルール221及び履歴データ222を含む。履歴データ222は、ユーザ10の過去の感情値及び行動の履歴を含む。この感情値及び行動の履歴は、例えば、ユーザ10の識別情報に対応付けられることによって、ユーザ10毎に記録される。格納部220の少なくとも一部は、メモリ等の記憶媒体によって実装される。ユーザ10の顔画像、ユーザ10の属性情報等を格納する人物DBを含んでもよい。なお、図2に示すロボット100の構成要素のうち、制御対象252、センサ部200及び格納部220を除く構成要素の機能は、CPUがプログラムに基づいて動作することによって実現できる。例えば、基本ソフトウェア(OS)及びOS上で動作するプログラムによって、これらの構成要素の機能をCPUの動作として実装できる。
The
センサモジュール部210は、音声感情認識部211と、発話理解部212と、表情認識部213と、顔認識部214とを含む。センサモジュール部210には、センサ部200で検出された情報が入力される。センサモジュール部210は、センサ部200で検出された情報を解析して、解析結果をユーザ状態認識部230に出力する。
The
センサモジュール部210の音声感情認識部211は、マイク201で検出されたユーザ10の音声を解析して、ユーザ10の感情を認識する。例えば、音声感情認識部211は、音声の周波数成分等の特徴量を抽出して、抽出した特徴量に基づいて、ユーザ10の音声及び感情を認識する。発話理解部212は、マイク201で検出されたユーザ10の音声を解析して、ユーザ10の発話内容を表す文字情報を出力する。
The voice
表情認識部213は、2Dカメラ203で撮影されたユーザ10の画像から、ユーザ10の表情及びユーザ10の感情を認識する。例えば、表情認識部213は、目及び口の形状、位置関係等に基づいて、ユーザ10の表情及び感情を認識する。
The facial
顔認識部214は、ユーザ10の顔を認識する。顔認識部214は、人物DB(図示省略)に格納されている顔画像と、2Dカメラ203によって撮影されたユーザ10の顔画像とをマッチングすることによって、ユーザ10を認識する。
The
ユーザ状態認識部230は、センサモジュール部210で解析された情報に基づいて、ユーザ10の状態を認識する。例えば、センサモジュール部210の解析結果を用いて、主として知覚に関する処理を行う。例えば、「パパが1人です。」、「パパが笑顔でない確率90%です。」等の知覚情報を生成する。生成された知覚情報の意味を理解する処理を行う。例えば、「パパが1人、寂しそうです。」等の意味情報を生成する。
The user
ユーザ感情決定部231は、感情認識エンジン231aを備え、センサモジュール部210で解析された情報、及びユーザ状態認識部230によって認識されたユーザ10の状態に基づいて、ユーザ10の感情を示す感情値を決定する。例えば、センサモジュール部210で解析された情報、及び認識されたユーザ10の状態を、予め学習されたニューラルネットワークに入力し、ユーザ10の感情を示す感情値を取得する。
The user
ここで、ユーザ10の感情を示す感情値とは、ユーザの感情の正負を示す値であり、例えば、ユーザの感情が、「喜」、「楽」、「快」、「安心」、「興奮」、「安堵」、及び「充実感」のように、快感や安らぎを伴う明るい感情であれば、正の値を示し、明るい感情であるほど、大きい値となる。ユーザの感情が、「怒」、「哀」、「不快」、「不安」、「悲しみ」、「心配」、及び「虚無感」のように、嫌な気持ちになってしまう感情であれば、負の値を示し、嫌な気持ちであるほど、負の値の絶対値が大きくなる。ユーザの感情が、上記の何れでもない場合(「普通」)、0の値を示す。
Here, the emotion value indicating the emotion of
ロボット感情決定部232は、センサモジュール部210で解析された情報、及びユーザ状態認識部230によって認識されたユーザ10の状態に基づいて、ロボット100の感情を示す感情値を決定する。ロボット感情決定部232は、内分泌制御部232aと、感情生成エンジン232bを備える。内分泌制御部232aは、センサモジュール部210で解析された情報、及びユーザ状態認識部230によって認識されたユーザ10の状態などを利用して、感情生成エンジン232bにおいて用いられるニューラルネットワークのパラメータを調整する。例えば、内分泌制御部232aは、ドーパミンの放出量に対応するパラメータを調整する。ドーパミンは、内分泌物質の一例である。内分泌物質とは、神経伝達物質及びホルモン等、体内で分泌されシグナルを伝達する物質を意味する。ただし、ロボット100自身の内分泌物質とは、ロボット100の動作に影響を及ぼす情報の1つであり、ロボット100が内分泌物質を実際に発生するということを意味していない。なお、ロボット自身の感情を決定する際に、内分泌を利用することは、例えば特開2018-81583号公報などに開示さている通り公知であるため、詳細な説明を省略する。
The robot
感情生成エンジン232bは、センサモジュール部210で解析された情報やユーザ状態認識部230によって認識されたユーザ10の状態、及び内分泌制御部232aによって調整されたパラメータに基づいて、ニューラルネットワークを用いて、ロボット100の感情を示す感情値を決定する。ロボット100の感情値は、複数の感情分類の各々に対する感情値を含み、本実施形態では、例えば「喜」、「怒」、「哀」、「楽」それぞれの強さを示す値(0~5)を想定する。
The
具体例を挙げて説明すると、例えばユーザ状態認識部230によってユーザ10が寂しそうと認識された場合、内分泌制御部232aによってロボット100の「哀」の感情値に対応するパラメータを上げる制御が行われ、これにより、ロボット感情決定部232は、ロボット100の「哀」の感情値を増大させる。また、ユーザ状態認識部230によってユーザ10が笑顔になったと認識された場合、内分泌制御部232aによってロボット100の「喜」の感情値に対応するパラメータを上げる制御が行われ、これにより、ロボット感情決定部232は、ロボット100の「喜」の感情値を増大させる。
To give a specific example, if the user
なお、ロボット感情決定部232は、ロボット100の状態を更に考慮して、ロボット100の感情を示す感情値を決定してもよい。例えば、ロボット100のバッテリー残量が少ない場合やロボット100の周辺環境が真っ暗な場合等に、内分泌制御部232aによってロボット100の「哀」の感情値に対応するパラメータを上げる制御が行われ、これにより、ロボット感情決定部232は、ロボット100の「哀」の感情値を増大させてもよい。更にバッテリー残量が少ないにも関わらず継続して話しかけてくるユーザ10の場合は、内分泌制御部232aによってロボット100の「怒」の感情値に対応するパラメータを上げる制御が行われ、これにより、ロボット感情決定部232は、ロボット100の「怒」の感情値を増大させてもよい。
The robot
行動認識部234は、センサモジュール部210で解析された情報、及びユーザ状態認識部230によって認識されたユーザ10の状態に基づいて、ユーザ10の行動を認識する。例えば、センサモジュール部210で解析された情報、及び認識されたユーザ10の状態を、予め学習されたニューラルネットワークに入力し、予め定められた複数の行動分類(例えば、「笑う」、「怒る」、「質問する」、「悲しむ」)の各々の確率を取得し、最も確率の高い行動分類を、ユーザ10の行動として認識する。
The
以上のように、本実施形態では、ロボット100は、ユーザ10を特定したうえでユーザ10の発話内容を取得するが、当該発話内容の取得と利用等に際してはユーザ10から法令に従った必要な同意を取得するほか、本実施形態に係るロボット100の行動制御システムは、ユーザ10の個人情報及びプライバシーの保護に配慮する。
As described above, in this embodiment, the
行動決定部236は、ユーザ感情決定部231により決定されたユーザ10の現在の感情値と、ユーザ10の現在の感情値が決定されるよりも前にユーザ感情決定部231により決定された過去の感情値の履歴データ222と、ロボット感情決定部232により決定されたロボット100の感情値とに基づいて、行動認識部234によって認識されたユーザ10の行動に対応する行動を決定する。本実施形態では、行動決定部236は、ユーザ10の過去の感情値として、履歴データ222に含まれる直近の1つの感情値を用いる場合について説明するが、開示の技術はこの態様に限定されない。例えば、行動決定部236は、ユーザ10の過去の感情値として、直近の複数の感情値を用いてもよいし、一日前などの単位期間の分だけ前の感情値を用いてもよい。また、行動決定部236は、ロボット100の現在の感情値だけでなく、ロボット100の過去の感情値の履歴を更に考慮して、ユーザ10の行動に対応する行動を決定してもよい。行動決定部236が決定する行動は、ロボット100が行うジェスチャー又はロボット100の発話内容を含む。
The
本実施形態に係る行動決定部236は、ユーザ10の行動に対応する行動として、ユーザ10の過去の感情値と現在の感情値の組み合わせと、ロボット100の感情値と、ユーザ10の行動と、反応ルール221とに基づいて、ロボット100の行動を決定する。例えば、行動決定部236は、ユーザ10の過去の感情値が正の値であり、かつ現在の感情値が負の値である場合、ユーザ10の行動に対応する行動として、ユーザ10の感情値を正に変化させるための行動を決定する。
The
反応ルール221には、ユーザ10の過去の感情値と現在の感情値の組み合わせと、ロボット100の感情値と、ユーザ10の行動とに応じたロボット100の行動が定められている。例えば、ユーザ10の過去の感情値が正の値であり、かつ現在の感情値が負の値であり、ユーザ10の行動が悲しむである場合、ロボット100の行動として、ジェスチャーを交えてユーザ10を励ます問いかけを行う際のジェスチャーと発話内容との組み合わせが定められている。
The reaction rules 221 define the behavior of the
例えば、反応ルール221には、ロボット100の感情値のパターン(「喜」、「怒」、「哀」、「楽」の値「0」~「5」の6値の4乗である1296パターン)、ユーザ10の過去の感情値と現在の感情値の組み合わせのパターン、ユーザ10の行動パターンの全組み合わせに対して、ロボット100の行動が定められる。すわなち、ロボット100の感情値のパターン毎に、ユーザ10の過去の感情値と現在の感情値の組み合わせが、負の値と負の値、負の値と正の値、正の値と負の値、正の値と正の値、負の値と普通、及び普通と普通等のように、複数の組み合わせのそれぞれに対して、ユーザ10の行動パターンに応じたロボット100の行動が定められる。なお、行動決定部236は、例えば、ユーザ10が「この前に話したあの話題について話したい」というような過去の話題から継続した会話を意図する発話を行った場合に、履歴データ222を用いてロボット100の行動を決定する動作モードに遷移してもよい。
なお、反応ルール221には、ロボット100の感情値のパターン(1296パターン)の各々に対して、最大で一つずつ、ロボット100の行動としてジェスチャー及び発言内容の少なくとも一方が定められていてもよい。あるいは、反応ルール221には、ロボット100の感情値のパターンのグループの各々に対して、ロボット100の行動としてジェスチャー及び発言内容の少なくとも一方が定められていてもよい。
For example, the
The reaction rules 221 may prescribe at least one of a gesture and a statement as the behavior of the
反応ルール221に定められているロボット100の行動に含まれる各ジェスチャーには、当該ジェスチャーの強度が予め定められている。反応ルール221に定められているロボット100の行動に含まれる各発話内容には、当該発話内容の強度が予め定められている。
For each gesture included in the behavior of the
記憶制御部238は、行動決定部236によって決定された行動に対して予め定められた行動の強度と、ロボット感情決定部232により決定されたロボット100の感情値とに基づいて、ユーザ10の行動を含むデータを履歴データ222に記憶するか否かを決定する。
具体的には、ロボット100の複数の感情分類の各々に対する感情値の総和と、行動決定部236によって決定された行動が含むジェスチャーに対して予め定められた強度と、行動決定部236によって決定された行動が含む発話内容に対して予め定められた強度との和である強度の総合値が、閾値以上である場合、ユーザ10の行動を含むデータを履歴データ222に記憶すると決定する。
The
Specifically, when a total intensity value, which is the sum of the sum of the emotion values for each of the multiple emotion classifications of the
記憶制御部238は、ユーザ10の行動を含むデータを履歴データ222に記憶すると決定した場合、行動決定部236によって決定された行動と、現時点から一定期間前までの、センサモジュール部210で解析された情報(例えば、その場の音声、画像、匂い等のデータなどのあらゆる周辺情報)、及びユーザ状態認識部230によって認識されたユーザ10の状態(例えば、ユーザ10の表情、感情など)を、履歴データ222に記憶する。
When the
行動制御部250は、行動決定部236が決定した行動に基づいて、制御対象252を制御する。例えば、行動制御部250は、行動決定部236が発話することを含む行動を決定した場合に、制御対象252に含まれるスピーカから音声を出力させる。このとき、行動制御部250は、ロボット100の感情値に基づいて、音声の発声速度を決定してもよい。例えば、行動制御部250は、ロボット100の感情値が大きいほど、速い発声速度を決定する。このように、行動制御部250は、ロボット感情決定部232が決定した感情値に基づいて、行動決定部236が決定した行動の実行形態を決定する。
The
行動制御部250は、行動決定部236が決定した行動を実行したことに対するユーザ10の感情の変化を認識してもよい。例えば、ユーザ10の音声や表情に基づいて感情の変化を認識してよい。その他、センサ部200に含まれるタッチセンサで衝撃が検出されたことに基づいて、ユーザ10の感情の変化を認識してよい。センサ部200に含まれるタッチセンサで衝撃が検出された場合に、ユーザ10の感情が悪くなったと認識したり、センサ部200に含まれるタッチセンサの検出結果から、ユーザ10の反応が笑っている、あるいは、喜んでいる等と判断される場合には、ユーザ10の感情が良くなったと認識したりしてもよい。ユーザ10の反応を示す情報は、通信処理部280に出力される。
The
また、行動制御部250は、行動決定部236が決定した行動をロボット100の感情に応じて決定した実行形態で実行した後、ロボット感情決定部232を制御することで、当該行動が実行されたことに対するユーザの反応に基づき、ロボット100の感情値を更に変化させる。具体的には、ロボット感情決定部232は、行動決定部236が決定した行動を行動制御部250が決定した実行形態でユーザに対して行ったことに対するユーザの反応が不良でなかった場合に、ロボット100の「喜」の感情値を増大させる。また、ロボット感情決定部232は、行動決定部236が決定した行動を行動制御部250が決定した実行形態でユーザに対して行ったことに対するユーザの反応が不良であった場合に、ロボット100の「哀」の感情値を増大させる。
In addition, after the
更に、行動制御部250は、決定したロボット100の感情値に基づいて、ロボット100の感情を表現する。例えば、行動制御部250は、ロボット100の「喜」の感情値を増加させた場合、制御対象252を制御して、ロボット100に喜んだ仕草を行わせる。また、行動制御部250は、ロボット100の「哀」の感情値を増加させた場合、ロボット100の姿勢がうなだれた姿勢になるように、制御対象252を制御する。
Furthermore, the
通信処理部280は、サーバ300との通信を担う。上述したように、通信処理部280は、ユーザ反応情報をサーバ300に送信する。また、通信処理部280は、更新された反応ルールをサーバ300から受信する。通信処理部280がサーバ300から、更新された反応ルールを受信すると、反応ルール221を更新する。
The
サーバ300は、ロボット100、ロボット101及びロボット102とサーバ300との間の通信を行い、ロボット100から送信されたユーザ反応情報を受信し、ポジティブな反応が得られた行動を含む反応ルールに基づいて、反応ルールを更新する。なお、サーバ300の機能は、1以上のコンピュータによって実装されてよい。サーバ300の少なくとも一部の機能は、仮想マシンによって実装されてよい。また、サーバ300の機能の少なくとも一部は、クラウドで実装されてよい。
The
図3は、ロボット100において行動を決定する動作に関する動作フローの一例を概略的に示す。図3に示す動作フローは、繰り返し実行される。このとき、センサモジュール部210で解析された情報が入力されているものとする。なお、動作フロー中の「S」は、実行されるステップを表す。
Figure 3 shows an example of an outline of an operation flow relating to the operation of determining an action in the
まず、ステップS100において、ユーザ状態認識部230は、センサモジュール部210で解析された情報に基づいて、ユーザ10の状態を認識する。
First, in step S100, the user
ステップS102において、ユーザ感情決定部231は、センサモジュール部210で解析された情報、及びユーザ状態認識部230によって認識されたユーザ10の状態に基づいて、ユーザ10の感情を示す感情値を決定する。
In step S102, the user
ステップS103において、ロボット感情決定部232は、センサモジュール部210で解析された情報、及びユーザ状態認識部230によって認識されたユーザ10の状態に基づいて、ロボット100の感情を示す感情値を決定する。ロボット感情決定部232は、決定したユーザ10の感情値を履歴データ222に追加する。
In step S103, the robot
ステップS104において、行動認識部234は、センサモジュール部210で解析された情報及びユーザ状態認識部230によって認識されたユーザ10の状態に基づいて、ユーザ10の行動分類を認識する。
In step S104, the
ステップS106において、行動決定部236は、ステップS102で決定されたユーザ10の現在の感情値及び履歴データ222に含まれる過去の感情値の組み合わせと、ロボット100の感情値と、行動認識部234によって認識されたユーザ10の行動と、反応ルール221とに基づいて、ロボット100の行動を決定する。
In step S106, the
ステップS108において、行動制御部250は、行動決定部236により決定された行動に基づいて、制御対象252を制御する。
In step S108, the
ステップS110において、記憶制御部238は、行動決定部236によって決定された行動に対して予め定められた行動の強度と、ロボット感情決定部232により決定されたロボット100の感情値とに基づいて、強度の総合値を算出する。
In step S110, the
ステップS112において、記憶制御部238は、強度の総合値が閾値以上であるか否かを判定する。強度の総合値が閾値未満である場合には、ユーザ10の行動を含むデータを履歴データ222に記憶せずに、当該処理を終了する。一方、強度の総合値が閾値以上である場合には、ステップS114へ移行する。
In step S112, the
ステップS114において、行動決定部236によって決定された行動と、現時点から一定期間前までの、センサモジュール部210で解析された情報、及びユーザ状態認識部230によって認識されたユーザ10の状態と、を、履歴データ222に記憶する。
In step S114, the behavior determined by the
以上説明したように、ロボット100によれば、ユーザ状態に基づいて、ロボット100の感情を示す感情値を決定し、ロボット100の感情値に基づいて、ユーザ10の行動を含むデータを履歴データ222に記憶するか否かを決定する。これにより、ユーザ10の行動を含むデータを記憶する履歴データ222の容量を抑制することができる。そして例えば、10年後にユーザ状態が10年前と同じ状態であるとロボット100が判断したときに、10年前の履歴データ222を読み込むことにより、ロボット100は10年前当時のユーザ10の状態(例えばユーザ10の表情、感情など)、更にはその場の音声、画像、匂い等のデータなどのあらゆる周辺情報を、ユーザ10に提示することができる。
As described above, according to the
また、ロボット100によれば、ユーザ10の行動に対して適切な行動をロボット100に実行させることができる。従来は、ユーザの行動を分類し、ロボットの表情や恰好を含む行動を決めていた。これに対し、ロボット100は、ユーザ10の現在の感情値を決定し、過去の感情値及び現在の感情値に基づいてユーザ10に対して行動を実行する。従って、例えば、昨日は元気であったユーザ10が今日は落ち込んでいた場合に、ロボット100は「昨日は元気だったのに今日はどうしたの?」というような発話を行うことができる。また、ロボット100は、ジェスチャーを交えて発話を行うこともできる。また、例えば、昨日は落ち込んでいたユーザ10が今日は元気である場合に、ロボット100は、「昨日は落ち込んでいたのに今日は元気そうだね?」というような発話を行うことができる。また、例えば、昨日は元気であったユーザ10が今日は昨日よりも元気である場合、ロボット100は「今日は昨日よりも元気だね。昨日よりも良いことがあった?」というような発話を行うことができる。また、例えば、ロボット100は、感情値が0以上であり、かつ感情値の変動幅が一定の範囲内である状態が継続しているユーザ10に対しては、「最近、気分が安定していて良い感じだね。」というような発話を行うことができる。
According to the
また、例えば、ロボット100は、ユーザ10に対し、「昨日言っていた宿題はできた?」と質問し、ユーザ10から「できたよ」という回答が得られた場合、「偉いね!」等の肯定的な発話をするとともに、拍手又はサムズアップ等の肯定的なジェスチャーを行うことができる。また、例えば、ロボット100は、ユーザ10が「一昨日話したプレゼンテーションがうまくいったよ」という発話をすると、「頑張ったね!」等の肯定的な発話をするとともに、上記の肯定的なジェスチャーを行うこともできる。このように、ロボット100がユーザ10の状態の履歴に基づいた行動を行うことによって、ユーザ10がロボット100に対して親近感を覚えることが期待できる。
For example, the
上記実施形態では、ロボット100は、ユーザ10の顔画像を用いてユーザ10を認識する場合について説明したが、開示の技術はこの態様に限定されない。例えば、ロボット100は、ユーザ10が発する音声、ユーザ10のメールアドレス、ユーザ10のSNSのID又はユーザ10が所持する無線ICタグが内蔵されたIDカード等を用いてユーザ10を認識してもよい。
In the above embodiment, the
なお、ロボット100は、行動制御システムを備える電子機器の一例である。行動制御システムの適用対象は、ロボット100に限られず、様々な電子機器に行動制御システムを適用できる。また、サーバ300の機能は、1以上のコンピュータによって実装されてよい。サーバ300の少なくとも一部の機能は、仮想マシンによって実装されてよい。また、サーバ300の機能の少なくとも一部は、クラウドで実装されてよい。
The
図4は、ロボット100及びサーバ300として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、本実施形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、本実施形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ1200に、本実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。
Figure 4 shows an example of a hardware configuration of a
本実施形態によるコンピュータ1200は、CPU1212、RAM1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、DVDドライブ1226、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。DVDドライブ1226は、DVD-ROMドライブ及びDVD-RAMドライブ等であってよい。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230及びキーボードのようなレガシの入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。
The
CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。
The
通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納する。DVDドライブ1226は、プログラム又はデータをDVD-ROM1227等から読み取り、記憶装置1224に提供する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。
The
ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。
プログラムは、DVD-ROM1227又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。
The programs are provided by a computer-readable storage medium such as a DVD-
例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、DVD-ROM1227、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
For example, when communication is performed between
また、CPU1212は、記憶装置1224、DVDドライブ1226(DVD-ROM1227)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
The
様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
Various types of information, such as various types of programs, data, tables, and databases, may be stored in the recording medium and may undergo information processing. The
上で説明したプログラム又はソフトウェアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。
The above-described programs or software modules may be stored in a computer-readable storage medium on the
本実施形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。 The blocks in the flowcharts and block diagrams in this embodiment may represent stages of a process in which an operation is performed or "parts" of a device responsible for performing the operation. Particular stages and "parts" may be implemented by dedicated circuitry, programmable circuitry provided with computer-readable instructions stored on a computer-readable storage medium, and/or a processor provided with computer-readable instructions stored on a computer-readable storage medium. The dedicated circuitry may include digital and/or analog hardware circuits and may include integrated circuits (ICs) and/or discrete circuits. The programmable circuitry may include reconfigurable hardware circuits including AND, OR, XOR, NAND, NOR, and other logical operations, flip-flops, registers, and memory elements, such as, for example, field programmable gate arrays (FPGAs) and programmable logic arrays (PLAs).
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。 A computer-readable storage medium may include any tangible device capable of storing instructions that are executed by a suitable device, such that a computer-readable storage medium having instructions stored thereon comprises an article of manufacture that includes instructions that can be executed to create means for performing the operations specified in the flowchart or block diagram. Examples of computer-readable storage media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of computer-readable storage media may include floppy disks, diskettes, hard disks, random access memories (RAMs), read-only memories (ROMs), erasable programmable read-only memories (EPROMs or flash memories), electrically erasable programmable read-only memories (EEPROMs), static random access memories (SRAMs), compact disk read-only memories (CD-ROMs), digital versatile disks (DVDs), Blu-ray disks, memory sticks, integrated circuit cards, and the like.
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。 The computer readable instructions may include either assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine-dependent instructions, microcode, firmware instructions, state setting data, or source or object code written in any combination of one or more programming languages, including object-oriented programming languages such as Smalltalk, JAVA, C++, etc., and conventional procedural programming languages such as the "C" programming language or similar programming languages.
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 The computer-readable instructions may be provided to a processor of a general-purpose computer, special-purpose computer, or other programmable data processing apparatus, or a programmable circuit, either locally or over a local area network (LAN), a wide area network (WAN), such as the Internet, so that the processor of the general-purpose computer, special-purpose computer, or other programmable data processing apparatus, or the programmable circuit, executes the computer-readable instructions to generate means for performing the operations specified in the flowcharts or block diagrams. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, etc.
(感情マップによる感情の決定)
ユーザ感情決定部231は、特定のマッピングに従い、ユーザの感情を決定してよい。具体的には、ユーザ感情決定部231は、感情認識エンジン231aを利用して、特定のマッピングである感情マップ(図5参照)に従い、ユーザの感情を決定してよい。同様に、ロボット感情決定部232は、感情生成エンジン232bを利用して、特定のマッピングである感情マップ(図5参照)に従い、ロボット100の感情を決定してよい。なお、感情認識エンジン231a、感情生成エンジン232bを特に区別する必要がない場合には、これらを感情エンジンと総称する。
(Determining emotions using emotion maps)
The user
図5は、複数の感情がマッピングされる感情マップ300を示す図である。感情マップ300において、感情は、中心から放射状に同心円に配置されている。同心円の中心に近いほど、原始的状態の感情が配置されている。同心円のより外側には、心境から生まれる状態や行動を表す感情が配置されている。感情とは、情動や心的状態も含む概念である。同心円の左側には、概して脳内で起きる反応から生成される感情が配置されている。同心円の右側には概して、状況判断で誘導される感情が配置されている。同心円の上方向及び下方向には、概して脳内で起きる反応から生成され、かつ、状況判断で誘導される感情が配置されている。また、同心円の上側には、「快」の感情が配置され、下側には、「不快」の感情が配置されている。このように、感情マップ300では、感情が生まれる構造に基づいて複数の感情がマッピングされており、同時に生じやすい感情が、近くにマッピングされている。
5 is a diagram showing an
(1)例えば感情エンジンが、100msec程度で感情を検知している場合、ロボット100の反応動作(例えば相槌)の決定は、頻度が少なくとも、感情エンジンの検知頻度(100msec)と同様のタイミングに設定してよく、これよりも早いタイミングに設定してもよい。感情エンジンの検知頻度はサンプリングレートと解釈してよい。
(1) For example, if the emotion engine detects emotions at about 100 msec, the frequency of the reaction action (e.g., a backchannel) of the
100msec程度で感情を検知し、即時に連動して反動動作(例えば相槌)を行うことで、不自然な相槌ではなくなり、自然な空気を読んだ対話を実現できる。ロボット100感情マップ300の曼荼羅の方向性とその度合い(強さ)に応じて、反動動作(相槌など)を行う。なお、感情認識エンジン231aの検知頻度(サンプリングレート)は、100msに限定されず、シチュエーション(スポーツをしている場合など)、ユーザの年齢などに応じて、変更してもよい。
By detecting emotions in about 100 msec and immediately performing a corresponding reaction (e.g., a backchannel), unnatural backchannels can be avoided, and a natural dialogue that reads the atmosphere can be realized. The reaction (backchannel, etc.) is performed according to the directionality and the degree (strength) of the mandala in the robot's 100
(2)感情マップ300と照らし合わせ、感情の方向性とその度合いの強さを予め設定しておき、相槌の動き及び相槌の強弱を設定してよい。例えば、ロボット100が安定感、安心などを感じている場合、ロボット100は、頷いて話を聞き続ける。ロボット100が不安、迷い、怪しい感じを覚えている場合、ロボット100は、首をかしげてもよく、首振りを止めてもよい。
(2) The directionality of emotions and the strength of their intensity may be preset in reference to the
これらの感情は、感情マップ300の3時の方向に分布しており、普段は安心と不安のあたりを行き来する。感情マップ300の右半分では、内部的な感覚よりも状況認識の方が優位に立つため、落ち着いた印象になる。
These emotions are distributed in the three o'clock direction on
(3)ロボット100が褒められて快感を覚えた場合、「あー」というフィラーが台詞の前に入り、きつい言葉をもらって痛感を覚えた場合、「うっ!」というフィラーが台詞の前に入ってよい。また、ロボット100が「うっ!」と言いつつうずくまる仕草などの身体的な反応を含めてよい。これらの感情は、感情マップ300の9時あたりに分布している。
(3) If the
(4)感情マップ300の左半分では、状況認識よりも内部的な感覚(反応)の方が優位に立つ。よって、思わず反応してしまった印象を与え得る。
(4) In the left half of the
ロボット100が納得感という内部的な感覚(反応)を覚えながら状況認識においても好感を覚える場合、ロボット100は、相手を見ながら深く頷いてよく、また「うんうん」と発してよい。このように、ロボット100は、相手へのバランスのとれた好感、すなわち、相手への許容や寛容といった行動を生成してよい。このような感情は、感情マップ300の12時あたりに分布している。
When the
逆に、ロボット100が不快感という内部的な感覚(反応)を覚えながら状況認識においても、ロボット100は、嫌悪を覚えるときには首を横に振る、憎しみを覚えるくらいになると、目のLEDを赤くして相手を睨んでもよい。このような感情は、感情マップ300の6時あたりに分布している。
Conversely, even when the
(5)感情マップ300の内側は心の中、感情マップ300の外側は行動を表すため、感情マップ300の外側に行くほど、感情が目に見える(行動に表れる)ようになる。
(5) The inside of
(6)感情マップ300の3時付近に分布する安心を覚えながら、人の話を聞く場合、ロボット100は、軽く首を縦に振って「ふんふん」と発する程度であるが、12時付近の愛の方になると、首を深く縦に振るような力強い頷きをしてよい。
(6) When listening to someone with a sense of relief, which is distributed around the 3 o'clock area of the
ユーザ感情決定部231は、センサモジュール部210で解析された情報、及び認識されたユーザ10の状態を、予め学習されたニューラルネットワークに入力し、感情認識エンジン231aを利用して感情マップ300に示す各感情を示す感情値を取得し、ユーザ10の感情を決定する。このニューラルネットワークは、センサモジュール部210で解析された情報、及び認識されたユーザ10の状態と、感情マップ300に示す各感情を示す感情値との組み合わせである複数の学習データに基づいて予め学習されたものである。また、このニューラルネットワークは、図6に示す感情マップ900のように、近くに配置されている感情同士は、近い値を持つように学習される。図6では、「安心」、「安穏」、「心強い」という複数の感情が、近い感情値となる例を示している。
The user
一方、ロボット感情決定部232は、センサモジュール部210で解析された情報、ユーザ状態認識部230によって認識されたユーザ10の状態、及びロボット100の状態を、予め学習されたニューラルネットワークに入力し、感情生成エンジン232bを利用して感情マップ300に示す各感情を示す感情値を取得し、ロボット100の感情を決定する。このニューラルネットワークは、センサモジュール部210で解析された情報、認識されたユーザ10の状態、及びロボット100の状態と、感情マップ300に示す各感情を示す感情値との組み合わせである複数の学習データに基づいて予め学習されたものである。例えば、タッチセンサ(図示省略)の出力から、ロボット100がユーザ10になでられていると認識される場合に、「嬉しい」の感情値「3」となることを表す学習データや、加速度センサ(図示省略)の出力から、ロボット100がユーザ10に叩かれていると認識される場合に、「怒」の感情値「3」となることを表す学習データに基づいて、ニューラルネットワークが学習される。また、このニューラルネットワークは、図6に示す感情マップ900のように、近くに配置されている感情同士は、近い値を持つように学習される。
On the other hand, the robot
行動決定部236は、ユーザの行動と、ユーザの感情、ロボットの感情とを表すテキストに、ユーザの行動に対応するロボットの行動内容を質問するための固定文を追加して、対話機能に入力することにより、ロボットの行動内容を生成する。
The
例えば、行動決定部236は、ロボット感情決定部232によって決定されたロボット100の感情から、図7に示すような感情テーブルを用いて、ロボット100の状態を表すテキストを取得する。ここで、感情テーブルには、感情の種類毎に、各感情値に対してインデックス番号が付与されており、インデックス番号毎に、ロボット100の状態を表すテキストが格納されている。
For example, the
ロボット感情決定部232によって決定されたロボット100の感情が、インデックス番号「2」に対応する場合、「とても楽しい状態」というテキストが得られる。なお、ロボット100の感情が、複数のインデックス番号に対応する場合、ロボット100の状態を表すテキストが複数得られる。
When the emotion of the
また、ユーザ10の感情に対しても、図8に示すような感情テーブルを用意しておく。ここで、ユーザの行動が、「ごきげんようと話しかける」であり、ロボット100の感情が、インデックス番号「2」であり、ユーザ10の感情が、インデックス番号「3」である場合には、「ロボットはとても楽しい状態です。ユーザは普通に楽しい状態です。ユーザに「ごきげんよう」と話しかけられました。ロボットとして、どのように返事をしますか?」とチャットエンジンに入力し、ロボットの行動内容を取得する。行動決定部236は、この行動内容から、ロボットの行動を決定する。
Also, for the emotions of the
このように、ロボット100は、ロボットの感情に応じたインデックス番号に応じて、ロボットの行動を変えることができるため、ユーザは、ロボットに心があるような印象を持ち、ロボットに対して話しかけるなどの行動をとることが促進される。
In this way, the
また、行動決定部236は、ユーザの行動と、ユーザの感情、ロボットの感情とを表すテキストだけでなく、履歴データ222の内容を表すテキストも追加した上で、ユーザの行動に対応するロボットの行動内容を質問するための固定文を追加して、対話機能を有する文章生成モデルに入力することにより、ロボットの行動内容を生成するようにしてもよい。これにより、ロボット100は、ユーザの感情や行動を表す履歴データに応じて、ロボットの行動を変えることができるため、ユーザは、ロボットに個性があるような印象を持ち、ロボットに対して話しかけるなどの行動をとることが促進される。また、履歴データに、ロボットの感情や行動を更に含めるようにしてもよい。
Furthermore, the
(実施例)
次に、本実施形態のロボット100を、育児ロボットに適用する場合の例について説明する。育児ロボットとしてのロボット100は、例えば、パーソナルコンピュータ、タブレット端末、スマートフォンに実装される。また、人型ロボットやぬいぐるみロボットに実装されてもよい。育児ロボットは、ユーザである幼児(または乳児)に何をして遊ぶか提案し、さらに、遊んでいる際のユーザの状態や、周囲の環境を監視することにより、ユーザに異変がないか、危険が及ばないかを見守りながら、適宜話しかけや会話を行ったり、遊びの相手をしたりする。
(Example)
Next, an example of the case where the
ロボット100のセンサ部200は、例えば、ユーザと対話したり、ユーザの状態を監視したりするためのカメラ、マイク、非接触生体センサ、温度計を含む。カメラは、ユーザの映像や、ユーザの周囲の映像を取得する。マイクは、ユーザの発する声や、周囲の音を収集する。非接触生体センサは、ユーザの体温、心拍数などの生体情報を取得する。温度計は、ユーザの周囲の温度を取得する。また、ロボット100の制御対象252は、ユーザと対話するためのディスプレイやスピーカを含む。
The
ロボット100のユーザ感情決定部231には、ユーザの表情や音声から、ユーザの感情を分析し、感情値を決定することが可能な感情認識エンジン231aが搭載されている。ロボット100は、感情認識エンジン231aを利用することで、ユーザの感情(例えば、「お腹が空いた」、「眠たい」、「もっと遊びたい」など)を、正確かつリアルタイムに把握することが可能となっている。ユーザは幼児であることから、ロボット100との対話の内容だけでは、実際の感情を判断することは難しいため、表情や声のトーンなど様々な情報に基づいてユーザ10の感情を分析し、ロボット100の行動を決定することが望ましい。
The user
なお、ロボット100の格納部220には、ユーザへの対応に関するアドバイス情報が格納されている。アドバイス情報は、例えば、ユーザが眠い時は、どのような表情をしたり、どのような行動をとったりするのか、また、お腹が空いているときは、どのような表情をしたり、どのような行動をとったりするのか、といった内容が挙げられるが、これらに限られない。
The
次に、ロボット100の動作について図9のフローチャートを用いて説明する。ロボット100は、以下のステップS1~S5-1,S5-2により、ユーザの好み、ユーザの状況、ユーザの反応に合わせて、ユーザの状態を監視したり、ユーザとの会話を実施したりする。なお、ロボット100は、パーソナルコンピュータに実装されているとする。
Next, the operation of the
(ステップS1)
ロボット100は、ユーザ10の状態、ユーザ10の感情値、ロボット100の感情値、履歴データ222を取得する。具体的には、上記ステップS100~S103と同様の処理を行い、センサ部200から取得される情報に基づいて、ユーザ10の状態、ユーザ10の感情値、ロボット100の感情値、履歴データ222を取得する。
(Step S1)
The
(ステップS2)
ロボット100は、ユーザ10の好みを取得する。具体的には、行動決定部236は、例えばユーザ10に対し、何をして遊びたいかを質問する発話を、ロボット100の行動として決定し、行動制御部250は、制御対象252(スピーカ)を制御し、ユーザ10に対して発話を行う。ユーザ状態認識部230は、センサモジュール部210で解析された情報(例えば、ユーザの回答)に基づいて、ユーザ10の好みを認識する。
(Step S2)
The
例えば、ユーザに対し、「何して遊ぼうか?」などの質問を発話するようにしてもよい。また、ロボット100は、質問に対するユーザ10の回答内容(「積み木で遊びたい」等)だけでなく、カメラから取得されるユーザ10の表情や、対話の際の声のトーンから、ユーザの好みを分析してもよい。なお、ロボット100の問いかけに対し、ユーザ10が回答しなかったり、戸惑っている様子が検知されたりした場合には、「積み木して遊ぶ?パズルにする?」のように選択肢を与えるなど、質問の表現を変えて再度問いかけるようにしてもよい。また、感情認識エンジン231aによって取得したユーザの感情(「眠い」、「お腹が空いた」等)から、ユーザの好み(遊ぶより寝たい、おやつを食べたい等)を把握するようにしてもよい。
For example, the
(ステップS3)
ロボット100は、ユーザ10に提案する遊びの内容を決定する。具体的には、行動決定部236は、ユーザ10の遊びに関する好み、ユーザの感情、ロボット100の感情、及び履歴データ222に格納された内容を表すテキストに、「このとき、ユーザにオススメの行動は?」という固定文を追加して、文章生成モデルに入力し、遊びに関するオススメの行動内容を取得する。このとき、ユーザ10の遊びに関する好みだけでなく、ユーザ10の感情(例えば「眠い」)や履歴データ222を考慮することにより、ユーザ10に適した遊びに関する行動を提案することができる。ユーザ10の感情が「眠い」と判断された場合には、遊びについての提案ではなく、「お昼寝しようか?」などの提案をするようにしてもよい。
(Step S3)
The
さらに、ロボット100の感情を考慮することにより、ロボット100が感情を有していることを、ユーザ10に感じさせることができる。ロボット100の感情値は、図5に例示するような感情マップに基づいて決定することができる。なお、ロボットの感情は、周囲の状況や時間帯、ユーザの状態や感情によって変動してもよい。具体的には、例えば、ユーザがおもちゃを乱暴に扱ったり、ロボット100におもちゃを投げつけたりした場合には、ロボット100の感情がネガティブになり、「おもちゃは大事にしようね。」、「投げたりしちゃダメでしょ。」などのように、ユーザに行動を改めさせる発話を実施するようにしてもよい。また、ロボット100が注意しても、ユーザ10が行動を改めない場合には、ロボット100の声のトーンを変えて、怒ったような口調でユーザ10の行動を改めさせる発話を行うようにしてもよい。また、ユーザ10が遊びに夢中になっている様子の場合には、ロボット100の感情もポジティブになり、ユーザ10がつまらなそうにしている場合には、ロボット100もネガティブになる、というようにユーザの感情に同調するようにしてもよい。また、時間が夜遅い場合や、ユーザ10の親から注意を受けた場合(「早く寝なさい」等の呼びかけ)には、ロボット100の感情がネガティブになるようにしてもよい。このように、ユーザ10の態度や気持ちに応じてロボットの感情が変化することにより、ユーザ10は、感情を有する相手に遊んでもらっているような感覚を持つことができる。
Furthermore, by taking the emotions of the
さらに、ロボット100は、履歴データ222を取得し、例えば、ユーザ10が過去に積み木遊びをした際の履歴データがある場合には、その時の行動内容を参照するようにしてもよい。履歴データには、積み木遊びをした日付けや時間帯の情報、遊んだ時間、遊びの内容などの情報が含まれていてよい。また、その時のユーザ10の様子(楽しそうだった、つまらなそうだった等)が含まれていてもよい。
Furthermore, the
(ステップS4)
ロボット100は、ユーザに決定した行動内容を提案し、ユーザの反応を取得する。具体的には、行動制御部250は、制御対象252(スピーカ)を制御し、ユーザに対して「積み木でおうちを作ってみようか?」といった提案をする発話を行う。ユーザ状態認識部230は、センサモジュール部210で解析された情報に基づいて、ユーザの状態を認識し、ユーザ感情決定部231は、センサモジュール部210で解析された情報、及びユーザ状態認識部230によって認識されたユーザの状態に基づいて、ユーザ10の感情を示す感情値を決定する。行動決定部236は、ユーザ状態認識部230によって認識されたユーザ10の状態、及び、ユーザ10の感情を示す感情値に基づいて、ユーザ10の反応が、ポジティブか否かを判断し、ロボット100の行動として、ユーザ10に対して別の行動を提案するかどうかを決定する。
(Step S4)
The
(ステップS5-1)
行った提案に対してユーザの反応がポジティブ(肯定的)である場合、ロボット100は、行動内容を確定させる。ユーザの反応がポジティブであるかどうかは、ユーザ状態認識部230によって認識されたユーザの状態(ユーザの返事の内容や表情、口調など)や、ユーザの感情から判断するようにしてよい。ロボット100の行動として、行動内容を確定させると決定した場合には、行動制御部250の制御により、ユーザ10に対して「どんなおうちができるかな。」のように、提案した内容の実行を促す発話を行ってもよい。
(Step S5-1)
If the user's reaction to the suggestion is positive, the
(ステップS5-2)
ユーザ10の反応がネガティブ(否定的)である場合、ロボット100は、ユーザに対して提案する別の行動内容を決定する。ユーザの反応がネガティブであるかどうかは、ユーザ状態認識部230によって認識されたユーザの状態(ユーザの返事の内容や表情、口調など)や、ユーザの感情から判断するようにしてよい。ロボット100の行動として、ユーザ10に対して別の行動内容を提案すると決定した場合には、行動決定部236は、ユーザ10の積み木遊びに関する好み、ユーザ10の感情、ロボット100の感情、及び履歴データ222に格納された内容を表すテキストに、「ユーザにオススメの行動は他にある?」という固定文を追加して、文章生成モデルに入力し、遊びに関するオススメの内容を取得する。そして、上記ステップS4へ戻り、ユーザからポジティブな反応が得られ、提案した行動内容が確定するまで、上記のステップS4~ステップS5-2の処理を繰り返す。
(Step S5-2)
If the
以上のとおり、ロボット100は、ユーザの好み、ユーザ10の状況、ユーザ10の反応に合わせて、適切な遊びに関する提案を行うことができる。さらに、提案の内容は、ロボット100自身の感情によっても影響を受けるので、ユーザ10は、感情を有する相手に遊んでもらっているような感覚を持つことができる。
As described above, the
遊びに関する行動内容が確定し、ロボット100の案内にしたがってユーザ10が積み木遊びを開始すると、ロボット100はユーザ10の状態を見守りながら、適宜褒めたり、励ましたりするようにしてもよい。例えば、ユーザ10が、上手に積み木を積み上げている場合には、「もう少しだね!」、「上手だね!」といった発話を行うようにしてもよい。一方、積み木が崩れてしまった場合には、「もう1回やってみようか」などの発話を行って励ましてもよい。
Once the action content related to play has been determined and the
また、遊んでいる途中でユーザの感情の変化が検知された場合には、変化に応じた行動を実施するようにしてもよい。例えば、ユーザの感情が「眠い」と認識された場合には、「お昼寝しようか」などの発話を行うようにしてもよい。 In addition, if a change in the user's emotions is detected while playing, an action may be taken in response to the change. For example, if the user's emotion is recognized as "sleepy," the robot may say something like, "Shall we take a nap?".
また、ロボット100自身の感情の変化が検知された場合には、ロボット100の感情の変化に応じた発話を行ってもよい。例えば、夜遅くなってロボット100の感情がネガティブになった場合には、「もうお片付けしようか。」等積み木遊びを終了させるような提案を行ってもよい。
In addition, when a change in the
また、ユーザが遊んでいる途中で、部屋の温度が高すぎるまたは低すぎる等の以上を検知した場合には、ユーザの親に知らせたり、ロボット100が部屋のエアコンの設定温度を変更したりできるようにしてもよい。
In addition, if the robot detects an abnormality such as the room temperature being too high or too low while the user is playing, the
なお、上記の例では、ユーザが積み木遊びをしている設定で説明しているが、ロボット100は、様々な状況下でユーザの好みや感情に寄り添って対話や提案を行うことができる。
In the above example, the user is playing with building blocks, but the
例えば、ユーザがパズル遊びをしている場合、ユーザがピースを嵌める正しい位置が分からず困った様子の場合には、ロボット100が手助けをする発話(「もう少し下かな」等)を行ってもよい。一方、ユーザが夢中になって遊んでいる様子の場合には、声はかけずに見守るようにしてもよい。
For example, if the user is playing with a puzzle and seems to be having trouble figuring out the correct position to put a piece in, the
また、例えば、ユーザが子供向け番組を視聴している場合には、ユーザの反応を見ながら、「このキャラクターが好きなの?」といった問いかけを行ったり、ロボット100の感情に基づいて、ロボット100自身が好きなキャラクターを伝えたりしてもよい。
For example, when the user is watching a children's program, the
なお、上記の例では、ロボット100は、パーソナルコンピュータに実装されているが、人型ロボットやぬいぐるみロボットに実装するようにしてもよい。または、人型ロボットやぬいぐるみロボットに搭載された制御対象機器(スピーカやカメラ)に無線又は有線で接続された制御装置に適用してもよい。
In the above example, the
人型ロボットの場合、ユーザに話しかけるだけでなく、人型ロボットがユーザ10といっしょに遊ぶようにしてもよい。例えば、ユーザが積み木をうまく積めない場合にはロボット100が代わりに積んであげてもよい。
In the case of a humanoid robot, the humanoid robot may not only talk to the user, but also play with the
ぬいぐるみロボットの場合も、ユーザ10と対話を行い、上記と同様の手順で遊びの提案を行ったり、ユーザの見守りを行ったりするようにしてもよい。さらに、ぬいぐるみロボットの場合は、ユーザが眠る時に傍らに置いたり、ユーザが抱っこして寝たりすることもできるので、ユーザが眠ろうとしている時に子守唄を歌ったり、お話しを聞かせたりしてもよい。この時、その日のユーザの履歴データに基づいて、「今日は積み木で遊んで楽しかったね。」などと話しかけるようにしてもよい。
In the case of a stuffed toy robot, it may also converse with the
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 The present invention has been described above using an embodiment, but the technical scope of the present invention is not limited to the scope described in the above embodiment. It is clear to those skilled in the art that various modifications and improvements can be made to the above embodiment. It is clear from the claims that forms with such modifications or improvements can also be included in the technical scope of the present invention.
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process, such as operations, procedures, steps, and stages, in the devices, systems, programs, and methods shown in the claims, specifications, and drawings is not specifically stated as "before" or "prior to," and it should be noted that the processes may be performed in any order, unless the output of a previous process is used in a later process. Even if the operational flow in the claims, specifications, and drawings is explained using "first," "next," etc. for convenience, it does not mean that it is necessary to perform the processes in that order.
5 システム、10、11、12 ユーザ、20 通信網、100、101、102 ロボット、200 センサ部、201 マイク、202 深度センサ、203 カメラ、204 距離センサ、210 センサモジュール部、211 音声感情認識部、212 発話理解部、213 表情認識部、214 顔認識部、220 格納部、221 反応ルール、222 履歴データ、230 ユーザ状態認識部、232 感情決定部、234 行動認識部、236 行動決定部、238 記憶制御部、250 行動制御部、252 制御対象、280 通信処理部、300 サーバ、1200 コンピュータ、1210 ホストコントローラ、1212 CPU、1214 RAM、1216 グラフィックコントローラ、1218 ディスプレイデバイス、1220 入出力コントローラ、1222 通信インタフェース、1224 記憶装置、1226 DVDドライブ、1227 DVD-ROM、1230 ROM、1240 入出力チップ 5 System, 10, 11, 12 User, 20 Communication network, 100, 101, 102 Robot, 200 Sensor unit, 201 Microphone, 202 Depth sensor, 203 Camera, 204 Distance sensor, 210 Sensor module unit, 211 Voice emotion recognition unit, 212 Speech understanding unit, 213 Facial expression recognition unit, 214 Face recognition unit, 220 Storage unit, 221 Response rules, 222 History data, 230 User state recognition unit, 232 Emotion determination unit, 234 Behavior recognition unit, 236 Behavior determination unit, 238 Memory control unit, 250 Behavior control unit, 252 Control target, 280 Communication processing unit, 300 Server, 1200 Computer, 1210 Host controller, 1212 CPU, 1214 RAM, 1216 Graphic controller, 1218 Display device, 1220 I/O controller, 1222 communication interface, 1224 storage device, 1226 DVD drive, 1227 DVD-ROM, 1230 ROM, 1240 I/O chip
Claims (5)
育児の対象であるユーザの感情を示す感情値を決定するユーザ感情決定部と、
ロボットの感情を示す感情値を決定するロボット感情決定部と、
前記ユーザの感情値及び前記ロボットの感情値の少なくとも一方と、前記ユーザと前記ロボットを対話させる対話機能を有する文章生成モデルによって取得した情報とに基づいて、前記ロボットの行動を決定する行動決定部と、を備え、
前記行動決定部は、
前記ロボットが前記育児の対象であるユーザに提案する遊びの内容を決定する、行動制御システム。 A behavior control system for a robot applied to support childcare, comprising:
a user emotion determination unit that determines an emotion value indicating an emotion of a user who is a child-rearing subject;
a robot emotion determination unit for determining an emotion value indicating an emotion of the robot;
a behavior determination unit that determines a behavior of the robot based on at least one of the emotion value of the user and the emotion value of the robot, and information acquired by a sentence generation model having a dialogue function for allowing the user and the robot to converse with each other;
The action determination unit is
A behavior control system that determines the content of play that the robot will suggest to the user who is the subject of childcare.
前記行動決定部は、
認識された前記ユーザの状態、及び前記ユーザ感情決定部によって決定された前記ユーザの感情値に基づいて、前記ユーザの反応がネガティブであると判断した場合には、前記ユーザの感情値及び前記ロボットの感情値の少なくとも一方と、前記文章生成モデルによって取得した情報に基づいて、別の遊びの内容を決定する、請求項1に記載の行動制御システム。 A user state recognition unit that recognizes the state of the user to whom the content of the play is proposed,
The action determination unit is
2. The behavior control system according to claim 1, wherein when it is determined that the user's reaction is negative based on the recognized state of the user and the emotional value of the user determined by the user emotion determination unit, the content of another play is determined based on at least one of the emotional value of the user and the emotional value of the robot, and information acquired by the sentence generation model.
前記行動決定部は、
前記遊びが実施されている間に、前記ユーザの状態または前記ロボットの感情の変化が検知された場合には、前記感情の変化に基づき、別の行動内容を決定する、請求項2に記載の行動制御システム。 and a behavior control unit that executes the play when the user's reaction is determined to be positive.
The action determination unit is
3. The behavior control system according to claim 2, wherein, when a change in the user's state or the robot's emotion is detected while the play is being performed, a different behavior content is determined based on the change in emotion.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023072313 | 2023-04-26 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024159569A true JP2024159569A (en) | 2024-11-08 |
Family
ID=
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2024159569A (en) | Behavior Control System | |
JP2024155809A (en) | Behavior Control System | |
JP2024152711A (en) | Behavior Control System | |
JP2024155874A (en) | Behavior Control System | |
JP2024155796A (en) | Behavior Control System | |
JP2024156636A (en) | Behavior Control System | |
JP2024156637A (en) | Behavior Control System | |
JP2024159634A (en) | Electronics | |
JP2024159720A (en) | Behavior Control System | |
JP2024157532A (en) | Behavior Control System | |
JP2024159582A (en) | Behavior Control System | |
JP2024159560A (en) | Behavior Control System | |
JP2024153584A (en) | Behavior Control System | |
JP2024159565A (en) | Behavior Control System | |
JP2024154413A (en) | Behavior Control System | |
JP2024156632A (en) | Behavior Control System | |
JP2024155828A (en) | Behavior Control System | |
JP2024159568A (en) | Behavior Control System | |
JP2024155805A (en) | Electronics | |
JP2024159596A (en) | Electronics | |
JP2024159612A (en) | Behavior Control System | |
JP2024155839A (en) | Behavior Control System | |
JP2024154408A (en) | Behavior Control System | |
JP2024156633A (en) | Behavior Control System | |
JP2024159588A (en) | Electronics |