JP2016198843A - Control method, control apparatus, and program - Google Patents
Control method, control apparatus, and program Download PDFInfo
- Publication number
- JP2016198843A JP2016198843A JP2015079843A JP2015079843A JP2016198843A JP 2016198843 A JP2016198843 A JP 2016198843A JP 2015079843 A JP2015079843 A JP 2015079843A JP 2015079843 A JP2015079843 A JP 2015079843A JP 2016198843 A JP2016198843 A JP 2016198843A
- Authority
- JP
- Japan
- Prior art keywords
- interaction
- spontaneous
- action
- intervention
- priority
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Abstract
Description
本発明は、制御方法、制御装置、及びプログラムに関する。 The present invention relates to a control method, a control device, and a program.
ロボット分野やエージェント、広告分野等、ユーザに対して何かを働きかける分野では、ユーザに対して効果的な働きかけやインタラクションを行うために様々な技術が提案されている。例えば、コミュニケーションロボットにおいて、過去の動作履歴に応じて次の動作を決定する技術が知られている(例えば特許文献1参照)。 In the field of acting something on the user, such as the robot field, agent, and advertising field, various techniques have been proposed in order to effectively engage and interact with the user. For example, in a communication robot, a technique for determining a next operation according to a past operation history is known (see, for example, Patent Document 1).
しかしながら、上記技術では、コミュニケーションロボットの動作が急に減る、又は急に活発に動作する等、ユーザに対してコミュニケーションロボットの動作により示されるインタラクションに一貫性が無い場合がある。一貫性が無いインタラクションは、ユーザへの介入の強さや介入レベルの変化は、ユーザを困惑させ、良好なコミュニケーションの妨げとなる。 However, in the above technique, there is a case where the interaction indicated by the operation of the communication robot to the user is inconsistent, such as the operation of the communication robot suddenly decreasing or suddenly active. For inconsistent interactions, the strength of intervention and changes in the intervention level bother users and hinder good communication.
これに対して、開発時にコミュニケーションロボットが動作を行うタイミング等を適切に調整して動作に一貫性を持たせることは、ロボットが動作する状況や動作の種類等の様々な要素を考慮する必要があり、困難である。また、介護等の分野では、ユーザの自立度や、ケアの必要な部位の状態に応じてどこまでユーザに干渉するかを動的に変化させることが好ましい場合がある。 On the other hand, it is necessary to consider various factors such as the situation in which the robot operates and the type of operation to make the operation consistent by appropriately adjusting the timing of the operation of the communication robot during development. Yes, it ’s difficult. In fields such as nursing care, it may be preferable to dynamically change how far to interfere with the user depending on the degree of independence of the user and the state of the part requiring care.
そこで、一側面では、本発明は、適切なタイミングでインタラクションを提示することを目的とする。 Therefore, in one aspect, an object of the present invention is to present an interaction at an appropriate timing.
一つの案では、センシングされたユーザの挙動に基づいて、前記ユーザに対して提示する第1のインタラクションを決定し、前記ユーザに対して自発的に提示する第2のインタラクションを決定し、過去の所定期間に提示された前記第1のインタラクション及び前記第2のインタラクションに基づいて介入度を算出し、前記介入度に基づいて、前記第2のインタラクションを提示するタイミングを制御する処理をコンピュータが実行する制御方法が提供される。 In one plan, a first interaction to be presented to the user is determined based on a sensed user behavior, a second interaction to be spontaneously presented to the user is determined, and the past The computer executes a process of calculating the degree of intervention based on the first interaction and the second interaction presented during a predetermined period and controlling the timing of presenting the second interaction based on the degree of intervention. A control method is provided.
一側面によれば、適切なタイミングでインタラクションを提示することができる。 According to one aspect, an interaction can be presented at an appropriate timing.
以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素及び実質的に同一の処理を行う箇所については、同一の符号を付することにより重複した説明を省く。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. Note that in the present specification and drawings, components having substantially the same functional configuration and portions that perform substantially the same processing are denoted by the same reference numerals, and redundant description is omitted.
<第1の実施形態>
[システムの構成]
まず、第1の実施形態に係る制御システム1について、図1を参照しながら説明する。図1は、第1の実施形態に係る制御システムの構成例を示す図である。図1に示すように、本実施形態に係る制御システム1は、ユーザに対して働きかけやインタラクション(以降では、単に、「インタラクション」と表す。)を行うコミュニケーションロボットR(以降では、単に、「ロボットR」と表す。)に内蔵される。
<First Embodiment>
[System configuration]
First, the
本実施形態に係る制御システム1は、制御装置100、センサ120、アクチュエータ130、及びスピーカ140等を有する。センサ120、アクチュエータ130、及びスピーカ140は、例えばバス等により制御装置100と接続されている。
The
制御装置100は、例えば、1以上のコンピュータであり、アクチュエータ130やスピーカ140を制御する。
The
センサ120は、例えばタッチセンサ、マイク、人感センサ等の各種センサであり、ロボットRに人が触れたことや人から話しかけられたこと、あるいは人が近づいたこと等を検知する。
The
アクチュエータ130は、制御装置100の制御に従って、ロボットRの手や足、首等の各部位を動かす。これにより、ロボットRは、身振りや手振り等のインタラクションをユーザに提示する。なお、アクチュエータ130は、例えば、手を動かすためのアクチュエータや足を動かすためのアクチュエータ等、ロボットRが動作させることができる各部位毎に存在する。
The
スピーカ140は、制御装置100の制御に従って、音波を発する。これにより、ロボットRは、発話や歌を唄う等のインタラクションをユーザに提示する。
The
このように、制御装置100がアクチュエータ130やスピーカ140を制御することにより、ロボットRの動作が制御される。これにより、ロボットRがユーザに対して行うインタラクションが制御される。
Thus, the
制御装置100は、CPU(Central Processing Unit)101、RAM(Random Access Memory)102、ROM(Read Only Memory)103、記憶装置104、通信装置105、及び外部装置106等を有する。これら各ハードウェア構成は、それぞれがバス等で相互に接続されている。
The
CPU101、例えば記憶装置104やROM103等からプログラムやデータをRAM102上に読み出し、各種処理を実行する演算装置である。RAM102は、プログラムやデータを一時保存する揮発性の半導体メモリである。ROM103は、電源を切ってもデータを保持することができる不揮発性の半導体メモリである。
The
記憶装置104は、プログラムやデータを格納している不揮発性のメモリであり、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等である。格納されるプログラムやデータには、制御装置100に搭載される基本ソフトウェアであるOS(Operating System)やOS上で各種処理を実行するプログラム(例えば、制御プログラム110)等がある。
The
通信装置105は、制御装置100がセンサ120、アクチュエータ130、及びスピーカ140等と通信を行うためのインタフェースである。外部装置106は、例えばSDカード(SD memory card)やUSBメモリ(Universal Serial Bus memory)等の外部記憶媒体とのインタフェースである。例えば、外部記憶媒体に記憶された制御プログラム110がインストールされることにより、記憶装置104に制御プログラム110が格納される。
The
本実施形態に係る制御装置100は、上記のハードウェア構成により、後述するような各種処理を実現することができる。
The
なお、図1に示す制御システム1では、制御装置100がロボットRに内蔵される場合について説明したが、これに限られない。例えば、制御システム1は、制御装置100をロボットRの外部に設置して、制御装置100がセンサ120、アクチュエータ130、及びスピーカ140等とネットワークを介して通信可能なように構成されてもよい。
In the
ここで、制御装置100がアクチュエータ130やスピーカ140を制御することにより、ロボットRがユーザに対して行うインタラクションは、リアクション動作に基づくインタラクションと、自発動作に基づくインタラクションとに大別される。
Here, when the
リアクション動作に基づくインタラクションとは、センサ120により検知されたユーザの挙動(例えば、ロボットRに触れる、近づく、話しかける等)に基づいて、制御装置100がロボットRの動作を制御することによりユーザに対して提示される動作であり、第1のインタラクションの一例である。
The interaction based on the reaction action is based on the user's behavior detected by the sensor 120 (for example, touching, approaching, talking to the robot R, etc.), and the
一方、自発動作に基づくインタラクションとは、ユーザの挙動に関わらずに、制御装置100がロボットRを制御することによりユーザに対して自発的に提示される動作であり、第2のインタラクションの一例である。
On the other hand, the interaction based on the spontaneous operation is an operation that is spontaneously presented to the user by the
本実施形態は、ロボットRの自発動作の動作間隔を制御することにより、ユーザに対する介入の度合いや介入レベル(以降では、単に、「介入レベル」と表す。)を制御するものである。このことについて、図2を参照しながら概要を説明する。図2は、動作間隔の制御例について説明する図である。なお、介入とは、ロボットRがインタラクションによりユーザに与える影響のことを言う。したがって、介入レベルとは、ロボットRが発話や身振り手振り等のインタラクションによりユーザに与えた影響の度合いのことを言う。 In this embodiment, by controlling the operation interval of the spontaneous operation of the robot R, the degree of intervention and the intervention level (hereinafter simply referred to as “intervention level”) for the user are controlled. This will be outlined with reference to FIG. FIG. 2 is a diagram illustrating an example of operation interval control. The intervention refers to the influence that the robot R has on the user due to the interaction. Therefore, the intervention level refers to the degree of influence that the robot R exerts on the user through interaction such as speech and gestures.
本実施形態に係る制御装置100は、ロボットRが行う自発動作及びリアクション動作に対して、当該動作に基づくインタラクションによってユーザに与える介入レベルを数値化したスコアを設定する。そして、制御装置100は、過去の所定の期間に行われた自発動作やリアクション動作のスコアの合計(合計スコア)に基づき、自発動作を行うか否かを判定することで、自発動作の動作間隔を制御する。介入レベル、スコア、合計スコアは、介入度の一例である。
The
例えば、図2に示すように、過去の所定の期間内(時刻t0から現在まで)の時刻t1〜t6にロボットRが行った自発動作又はリアクション動作の合計スコアに基づき、現在、自発動作を行うか否かを判定する。これにより、1つ前に行われた動作(時刻t6で行われた動作)から次に行う動作(現在行う動作)までの動作間隔を制御する。すなわち、合計スコアが所定の閾値以上である場合(ユーザに対する介入レベルが高い場合)、自発動作を行わない(つまり、動作間隔を長くする)ように制御する。一方で、合計スコアが所定の閾値未満である場合(ユーザに対する介入レベルが低い場合)、自発動作を行う(動作間隔を短くする)ように制御する。このように、本実施形態に係る制御装置100は、ロボットRの自発動作の動作間隔を動的に制御することで、ユーザに対する介入レベルを制御する。
For example, as shown in FIG. 2, based on a total score of spontaneous actions or reaction actions performed by the robot R at times t 1 to t 6 within a predetermined period in the past (from time t 0 to the present), It is determined whether or not to perform an operation. Thereby controlling the operation interval from one previously performed the operation (operation performed at time t 6) to do next (operation performed currently). That is, when the total score is equal to or higher than a predetermined threshold (when the intervention level for the user is high), control is performed so as not to perform the spontaneous action (that is, lengthen the action interval). On the other hand, when the total score is less than a predetermined threshold (when the intervention level for the user is low), control is performed so as to perform a spontaneous operation (shorten the operation interval). Thus, the
[機能構成]
次に、第1の実施形態に係る制御装置100の機能構成について、図3を参照しながら説明する。図3は、第1の実施形態に係る制御システムの機能構成例を示す図である。
[Function configuration]
Next, the functional configuration of the
制御装置100は、自発動作制御部11、動作実行部15、及びリアクション動作制御部16を有する。これら各部は、制御装置100にインストールされた制御プログラム110が、CPU101に実行させる処理により実現される。
The
また、制御装置100は、動作情報記憶部17、スコア情報記憶部18、及び動作履歴情報記憶部19を有する。これら各記憶部は、記憶装置104により実現される。
In addition, the
自発動作制御部11は、ロボットRに行わせる自発動作の決定や自発動作を行うタイミング(動作間隔)を制御する。ここで、自発動作制御部11は、スコア算出部12、動作決定部13、及び間隔決定部14を有する。
The spontaneous operation control unit 11 controls the determination of the spontaneous operation to be performed by the robot R and the timing (operation interval) at which the spontaneous operation is performed. Here, the spontaneous operation control unit 11 includes a
スコア算出部12は、スコア情報記憶部18に格納されたスコア情報テーブル181及び動作履歴情報記憶部19に格納された動作履歴情報テーブル191に基づき、過去の所定の期間に行われた自発動作及びリアクション動作の合計スコアを算出する。
Based on the score information table 181 stored in the score
動作決定部13は、動作情報記憶部17に格納された自発動作の動作情報171(図4(a)参照)に基づき、ロボットRに行わせる自発動作を決定する。
The
間隔決定部14は、スコア算出部12に算出された合計スコアに基づき、ロボットRに自発動作を行わせるか否かを判定する。本実施形態においては、間隔決定部14は、スコア算出部12により算出された合計スコアが、予め設定された所定の閾値未満であるか否かを判定することにより、ロボットRに自発動作を行わせるか否かを判定する。
The
動作実行部15は、自発動作制御部11により決定された自発動作をロボットRに行わせる。すなわち、動作実行部15は、決定された自発動作の動作内容に応じて、アクチュエータ130やスピーカ140を制御し、ロボットRを動作させる。また、同様に、動作実行部15は、後述するリアクション動作制御部16により決定されたリアクション動作をロボットRに行わせる。
The
リアクション動作制御部16は、ロボットRに行わせるリアクション動作を決定する。すなわち、リアクション動作制御部16は、センサ120により検知されたユーザの挙動に応じて、動作情報記憶部17に格納されたリアクション動作の動作情報172(図4(b)参照)に基づき、ロボットRに行わせるリアクション動作を決定する。
The reaction
より詳細には、ロボットRのセンサ120によりユーザの挙動(例えば、ユーザがロボットRに触れた、近づいた、又は話しかけた等)が検知されると、リアクション動作制御部16は、センサ120からセンサデータを受信する。そして、リアクション動作制御部16は、リアクション動作の動作情報172に基づき、受信したセンサデータに応じたリアクション動作を決定する。例えば、ユーザがロボットRに話しかけた場合、マイク等のセンサ120は、この話しかけを検知し、センサデータをリアクション動作制御部16に送信する。そして、リアクション動作制御部16は、例えば、リアクション動作の動作情報172に基づき、「返事をする」動作等のリアクション動作を決定する。
More specifically, when the user's behavior (for example, the user touched, approached, or talked to the robot R) is detected by the
動作情報記憶部17は、自発動作の動作情報171及びリアクション動作の動作情報172を格納する。ここで、自発動作の動作情報171及びリアクション動作の動作情報172について、図4を参照しながら説明する。図4は、第1の実施形態に係る動作情報の一例を示す図である。
The operation
図4(a)は、自発動作の動作情報171を示す。自発動作の動作情報171は、ロボットRに行わせる動作の優先度毎に、自発動作の動作情報テーブル171H〜171Lを有する。すなわち、自発動作の動作情報171は、ロボットRに行わせる自発動作のうち、優先度が高い順に、優先度「1」の動作情報テーブル171H、優先度「2」の動作情報テーブル171M、及び優先度「3」の動作情報テーブル171L等を有する。このように、自発動作の動作情報171は、例えば自発動作の振る舞いの種類に応じて、優先度が関連付けられており、優先度に応じてロボットRに行わせる自発動作が制御される。例えば、優先度「1」の動作情報テーブル171Hは、身振り手振り等を示す自発動作の動作情報が管理されており、優先度「2」の動作情報テーブル171Mには、独り言等を示す自発動作の動作情報が管理されている。また、例えば、優先度「3」の動作情報テーブル171Lには、歩き回る等の自発動作の動作情報が管理されている。このように、振る舞いの種類や類型毎に優先度を設定して、ロボットRの動作を制御する手法又は概念は、サブサンプションアーキテクチャと称される。
FIG. 4A shows
また、各動作情報テーブル171H〜171Lは、動作ID毎に、動作内容、動作時間及び必要リソース等のデータ項目を有する。動作IDは、自発動作の動作内容を一意に識別する情報である。動作内容は、ロボットRに行わせる自発動作の内容である。動作時間は、自発動作を開始してから終了するまでに要する時間である。 Each operation information table 171H to 171L has data items such as operation contents, operation time, and necessary resources for each operation ID. The action ID is information that uniquely identifies the action content of the spontaneous action. The operation content is the content of the spontaneous operation that the robot R performs. The operation time is the time required from the start of the spontaneous operation to the end.
必要リソースは、自発動作を行うのに必要なロボットRのリソースを示している。例えば、動作ID「H001」の自発動作「足をばたつかせる」をロボットRに行わせるには、「足」のリソースが使用可能である必要がある。換言すれば、ロボットRの「足」を動かすためのアクチュエータ130が、他の自発動作又はリアクション動作等により占有されていないことが必要である。同様に、例えば、独り言を示す自発動作をロボットRに行わせるには、スピーカ140のリソースが使用可能である必要がある。
The necessary resource indicates the resource of the robot R necessary for performing the spontaneous operation. For example, in order to cause the robot R to perform the spontaneous action “flick the foot” with the action ID “H001”, the resource “foot” needs to be available. In other words, it is necessary that the
このように、自発動作の動作情報171には、自発動作の振る舞いの種類や類型等に応じて設定された優先度毎に、自発動作の動作ID、動作内容、動作時間、必要リソース等が設定され、動作情報記憶部17により管理されている。なお、動作情報テーブル171H〜171Lは、上記で説明したデータ項目以外に、例えば、動作ID毎に、ロボットRに行わせる自発動作を決定するための条件(制約条件)を示すデータ項目を有していてもよい。この制約条件は、例えば、「同じ優先度の自発動作が行われた後、30秒間は当該動作IDの自発動作を行わない」等が挙げられる。
As described above, in the
図4(b)は、リアクション動作の動作情報172を示す。リアクション動作の動作情報172は、ロボットRに行わせる動作の優先度毎に、リアクション動作の動作情報テーブル172H〜172Lを有する。すなわち、リアクション動作の動作情報172は、ロボットRに行わせるリアクション動作のうち、優先度が高い順に、優先度「1」の動作情報テーブル172H、優先度「2」の動作情報テーブル173M、優先度「3」の動作情報テーブル174L等を有する。このように、リアクション動作の動作情報172は、例えばリアクション動作の振る舞いの種類に応じて、優先度が関連付けられており、優先度に応じてロボットRに行わせるリアクション動作が制御される。例えば、優先度「1」の動作情報テーブル172Hは、身振り手振り等を示すリアクション動作の動作情報が管理されており、優先度「2」の動作情報テーブル172Mには、発話等を示すリアクション動作の動作情報が管理されている。
FIG. 4B shows the
また、各動作情報テーブル172H〜172Lは、自発動作の動作情報テーブル171H〜171Lと同様に、動作ID毎に、動作内容、動作時間及び必要リソース等のデータ項目を有する。 Further, each of the operation information tables 172H to 172L has data items such as operation contents, operation time, and necessary resources for each operation ID, similarly to the operation information tables 171H to 171L of the spontaneous operation.
このように、リアクション動作の動作情報172には、リアクション動作の振る舞いの類型等に応じて設定された優先度毎に、自発動作の動作ID、動作内容、動作時間、必要リソース等が設定され、動作情報記憶部17により管理されている。
Thus, in the
なお、自発動作の動作情報171及びリアクション動作の動作情報172で共通に優先度を設定してもよい。この場合、ロボットRが自発動作よりもリアクション動作を優先して行うようにするためには、各リアクション動作の動作情報テーブル172H〜172Lの優先度を、各自発動作の動作情報テーブル171H〜171Lの優先度より高く設定すればよい。例えば、リアクション動作の動作情報テーブル172H〜172Lの優先度をそれぞれ「1」〜「3」、自発動作の動作情報テーブル171H〜171Lの優先度を「4」〜「5」と設定すればよい。
Note that the priority may be set in common in the
スコア情報記憶部18は、スコア情報テーブル181を格納する。ここで、スコア情報テーブル181について、図5を参照しながら説明する。図5は、第1の実施形態に係るスコア情報の一例を示す図である。スコア情報テーブル181は、動作ID毎に、動作毎のスコアが管理されている。このように、スコア情報テーブル181には、各自発動作及びリアクション動作に基づくインタラクションによってユーザに与える介入レベルを数値化したスコアが管理される。
The score
動作履歴情報記憶部19は、動作履歴情報テーブル191を格納する。ここで、動作履歴情報テーブル191について、図6を参照しながら説明する。図6は、第1の実施形態に係る動作履歴情報の一例を示す図である。動作履歴情報テーブル191は、過去の所定の期間に行われた自発動作及びリアクション動作の履歴が動作ID毎に管理されている。図6に示す例では、動作履歴情報テーブル191は、過去3分間に行われた自発動作及びリアクション動作の動作IDが動作時刻と関連付けて管理されている。これにより、スコア算出部12は、スコア情報テーブル181と動作履歴情報テーブル191とを参照することにより、過去の所定の期間に行われた自発動作及びリアクション動作のスコアの合計(合計スコア)を算出することができる。
The operation history
なお、動作履歴情報テーブル191は、動作実行部15によりロボットRの自発動作又はリアクション動作が行われると、動作実行部15より更新される。すなわち、動作実行部15は、ロボットRに行わせた自発動作又はリアクション動作の動作IDを動作時刻と関連付けて動作履歴情報テーブル191に格納する。
The operation history information table 191 is updated by the
[自発動作の制御処理]
次に、第1の実施形態に係る自発動作の制御処理について、図7を参照しながら説明する。図7は、第1の実施形態に係る自発動作の制御処理の一例を示すフローチャートである。ここで、図7に示す自発動作の制御処理は、所定の時間毎(例えば、1秒毎)に繰り返し実行される。すなわち、本実施形態に係る制御装置100は、例えば1秒毎に、自発動作を行うか否か判定することで、自発動作の動作間隔を制御する。
[Spontaneous control processing]
Next, the control process of the spontaneous operation according to the first embodiment will be described with reference to FIG. FIG. 7 is a flowchart illustrating an example of a control process of the spontaneous operation according to the first embodiment. Here, the control process of the spontaneous operation shown in FIG. 7 is repeatedly executed at predetermined time intervals (for example, every second). That is, the
ステップS701において、自発動作制御部11の動作決定部13は、n=1として、優先度nの動作情報テーブル171Hを、自発動作の動作情報171から取得する。すなわち、動作決定部13は、自発動作の動作情報171のうち、最も優先度が高い自発動作の動作情報テーブルを取得する。
In step S701, the
ステップS702において、自発動作制御部11のスコア算出部12は、動作履歴情報テーブル191及びスコア情報テーブル181に基づき、過去の所定の期間に行われた自発動作及びリアクション動作の合計スコア(以降では、便宜上、合計スコアを「合計スコアS」と表す。)を算出する。ここで、スコア算出部12は、例えば、以下の(1)〜(4)のいずれかの方法により合計スコアSを算出すればよい。
In step S702, the
(1)スコア算出部12は、スコア情報テーブル181を参照して、動作履歴情報テーブル191に含まれる各動作IDのスコア(基礎スコア)を算出する。そして、スコア算出部12は、算出された各基礎スコアの足し合わせることにより合計スコアSを算出する。
(1) The
(2)スコア算出部12は、スコア情報テーブル181の代わりに、例えば図8に示すような動作の要素毎のスコアが管理されたスコア情報テーブル181Aを参照して、動作履歴情報テーブル191に含まれる各動作IDの基礎スコアを算出する。そして、スコア算出部12は、算出された各基礎スコアの足し合わせることにより合計スコアSを算出する。
(2) Instead of the score information table 181, the
より詳細に説明する。図8に示すスコア情報テーブル181Aには、動作の要素毎に、要素毎のスコアが管理されている。したがって、スコア算出部12は、動作履歴情報テーブル191に含まれる各動作IDについて、動作IDに対応する自発動作又はリアクション動作に含まれる動作の要素のスコアを合計することで、各動作IDの基礎スコアを算出する。例えば、図4(a)の動作ID「H002」の自発動作の動作内容「まわりを見回す」について、動作の要素は「顔の挙動」である。したがって、動作ID「H002」の基礎スコアは「2」と算出される。同様に、図4(b)の例えば、動作ID「H101」のリアクション動作の動作内容「喜ぶ」について、動作の要素は「手足の挙動」、「顔の挙動」、及び「バーバルな発話」である。したがって、動作ID「H101」の基礎スコアは、「13」と算出される。そして、スコア算出部12は、算出された各動作IDの基礎スコアを足し合わせることで、合計スコアSを算出する。これにより、各自発動作及びリアクション動作に対して一貫性があるスコアを算出することができる。
This will be described in more detail. In the score information table 181A shown in FIG. 8, the score for each element is managed for each element of the operation. Therefore, the
(3)上記の(1)又は(2)の方法により算出された合計スコアを「S1」として、以下の式により合計スコアSを算出する。ここで、Tは、予め設定された所定の時間(例えば、30秒)である。 (3) The total score S calculated by the above method (1) or (2) is “S 1 ”, and the total score S is calculated by the following equation. Here, T is a predetermined time (for example, 30 seconds) set in advance.
なお、「各動作時間の合計」は、動作履歴情報テーブル191に含まれる各動作IDに対応する自発動作及びリアクション動作の動作時間の合計である。これにより、自発動作及びリアクション動作の動作時間に応じて合計スコアSを算出することができる。 The “total of each operation time” is the total operation time of the spontaneous operation and the reaction operation corresponding to each operation ID included in the operation history information table 191. Accordingly, the total score S can be calculated according to the operation time of the spontaneous operation and the reaction operation.
(4)上記の(1)〜(3)のいずれかの方法により算出された合計スコアを「S2」として、以下の式により合計スコアSを算出する。 (4) The total score S calculated by any one of the methods (1) to (3) is “S 2 ”, and the total score S is calculated by the following formula.
なお、上記の式におけるpeは、動作履歴情報テーブル191に含まれる動作IDの数をN、動作履歴情報テーブル191に含まれる動作IDのうち予め設定された所定の動作IDの数をNeとして、以下の式で表される。 Note that p e in the above formula is N the number of operation IDs included in the operation history information table 191, and N e is the number of predetermined operation IDs set in advance among the operation IDs included in the operation history information table 191. Is expressed by the following formula.
これにより、予め設定された動作IDに対応する自発動作及びリアクション動作が行われた場合に、合計スコアSを高くすることができる。したがって、例えば人目を引く自発動作やリアクション動作の動作IDを予め設定することにより、合計スコアSを高くすることができる。 Thereby, the total score S can be increased when a spontaneous action and a reaction action corresponding to a preset action ID are performed. Therefore, the total score S can be increased by, for example, setting the action ID of a spontaneous action or reaction action that catches the eye.
ステップS703において、自発動作制御部11の間隔決定部14は、算出された合計スコアSが予め設定された所定の閾値未満であるか否かを判定する。合計スコアSが所定の閾値未満である場合、自発動作制御部11は、ステップS704の処理に進む。
In step S703, the
一方、合計スコアSが所定の閾値以上である場合、自発動作制御部11は、処理を終了させる(すなわち、自発動作制御部11は、ロボットRが自発動作を行わないように制御する。)。このことは、過去の所定の期間に行われた自発動作及びリアクション動作に基づくインタラクションによってユーザに与えた介入レベルが所定以上である場合には、自発動作を行わないように制御することを意味する。これにより、ロボットRが自発動作を行う動作間隔が制御される。 On the other hand, when the total score S is equal to or greater than the predetermined threshold, the spontaneous motion control unit 11 ends the process (that is, the spontaneous motion control unit 11 controls the robot R not to perform the spontaneous motion). This means that if the intervention level given to the user by the interaction based on the spontaneous action and the reaction action performed in a predetermined period in the past is greater than or equal to a predetermined level, control is performed so as not to perform the spontaneous action. . Thereby, the operation interval at which the robot R performs the spontaneous operation is controlled.
ステップS704において、動作決定部13は、取得した自発動作の動作情報テーブルから実行可能な自発動作が存在するか否かを判定する。例えば、動作決定部13は、取得した自発動作の動作情報テーブルに含まれる各自発動作の「必要リソース」のデータ項目を参照して、実行可能な自発動作が存在するか否かを判定する。実行可能な自発動作が存在する場合は、自発動作制御部11は、ステップS705の処理に進む一方、実行可能な自発動作が存在しない場合は、自発動作制御部11は、ステップS706の処理に進む。
In step S704, the
ステップS705において、動作決定部13は、ステップS704で実行可能であると判定された自発動作のうち、ロボットRに行わせる自発動作を決定する。例えば、動作決定部13は、ステップS704で実行可能であると判定された自発動作の中から一の自発動作をランダムに選択し、選択された自発動作をロボットRに行わせる自発動作に決定する。
In step S705, the
ステップS706において、動作決定部13は、n=n+1として、優先度nの動作情報テーブルを、自発動作の動作情報171から取得する。すなわち、動作決定部13は、1つ下の優先度の動作情報テーブルを、自発動作の動作情報171から取得する。このように、優先度nの自発動作の動作情報テーブルに実行可能な自発動作が存在しない場合、動作決定部13は、優先度n+1の自発動作の動作情報テーブルを取得する。
In step S706, the
ステップS707において、動作実行部15は、ステップS705で決定された自発動作の動作内容に応じて、アクチュエータ130やスピーカ140を制御して、ロボットRに自発動作を行わせる。これにより、ロボットRは、自発動作を行う。
In step S707, the
以上のように、第1の実施形態に係る制御装置100では、過去の所定の期間に行われた自発動作及びリアクション動作に基づくインタラクションによってユーザに与えた介入レベルが所定以上である場合には、自発動作を行わないように制御する。これにより、例えば、過去の所定の期間においてリアクション動作が多く行われた場合には、その後の自発動作の動作間隔が長くなることにより、ユーザに対するロボットRの介入レベルが高くなり過ぎないように制御することができる。同様に、例えば、過去の所定の期間においてリアクション動作が殆ど行われていない場合には、その後の自発動作の動作間隔が短くなることにより、ユーザに対するロボットRの介入レベルが低くなり過ぎないように制御することができる。
As described above, in the
なお、図7のステップS702では、過去の所定の期間に行われた自発動作及びリアクション動作の合計スコアSに基づき自発動作の動作間隔を制御したが、例えば前回の合計スコアSを時間の経過とともに値を減少させて今回の合計スコアSを算出してもよい。例えば、現時点をtとして、1つ前の時点の合計スコアをS(t−1)とした場合、現時点の合計スコアS(t)を、S(t)=S(t−1)×α+Σ(時点t−1からtまでに行われた自発動作又はリアクション動作の動作IDの基礎スコア)として算出してもよい。ここで、上式においてαは予め設定された所定の減衰係数である。 In addition, in step S702 of FIG. 7, the operation interval of the spontaneous operation was controlled based on the total score S of the spontaneous operation and the reaction operation performed in the past predetermined period. For example, the previous total score S is calculated as time passes. The total score S of this time may be calculated by decreasing the value. For example, assuming that the current score is t and the total score of the previous time is S (t−1), the current total score S (t) is S (t) = S (t−1) × α + Σ ( It may be calculated as the basic score of the action ID of the spontaneous action or reaction action performed from time t-1 to t. In the above equation, α is a predetermined attenuation coefficient set in advance.
<第2の実施形態>
次に、第2の実施形態に係る制御システム1について説明する。第2の実施形態に係る制御システム1の制御装置100は、予め設定された所定の閾値及び合計スコアに基づき、ロボットRに次の自発動作を行わせることができる時間(すなわち、動作間隔)を決定するものである。
<Second Embodiment>
Next, a
[自発動作の制御処理]
第2の実施形態に係る自発動作の制御処理について、図9を参照しながら説明する。図9は、第2の実施形態に係る自発動作の制御処理の一例を示すフローチャートである。ここで、図9に示す自発動作の制御処理は、所定の時間毎(例えば、1秒毎)に繰り返し実行される。なお、ステップS701及びステップS702、並びにステップS704〜ステップS706は、第1の実施形態の自発動作の制御処理(図7)と同様であるため、説明を省略する。
[Spontaneous control processing]
The control process of the spontaneous operation according to the second embodiment will be described with reference to FIG. FIG. 9 is a flowchart illustrating an example of a control process of the spontaneous operation according to the second embodiment. Here, the control process of the spontaneous operation shown in FIG. 9 is repeatedly executed at predetermined time intervals (for example, every second). Steps S701 and S702, and steps S704 to S706 are the same as the control process (FIG. 7) of the spontaneous operation according to the first embodiment, and thus description thereof is omitted.
ステップS901において、間隔決定部14は、予め設定された所定の閾値と、算出された合計スコアSとに基づき、決定された自発動作をロボットRに行わせるまでの時間(すなわち、動作間隔)T1を決定する。ここで、本実施形態では、現時点以降の時刻tにおいて、過去の所定の期間に行われた自発動作及びリアクション動作の合計スコアSを、「合計スコアSt」と表す。
In step S <b> 901, the
より具体的には、間隔決定部14は、次のようにして時間T1を決定する。すなわち、まず、間隔決定部14は、スコア算出部12により、決定された自発動作の基礎スコアssを算出する。そして、間隔決定部14は、合計スコアSと基礎スコアssとの和が所定の閾値以下である場合、時間T1を「0」とする。一方、間隔決定部14は、合計スコアSと基礎スコアssとの和が所定の閾値を超える場合、合計スコアStと基礎スコアssとの和が所定の閾値以下となる時刻tを算出し、時間T1を「時刻tと現在時刻との差分」とする。
More specifically,
ステップS902において、動作実行部15は、時間T1経過後に、決定された自発動作の動作内容に応じて、アクチュエータ130やスピーカ140を制御して、ロボットRに自発動作を行わせる。これにより、ロボットRは、時間T1経過後に、自発動作を行う。
In step S902, the
なお、ステップS902で動作実行部15は、時間T1が経過する前に、リアクション動作制御部16によりロボットRに行わせるリアクション動作が決定された場合には、自発動作の制御処理を中止し、決定されたリアクション動作を実行させる。
The
以上のように、第2の実施形態に係る制御装置100では、動作決定部13により決定された自発動作をロボットRに行わせることができる時間を決定する。これにより、例えば介入レベルが高い(すなわち、スコアが高い)自発動作をロボットRに行わせる場合には動作間隔が短くなるように制御する一方で、介入レベルが低い自発動作をロボットRに行わせる場合には動作間隔が長くなるように制御することができる。
As described above, in the
<第3の実施形態>
次に、第3の実施形態に係る制御システム1について説明する。第3の実施形態に係る制御システム1の制御装置100は、合計スコアと予め設定された所定の閾値との差分に基づき、所定のテーブルを参照することによりロボットRに次の自発動作を行わせることができる時間(動作間隔)を決定するものである。
<Third Embodiment>
Next, a
[機能構成]
図10は、第3の実施形態に係る制御システムの機能構成例を示す図である。第3の実施形態に係る制御装置100は、動作間隔情報記憶部20を有する点が、第1の実施形態及び第2の実施形態と異なる。動作間隔情報記憶部20は、記憶装置104等により実現される。
[Function configuration]
FIG. 10 is a diagram illustrating a functional configuration example of the control system according to the third embodiment. The
動作間隔情報記憶部20は、動作間隔情報テーブル201を格納する。ここで、動作間隔情報テーブル201について、図11を参照しながら説明する。図11は、第3の実施形態に係る動作間隔情報の一例を示す図である。動作間隔情報テーブル201は、合計スコアSと、予め設定された所定の閾値との差分を示す差分スコアに対して、自発動作をロボットRに行わせるまでの時間が関連付けて管理されている。本実施形態に係る間隔決定部14は、算出した差分スコアに基づき、動作間隔情報テーブル201から動作間隔を決定することで、ロボットRに行わせる自発動作の動作間隔を制御する。
The operation interval
[自発動作の制御処理]
第3の実施形態に係る自発動作の制御処理について、図12を参照しながら説明する。図12は、第3の実施形態に係る自発動作の制御処理の一例を示すフローチャートである。ここで、図12に示す自発動作の制御処理は、所定の時間毎(例えば、1秒毎)に繰り返し実行される。なお、ステップS701及びステップS702、ステップS704〜ステップS706、並びにステップS902は、第1の実施形態又は第2の実施形態の自発動作の制御処理(図7又は図9)と同様であるため、説明を省略する。
[Spontaneous control processing]
The control process of the spontaneous operation according to the third embodiment will be described with reference to FIG. FIG. 12 is a flowchart illustrating an example of a control process of the spontaneous operation according to the third embodiment. Here, the control process of the spontaneous operation shown in FIG. 12 is repeatedly executed at predetermined time intervals (for example, every second). Note that steps S701 and S702, steps S704 to S706, and step S902 are the same as the control processing (FIG. 7 or FIG. 9) of the spontaneous operation of the first embodiment or the second embodiment, and therefore will be described. Is omitted.
ステップS1201において、間隔決定部14は、算出された合計スコアSと、予め設定された所定の閾値との差分スコアを算出する。次に、間隔決定部14は、動作間隔情報テーブル201を参照して、算出された差分スコアに対応する時間を取得する。そして、間隔決定部14は、動作間隔情報テーブル201から取得した時間を、自発動作をロボットRに行わせるまでの時間T1(すなわち、動作間隔)と決定する。
In step S1201, the
なお、ステップS1201で間隔決定部14は、差分スコアに対応する時間を動作間隔情報テーブル201から取得することで動作間隔を制御したが、例えば差分スコアを引数とする所定の関数値を動作間隔としてもよい。
In step S1201, the
以上のように、第3の実施形態に係る制御装置100では、合計スコアSと、予め設定された所定の閾値との差分に基づき、動作間隔情報テーブル201から動作間隔を決定する。これにより、動作間隔情報テーブル201を適切に設定することにより、柔軟に動作間隔を制御することができるようになる。例えば、図11に示すように差分スコアが「10以上」である場合、動作間隔を「3秒」とすることにより、合計スコアSが所定の閾値を超えている場合であっても長時間(数十秒等)の間ロボットRが自発動作を行わない事態を防止することができる。
As described above, in the
<第4の実施形態>
次に、第4の実施形態に係る制御システム1について説明する。第4の実施形態に係る制御システム1の制御装置100は、自発動作の動作情報の優先度毎に予め設定された所定の閾値を用いて、自発動作の動作間隔を制御するものである。以降では、優先度nの自発動作の動作情報に対して予め設定された所定の閾値を、「優先度nの所定の閾値」と表す。
<Fourth Embodiment>
Next, a
[自発動作の制御処理]
第4の実施形態に係る自発動作の制御処理について、図13を参照しながら説明する。図13は、第4の実施形態に係る自発動作の制御処理の一例を示すフローチャート。なお、ステップS701、ステップS705、及びステップS707は、第1の実施形態の自発動作の制御処理(図7)と同様であるため、説明を省略する。
[Spontaneous control processing]
The control process of the spontaneous operation according to the fourth embodiment will be described with reference to FIG. FIG. 13 is a flowchart illustrating an example of a control process for a spontaneous operation according to the fourth embodiment. Note that step S701, step S705, and step S707 are the same as the control process (FIG. 7) of the spontaneous operation of the first embodiment, and thus the description thereof is omitted.
ステップS1301においてスコア算出部12は、動作履歴情報テーブル191及びスコア情報テーブル181に基づき、過去の所定の期間に行われた優先度nの自発動作の動作情報に基づく自発動作(優先度nの自発動作)の合計スコアSを算出する。ここで、優先度nの自発動作の合計スコアSを、単に、「優先度nの合計スコアS」と表す。なお、優先度nの合計スコアSの算出方法は、第1の実施形態と同様の方法を用いればよい。また、過去の所定の期間においてリアクション動作がなされている場合には、リアクション動作の基礎スコアを、例えば優先度1の合計スコアSに加えたものを、改めて優先度1の合計スコアSとすればよい。
In step S <b> 1301, the
ステップS1302において、間隔決定部14は、優先度nの合計スコアSが優先度nの所定の閾値未満であるか否かを判定する。優先度nの合計スコアSが優先度nの所定の閾値未満である場合、自発動作制御部11は、ステップS1305の処理に進む。一方、優先度nの合計スコアSが優先度nの所定の閾値以上である場合、自発動作制御部11は、ステップS1303の処理に進む。
In step S <b> 1302, the
ステップS1303において、動作決定部13は、n=n+1として、優先度nの動作情報テーブルを、自発動作の動作情報171から取得する。すなわち、動作決定部13は、1つ下の優先度の動作情報テーブルを、自発動作の動作情報171から取得する。このように、優先度nの合計スコアSが優先度nの所定の閾値以上である場合、動作決定部13は、優先度n+1の自発動作の動作情報テーブルを取得する。
In step S1303, the
ステップS1304において、間隔決定部14は、優先度n−1の合計スコアSが優先度n−1の所定の閾値を超過している値(超過値)を、優先度nの所定の閾値から減算する。なお、優先度n−1の合計スコアSと優先度n−1の所定の閾値とが等しい場合、超過値は「0」とする。
In step S1304, the
例えば、図14(a)に示すように、優先度n−1の合計スコアSが「65」、優先度n−1の所定の閾値が「60」である場合、超過値は「5」となる。したがって、優先度nの所定の閾値「25」から超過値「5」を減算して、優先度nの所定の閾値を「20」とする。このように、優先度の高い自発動作の合計スコアが所定の閾値以上である場合、優先度の低い自発動作の所定の閾値を低くする調整を行う。これにより、すべての優先度の自発動作全体での合計スコアが所定の範囲内に収まるように、各優先度毎に自発動作の動作間隔が制御される。したがって、例えば、優先度の高い自発動作が多く行われた場合には、優先度の低い自発動作があまり行われないように制御する(すなわち、動作間隔を長くする)ことができる。一方で、例えば、優先度の高い自発動作があまり行われなかった場合には、優先度の低い自発動作が多く行われるように制御する(すなわち、動作間隔を短くする)ことができる。このように、本実施形態では、優先度に応じて柔軟に動作間隔を制御することができる。 For example, as shown in FIG. 14A, when the total score S of the priority n−1 is “65” and the predetermined threshold value of the priority n−1 is “60”, the excess value is “5”. Become. Therefore, the excess value “5” is subtracted from the predetermined threshold value “25” of the priority level n to set the predetermined threshold value of the priority level n to “20”. In this way, when the total score of spontaneous actions with high priority is equal to or higher than a predetermined threshold, adjustment is performed to lower the predetermined threshold of spontaneous actions with low priority. Thus, the operation interval of the spontaneous operation is controlled for each priority so that the total score of all the spontaneous operations of all priorities falls within a predetermined range. Therefore, for example, when many spontaneous operations with a high priority are performed, it is possible to control so that the spontaneous operations with a low priority are not performed much (that is, the operation interval is lengthened). On the other hand, for example, when the spontaneous operation with high priority is not performed so much, it is possible to control so that many spontaneous operations with low priority are performed (that is, the operation interval is shortened). Thus, in the present embodiment, the operation interval can be flexibly controlled according to the priority.
ステップS1305において、動作決定部13は、取得した自発動作の動作情報テーブルから実行可能な自発動作が存在するか否かを判定する。実行可能な自発動作が存在する場合は、自発動作制御部11は、ステップS705の処理に進む一方、実行可能な自発動作が存在しない場合は、自発動作制御部11は、ステップS1305の処理に進む。
In step S1305, the
ステップS1306において、動作決定部13は、n=n+1として、優先度nの動作情報テーブルを、自発動作の動作情報171から取得する。すなわち、動作決定部13は、1つ下の優先度の動作情報テーブルを、自発動作の動作情報171から取得する。
In step S1306, the
ステップS1307において、間隔決定部14は、優先度n−1の所定の閾値と優先度n−1の合計スコアSとの差分の値(差分値)を、優先度nの所定の閾値に加算する。
In step S1307, the
例えば、図14(b)に示すように、優先度n−1の合計スコアSが「55」、優先度n−1の所定の閾値が「60」である場合、差分値は「5」となる。したがって、優先度nの所定の閾値「25」に差分値「5」を加算して、優先度nの所定の閾値を「30」とする。このように、優先度の高い自発動作の合計スコアが所定の閾値未満である場合、優先度の所定の閾値を高くする調整を行う。これにより、すべての優先度の自発動作全体での合計スコアが所定の範囲内に収まるように、各優先度毎に自発動作の動作間隔が制御される。 For example, as illustrated in FIG. 14B, when the total score S of the priority n−1 is “55” and the predetermined threshold value of the priority n−1 is “60”, the difference value is “5”. Become. Therefore, the difference value “5” is added to the predetermined threshold “25” of the priority n, and the predetermined threshold of the priority n is set to “30”. As described above, when the total score of the spontaneous actions with high priority is less than the predetermined threshold, adjustment is performed to increase the predetermined threshold of priority. Thus, the operation interval of the spontaneous operation is controlled for each priority so that the total score of all the spontaneous operations of all priorities falls within a predetermined range.
以上のように、第4の実施形態に係る制御装置100では、優先度毎に自発動作の動作間隔を制御することができる。これにより、優先度に応じて柔軟に動作間隔を制御することができる。
As described above, the
<第5の実施形態>
次に、第5の実施形態に係る制御システム1について説明する。第5の実施形態に係る制御装置100は、ディスプレイ装置等に表示されたCG(Computer Graphics)エージェントの自発動作の動作間隔を制御するものである。
<Fifth Embodiment>
Next, a
[システムの構成]
図15は、第5の実施形態に係る制御システムの機能構成例を示す図である。図15に示すように、本実施形態に制御システム1は、ユーザに対してインタラクションを行うCGエージェントR'を表示するサイネージ150、CGエージェントR'の自発動作やリアクション動作を制御する制御装置100等を有する。また、サイネージ150は、センサ120やスピーカ140等を有する。このような構成により、制御装置100は、CGエージェントR'の自発動作の動作間隔を制御することができる。すなわち、第1の実施形態乃至第4の実施形態に係る制御装置100は、サイネージ150等の表示装置上に表示されるキャラクター等のCGエージェントR'の自発動作及びリアクション動作を制御する場合にも適用され得る。
[System configuration]
FIG. 15 is a diagram illustrating a functional configuration example of a control system according to the fifth embodiment. As shown in FIG. 15, the
以上に一例を説明したように、第1の実施形態に係る制御システム1では、過去の所定の期間に行われた自発動作及びリアクション動作に基づくインタラクションによってユーザに与えた介入レベルが所定以上である場合には、ロボットRの自発動作は抑制される。これにより、例えば、過去の所定の期間においてリアクション動作が多く行われた場合には、その後の自発動作の動作間隔が長くなることにより、ユーザに対するロボットRの介入レベルが高くなり過ぎないように制御することができる。同様に、例えば、過去の所定の期間においてリアクション動作が殆ど行われていない場合には、ロボットRの自発動作は促進される。これによって、その後の動作間隔が短くなることにより、ユーザに対するロボットRの介入レベルが低くなり過ぎないように制御することができる。
As described above, in the
第2の実施形態に係る制御システム1では、過去の所定の期間に行われた自発動作及びリアクション動作に基づくインタラクションによってユーザに与えた介入レベルに基づき、自発動作の動作間隔が決定される。これにより、例えば介入レベルが高い(すなわち、スコアが高い)自発動作をロボットRに行わせる場合には動作間隔が短くなるように制御する一方で、介入レベルが低い自発動作をロボットRに行わせる場合には動作間隔が長くなるように制御することができる。
In the
第3の実施形態に係る制御システム1では、予め設定された動作間隔情報テーブル201により動作間隔を決定する。これにより、動作間隔情報テーブル201を適切に設定することにより、柔軟に動作間隔を制御することができるようになる。
In the
第4の実施形態に係る制御システム1では、優先度毎に自発動作の動作間隔を制御する。これにより、優先度に応じて柔軟に動作間隔を制御することができる。
In the
第5の実施形態に係る制御システム1では、表示装置等に表示されたCGエージェントR'の自発動作の動作間隔を制御する。このように、第1の実施形態乃至第4の実施形態に係る制御装置100は、ロボット分野のみならず、CG等で表されたキャラクターの動作によりユーザに対して何かを働きかける分野(例えば、広告分野等)において適用され得る。
In the
以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 As mentioned above, although the Example of this invention was explained in full detail, this invention is not limited to such specific embodiment, In the range of the summary of this invention described in the claim, various deformation | transformation・ Change is possible.
以上の説明に関し、更に以下の項を開示する。
(付記1)
センシングされたユーザの挙動に基づいて、前記ユーザに対して提示する第1のインタラクションを決定し、
前記ユーザに対して自発的に提示する第2のインタラクションを決定し、
過去の所定期間に提示された前記第1のインタラクション及び前記第2のインタラクションに基づいて介入度を算出し、
前記介入度に基づいて、前記第2のインタラクションを提示するタイミングを制御する
処理をコンピュータが実行する制御方法。
(付記2)
前記制御する処理は、
前記介入度が所定の閾値以上であるか否かの判定結果に基づいて、前記第2のインタラクションを提示するタイミングを制御する、付記1記載の制御方法。
(付記3)
前記介入度を算出する処理は、
前記第1のインタラクション及び前記第2のインタラクションに基づいて、前記第2のインタラクションの種類毎に設定された優先度毎に介入度を算出し、
前記制御する処理は、
前記優先度毎の介入度が前記優先度に応じた所定の閾値以上であるか否かを判定する、付記2記載の制御方法。
(付記4)
前記介入度を算出する処理は、
さらに、前記第1のインタラクション及び前記第2のインタラクションを前記ユーザに提示している時間と、前記第1のインタラクション及び前記第2のインタラクションを前記ユーザに提示してからの経過時間との少なくともいずれかに基づいて、前記算出された介入度を調整する、付記1ないし3のいずれか1項に記載の制御方法。
(付記5)
センシングされたユーザの挙動に基づいて、前記ユーザに対して提示する第1のインタラクションを決定する第1の決定部と、
前記ユーザに対して自発的に提示する第2のインタラクションを決定する第2の決定部と、
過去の所定期間に提示された前記第1のインタラクション及び前記第2のインタラクションに基づいて介入度を算出する算出部と、
前記介入度に基づいて、前記第2のインタラクションを提示するタイミングを制御する制御部と
を有する制御装置。
(付記6)
前記制御部は、
前記介入度が所定の閾値以上であるか否かの判定結果に基づいて、前記第2のインタラクションを提示するタイミングを制御する、付記5記載の制御装置。
(付記7)
前記算出部は、
前記第1のインタラクション及び前記第2のインタラクションに基づいて、前記第2のインタラクションの種類毎に設定された優先度毎に介入度を算出し、
前記制御部は、
前記優先度毎の介入度が前記優先度に応じた所定の閾値以上であるか否かを判定する、付記6記載の制御装置。
(付記8)
前記算出部は、
さらに、前記第1のインタラクション及び前記第2のインタラクションを前記ユーザに提示している時間と、前記第1のインタラクション及び前記第2のインタラクションを前記ユーザに提示してからの経過時間との少なくともいずれかに基づいて、前記算出された介入度を調整する、付記5ないし7のいずれか1項に記載の制御装置。
(付記9)
センシングされたユーザの挙動に基づいて、前記ユーザに対して提示する第1のインタラクションを決定し、
前記ユーザに対して自発的に提示する第2のインタラクションを決定し、
過去の所定期間に提示された前記第1のインタラクション及び前記第2のインタラクションに基づいて介入度を算出し、
前記介入度に基づいて、前記第2のインタラクションを提示するタイミングを制御する
処理をコンピュータに実行させるためのプログラム。
(付記10)
前記制御する処理は、
前記介入度が所定の閾値以上であるか否かの判定結果に基づいて、前記第2のインタラクションを提示するタイミングを制御する、付記9記載のプログラム。
(付記11)
前記介入度を算出する処理は、
前記第1のインタラクション及び前記第2のインタラクションに基づいて、前記第2のインタラクションの種類毎に設定された優先度毎に介入度を算出し、
前記制御する処理は、
前記優先度毎の介入度が前記優先度に応じた所定の閾値以上であるか否かを判定する、付記10記載のプログラム。
(付記12)
前記介入度を算出する処理は、
さらに、前記第1のインタラクション及び前記第2のインタラクションを前記ユーザに提示している時間と、前記第1のインタラクション及び前記第2のインタラクションを前記ユーザに提示してからの経過時間との少なくともいずれかに基づいて、前記算出された介入度を調整する、付記9ないし11のいずれか1項に記載のプログラム。
Regarding the above description, the following items are further disclosed.
(Appendix 1)
Determining a first interaction to be presented to the user based on the sensed user behavior;
Determining a second interaction to voluntarily present to the user;
Calculating the degree of intervention based on the first interaction and the second interaction presented in the past predetermined period;
A control method in which a computer executes processing for controlling the timing of presenting the second interaction based on the degree of intervention.
(Appendix 2)
The process to control is
The control method according to
(Appendix 3)
The process for calculating the degree of intervention is:
Based on the first interaction and the second interaction, calculate the degree of intervention for each priority set for each type of the second interaction,
The process to control is
The control method according to
(Appendix 4)
The process for calculating the degree of intervention is:
Further, at least one of a time during which the first interaction and the second interaction are presented to the user and an elapsed time since the first interaction and the second interaction are presented to the user. The control method according to any one of
(Appendix 5)
A first determination unit that determines a first interaction to be presented to the user based on the sensed user behavior;
A second determination unit for determining a second interaction to be voluntarily presented to the user;
A calculation unit that calculates an intervention degree based on the first interaction and the second interaction presented in a past predetermined period;
A control unit that controls a timing of presenting the second interaction based on the degree of intervention.
(Appendix 6)
The controller is
The control device according to
(Appendix 7)
The calculation unit includes:
Based on the first interaction and the second interaction, calculate the degree of intervention for each priority set for each type of the second interaction,
The controller is
The control device according to
(Appendix 8)
The calculation unit includes:
Further, at least one of a time during which the first interaction and the second interaction are presented to the user and an elapsed time since the first interaction and the second interaction are presented to the user. The control device according to any one of
(Appendix 9)
Determining a first interaction to be presented to the user based on the sensed user behavior;
Determining a second interaction to voluntarily present to the user;
Calculating the degree of intervention based on the first interaction and the second interaction presented in the past predetermined period;
A program for causing a computer to execute processing for controlling the timing of presenting the second interaction based on the degree of intervention.
(Appendix 10)
The process to control is
The program according to appendix 9, wherein the timing for presenting the second interaction is controlled based on a determination result as to whether or not the degree of intervention is equal to or greater than a predetermined threshold.
(Appendix 11)
The process for calculating the degree of intervention is:
Based on the first interaction and the second interaction, calculate the degree of intervention for each priority set for each type of the second interaction,
The process to control is
The program according to
(Appendix 12)
The process for calculating the degree of intervention is:
Further, at least one of a time during which the first interaction and the second interaction are presented to the user and an elapsed time since the first interaction and the second interaction are presented to the user. The program according to any one of appendices 9 to 11, wherein the calculated degree of intervention is adjusted based on the above.
1:制御システム
11:自発動作制御部
12:スコア算出部
13:動作決定部
14:間隔決定部
15:動作実行部
16:リアクション動作制御部
17:動作情報記憶部
18:スコア情報記憶部
19:動作履歴情報記憶部
100:制御装置
110:制御プログラム
120:センサ
130:アクチュエータ
140:スピーカ
1: Control system 11: Spontaneous motion control unit 12: Score calculation unit 13: Motion determination unit 14: Interval determination unit 15: Motion execution unit 16: Reaction motion control unit 17: Motion information storage unit 18: Score information storage unit 19: Operation history information storage unit 100: control device 110: control program 120: sensor 130: actuator 140: speaker
Claims (6)
前記ユーザに対して自発的に提示する第2のインタラクションを決定し、
過去の所定期間に提示された前記第1のインタラクション及び前記第2のインタラクションに基づいて介入度を算出し、
前記介入度に基づいて、前記第2のインタラクションを提示するタイミングを制御する
処理をコンピュータが実行する制御方法。 Determining a first interaction to be presented to the user based on the sensed user behavior;
Determining a second interaction to voluntarily present to the user;
Calculating the degree of intervention based on the first interaction and the second interaction presented in the past predetermined period;
A control method in which a computer executes processing for controlling the timing of presenting the second interaction based on the degree of intervention.
前記介入度が所定の閾値以上であるか否かの判定結果に基づいて、前記第2のインタラクションを提示するタイミングを制御する、請求項1記載の制御方法。 The process to control is
The control method according to claim 1, wherein a timing for presenting the second interaction is controlled based on a determination result of whether or not the degree of intervention is equal to or greater than a predetermined threshold.
前記第1のインタラクション及び前記第2のインタラクションに基づいて、前記第2のインタラクションの種類毎に設定された優先度毎に介入度を算出し、
前記制御する処理は、
前記優先度毎の介入度が前記優先度に応じた所定の閾値以上であるか否かを判定する、請求項2記載の制御方法。 The process for calculating the degree of intervention is:
Based on the first interaction and the second interaction, calculate the degree of intervention for each priority set for each type of the second interaction,
The process to control is
The control method according to claim 2, wherein it is determined whether or not the intervention level for each priority level is equal to or higher than a predetermined threshold corresponding to the priority level.
さらに、前記第1のインタラクション及び前記第2のインタラクションを前記ユーザに提示している時間と、前記第1のインタラクション及び前記第2のインタラクションを前記ユーザに提示してからの経過時間との少なくともいずれかに基づいて、前記算出された介入度を調整する、請求項1ないし3のいずれか1項に記載の制御方法。 The process for calculating the degree of intervention is:
Further, at least one of a time during which the first interaction and the second interaction are presented to the user and an elapsed time since the first interaction and the second interaction are presented to the user. The control method according to any one of claims 1 to 3, wherein the calculated degree of intervention is adjusted based on the above.
前記ユーザに対して自発的に提示する第2のインタラクションを決定する第2の決定部と、
過去の所定期間に提示された前記第1のインタラクション及び前記第2のインタラクションに基づいて介入度を算出する算出部と、
前記介入度に基づいて、前記第2のインタラクションを提示するタイミングを制御する制御部と
を有する制御装置。 A first determination unit that determines a first interaction to be presented to the user based on the sensed user behavior;
A second determination unit for determining a second interaction to be voluntarily presented to the user;
A calculation unit that calculates an intervention degree based on the first interaction and the second interaction presented in a past predetermined period;
A control unit that controls a timing of presenting the second interaction based on the degree of intervention.
前記ユーザに対して自発的に提示する第2のインタラクションを決定し、
過去の所定期間に提示された前記第1のインタラクション及び前記第2のインタラクションに基づいて介入度を算出し、
前記介入度に基づいて、前記第2のインタラクションを提示するタイミングを制御する
処理をコンピュータに実行させるためのプログラム。 Determining a first interaction to be presented to the user based on the sensed user behavior;
Determining a second interaction to voluntarily present to the user;
Calculating the degree of intervention based on the first interaction and the second interaction presented in the past predetermined period;
A program for causing a computer to execute processing for controlling the timing of presenting the second interaction based on the degree of intervention.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015079843A JP6507807B2 (en) | 2015-04-09 | 2015-04-09 | Control method, control device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015079843A JP6507807B2 (en) | 2015-04-09 | 2015-04-09 | Control method, control device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016198843A true JP2016198843A (en) | 2016-12-01 |
JP6507807B2 JP6507807B2 (en) | 2019-05-08 |
Family
ID=57422342
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015079843A Active JP6507807B2 (en) | 2015-04-09 | 2015-04-09 | Control method, control device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6507807B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021039093A1 (en) * | 2019-08-30 | 2021-03-04 | 三菱重工業株式会社 | Unmanned vehicle cooperation system, unmanned vehicle cooperation processing method, and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001300148A (en) * | 2000-04-18 | 2001-10-30 | Casio Comput Co Ltd | Action response system and program recording medium therefor |
JP2002178282A (en) * | 2000-10-05 | 2002-06-25 | Sony Corp | Robot device and its control method |
JP2003305674A (en) * | 2002-04-11 | 2003-10-28 | Sony Corp | Robot device, robot control method, recording medium and program |
JP2013208681A (en) * | 2012-03-30 | 2013-10-10 | Fujitsu Ltd | Interaction device and interaction control program |
JP2015191591A (en) * | 2014-03-28 | 2015-11-02 | 富士通株式会社 | information processing apparatus, action timing detection method, and program |
-
2015
- 2015-04-09 JP JP2015079843A patent/JP6507807B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001300148A (en) * | 2000-04-18 | 2001-10-30 | Casio Comput Co Ltd | Action response system and program recording medium therefor |
JP2002178282A (en) * | 2000-10-05 | 2002-06-25 | Sony Corp | Robot device and its control method |
JP2003305674A (en) * | 2002-04-11 | 2003-10-28 | Sony Corp | Robot device, robot control method, recording medium and program |
JP2013208681A (en) * | 2012-03-30 | 2013-10-10 | Fujitsu Ltd | Interaction device and interaction control program |
JP2015191591A (en) * | 2014-03-28 | 2015-11-02 | 富士通株式会社 | information processing apparatus, action timing detection method, and program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021039093A1 (en) * | 2019-08-30 | 2021-03-04 | 三菱重工業株式会社 | Unmanned vehicle cooperation system, unmanned vehicle cooperation processing method, and program |
JP2021039443A (en) * | 2019-08-30 | 2021-03-11 | 三菱重工業株式会社 | System and processing method for unmanned machine coordination, and program |
JP7308104B2 (en) | 2019-08-30 | 2023-07-13 | 三菱重工業株式会社 | Unmanned aircraft cooperative system, unmanned aircraft cooperative processing method and program |
Also Published As
Publication number | Publication date |
---|---|
JP6507807B2 (en) | 2019-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3358461B1 (en) | Apparatus and method for performing application in electronic device | |
US10790058B2 (en) | User installed applications in a physiological parameter display device | |
EP3335214B1 (en) | Method and electronic device for playing a virtual musical instrument | |
JP6509895B2 (en) | Resource management based on device specific or user specific resource usage profile | |
US9807559B2 (en) | Leveraging user signals for improved interactions with digital personal assistant | |
KR20170044426A (en) | Method for recognizing voice signal and electronic device supporting the same | |
CN109416676B (en) | Method for determining role of electronic device and electronic device thereof | |
US20160062983A1 (en) | Electronic device and method for recognizing named entities in electronic device | |
KR102464280B1 (en) | Input processing method and device | |
US12121797B2 (en) | Program, electronic device, and method | |
KR20170027589A (en) | Method for controlling function and an electronic device thereof | |
KR20160130491A (en) | Application dehydration and rehydration during application-to-application calls | |
KR20170060980A (en) | Device for controlling driving frequency and method of operating the same | |
KR20170089655A (en) | Method and electronic device processing an input using view layers | |
US20160313912A1 (en) | Method and device for providing controller | |
KR102478952B1 (en) | Method for storing image and electronic device thereof | |
EP3048519B1 (en) | Electronic device and method for displaying object in electronic device | |
KR102126286B1 (en) | Electronic Device for Controlling Transmission Power and Method Thereof | |
JP6507807B2 (en) | Control method, control device, and program | |
KR20180058419A (en) | Mobile device for providing exercise contents and wearable device connected therewith | |
US10482237B2 (en) | Method for processing security of application and electronic device supporting the same | |
US20150143225A1 (en) | Handling timer-based resizing events based on activity detection | |
KR20210001864A (en) | Electronic apparatus and control method thereof | |
US20150301586A1 (en) | Control method and information processing device | |
US10608900B2 (en) | Generating a deferrable data flow |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190318 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6507807 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |