[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2016198843A - Control method, control apparatus, and program - Google Patents

Control method, control apparatus, and program Download PDF

Info

Publication number
JP2016198843A
JP2016198843A JP2015079843A JP2015079843A JP2016198843A JP 2016198843 A JP2016198843 A JP 2016198843A JP 2015079843 A JP2015079843 A JP 2015079843A JP 2015079843 A JP2015079843 A JP 2015079843A JP 2016198843 A JP2016198843 A JP 2016198843A
Authority
JP
Japan
Prior art keywords
interaction
spontaneous
action
intervention
priority
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015079843A
Other languages
Japanese (ja)
Other versions
JP6507807B2 (en
Inventor
隼人 立田
Hayato Tatsuta
隼人 立田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015079843A priority Critical patent/JP6507807B2/en
Publication of JP2016198843A publication Critical patent/JP2016198843A/en
Application granted granted Critical
Publication of JP6507807B2 publication Critical patent/JP6507807B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To represent an interaction at a suitable timing.SOLUTION: There is provided a control method of executing, by a computer, processes of: deciding a first interaction which is presented to a user based on a sensed behavior of the user; deciding a second interaction which is spontaneously presented to the user; calculating an intervention degree based on the first interaction and the second interaction which were presented for a past prescribed period; and controlling a timing for presenting the second interaction based on the intervention degree.SELECTED DRAWING: Figure 2

Description

本発明は、制御方法、制御装置、及びプログラムに関する。   The present invention relates to a control method, a control device, and a program.

ロボット分野やエージェント、広告分野等、ユーザに対して何かを働きかける分野では、ユーザに対して効果的な働きかけやインタラクションを行うために様々な技術が提案されている。例えば、コミュニケーションロボットにおいて、過去の動作履歴に応じて次の動作を決定する技術が知られている(例えば特許文献1参照)。   In the field of acting something on the user, such as the robot field, agent, and advertising field, various techniques have been proposed in order to effectively engage and interact with the user. For example, in a communication robot, a technique for determining a next operation according to a past operation history is known (see, for example, Patent Document 1).

特開2002−178282号公報JP 2002-178282 A

しかしながら、上記技術では、コミュニケーションロボットの動作が急に減る、又は急に活発に動作する等、ユーザに対してコミュニケーションロボットの動作により示されるインタラクションに一貫性が無い場合がある。一貫性が無いインタラクションは、ユーザへの介入の強さや介入レベルの変化は、ユーザを困惑させ、良好なコミュニケーションの妨げとなる。   However, in the above technique, there is a case where the interaction indicated by the operation of the communication robot to the user is inconsistent, such as the operation of the communication robot suddenly decreasing or suddenly active. For inconsistent interactions, the strength of intervention and changes in the intervention level bother users and hinder good communication.

これに対して、開発時にコミュニケーションロボットが動作を行うタイミング等を適切に調整して動作に一貫性を持たせることは、ロボットが動作する状況や動作の種類等の様々な要素を考慮する必要があり、困難である。また、介護等の分野では、ユーザの自立度や、ケアの必要な部位の状態に応じてどこまでユーザに干渉するかを動的に変化させることが好ましい場合がある。   On the other hand, it is necessary to consider various factors such as the situation in which the robot operates and the type of operation to make the operation consistent by appropriately adjusting the timing of the operation of the communication robot during development. Yes, it ’s difficult. In fields such as nursing care, it may be preferable to dynamically change how far to interfere with the user depending on the degree of independence of the user and the state of the part requiring care.

そこで、一側面では、本発明は、適切なタイミングでインタラクションを提示することを目的とする。   Therefore, in one aspect, an object of the present invention is to present an interaction at an appropriate timing.

一つの案では、センシングされたユーザの挙動に基づいて、前記ユーザに対して提示する第1のインタラクションを決定し、前記ユーザに対して自発的に提示する第2のインタラクションを決定し、過去の所定期間に提示された前記第1のインタラクション及び前記第2のインタラクションに基づいて介入度を算出し、前記介入度に基づいて、前記第2のインタラクションを提示するタイミングを制御する処理をコンピュータが実行する制御方法が提供される。   In one plan, a first interaction to be presented to the user is determined based on a sensed user behavior, a second interaction to be spontaneously presented to the user is determined, and the past The computer executes a process of calculating the degree of intervention based on the first interaction and the second interaction presented during a predetermined period and controlling the timing of presenting the second interaction based on the degree of intervention. A control method is provided.

一側面によれば、適切なタイミングでインタラクションを提示することができる。   According to one aspect, an interaction can be presented at an appropriate timing.

第1の実施形態に係る制御システムの構成例を示す図。The figure which shows the structural example of the control system which concerns on 1st Embodiment. 動作間隔の制御例について説明する図。The figure explaining the example of control of an operation | movement space | interval. 第1の実施形態に係る制御システムの機能構成例を示す図。The figure which shows the function structural example of the control system which concerns on 1st Embodiment. 第1の実施形態に係る動作情報の一例を示す図。The figure which shows an example of the operation information which concerns on 1st Embodiment. 第1の実施形態に係るスコア情報の一例を示す図。The figure which shows an example of the score information which concerns on 1st Embodiment. 第1の実施形態に係る動作履歴情報の一例を示す図。The figure which shows an example of the operation history information which concerns on 1st Embodiment. 第1の実施形態に係る自発動作の制御処理の一例を示すフローチャート。The flowchart which shows an example of the control processing of the spontaneous action which concerns on 1st Embodiment. 第1の実施形態に係るスコア情報の他の例を示す図。The figure which shows the other example of the score information which concerns on 1st Embodiment. 第2の実施形態に係る自発動作の制御処理の一例を示すフローチャート。The flowchart which shows an example of the control processing of the spontaneous operation | movement which concerns on 2nd Embodiment. 第3の実施形態に係る制御システムの機能構成例を示す図。The figure which shows the function structural example of the control system which concerns on 3rd Embodiment. 第3の実施形態に係る動作間隔情報の一例を示す図。The figure which shows an example of the operation | movement interval information which concerns on 3rd Embodiment. 第3の実施形態に係る自発動作の制御処理の一例を示すフローチャート。The flowchart which shows an example of the control processing of the spontaneous action which concerns on 3rd Embodiment. 第4の実施形態に係る自発動作の制御処理の一例を示すフローチャート。The flowchart which shows an example of the control processing of the spontaneous action which concerns on 4th Embodiment. 優先度毎に設定された閾値の調整について説明する図。The figure explaining adjustment of the threshold set up for every priority. 第5の実施形態に係る制御システムの機能構成例を示す図。The figure which shows the function structural example of the control system which concerns on 5th Embodiment.

以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素及び実質的に同一の処理を行う箇所については、同一の符号を付することにより重複した説明を省く。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. Note that in the present specification and drawings, components having substantially the same functional configuration and portions that perform substantially the same processing are denoted by the same reference numerals, and redundant description is omitted.

<第1の実施形態>
[システムの構成]
まず、第1の実施形態に係る制御システム1について、図1を参照しながら説明する。図1は、第1の実施形態に係る制御システムの構成例を示す図である。図1に示すように、本実施形態に係る制御システム1は、ユーザに対して働きかけやインタラクション(以降では、単に、「インタラクション」と表す。)を行うコミュニケーションロボットR(以降では、単に、「ロボットR」と表す。)に内蔵される。
<First Embodiment>
[System configuration]
First, the control system 1 according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating a configuration example of a control system according to the first embodiment. As shown in FIG. 1, the control system 1 according to the present embodiment is a communication robot R (hereinafter simply referred to as “robot”) that performs user interaction and interaction (hereinafter simply referred to as “interaction”). R ”).

本実施形態に係る制御システム1は、制御装置100、センサ120、アクチュエータ130、及びスピーカ140等を有する。センサ120、アクチュエータ130、及びスピーカ140は、例えばバス等により制御装置100と接続されている。   The control system 1 according to the present embodiment includes a control device 100, a sensor 120, an actuator 130, a speaker 140, and the like. The sensor 120, the actuator 130, and the speaker 140 are connected to the control device 100 by, for example, a bus.

制御装置100は、例えば、1以上のコンピュータであり、アクチュエータ130やスピーカ140を制御する。   The control device 100 is, for example, one or more computers, and controls the actuator 130 and the speaker 140.

センサ120は、例えばタッチセンサ、マイク、人感センサ等の各種センサであり、ロボットRに人が触れたことや人から話しかけられたこと、あるいは人が近づいたこと等を検知する。   The sensor 120 is, for example, various sensors such as a touch sensor, a microphone, and a human sensor, and detects that the person has touched the robot R, talked by a person, or approached.

アクチュエータ130は、制御装置100の制御に従って、ロボットRの手や足、首等の各部位を動かす。これにより、ロボットRは、身振りや手振り等のインタラクションをユーザに提示する。なお、アクチュエータ130は、例えば、手を動かすためのアクチュエータや足を動かすためのアクチュエータ等、ロボットRが動作させることができる各部位毎に存在する。   The actuator 130 moves each part such as a hand, a leg, and a neck of the robot R according to the control of the control device 100. Thereby, the robot R presents an interaction such as gesture or hand gesture to the user. In addition, the actuator 130 exists for every site | part which the robot R can operate, such as an actuator for moving a hand and an actuator for moving a foot, for example.

スピーカ140は、制御装置100の制御に従って、音波を発する。これにより、ロボットRは、発話や歌を唄う等のインタラクションをユーザに提示する。   The speaker 140 emits sound waves according to the control of the control device 100. As a result, the robot R presents the user with an interaction such as speaking or singing.

このように、制御装置100がアクチュエータ130やスピーカ140を制御することにより、ロボットRの動作が制御される。これにより、ロボットRがユーザに対して行うインタラクションが制御される。   Thus, the control device 100 controls the actuator 130 and the speaker 140, whereby the operation of the robot R is controlled. Thereby, the interaction which the robot R performs with respect to a user is controlled.

制御装置100は、CPU(Central Processing Unit)101、RAM(Random Access Memory)102、ROM(Read Only Memory)103、記憶装置104、通信装置105、及び外部装置106等を有する。これら各ハードウェア構成は、それぞれがバス等で相互に接続されている。   The control device 100 includes a central processing unit (CPU) 101, a random access memory (RAM) 102, a read only memory (ROM) 103, a storage device 104, a communication device 105, an external device 106, and the like. These hardware configurations are connected to each other by a bus or the like.

CPU101、例えば記憶装置104やROM103等からプログラムやデータをRAM102上に読み出し、各種処理を実行する演算装置である。RAM102は、プログラムやデータを一時保存する揮発性の半導体メモリである。ROM103は、電源を切ってもデータを保持することができる不揮発性の半導体メモリである。   The CPU 101 is an arithmetic unit that reads programs and data from the storage device 104, the ROM 103, and the like onto the RAM 102 and executes various processes. The RAM 102 is a volatile semiconductor memory that temporarily stores programs and data. The ROM 103 is a nonvolatile semiconductor memory that can retain data even when the power is turned off.

記憶装置104は、プログラムやデータを格納している不揮発性のメモリであり、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等である。格納されるプログラムやデータには、制御装置100に搭載される基本ソフトウェアであるOS(Operating System)やOS上で各種処理を実行するプログラム(例えば、制御プログラム110)等がある。   The storage device 104 is a non-volatile memory that stores programs and data, and is, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), or the like. The stored programs and data include an OS (Operating System) that is basic software installed in the control apparatus 100, a program that executes various processes on the OS (for example, the control program 110), and the like.

通信装置105は、制御装置100がセンサ120、アクチュエータ130、及びスピーカ140等と通信を行うためのインタフェースである。外部装置106は、例えばSDカード(SD memory card)やUSBメモリ(Universal Serial Bus memory)等の外部記憶媒体とのインタフェースである。例えば、外部記憶媒体に記憶された制御プログラム110がインストールされることにより、記憶装置104に制御プログラム110が格納される。   The communication device 105 is an interface for the control device 100 to communicate with the sensor 120, the actuator 130, the speaker 140, and the like. The external device 106 is an interface with an external storage medium such as an SD card (SD memory card) or a USB memory (Universal Serial Bus memory). For example, the control program 110 is stored in the storage device 104 by installing the control program 110 stored in the external storage medium.

本実施形態に係る制御装置100は、上記のハードウェア構成により、後述するような各種処理を実現することができる。   The control device 100 according to the present embodiment can realize various processes as described later with the above hardware configuration.

なお、図1に示す制御システム1では、制御装置100がロボットRに内蔵される場合について説明したが、これに限られない。例えば、制御システム1は、制御装置100をロボットRの外部に設置して、制御装置100がセンサ120、アクチュエータ130、及びスピーカ140等とネットワークを介して通信可能なように構成されてもよい。   In the control system 1 illustrated in FIG. 1, the case where the control device 100 is built in the robot R has been described, but the present invention is not limited thereto. For example, the control system 1 may be configured such that the control device 100 is installed outside the robot R so that the control device 100 can communicate with the sensor 120, the actuator 130, the speaker 140, and the like via a network.

ここで、制御装置100がアクチュエータ130やスピーカ140を制御することにより、ロボットRがユーザに対して行うインタラクションは、リアクション動作に基づくインタラクションと、自発動作に基づくインタラクションとに大別される。   Here, when the control device 100 controls the actuator 130 and the speaker 140, the interaction performed by the robot R with respect to the user is roughly classified into an interaction based on a reaction operation and an interaction based on a spontaneous operation.

リアクション動作に基づくインタラクションとは、センサ120により検知されたユーザの挙動(例えば、ロボットRに触れる、近づく、話しかける等)に基づいて、制御装置100がロボットRの動作を制御することによりユーザに対して提示される動作であり、第1のインタラクションの一例である。   The interaction based on the reaction action is based on the user's behavior detected by the sensor 120 (for example, touching, approaching, talking to the robot R, etc.), and the control device 100 controls the action of the robot R to the user. And is an example of the first interaction.

一方、自発動作に基づくインタラクションとは、ユーザの挙動に関わらずに、制御装置100がロボットRを制御することによりユーザに対して自発的に提示される動作であり、第2のインタラクションの一例である。   On the other hand, the interaction based on the spontaneous operation is an operation that is spontaneously presented to the user by the control device 100 controlling the robot R regardless of the behavior of the user, and is an example of the second interaction. is there.

本実施形態は、ロボットRの自発動作の動作間隔を制御することにより、ユーザに対する介入の度合いや介入レベル(以降では、単に、「介入レベル」と表す。)を制御するものである。このことについて、図2を参照しながら概要を説明する。図2は、動作間隔の制御例について説明する図である。なお、介入とは、ロボットRがインタラクションによりユーザに与える影響のことを言う。したがって、介入レベルとは、ロボットRが発話や身振り手振り等のインタラクションによりユーザに与えた影響の度合いのことを言う。   In this embodiment, by controlling the operation interval of the spontaneous operation of the robot R, the degree of intervention and the intervention level (hereinafter simply referred to as “intervention level”) for the user are controlled. This will be outlined with reference to FIG. FIG. 2 is a diagram illustrating an example of operation interval control. The intervention refers to the influence that the robot R has on the user due to the interaction. Therefore, the intervention level refers to the degree of influence that the robot R exerts on the user through interaction such as speech and gestures.

本実施形態に係る制御装置100は、ロボットRが行う自発動作及びリアクション動作に対して、当該動作に基づくインタラクションによってユーザに与える介入レベルを数値化したスコアを設定する。そして、制御装置100は、過去の所定の期間に行われた自発動作やリアクション動作のスコアの合計(合計スコア)に基づき、自発動作を行うか否かを判定することで、自発動作の動作間隔を制御する。介入レベル、スコア、合計スコアは、介入度の一例である。   The control device 100 according to the present embodiment sets a score obtained by quantifying the intervention level given to the user by the interaction based on the action for the spontaneous action and the reaction action performed by the robot R. Then, the control device 100 determines whether or not to perform the spontaneous operation based on the total (total score) of the scores of the spontaneous operation and the reaction operation performed in the past predetermined period, thereby determining the operation interval of the spontaneous operation. To control. The intervention level, the score, and the total score are examples of the degree of intervention.

例えば、図2に示すように、過去の所定の期間内(時刻tから現在まで)の時刻t〜tにロボットRが行った自発動作又はリアクション動作の合計スコアに基づき、現在、自発動作を行うか否かを判定する。これにより、1つ前に行われた動作(時刻tで行われた動作)から次に行う動作(現在行う動作)までの動作間隔を制御する。すなわち、合計スコアが所定の閾値以上である場合(ユーザに対する介入レベルが高い場合)、自発動作を行わない(つまり、動作間隔を長くする)ように制御する。一方で、合計スコアが所定の閾値未満である場合(ユーザに対する介入レベルが低い場合)、自発動作を行う(動作間隔を短くする)ように制御する。このように、本実施形態に係る制御装置100は、ロボットRの自発動作の動作間隔を動的に制御することで、ユーザに対する介入レベルを制御する。 For example, as shown in FIG. 2, based on a total score of spontaneous actions or reaction actions performed by the robot R at times t 1 to t 6 within a predetermined period in the past (from time t 0 to the present), It is determined whether or not to perform an operation. Thereby controlling the operation interval from one previously performed the operation (operation performed at time t 6) to do next (operation performed currently). That is, when the total score is equal to or higher than a predetermined threshold (when the intervention level for the user is high), control is performed so as not to perform the spontaneous action (that is, lengthen the action interval). On the other hand, when the total score is less than a predetermined threshold (when the intervention level for the user is low), control is performed so as to perform a spontaneous operation (shorten the operation interval). Thus, the control apparatus 100 according to the present embodiment controls the intervention level for the user by dynamically controlling the operation interval of the spontaneous operation of the robot R.

[機能構成]
次に、第1の実施形態に係る制御装置100の機能構成について、図3を参照しながら説明する。図3は、第1の実施形態に係る制御システムの機能構成例を示す図である。
[Function configuration]
Next, the functional configuration of the control device 100 according to the first embodiment will be described with reference to FIG. FIG. 3 is a diagram illustrating a functional configuration example of the control system according to the first embodiment.

制御装置100は、自発動作制御部11、動作実行部15、及びリアクション動作制御部16を有する。これら各部は、制御装置100にインストールされた制御プログラム110が、CPU101に実行させる処理により実現される。   The control device 100 includes a spontaneous operation control unit 11, an operation execution unit 15, and a reaction operation control unit 16. Each of these units is realized by processing that the control program 110 installed in the control device 100 causes the CPU 101 to execute.

また、制御装置100は、動作情報記憶部17、スコア情報記憶部18、及び動作履歴情報記憶部19を有する。これら各記憶部は、記憶装置104により実現される。   In addition, the control device 100 includes an operation information storage unit 17, a score information storage unit 18, and an operation history information storage unit 19. Each of these storage units is realized by the storage device 104.

自発動作制御部11は、ロボットRに行わせる自発動作の決定や自発動作を行うタイミング(動作間隔)を制御する。ここで、自発動作制御部11は、スコア算出部12、動作決定部13、及び間隔決定部14を有する。   The spontaneous operation control unit 11 controls the determination of the spontaneous operation to be performed by the robot R and the timing (operation interval) at which the spontaneous operation is performed. Here, the spontaneous operation control unit 11 includes a score calculation unit 12, an operation determination unit 13, and an interval determination unit 14.

スコア算出部12は、スコア情報記憶部18に格納されたスコア情報テーブル181及び動作履歴情報記憶部19に格納された動作履歴情報テーブル191に基づき、過去の所定の期間に行われた自発動作及びリアクション動作の合計スコアを算出する。   Based on the score information table 181 stored in the score information storage unit 18 and the operation history information table 191 stored in the operation history information storage unit 19, the score calculation unit 12 includes the spontaneous operation performed in the past predetermined period and Calculate the total score for reaction behavior.

動作決定部13は、動作情報記憶部17に格納された自発動作の動作情報171(図4(a)参照)に基づき、ロボットRに行わせる自発動作を決定する。   The motion determination unit 13 determines the spontaneous motion to be performed by the robot R based on the motion information 171 (see FIG. 4A) of the spontaneous motion stored in the motion information storage unit 17.

間隔決定部14は、スコア算出部12に算出された合計スコアに基づき、ロボットRに自発動作を行わせるか否かを判定する。本実施形態においては、間隔決定部14は、スコア算出部12により算出された合計スコアが、予め設定された所定の閾値未満であるか否かを判定することにより、ロボットRに自発動作を行わせるか否かを判定する。   The interval determination unit 14 determines whether or not to cause the robot R to perform a spontaneous operation based on the total score calculated by the score calculation unit 12. In the present embodiment, the interval determination unit 14 performs a spontaneous operation on the robot R by determining whether or not the total score calculated by the score calculation unit 12 is less than a predetermined threshold value set in advance. Determine whether or not

動作実行部15は、自発動作制御部11により決定された自発動作をロボットRに行わせる。すなわち、動作実行部15は、決定された自発動作の動作内容に応じて、アクチュエータ130やスピーカ140を制御し、ロボットRを動作させる。また、同様に、動作実行部15は、後述するリアクション動作制御部16により決定されたリアクション動作をロボットRに行わせる。   The motion execution unit 15 causes the robot R to perform the spontaneous motion determined by the spontaneous motion control unit 11. That is, the operation execution unit 15 controls the actuator 130 and the speaker 140 according to the determined operation content of the spontaneous operation to operate the robot R. Similarly, the operation execution unit 15 causes the robot R to perform a reaction operation determined by a reaction operation control unit 16 described later.

リアクション動作制御部16は、ロボットRに行わせるリアクション動作を決定する。すなわち、リアクション動作制御部16は、センサ120により検知されたユーザの挙動に応じて、動作情報記憶部17に格納されたリアクション動作の動作情報172(図4(b)参照)に基づき、ロボットRに行わせるリアクション動作を決定する。   The reaction operation control unit 16 determines a reaction operation to be performed by the robot R. That is, the reaction operation control unit 16 determines the robot R based on the reaction information 172 (see FIG. 4B) stored in the operation information storage unit 17 according to the user's behavior detected by the sensor 120. Determine the reaction action to be performed.

より詳細には、ロボットRのセンサ120によりユーザの挙動(例えば、ユーザがロボットRに触れた、近づいた、又は話しかけた等)が検知されると、リアクション動作制御部16は、センサ120からセンサデータを受信する。そして、リアクション動作制御部16は、リアクション動作の動作情報172に基づき、受信したセンサデータに応じたリアクション動作を決定する。例えば、ユーザがロボットRに話しかけた場合、マイク等のセンサ120は、この話しかけを検知し、センサデータをリアクション動作制御部16に送信する。そして、リアクション動作制御部16は、例えば、リアクション動作の動作情報172に基づき、「返事をする」動作等のリアクション動作を決定する。   More specifically, when the user's behavior (for example, the user touched, approached, or talked to the robot R) is detected by the sensor 120 of the robot R, the reaction operation control unit 16 detects the sensor 120 from the sensor 120. Receive data. Then, the reaction operation control unit 16 determines a reaction operation according to the received sensor data based on the operation information 172 of the reaction operation. For example, when the user talks to the robot R, the sensor 120 such as a microphone detects the talk and transmits sensor data to the reaction operation control unit 16. Then, for example, the reaction operation control unit 16 determines a reaction operation such as a “reply” operation based on the operation information 172 of the reaction operation.

動作情報記憶部17は、自発動作の動作情報171及びリアクション動作の動作情報172を格納する。ここで、自発動作の動作情報171及びリアクション動作の動作情報172について、図4を参照しながら説明する。図4は、第1の実施形態に係る動作情報の一例を示す図である。   The operation information storage unit 17 stores operation information 171 of spontaneous operation and operation information 172 of reaction operation. Here, the operation information 171 of the spontaneous operation and the operation information 172 of the reaction operation will be described with reference to FIG. FIG. 4 is a diagram illustrating an example of operation information according to the first embodiment.

図4(a)は、自発動作の動作情報171を示す。自発動作の動作情報171は、ロボットRに行わせる動作の優先度毎に、自発動作の動作情報テーブル171H〜171Lを有する。すなわち、自発動作の動作情報171は、ロボットRに行わせる自発動作のうち、優先度が高い順に、優先度「1」の動作情報テーブル171H、優先度「2」の動作情報テーブル171M、及び優先度「3」の動作情報テーブル171L等を有する。このように、自発動作の動作情報171は、例えば自発動作の振る舞いの種類に応じて、優先度が関連付けられており、優先度に応じてロボットRに行わせる自発動作が制御される。例えば、優先度「1」の動作情報テーブル171Hは、身振り手振り等を示す自発動作の動作情報が管理されており、優先度「2」の動作情報テーブル171Mには、独り言等を示す自発動作の動作情報が管理されている。また、例えば、優先度「3」の動作情報テーブル171Lには、歩き回る等の自発動作の動作情報が管理されている。このように、振る舞いの種類や類型毎に優先度を設定して、ロボットRの動作を制御する手法又は概念は、サブサンプションアーキテクチャと称される。   FIG. 4A shows operation information 171 of the spontaneous operation. The action information 171 of the spontaneous action includes action information tables 171H to 171L of the spontaneous action for each priority of the action to be performed by the robot R. That is, the action information 171 of the spontaneous action includes the action information table 171H with the priority “1”, the action information table 171M with the priority “2”, and the priority in the descending order of the spontaneous actions to be performed by the robot R. And an operation information table 171L of degree “3”. As described above, the action information 171 of the spontaneous action is associated with a priority according to, for example, the type of behavior of the spontaneous action, and the spontaneous action to be performed by the robot R is controlled according to the priority. For example, the motion information table 171H with priority “1” manages the motion information of spontaneous motion indicating gestures and the like, and the motion information table 171M with priority “2” stores spontaneous motions indicating monologue and the like. Operation information is managed. In addition, for example, the operation information table 171L of the priority “3” manages the operation information of the spontaneous operation such as walking around. In this way, a method or concept for controlling the operation of the robot R by setting a priority for each type or type of behavior is called a subsumption architecture.

また、各動作情報テーブル171H〜171Lは、動作ID毎に、動作内容、動作時間及び必要リソース等のデータ項目を有する。動作IDは、自発動作の動作内容を一意に識別する情報である。動作内容は、ロボットRに行わせる自発動作の内容である。動作時間は、自発動作を開始してから終了するまでに要する時間である。   Each operation information table 171H to 171L has data items such as operation contents, operation time, and necessary resources for each operation ID. The action ID is information that uniquely identifies the action content of the spontaneous action. The operation content is the content of the spontaneous operation that the robot R performs. The operation time is the time required from the start of the spontaneous operation to the end.

必要リソースは、自発動作を行うのに必要なロボットRのリソースを示している。例えば、動作ID「H001」の自発動作「足をばたつかせる」をロボットRに行わせるには、「足」のリソースが使用可能である必要がある。換言すれば、ロボットRの「足」を動かすためのアクチュエータ130が、他の自発動作又はリアクション動作等により占有されていないことが必要である。同様に、例えば、独り言を示す自発動作をロボットRに行わせるには、スピーカ140のリソースが使用可能である必要がある。   The necessary resource indicates the resource of the robot R necessary for performing the spontaneous operation. For example, in order to cause the robot R to perform the spontaneous action “flick the foot” with the action ID “H001”, the resource “foot” needs to be available. In other words, it is necessary that the actuator 130 for moving the “foot” of the robot R is not occupied by another spontaneous action or reaction action. Similarly, for example, in order to cause the robot R to perform a spontaneous operation indicating monologue, the resource of the speaker 140 needs to be available.

このように、自発動作の動作情報171には、自発動作の振る舞いの種類や類型等に応じて設定された優先度毎に、自発動作の動作ID、動作内容、動作時間、必要リソース等が設定され、動作情報記憶部17により管理されている。なお、動作情報テーブル171H〜171Lは、上記で説明したデータ項目以外に、例えば、動作ID毎に、ロボットRに行わせる自発動作を決定するための条件(制約条件)を示すデータ項目を有していてもよい。この制約条件は、例えば、「同じ優先度の自発動作が行われた後、30秒間は当該動作IDの自発動作を行わない」等が挙げられる。   As described above, in the operation information 171 of the spontaneous operation, the operation ID, the operation content, the operation time, the necessary resource, etc. of the spontaneous operation are set for each priority set according to the type or type of the behavior of the spontaneous operation. And is managed by the operation information storage unit 17. In addition to the data items described above, the motion information tables 171H to 171L include, for example, data items indicating conditions (constraint conditions) for determining a spontaneous motion to be performed by the robot R for each motion ID. It may be. For example, the constraint condition may be “After the spontaneous operation with the same priority is performed, the spontaneous operation with the operation ID is not performed for 30 seconds”.

図4(b)は、リアクション動作の動作情報172を示す。リアクション動作の動作情報172は、ロボットRに行わせる動作の優先度毎に、リアクション動作の動作情報テーブル172H〜172Lを有する。すなわち、リアクション動作の動作情報172は、ロボットRに行わせるリアクション動作のうち、優先度が高い順に、優先度「1」の動作情報テーブル172H、優先度「2」の動作情報テーブル173M、優先度「3」の動作情報テーブル174L等を有する。このように、リアクション動作の動作情報172は、例えばリアクション動作の振る舞いの種類に応じて、優先度が関連付けられており、優先度に応じてロボットRに行わせるリアクション動作が制御される。例えば、優先度「1」の動作情報テーブル172Hは、身振り手振り等を示すリアクション動作の動作情報が管理されており、優先度「2」の動作情報テーブル172Mには、発話等を示すリアクション動作の動作情報が管理されている。   FIG. 4B shows the action information 172 of the reaction action. The action information 172 of the reaction action includes reaction information tables 172H to 172L of reaction actions for each priority of actions to be performed by the robot R. That is, the action information 172 of the reaction action includes the action information table 172H having the priority “1”, the action information table 173M having the priority “2”, and the priority in the descending order of the reaction actions to be performed by the robot R. The operation information table 174L of “3” is included. As described above, the action information 172 of the reaction action is associated with a priority according to, for example, the type of behavior of the reaction action, and the reaction action to be performed by the robot R is controlled according to the priority. For example, the action information table 172H of priority “1” manages the action information of reaction actions indicating gesture gestures, and the action information table 172M of priority “2” contains reaction actions indicating utterances and the like. Operation information is managed.

また、各動作情報テーブル172H〜172Lは、自発動作の動作情報テーブル171H〜171Lと同様に、動作ID毎に、動作内容、動作時間及び必要リソース等のデータ項目を有する。   Further, each of the operation information tables 172H to 172L has data items such as operation contents, operation time, and necessary resources for each operation ID, similarly to the operation information tables 171H to 171L of the spontaneous operation.

このように、リアクション動作の動作情報172には、リアクション動作の振る舞いの類型等に応じて設定された優先度毎に、自発動作の動作ID、動作内容、動作時間、必要リソース等が設定され、動作情報記憶部17により管理されている。   Thus, in the action information 172 of the reaction action, the action ID, action content, action time, required resource, etc. of the spontaneous action are set for each priority set according to the type of the action of the reaction action, etc. It is managed by the operation information storage unit 17.

なお、自発動作の動作情報171及びリアクション動作の動作情報172で共通に優先度を設定してもよい。この場合、ロボットRが自発動作よりもリアクション動作を優先して行うようにするためには、各リアクション動作の動作情報テーブル172H〜172Lの優先度を、各自発動作の動作情報テーブル171H〜171Lの優先度より高く設定すればよい。例えば、リアクション動作の動作情報テーブル172H〜172Lの優先度をそれぞれ「1」〜「3」、自発動作の動作情報テーブル171H〜171Lの優先度を「4」〜「5」と設定すればよい。   Note that the priority may be set in common in the operation information 171 of the spontaneous operation and the operation information 172 of the reaction operation. In this case, in order for the robot R to prioritize the reaction action over the spontaneous action, the priority of the action information tables 172H to 172L of each reaction action is set to the priority of the action information tables 171H to 171L of each spontaneous action. What is necessary is just to set higher than a priority. For example, the priority of the action information tables 172H to 172L for the reaction action may be set to “1” to “3”, respectively, and the priority of the action information tables 171H to 171L for the spontaneous action may be set to “4” to “5”.

スコア情報記憶部18は、スコア情報テーブル181を格納する。ここで、スコア情報テーブル181について、図5を参照しながら説明する。図5は、第1の実施形態に係るスコア情報の一例を示す図である。スコア情報テーブル181は、動作ID毎に、動作毎のスコアが管理されている。このように、スコア情報テーブル181には、各自発動作及びリアクション動作に基づくインタラクションによってユーザに与える介入レベルを数値化したスコアが管理される。   The score information storage unit 18 stores a score information table 181. Here, the score information table 181 will be described with reference to FIG. FIG. 5 is a diagram illustrating an example of score information according to the first embodiment. In the score information table 181, a score for each operation is managed for each operation ID. As described above, the score information table 181 manages a score obtained by quantifying the intervention level given to the user by the interaction based on each spontaneous action and reaction action.

動作履歴情報記憶部19は、動作履歴情報テーブル191を格納する。ここで、動作履歴情報テーブル191について、図6を参照しながら説明する。図6は、第1の実施形態に係る動作履歴情報の一例を示す図である。動作履歴情報テーブル191は、過去の所定の期間に行われた自発動作及びリアクション動作の履歴が動作ID毎に管理されている。図6に示す例では、動作履歴情報テーブル191は、過去3分間に行われた自発動作及びリアクション動作の動作IDが動作時刻と関連付けて管理されている。これにより、スコア算出部12は、スコア情報テーブル181と動作履歴情報テーブル191とを参照することにより、過去の所定の期間に行われた自発動作及びリアクション動作のスコアの合計(合計スコア)を算出することができる。   The operation history information storage unit 19 stores an operation history information table 191. Here, the operation history information table 191 will be described with reference to FIG. FIG. 6 is a diagram illustrating an example of operation history information according to the first embodiment. In the operation history information table 191, a history of spontaneous operations and reaction operations performed in a predetermined period in the past is managed for each operation ID. In the example illustrated in FIG. 6, the operation history information table 191 manages operation IDs of spontaneous operations and reaction operations performed in the past three minutes in association with operation times. Thereby, the score calculation unit 12 calculates the total (total score) of the scores of the spontaneous action and the reaction action performed in the past predetermined period by referring to the score information table 181 and the action history information table 191. can do.

なお、動作履歴情報テーブル191は、動作実行部15によりロボットRの自発動作又はリアクション動作が行われると、動作実行部15より更新される。すなわち、動作実行部15は、ロボットRに行わせた自発動作又はリアクション動作の動作IDを動作時刻と関連付けて動作履歴情報テーブル191に格納する。   The operation history information table 191 is updated by the operation execution unit 15 when the operation execution unit 15 performs a spontaneous operation or a reaction operation of the robot R. In other words, the action execution unit 15 stores the action ID of the spontaneous action or reaction action performed by the robot R in the action history information table 191 in association with the action time.

[自発動作の制御処理]
次に、第1の実施形態に係る自発動作の制御処理について、図7を参照しながら説明する。図7は、第1の実施形態に係る自発動作の制御処理の一例を示すフローチャートである。ここで、図7に示す自発動作の制御処理は、所定の時間毎(例えば、1秒毎)に繰り返し実行される。すなわち、本実施形態に係る制御装置100は、例えば1秒毎に、自発動作を行うか否か判定することで、自発動作の動作間隔を制御する。
[Spontaneous control processing]
Next, the control process of the spontaneous operation according to the first embodiment will be described with reference to FIG. FIG. 7 is a flowchart illustrating an example of a control process of the spontaneous operation according to the first embodiment. Here, the control process of the spontaneous operation shown in FIG. 7 is repeatedly executed at predetermined time intervals (for example, every second). That is, the control device 100 according to the present embodiment controls the operation interval of the spontaneous operation by determining whether or not to perform the spontaneous operation every second, for example.

ステップS701において、自発動作制御部11の動作決定部13は、n=1として、優先度nの動作情報テーブル171Hを、自発動作の動作情報171から取得する。すなわち、動作決定部13は、自発動作の動作情報171のうち、最も優先度が高い自発動作の動作情報テーブルを取得する。   In step S701, the operation determination unit 13 of the spontaneous operation control unit 11 sets n = 1 and acquires the operation information table 171H of the priority n from the operation information 171 of the spontaneous operation. That is, the action determination unit 13 acquires the action information table of the spontaneous action having the highest priority among the action information 171 of the spontaneous action.

ステップS702において、自発動作制御部11のスコア算出部12は、動作履歴情報テーブル191及びスコア情報テーブル181に基づき、過去の所定の期間に行われた自発動作及びリアクション動作の合計スコア(以降では、便宜上、合計スコアを「合計スコアS」と表す。)を算出する。ここで、スコア算出部12は、例えば、以下の(1)〜(4)のいずれかの方法により合計スコアSを算出すればよい。   In step S702, the score calculation unit 12 of the spontaneous operation control unit 11 calculates the total score of the spontaneous operation and the reaction operation performed in the past predetermined period based on the operation history information table 191 and the score information table 181 (hereinafter, For convenience, the total score is expressed as “total score S”). Here, the score calculation unit 12 may calculate the total score S by, for example, any one of the following methods (1) to (4).

(1)スコア算出部12は、スコア情報テーブル181を参照して、動作履歴情報テーブル191に含まれる各動作IDのスコア(基礎スコア)を算出する。そして、スコア算出部12は、算出された各基礎スコアの足し合わせることにより合計スコアSを算出する。   (1) The score calculation unit 12 refers to the score information table 181 and calculates the score (basic score) of each action ID included in the action history information table 191. Then, the score calculation unit 12 calculates the total score S by adding the calculated basic scores.

(2)スコア算出部12は、スコア情報テーブル181の代わりに、例えば図8に示すような動作の要素毎のスコアが管理されたスコア情報テーブル181Aを参照して、動作履歴情報テーブル191に含まれる各動作IDの基礎スコアを算出する。そして、スコア算出部12は、算出された各基礎スコアの足し合わせることにより合計スコアSを算出する。   (2) Instead of the score information table 181, the score calculation unit 12 refers to, for example, a score information table 181A in which a score for each operation element as illustrated in FIG. 8 is managed, and is included in the operation history information table 191. The basic score of each action ID is calculated. Then, the score calculation unit 12 calculates the total score S by adding the calculated basic scores.

より詳細に説明する。図8に示すスコア情報テーブル181Aには、動作の要素毎に、要素毎のスコアが管理されている。したがって、スコア算出部12は、動作履歴情報テーブル191に含まれる各動作IDについて、動作IDに対応する自発動作又はリアクション動作に含まれる動作の要素のスコアを合計することで、各動作IDの基礎スコアを算出する。例えば、図4(a)の動作ID「H002」の自発動作の動作内容「まわりを見回す」について、動作の要素は「顔の挙動」である。したがって、動作ID「H002」の基礎スコアは「2」と算出される。同様に、図4(b)の例えば、動作ID「H101」のリアクション動作の動作内容「喜ぶ」について、動作の要素は「手足の挙動」、「顔の挙動」、及び「バーバルな発話」である。したがって、動作ID「H101」の基礎スコアは、「13」と算出される。そして、スコア算出部12は、算出された各動作IDの基礎スコアを足し合わせることで、合計スコアSを算出する。これにより、各自発動作及びリアクション動作に対して一貫性があるスコアを算出することができる。   This will be described in more detail. In the score information table 181A shown in FIG. 8, the score for each element is managed for each element of the operation. Therefore, the score calculation unit 12 adds the scores of the elements of the actions included in the spontaneous action or the reaction action corresponding to the action ID for each action ID included in the action history information table 191, thereby obtaining the basis of each action ID. Calculate the score. For example, regarding the operation content “look around” of the spontaneous operation of the operation ID “H002” in FIG. 4A, the element of the operation is “face behavior”. Therefore, the basic score of the action ID “H002” is calculated as “2”. Similarly, for example, with respect to the action content “Rejoice” of the reaction action of the action ID “H101” in FIG. 4B, the action elements are “hand and foot behavior”, “face behavior”, and “verbal utterance”. is there. Therefore, the basic score of the action ID “H101” is calculated as “13”. And the score calculation part 12 calculates the total score S by adding the basic score of each calculated operation | movement ID. This makes it possible to calculate a consistent score for each spontaneous action and reaction action.

(3)上記の(1)又は(2)の方法により算出された合計スコアを「S」として、以下の式により合計スコアSを算出する。ここで、Tは、予め設定された所定の時間(例えば、30秒)である。 (3) The total score S calculated by the above method (1) or (2) is “S 1 ”, and the total score S is calculated by the following equation. Here, T is a predetermined time (for example, 30 seconds) set in advance.

Figure 2016198843
Figure 2016198843

なお、「各動作時間の合計」は、動作履歴情報テーブル191に含まれる各動作IDに対応する自発動作及びリアクション動作の動作時間の合計である。これにより、自発動作及びリアクション動作の動作時間に応じて合計スコアSを算出することができる。   The “total of each operation time” is the total operation time of the spontaneous operation and the reaction operation corresponding to each operation ID included in the operation history information table 191. Accordingly, the total score S can be calculated according to the operation time of the spontaneous operation and the reaction operation.

(4)上記の(1)〜(3)のいずれかの方法により算出された合計スコアを「S」として、以下の式により合計スコアSを算出する。 (4) The total score S calculated by any one of the methods (1) to (3) is “S 2 ”, and the total score S is calculated by the following formula.

Figure 2016198843
Figure 2016198843

なお、上記の式におけるpは、動作履歴情報テーブル191に含まれる動作IDの数をN、動作履歴情報テーブル191に含まれる動作IDのうち予め設定された所定の動作IDの数をNとして、以下の式で表される。 Note that p e in the above formula is N the number of operation IDs included in the operation history information table 191, and N e is the number of predetermined operation IDs set in advance among the operation IDs included in the operation history information table 191. Is expressed by the following formula.

Figure 2016198843
Figure 2016198843

これにより、予め設定された動作IDに対応する自発動作及びリアクション動作が行われた場合に、合計スコアSを高くすることができる。したがって、例えば人目を引く自発動作やリアクション動作の動作IDを予め設定することにより、合計スコアSを高くすることができる。   Thereby, the total score S can be increased when a spontaneous action and a reaction action corresponding to a preset action ID are performed. Therefore, the total score S can be increased by, for example, setting the action ID of a spontaneous action or reaction action that catches the eye.

ステップS703において、自発動作制御部11の間隔決定部14は、算出された合計スコアSが予め設定された所定の閾値未満であるか否かを判定する。合計スコアSが所定の閾値未満である場合、自発動作制御部11は、ステップS704の処理に進む。   In step S703, the interval determination unit 14 of the spontaneous operation control unit 11 determines whether or not the calculated total score S is less than a predetermined threshold value set in advance. When the total score S is less than the predetermined threshold value, the spontaneous operation control unit 11 proceeds to the process of step S704.

一方、合計スコアSが所定の閾値以上である場合、自発動作制御部11は、処理を終了させる(すなわち、自発動作制御部11は、ロボットRが自発動作を行わないように制御する。)。このことは、過去の所定の期間に行われた自発動作及びリアクション動作に基づくインタラクションによってユーザに与えた介入レベルが所定以上である場合には、自発動作を行わないように制御することを意味する。これにより、ロボットRが自発動作を行う動作間隔が制御される。   On the other hand, when the total score S is equal to or greater than the predetermined threshold, the spontaneous motion control unit 11 ends the process (that is, the spontaneous motion control unit 11 controls the robot R not to perform the spontaneous motion). This means that if the intervention level given to the user by the interaction based on the spontaneous action and the reaction action performed in a predetermined period in the past is greater than or equal to a predetermined level, control is performed so as not to perform the spontaneous action. . Thereby, the operation interval at which the robot R performs the spontaneous operation is controlled.

ステップS704において、動作決定部13は、取得した自発動作の動作情報テーブルから実行可能な自発動作が存在するか否かを判定する。例えば、動作決定部13は、取得した自発動作の動作情報テーブルに含まれる各自発動作の「必要リソース」のデータ項目を参照して、実行可能な自発動作が存在するか否かを判定する。実行可能な自発動作が存在する場合は、自発動作制御部11は、ステップS705の処理に進む一方、実行可能な自発動作が存在しない場合は、自発動作制御部11は、ステップS706の処理に進む。   In step S704, the action determination unit 13 determines whether there is a spontaneous action that can be executed from the obtained action information table of the spontaneous action. For example, the operation determination unit 13 refers to the “necessary resource” data item of each spontaneous operation included in the acquired operation information table of the spontaneous operation, and determines whether there is an executable spontaneous operation. When there is a feasible spontaneous action, the spontaneous action control unit 11 proceeds to the process of step S705, whereas when there is no executable spontaneous action, the spontaneous action control unit 11 proceeds to the process of step S706. .

ステップS705において、動作決定部13は、ステップS704で実行可能であると判定された自発動作のうち、ロボットRに行わせる自発動作を決定する。例えば、動作決定部13は、ステップS704で実行可能であると判定された自発動作の中から一の自発動作をランダムに選択し、選択された自発動作をロボットRに行わせる自発動作に決定する。   In step S705, the action determination unit 13 determines a spontaneous action to be performed by the robot R among the spontaneous actions determined to be executable in step S704. For example, the action determining unit 13 randomly selects one spontaneous action from the spontaneous actions determined to be executable in step S704, and determines the selected spontaneous action to be performed by the robot R. .

ステップS706において、動作決定部13は、n=n+1として、優先度nの動作情報テーブルを、自発動作の動作情報171から取得する。すなわち、動作決定部13は、1つ下の優先度の動作情報テーブルを、自発動作の動作情報171から取得する。このように、優先度nの自発動作の動作情報テーブルに実行可能な自発動作が存在しない場合、動作決定部13は、優先度n+1の自発動作の動作情報テーブルを取得する。   In step S706, the operation determination unit 13 sets n = n + 1 and acquires the operation information table of priority n from the operation information 171 of the spontaneous operation. That is, the operation determination unit 13 acquires the operation information table of the next lower priority from the operation information 171 of the spontaneous operation. As described above, when there is no executable spontaneous action that can be executed in the action information table of the spontaneous action having the priority n, the action determining unit 13 acquires the action information table of the spontaneous action having the priority n + 1.

ステップS707において、動作実行部15は、ステップS705で決定された自発動作の動作内容に応じて、アクチュエータ130やスピーカ140を制御して、ロボットRに自発動作を行わせる。これにより、ロボットRは、自発動作を行う。   In step S707, the operation executing unit 15 controls the actuator 130 and the speaker 140 according to the operation content of the spontaneous operation determined in step S705, and causes the robot R to perform the spontaneous operation. As a result, the robot R performs a spontaneous operation.

以上のように、第1の実施形態に係る制御装置100では、過去の所定の期間に行われた自発動作及びリアクション動作に基づくインタラクションによってユーザに与えた介入レベルが所定以上である場合には、自発動作を行わないように制御する。これにより、例えば、過去の所定の期間においてリアクション動作が多く行われた場合には、その後の自発動作の動作間隔が長くなることにより、ユーザに対するロボットRの介入レベルが高くなり過ぎないように制御することができる。同様に、例えば、過去の所定の期間においてリアクション動作が殆ど行われていない場合には、その後の自発動作の動作間隔が短くなることにより、ユーザに対するロボットRの介入レベルが低くなり過ぎないように制御することができる。   As described above, in the control device 100 according to the first embodiment, when the intervention level given to the user by the interaction based on the spontaneous operation and the reaction operation performed in the past predetermined period is equal to or higher than the predetermined level, Control to prevent spontaneous operation. Thereby, for example, when many reaction operations are performed in a predetermined period in the past, the operation interval of the subsequent spontaneous operation is increased so that the intervention level of the robot R with respect to the user does not become too high. can do. Similarly, for example, when the reaction operation is hardly performed in a predetermined period in the past, the operation interval of the subsequent spontaneous operation is shortened so that the intervention level of the robot R with respect to the user does not become too low. Can be controlled.

なお、図7のステップS702では、過去の所定の期間に行われた自発動作及びリアクション動作の合計スコアSに基づき自発動作の動作間隔を制御したが、例えば前回の合計スコアSを時間の経過とともに値を減少させて今回の合計スコアSを算出してもよい。例えば、現時点をtとして、1つ前の時点の合計スコアをS(t−1)とした場合、現時点の合計スコアS(t)を、S(t)=S(t−1)×α+Σ(時点t−1からtまでに行われた自発動作又はリアクション動作の動作IDの基礎スコア)として算出してもよい。ここで、上式においてαは予め設定された所定の減衰係数である。   In addition, in step S702 of FIG. 7, the operation interval of the spontaneous operation was controlled based on the total score S of the spontaneous operation and the reaction operation performed in the past predetermined period. For example, the previous total score S is calculated as time passes. The total score S of this time may be calculated by decreasing the value. For example, assuming that the current score is t and the total score of the previous time is S (t−1), the current total score S (t) is S (t) = S (t−1) × α + Σ ( It may be calculated as the basic score of the action ID of the spontaneous action or reaction action performed from time t-1 to t. In the above equation, α is a predetermined attenuation coefficient set in advance.

<第2の実施形態>
次に、第2の実施形態に係る制御システム1について説明する。第2の実施形態に係る制御システム1の制御装置100は、予め設定された所定の閾値及び合計スコアに基づき、ロボットRに次の自発動作を行わせることができる時間(すなわち、動作間隔)を決定するものである。
<Second Embodiment>
Next, a control system 1 according to the second embodiment will be described. The control device 100 of the control system 1 according to the second embodiment sets a time during which the robot R can perform the next spontaneous operation based on a predetermined threshold and a total score set in advance (that is, an operation interval). To decide.

[自発動作の制御処理]
第2の実施形態に係る自発動作の制御処理について、図9を参照しながら説明する。図9は、第2の実施形態に係る自発動作の制御処理の一例を示すフローチャートである。ここで、図9に示す自発動作の制御処理は、所定の時間毎(例えば、1秒毎)に繰り返し実行される。なお、ステップS701及びステップS702、並びにステップS704〜ステップS706は、第1の実施形態の自発動作の制御処理(図7)と同様であるため、説明を省略する。
[Spontaneous control processing]
The control process of the spontaneous operation according to the second embodiment will be described with reference to FIG. FIG. 9 is a flowchart illustrating an example of a control process of the spontaneous operation according to the second embodiment. Here, the control process of the spontaneous operation shown in FIG. 9 is repeatedly executed at predetermined time intervals (for example, every second). Steps S701 and S702, and steps S704 to S706 are the same as the control process (FIG. 7) of the spontaneous operation according to the first embodiment, and thus description thereof is omitted.

ステップS901において、間隔決定部14は、予め設定された所定の閾値と、算出された合計スコアSとに基づき、決定された自発動作をロボットRに行わせるまでの時間(すなわち、動作間隔)Tを決定する。ここで、本実施形態では、現時点以降の時刻tにおいて、過去の所定の期間に行われた自発動作及びリアクション動作の合計スコアSを、「合計スコアS」と表す。 In step S <b> 901, the interval determination unit 14 determines the time until the robot R performs the determined spontaneous action based on the predetermined threshold value set in advance and the calculated total score S (that is, the operation interval) T. 1 is determined. Here, in the present embodiment, the total score S of the spontaneous action and the reaction action performed in the past predetermined period at the time t after the current time is represented as “total score S t ”.

より具体的には、間隔決定部14は、次のようにして時間Tを決定する。すなわち、まず、間隔決定部14は、スコア算出部12により、決定された自発動作の基礎スコアssを算出する。そして、間隔決定部14は、合計スコアSと基礎スコアssとの和が所定の閾値以下である場合、時間Tを「0」とする。一方、間隔決定部14は、合計スコアSと基礎スコアssとの和が所定の閾値を超える場合、合計スコアSと基礎スコアssとの和が所定の閾値以下となる時刻tを算出し、時間Tを「時刻tと現在時刻との差分」とする。 More specifically, interval determination section 14 determines the time T 1 as follows. That is, first, the interval determination unit 14 calculates the basic score ss of the determined spontaneous action by the score calculation unit 12. The interval determination unit 14 sets the time T 1 to “0” when the sum of the total score S and the basic score ss is equal to or less than a predetermined threshold. On the other hand, when the sum of the total score S and the basic score ss exceeds a predetermined threshold, the interval determination unit 14 calculates a time t when the sum of the total score St and the basic score ss is equal to or less than the predetermined threshold. the time t 1 is referred to as "time t and the difference between the current time".

ステップS902において、動作実行部15は、時間T経過後に、決定された自発動作の動作内容に応じて、アクチュエータ130やスピーカ140を制御して、ロボットRに自発動作を行わせる。これにより、ロボットRは、時間T経過後に、自発動作を行う。 In step S902, the operation execution unit 15, after the time T 1 has elapsed, in accordance with the operation contents of the determined spontaneous operation, by controlling the actuator 130, a speaker 140, it causes spontaneous operation to the robot R. Thus, the robot R after a time T 1 elapses, performs the spontaneous behavior.

なお、ステップS902で動作実行部15は、時間Tが経過する前に、リアクション動作制御部16によりロボットRに行わせるリアクション動作が決定された場合には、自発動作の制御処理を中止し、決定されたリアクション動作を実行させる。 The operation execution unit 15 in step S902, before the time T 1 is passed, if the reaction operation to be performed by the robot R is determined by reaction operation control unit 16 stops the control processing of the spontaneous behavior, The determined reaction action is executed.

以上のように、第2の実施形態に係る制御装置100では、動作決定部13により決定された自発動作をロボットRに行わせることができる時間を決定する。これにより、例えば介入レベルが高い(すなわち、スコアが高い)自発動作をロボットRに行わせる場合には動作間隔が短くなるように制御する一方で、介入レベルが低い自発動作をロボットRに行わせる場合には動作間隔が長くなるように制御することができる。   As described above, in the control device 100 according to the second embodiment, the time during which the robot R can perform the spontaneous motion determined by the motion determination unit 13 is determined. Thus, for example, when the robot R performs a spontaneous action with a high intervention level (ie, a high score), the robot R is controlled to perform a spontaneous action with a low intervention level while controlling the operation interval to be short. In some cases, the operation interval can be controlled to be long.

<第3の実施形態>
次に、第3の実施形態に係る制御システム1について説明する。第3の実施形態に係る制御システム1の制御装置100は、合計スコアと予め設定された所定の閾値との差分に基づき、所定のテーブルを参照することによりロボットRに次の自発動作を行わせることができる時間(動作間隔)を決定するものである。
<Third Embodiment>
Next, a control system 1 according to the third embodiment will be described. The control device 100 of the control system 1 according to the third embodiment causes the robot R to perform the next spontaneous operation by referring to a predetermined table based on the difference between the total score and a predetermined threshold set in advance. The time (operation interval) that can be determined is determined.

[機能構成]
図10は、第3の実施形態に係る制御システムの機能構成例を示す図である。第3の実施形態に係る制御装置100は、動作間隔情報記憶部20を有する点が、第1の実施形態及び第2の実施形態と異なる。動作間隔情報記憶部20は、記憶装置104等により実現される。
[Function configuration]
FIG. 10 is a diagram illustrating a functional configuration example of the control system according to the third embodiment. The control device 100 according to the third embodiment is different from the first embodiment and the second embodiment in that the operation interval information storage unit 20 is included. The operation interval information storage unit 20 is realized by the storage device 104 or the like.

動作間隔情報記憶部20は、動作間隔情報テーブル201を格納する。ここで、動作間隔情報テーブル201について、図11を参照しながら説明する。図11は、第3の実施形態に係る動作間隔情報の一例を示す図である。動作間隔情報テーブル201は、合計スコアSと、予め設定された所定の閾値との差分を示す差分スコアに対して、自発動作をロボットRに行わせるまでの時間が関連付けて管理されている。本実施形態に係る間隔決定部14は、算出した差分スコアに基づき、動作間隔情報テーブル201から動作間隔を決定することで、ロボットRに行わせる自発動作の動作間隔を制御する。   The operation interval information storage unit 20 stores an operation interval information table 201. Here, the operation interval information table 201 will be described with reference to FIG. FIG. 11 is a diagram illustrating an example of operation interval information according to the third embodiment. The operation interval information table 201 is managed in association with the difference score indicating the difference between the total score S and a predetermined threshold value set in advance until the robot R performs the spontaneous operation. The interval determination unit 14 according to the present embodiment controls the operation interval of the spontaneous operation to be performed by the robot R by determining the operation interval from the operation interval information table 201 based on the calculated difference score.

[自発動作の制御処理]
第3の実施形態に係る自発動作の制御処理について、図12を参照しながら説明する。図12は、第3の実施形態に係る自発動作の制御処理の一例を示すフローチャートである。ここで、図12に示す自発動作の制御処理は、所定の時間毎(例えば、1秒毎)に繰り返し実行される。なお、ステップS701及びステップS702、ステップS704〜ステップS706、並びにステップS902は、第1の実施形態又は第2の実施形態の自発動作の制御処理(図7又は図9)と同様であるため、説明を省略する。
[Spontaneous control processing]
The control process of the spontaneous operation according to the third embodiment will be described with reference to FIG. FIG. 12 is a flowchart illustrating an example of a control process of the spontaneous operation according to the third embodiment. Here, the control process of the spontaneous operation shown in FIG. 12 is repeatedly executed at predetermined time intervals (for example, every second). Note that steps S701 and S702, steps S704 to S706, and step S902 are the same as the control processing (FIG. 7 or FIG. 9) of the spontaneous operation of the first embodiment or the second embodiment, and therefore will be described. Is omitted.

ステップS1201において、間隔決定部14は、算出された合計スコアSと、予め設定された所定の閾値との差分スコアを算出する。次に、間隔決定部14は、動作間隔情報テーブル201を参照して、算出された差分スコアに対応する時間を取得する。そして、間隔決定部14は、動作間隔情報テーブル201から取得した時間を、自発動作をロボットRに行わせるまでの時間T(すなわち、動作間隔)と決定する。 In step S1201, the interval determination unit 14 calculates a difference score between the calculated total score S and a predetermined threshold set in advance. Next, the interval determination unit 14 refers to the operation interval information table 201 and acquires a time corresponding to the calculated difference score. Then, the interval determination unit 14 determines the time acquired from the operation interval information table 201 as the time T 1 (that is, the operation interval) until the robot R performs the spontaneous operation.

なお、ステップS1201で間隔決定部14は、差分スコアに対応する時間を動作間隔情報テーブル201から取得することで動作間隔を制御したが、例えば差分スコアを引数とする所定の関数値を動作間隔としてもよい。   In step S1201, the interval determination unit 14 controls the operation interval by acquiring the time corresponding to the difference score from the operation interval information table 201. For example, a predetermined function value using the difference score as an argument is used as the operation interval. Also good.

以上のように、第3の実施形態に係る制御装置100では、合計スコアSと、予め設定された所定の閾値との差分に基づき、動作間隔情報テーブル201から動作間隔を決定する。これにより、動作間隔情報テーブル201を適切に設定することにより、柔軟に動作間隔を制御することができるようになる。例えば、図11に示すように差分スコアが「10以上」である場合、動作間隔を「3秒」とすることにより、合計スコアSが所定の閾値を超えている場合であっても長時間(数十秒等)の間ロボットRが自発動作を行わない事態を防止することができる。   As described above, in the control device 100 according to the third embodiment, the operation interval is determined from the operation interval information table 201 based on the difference between the total score S and a predetermined threshold value set in advance. Accordingly, the operation interval can be flexibly controlled by appropriately setting the operation interval information table 201. For example, as shown in FIG. 11, when the difference score is “10 or more”, by setting the operation interval to “3 seconds”, even if the total score S exceeds a predetermined threshold value, It is possible to prevent a situation in which the robot R does not perform spontaneous operation for several tens of seconds.

<第4の実施形態>
次に、第4の実施形態に係る制御システム1について説明する。第4の実施形態に係る制御システム1の制御装置100は、自発動作の動作情報の優先度毎に予め設定された所定の閾値を用いて、自発動作の動作間隔を制御するものである。以降では、優先度nの自発動作の動作情報に対して予め設定された所定の閾値を、「優先度nの所定の閾値」と表す。
<Fourth Embodiment>
Next, a control system 1 according to the fourth embodiment will be described. The control device 100 of the control system 1 according to the fourth embodiment controls the operation interval of the spontaneous operation using a predetermined threshold set in advance for each priority of the operation information of the spontaneous operation. Hereinafter, a predetermined threshold set in advance for the operation information of the spontaneous operation with the priority n is represented as “a predetermined threshold with the priority n”.

[自発動作の制御処理]
第4の実施形態に係る自発動作の制御処理について、図13を参照しながら説明する。図13は、第4の実施形態に係る自発動作の制御処理の一例を示すフローチャート。なお、ステップS701、ステップS705、及びステップS707は、第1の実施形態の自発動作の制御処理(図7)と同様であるため、説明を省略する。
[Spontaneous control processing]
The control process of the spontaneous operation according to the fourth embodiment will be described with reference to FIG. FIG. 13 is a flowchart illustrating an example of a control process for a spontaneous operation according to the fourth embodiment. Note that step S701, step S705, and step S707 are the same as the control process (FIG. 7) of the spontaneous operation of the first embodiment, and thus the description thereof is omitted.

ステップS1301においてスコア算出部12は、動作履歴情報テーブル191及びスコア情報テーブル181に基づき、過去の所定の期間に行われた優先度nの自発動作の動作情報に基づく自発動作(優先度nの自発動作)の合計スコアSを算出する。ここで、優先度nの自発動作の合計スコアSを、単に、「優先度nの合計スコアS」と表す。なお、優先度nの合計スコアSの算出方法は、第1の実施形態と同様の方法を用いればよい。また、過去の所定の期間においてリアクション動作がなされている場合には、リアクション動作の基礎スコアを、例えば優先度1の合計スコアSに加えたものを、改めて優先度1の合計スコアSとすればよい。   In step S <b> 1301, the score calculation unit 12 determines a spontaneous action (spontaneous action of priority n) based on action information of a spontaneous action of priority n performed in a predetermined period in the past based on the action history information table 191 and the score information table 181. The total score S of (operation) is calculated. Here, the total score S of spontaneous actions with priority n is simply expressed as “total score S with priority n”. Note that a method similar to that of the first embodiment may be used as a method of calculating the total score S of the priority n. Further, when a reaction operation has been performed in a predetermined period in the past, a basic score of the reaction operation, for example, added to the total score S of priority 1 is set as the total score S of priority 1 again. Good.

ステップS1302において、間隔決定部14は、優先度nの合計スコアSが優先度nの所定の閾値未満であるか否かを判定する。優先度nの合計スコアSが優先度nの所定の閾値未満である場合、自発動作制御部11は、ステップS1305の処理に進む。一方、優先度nの合計スコアSが優先度nの所定の閾値以上である場合、自発動作制御部11は、ステップS1303の処理に進む。   In step S <b> 1302, the interval determination unit 14 determines whether the total score S of priority n is less than a predetermined threshold value of priority n. When the total score S of the priority n is less than the predetermined threshold value of the priority n, the spontaneous operation control unit 11 proceeds to the process of step S1305. On the other hand, when the total score S of the priority n is equal to or greater than the predetermined threshold value of the priority n, the spontaneous operation control unit 11 proceeds to the process of step S1303.

ステップS1303において、動作決定部13は、n=n+1として、優先度nの動作情報テーブルを、自発動作の動作情報171から取得する。すなわち、動作決定部13は、1つ下の優先度の動作情報テーブルを、自発動作の動作情報171から取得する。このように、優先度nの合計スコアSが優先度nの所定の閾値以上である場合、動作決定部13は、優先度n+1の自発動作の動作情報テーブルを取得する。   In step S1303, the operation determination unit 13 sets n = n + 1 and acquires the operation information table of priority n from the operation information 171 of the spontaneous operation. That is, the operation determination unit 13 acquires the operation information table of the next lower priority from the operation information 171 of the spontaneous operation. As described above, when the total score S of the priority n is equal to or higher than the predetermined threshold value of the priority n, the operation determination unit 13 acquires the operation information table of the spontaneous operation with the priority n + 1.

ステップS1304において、間隔決定部14は、優先度n−1の合計スコアSが優先度n−1の所定の閾値を超過している値(超過値)を、優先度nの所定の閾値から減算する。なお、優先度n−1の合計スコアSと優先度n−1の所定の閾値とが等しい場合、超過値は「0」とする。   In step S1304, the interval determination unit 14 subtracts a value (excess value) in which the total score S of priority n-1 exceeds a predetermined threshold value of priority n-1 from the predetermined threshold value of priority n. To do. When the total score S of the priority n−1 is equal to the predetermined threshold value of the priority n−1, the excess value is “0”.

例えば、図14(a)に示すように、優先度n−1の合計スコアSが「65」、優先度n−1の所定の閾値が「60」である場合、超過値は「5」となる。したがって、優先度nの所定の閾値「25」から超過値「5」を減算して、優先度nの所定の閾値を「20」とする。このように、優先度の高い自発動作の合計スコアが所定の閾値以上である場合、優先度の低い自発動作の所定の閾値を低くする調整を行う。これにより、すべての優先度の自発動作全体での合計スコアが所定の範囲内に収まるように、各優先度毎に自発動作の動作間隔が制御される。したがって、例えば、優先度の高い自発動作が多く行われた場合には、優先度の低い自発動作があまり行われないように制御する(すなわち、動作間隔を長くする)ことができる。一方で、例えば、優先度の高い自発動作があまり行われなかった場合には、優先度の低い自発動作が多く行われるように制御する(すなわち、動作間隔を短くする)ことができる。このように、本実施形態では、優先度に応じて柔軟に動作間隔を制御することができる。   For example, as shown in FIG. 14A, when the total score S of the priority n−1 is “65” and the predetermined threshold value of the priority n−1 is “60”, the excess value is “5”. Become. Therefore, the excess value “5” is subtracted from the predetermined threshold value “25” of the priority level n to set the predetermined threshold value of the priority level n to “20”. In this way, when the total score of spontaneous actions with high priority is equal to or higher than a predetermined threshold, adjustment is performed to lower the predetermined threshold of spontaneous actions with low priority. Thus, the operation interval of the spontaneous operation is controlled for each priority so that the total score of all the spontaneous operations of all priorities falls within a predetermined range. Therefore, for example, when many spontaneous operations with a high priority are performed, it is possible to control so that the spontaneous operations with a low priority are not performed much (that is, the operation interval is lengthened). On the other hand, for example, when the spontaneous operation with high priority is not performed so much, it is possible to control so that many spontaneous operations with low priority are performed (that is, the operation interval is shortened). Thus, in the present embodiment, the operation interval can be flexibly controlled according to the priority.

ステップS1305において、動作決定部13は、取得した自発動作の動作情報テーブルから実行可能な自発動作が存在するか否かを判定する。実行可能な自発動作が存在する場合は、自発動作制御部11は、ステップS705の処理に進む一方、実行可能な自発動作が存在しない場合は、自発動作制御部11は、ステップS1305の処理に進む。   In step S1305, the operation determination unit 13 determines whether there is a spontaneous operation that can be executed from the acquired operation information table of the spontaneous operation. When there is a feasible spontaneous action, the spontaneous action control unit 11 proceeds to the process of step S705, whereas when there is no executable spontaneous action, the spontaneous action control unit 11 proceeds to the process of step S1305. .

ステップS1306において、動作決定部13は、n=n+1として、優先度nの動作情報テーブルを、自発動作の動作情報171から取得する。すなわち、動作決定部13は、1つ下の優先度の動作情報テーブルを、自発動作の動作情報171から取得する。   In step S1306, the operation determination unit 13 obtains an operation information table of priority n from the operation information 171 of the spontaneous operation with n = n + 1. That is, the operation determination unit 13 acquires the operation information table of the next lower priority from the operation information 171 of the spontaneous operation.

ステップS1307において、間隔決定部14は、優先度n−1の所定の閾値と優先度n−1の合計スコアSとの差分の値(差分値)を、優先度nの所定の閾値に加算する。   In step S1307, the interval determination unit 14 adds the difference value (difference value) between the predetermined threshold value of priority n-1 and the total score S of priority n-1 to the predetermined threshold value of priority n. .

例えば、図14(b)に示すように、優先度n−1の合計スコアSが「55」、優先度n−1の所定の閾値が「60」である場合、差分値は「5」となる。したがって、優先度nの所定の閾値「25」に差分値「5」を加算して、優先度nの所定の閾値を「30」とする。このように、優先度の高い自発動作の合計スコアが所定の閾値未満である場合、優先度の所定の閾値を高くする調整を行う。これにより、すべての優先度の自発動作全体での合計スコアが所定の範囲内に収まるように、各優先度毎に自発動作の動作間隔が制御される。   For example, as illustrated in FIG. 14B, when the total score S of the priority n−1 is “55” and the predetermined threshold value of the priority n−1 is “60”, the difference value is “5”. Become. Therefore, the difference value “5” is added to the predetermined threshold “25” of the priority n, and the predetermined threshold of the priority n is set to “30”. As described above, when the total score of the spontaneous actions with high priority is less than the predetermined threshold, adjustment is performed to increase the predetermined threshold of priority. Thus, the operation interval of the spontaneous operation is controlled for each priority so that the total score of all the spontaneous operations of all priorities falls within a predetermined range.

以上のように、第4の実施形態に係る制御装置100では、優先度毎に自発動作の動作間隔を制御することができる。これにより、優先度に応じて柔軟に動作間隔を制御することができる。   As described above, the control device 100 according to the fourth embodiment can control the operation interval of the spontaneous operation for each priority. Thereby, an operation | movement space | interval can be controlled flexibly according to a priority.

<第5の実施形態>
次に、第5の実施形態に係る制御システム1について説明する。第5の実施形態に係る制御装置100は、ディスプレイ装置等に表示されたCG(Computer Graphics)エージェントの自発動作の動作間隔を制御するものである。
<Fifth Embodiment>
Next, a control system 1 according to the fifth embodiment will be described. A control device 100 according to the fifth embodiment controls an operation interval of a spontaneous operation of a CG (Computer Graphics) agent displayed on a display device or the like.

[システムの構成]
図15は、第5の実施形態に係る制御システムの機能構成例を示す図である。図15に示すように、本実施形態に制御システム1は、ユーザに対してインタラクションを行うCGエージェントR'を表示するサイネージ150、CGエージェントR'の自発動作やリアクション動作を制御する制御装置100等を有する。また、サイネージ150は、センサ120やスピーカ140等を有する。このような構成により、制御装置100は、CGエージェントR'の自発動作の動作間隔を制御することができる。すなわち、第1の実施形態乃至第4の実施形態に係る制御装置100は、サイネージ150等の表示装置上に表示されるキャラクター等のCGエージェントR'の自発動作及びリアクション動作を制御する場合にも適用され得る。
[System configuration]
FIG. 15 is a diagram illustrating a functional configuration example of a control system according to the fifth embodiment. As shown in FIG. 15, the control system 1 according to this embodiment includes a signage 150 that displays a CG agent R ′ that interacts with a user, a control device 100 that controls the spontaneous operation and reaction operation of the CG agent R ′, and the like. Have The signage 150 includes a sensor 120, a speaker 140, and the like. With such a configuration, the control device 100 can control the operation interval of the spontaneous operation of the CG agent R ′. That is, the control device 100 according to the first to fourth embodiments also controls the spontaneous operation and reaction operation of the CG agent R ′ such as a character displayed on the display device such as the signage 150. Can be applied.

以上に一例を説明したように、第1の実施形態に係る制御システム1では、過去の所定の期間に行われた自発動作及びリアクション動作に基づくインタラクションによってユーザに与えた介入レベルが所定以上である場合には、ロボットRの自発動作は抑制される。これにより、例えば、過去の所定の期間においてリアクション動作が多く行われた場合には、その後の自発動作の動作間隔が長くなることにより、ユーザに対するロボットRの介入レベルが高くなり過ぎないように制御することができる。同様に、例えば、過去の所定の期間においてリアクション動作が殆ど行われていない場合には、ロボットRの自発動作は促進される。これによって、その後の動作間隔が短くなることにより、ユーザに対するロボットRの介入レベルが低くなり過ぎないように制御することができる。   As described above, in the control system 1 according to the first embodiment, the intervention level given to the user by the interaction based on the spontaneous operation and the reaction operation performed in the past predetermined period is greater than or equal to the predetermined level. In this case, the spontaneous operation of the robot R is suppressed. Thereby, for example, when many reaction operations are performed in a predetermined period in the past, the operation interval of the subsequent spontaneous operation is increased so that the intervention level of the robot R with respect to the user does not become too high. can do. Similarly, for example, when the reaction operation is hardly performed in a predetermined period in the past, the spontaneous operation of the robot R is promoted. As a result, it is possible to control so that the intervention level of the robot R with respect to the user does not become too low due to the subsequent operation interval being shortened.

第2の実施形態に係る制御システム1では、過去の所定の期間に行われた自発動作及びリアクション動作に基づくインタラクションによってユーザに与えた介入レベルに基づき、自発動作の動作間隔が決定される。これにより、例えば介入レベルが高い(すなわち、スコアが高い)自発動作をロボットRに行わせる場合には動作間隔が短くなるように制御する一方で、介入レベルが低い自発動作をロボットRに行わせる場合には動作間隔が長くなるように制御することができる。   In the control system 1 according to the second embodiment, the operation interval of the spontaneous operation is determined based on the intervention level given to the user by the interaction based on the spontaneous operation and the reaction operation performed in the past predetermined period. Thus, for example, when the robot R performs a spontaneous action with a high intervention level (ie, a high score), the robot R is controlled to perform a spontaneous action with a low intervention level while controlling the operation interval to be short. In some cases, the operation interval can be controlled to be long.

第3の実施形態に係る制御システム1では、予め設定された動作間隔情報テーブル201により動作間隔を決定する。これにより、動作間隔情報テーブル201を適切に設定することにより、柔軟に動作間隔を制御することができるようになる。   In the control system 1 according to the third embodiment, the operation interval is determined by the preset operation interval information table 201. Accordingly, the operation interval can be flexibly controlled by appropriately setting the operation interval information table 201.

第4の実施形態に係る制御システム1では、優先度毎に自発動作の動作間隔を制御する。これにより、優先度に応じて柔軟に動作間隔を制御することができる。   In the control system 1 according to the fourth embodiment, the operation interval of the spontaneous operation is controlled for each priority. Thereby, an operation | movement space | interval can be controlled flexibly according to a priority.

第5の実施形態に係る制御システム1では、表示装置等に表示されたCGエージェントR'の自発動作の動作間隔を制御する。このように、第1の実施形態乃至第4の実施形態に係る制御装置100は、ロボット分野のみならず、CG等で表されたキャラクターの動作によりユーザに対して何かを働きかける分野(例えば、広告分野等)において適用され得る。   In the control system 1 according to the fifth embodiment, the operation interval of the spontaneous operation of the CG agent R ′ displayed on the display device or the like is controlled. As described above, the control device 100 according to the first to fourth embodiments is not limited to the robot field, but is a field that works on the user by the action of a character represented by CG or the like (for example, In the field of advertising, etc.).

以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   As mentioned above, although the Example of this invention was explained in full detail, this invention is not limited to such specific embodiment, In the range of the summary of this invention described in the claim, various deformation | transformation・ Change is possible.

以上の説明に関し、更に以下の項を開示する。
(付記1)
センシングされたユーザの挙動に基づいて、前記ユーザに対して提示する第1のインタラクションを決定し、
前記ユーザに対して自発的に提示する第2のインタラクションを決定し、
過去の所定期間に提示された前記第1のインタラクション及び前記第2のインタラクションに基づいて介入度を算出し、
前記介入度に基づいて、前記第2のインタラクションを提示するタイミングを制御する
処理をコンピュータが実行する制御方法。
(付記2)
前記制御する処理は、
前記介入度が所定の閾値以上であるか否かの判定結果に基づいて、前記第2のインタラクションを提示するタイミングを制御する、付記1記載の制御方法。
(付記3)
前記介入度を算出する処理は、
前記第1のインタラクション及び前記第2のインタラクションに基づいて、前記第2のインタラクションの種類毎に設定された優先度毎に介入度を算出し、
前記制御する処理は、
前記優先度毎の介入度が前記優先度に応じた所定の閾値以上であるか否かを判定する、付記2記載の制御方法。
(付記4)
前記介入度を算出する処理は、
さらに、前記第1のインタラクション及び前記第2のインタラクションを前記ユーザに提示している時間と、前記第1のインタラクション及び前記第2のインタラクションを前記ユーザに提示してからの経過時間との少なくともいずれかに基づいて、前記算出された介入度を調整する、付記1ないし3のいずれか1項に記載の制御方法。
(付記5)
センシングされたユーザの挙動に基づいて、前記ユーザに対して提示する第1のインタラクションを決定する第1の決定部と、
前記ユーザに対して自発的に提示する第2のインタラクションを決定する第2の決定部と、
過去の所定期間に提示された前記第1のインタラクション及び前記第2のインタラクションに基づいて介入度を算出する算出部と、
前記介入度に基づいて、前記第2のインタラクションを提示するタイミングを制御する制御部と
を有する制御装置。
(付記6)
前記制御部は、
前記介入度が所定の閾値以上であるか否かの判定結果に基づいて、前記第2のインタラクションを提示するタイミングを制御する、付記5記載の制御装置。
(付記7)
前記算出部は、
前記第1のインタラクション及び前記第2のインタラクションに基づいて、前記第2のインタラクションの種類毎に設定された優先度毎に介入度を算出し、
前記制御部は、
前記優先度毎の介入度が前記優先度に応じた所定の閾値以上であるか否かを判定する、付記6記載の制御装置。
(付記8)
前記算出部は、
さらに、前記第1のインタラクション及び前記第2のインタラクションを前記ユーザに提示している時間と、前記第1のインタラクション及び前記第2のインタラクションを前記ユーザに提示してからの経過時間との少なくともいずれかに基づいて、前記算出された介入度を調整する、付記5ないし7のいずれか1項に記載の制御装置。
(付記9)
センシングされたユーザの挙動に基づいて、前記ユーザに対して提示する第1のインタラクションを決定し、
前記ユーザに対して自発的に提示する第2のインタラクションを決定し、
過去の所定期間に提示された前記第1のインタラクション及び前記第2のインタラクションに基づいて介入度を算出し、
前記介入度に基づいて、前記第2のインタラクションを提示するタイミングを制御する
処理をコンピュータに実行させるためのプログラム。
(付記10)
前記制御する処理は、
前記介入度が所定の閾値以上であるか否かの判定結果に基づいて、前記第2のインタラクションを提示するタイミングを制御する、付記9記載のプログラム。
(付記11)
前記介入度を算出する処理は、
前記第1のインタラクション及び前記第2のインタラクションに基づいて、前記第2のインタラクションの種類毎に設定された優先度毎に介入度を算出し、
前記制御する処理は、
前記優先度毎の介入度が前記優先度に応じた所定の閾値以上であるか否かを判定する、付記10記載のプログラム。
(付記12)
前記介入度を算出する処理は、
さらに、前記第1のインタラクション及び前記第2のインタラクションを前記ユーザに提示している時間と、前記第1のインタラクション及び前記第2のインタラクションを前記ユーザに提示してからの経過時間との少なくともいずれかに基づいて、前記算出された介入度を調整する、付記9ないし11のいずれか1項に記載のプログラム。
Regarding the above description, the following items are further disclosed.
(Appendix 1)
Determining a first interaction to be presented to the user based on the sensed user behavior;
Determining a second interaction to voluntarily present to the user;
Calculating the degree of intervention based on the first interaction and the second interaction presented in the past predetermined period;
A control method in which a computer executes processing for controlling the timing of presenting the second interaction based on the degree of intervention.
(Appendix 2)
The process to control is
The control method according to appendix 1, wherein the timing for presenting the second interaction is controlled based on a determination result of whether or not the degree of intervention is equal to or greater than a predetermined threshold.
(Appendix 3)
The process for calculating the degree of intervention is:
Based on the first interaction and the second interaction, calculate the degree of intervention for each priority set for each type of the second interaction,
The process to control is
The control method according to appendix 2, wherein it is determined whether or not the intervention degree for each priority is equal to or higher than a predetermined threshold corresponding to the priority.
(Appendix 4)
The process for calculating the degree of intervention is:
Further, at least one of a time during which the first interaction and the second interaction are presented to the user and an elapsed time since the first interaction and the second interaction are presented to the user. The control method according to any one of appendices 1 to 3, wherein the calculated degree of intervention is adjusted based on
(Appendix 5)
A first determination unit that determines a first interaction to be presented to the user based on the sensed user behavior;
A second determination unit for determining a second interaction to be voluntarily presented to the user;
A calculation unit that calculates an intervention degree based on the first interaction and the second interaction presented in a past predetermined period;
A control unit that controls a timing of presenting the second interaction based on the degree of intervention.
(Appendix 6)
The controller is
The control device according to appendix 5, wherein the timing for presenting the second interaction is controlled based on a determination result of whether or not the degree of intervention is equal to or greater than a predetermined threshold.
(Appendix 7)
The calculation unit includes:
Based on the first interaction and the second interaction, calculate the degree of intervention for each priority set for each type of the second interaction,
The controller is
The control device according to appendix 6, wherein it is determined whether or not the intervention degree for each priority is equal to or greater than a predetermined threshold value corresponding to the priority.
(Appendix 8)
The calculation unit includes:
Further, at least one of a time during which the first interaction and the second interaction are presented to the user and an elapsed time since the first interaction and the second interaction are presented to the user. The control device according to any one of appendices 5 to 7, wherein the calculated degree of intervention is adjusted based on
(Appendix 9)
Determining a first interaction to be presented to the user based on the sensed user behavior;
Determining a second interaction to voluntarily present to the user;
Calculating the degree of intervention based on the first interaction and the second interaction presented in the past predetermined period;
A program for causing a computer to execute processing for controlling the timing of presenting the second interaction based on the degree of intervention.
(Appendix 10)
The process to control is
The program according to appendix 9, wherein the timing for presenting the second interaction is controlled based on a determination result as to whether or not the degree of intervention is equal to or greater than a predetermined threshold.
(Appendix 11)
The process for calculating the degree of intervention is:
Based on the first interaction and the second interaction, calculate the degree of intervention for each priority set for each type of the second interaction,
The process to control is
The program according to appendix 10, wherein it is determined whether or not the intervention degree for each priority is equal to or higher than a predetermined threshold corresponding to the priority.
(Appendix 12)
The process for calculating the degree of intervention is:
Further, at least one of a time during which the first interaction and the second interaction are presented to the user and an elapsed time since the first interaction and the second interaction are presented to the user. The program according to any one of appendices 9 to 11, wherein the calculated degree of intervention is adjusted based on the above.

1:制御システム
11:自発動作制御部
12:スコア算出部
13:動作決定部
14:間隔決定部
15:動作実行部
16:リアクション動作制御部
17:動作情報記憶部
18:スコア情報記憶部
19:動作履歴情報記憶部
100:制御装置
110:制御プログラム
120:センサ
130:アクチュエータ
140:スピーカ
1: Control system 11: Spontaneous motion control unit 12: Score calculation unit 13: Motion determination unit 14: Interval determination unit 15: Motion execution unit 16: Reaction motion control unit 17: Motion information storage unit 18: Score information storage unit 19: Operation history information storage unit 100: control device 110: control program 120: sensor 130: actuator 140: speaker

Claims (6)

センシングされたユーザの挙動に基づいて、前記ユーザに対して提示する第1のインタラクションを決定し、
前記ユーザに対して自発的に提示する第2のインタラクションを決定し、
過去の所定期間に提示された前記第1のインタラクション及び前記第2のインタラクションに基づいて介入度を算出し、
前記介入度に基づいて、前記第2のインタラクションを提示するタイミングを制御する
処理をコンピュータが実行する制御方法。
Determining a first interaction to be presented to the user based on the sensed user behavior;
Determining a second interaction to voluntarily present to the user;
Calculating the degree of intervention based on the first interaction and the second interaction presented in the past predetermined period;
A control method in which a computer executes processing for controlling the timing of presenting the second interaction based on the degree of intervention.
前記制御する処理は、
前記介入度が所定の閾値以上であるか否かの判定結果に基づいて、前記第2のインタラクションを提示するタイミングを制御する、請求項1記載の制御方法。
The process to control is
The control method according to claim 1, wherein a timing for presenting the second interaction is controlled based on a determination result of whether or not the degree of intervention is equal to or greater than a predetermined threshold.
前記介入度を算出する処理は、
前記第1のインタラクション及び前記第2のインタラクションに基づいて、前記第2のインタラクションの種類毎に設定された優先度毎に介入度を算出し、
前記制御する処理は、
前記優先度毎の介入度が前記優先度に応じた所定の閾値以上であるか否かを判定する、請求項2記載の制御方法。
The process for calculating the degree of intervention is:
Based on the first interaction and the second interaction, calculate the degree of intervention for each priority set for each type of the second interaction,
The process to control is
The control method according to claim 2, wherein it is determined whether or not the intervention level for each priority level is equal to or higher than a predetermined threshold corresponding to the priority level.
前記介入度を算出する処理は、
さらに、前記第1のインタラクション及び前記第2のインタラクションを前記ユーザに提示している時間と、前記第1のインタラクション及び前記第2のインタラクションを前記ユーザに提示してからの経過時間との少なくともいずれかに基づいて、前記算出された介入度を調整する、請求項1ないし3のいずれか1項に記載の制御方法。
The process for calculating the degree of intervention is:
Further, at least one of a time during which the first interaction and the second interaction are presented to the user and an elapsed time since the first interaction and the second interaction are presented to the user. The control method according to any one of claims 1 to 3, wherein the calculated degree of intervention is adjusted based on the above.
センシングされたユーザの挙動に基づいて、前記ユーザに対して提示する第1のインタラクションを決定する第1の決定部と、
前記ユーザに対して自発的に提示する第2のインタラクションを決定する第2の決定部と、
過去の所定期間に提示された前記第1のインタラクション及び前記第2のインタラクションに基づいて介入度を算出する算出部と、
前記介入度に基づいて、前記第2のインタラクションを提示するタイミングを制御する制御部と
を有する制御装置。
A first determination unit that determines a first interaction to be presented to the user based on the sensed user behavior;
A second determination unit for determining a second interaction to be voluntarily presented to the user;
A calculation unit that calculates an intervention degree based on the first interaction and the second interaction presented in a past predetermined period;
A control unit that controls a timing of presenting the second interaction based on the degree of intervention.
センシングされたユーザの挙動に基づいて、前記ユーザに対して提示する第1のインタラクションを決定し、
前記ユーザに対して自発的に提示する第2のインタラクションを決定し、
過去の所定期間に提示された前記第1のインタラクション及び前記第2のインタラクションに基づいて介入度を算出し、
前記介入度に基づいて、前記第2のインタラクションを提示するタイミングを制御する
処理をコンピュータに実行させるためのプログラム。
Determining a first interaction to be presented to the user based on the sensed user behavior;
Determining a second interaction to voluntarily present to the user;
Calculating the degree of intervention based on the first interaction and the second interaction presented in the past predetermined period;
A program for causing a computer to execute processing for controlling the timing of presenting the second interaction based on the degree of intervention.
JP2015079843A 2015-04-09 2015-04-09 Control method, control device, and program Active JP6507807B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015079843A JP6507807B2 (en) 2015-04-09 2015-04-09 Control method, control device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015079843A JP6507807B2 (en) 2015-04-09 2015-04-09 Control method, control device, and program

Publications (2)

Publication Number Publication Date
JP2016198843A true JP2016198843A (en) 2016-12-01
JP6507807B2 JP6507807B2 (en) 2019-05-08

Family

ID=57422342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015079843A Active JP6507807B2 (en) 2015-04-09 2015-04-09 Control method, control device, and program

Country Status (1)

Country Link
JP (1) JP6507807B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021039093A1 (en) * 2019-08-30 2021-03-04 三菱重工業株式会社 Unmanned vehicle cooperation system, unmanned vehicle cooperation processing method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001300148A (en) * 2000-04-18 2001-10-30 Casio Comput Co Ltd Action response system and program recording medium therefor
JP2002178282A (en) * 2000-10-05 2002-06-25 Sony Corp Robot device and its control method
JP2003305674A (en) * 2002-04-11 2003-10-28 Sony Corp Robot device, robot control method, recording medium and program
JP2013208681A (en) * 2012-03-30 2013-10-10 Fujitsu Ltd Interaction device and interaction control program
JP2015191591A (en) * 2014-03-28 2015-11-02 富士通株式会社 information processing apparatus, action timing detection method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001300148A (en) * 2000-04-18 2001-10-30 Casio Comput Co Ltd Action response system and program recording medium therefor
JP2002178282A (en) * 2000-10-05 2002-06-25 Sony Corp Robot device and its control method
JP2003305674A (en) * 2002-04-11 2003-10-28 Sony Corp Robot device, robot control method, recording medium and program
JP2013208681A (en) * 2012-03-30 2013-10-10 Fujitsu Ltd Interaction device and interaction control program
JP2015191591A (en) * 2014-03-28 2015-11-02 富士通株式会社 information processing apparatus, action timing detection method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021039093A1 (en) * 2019-08-30 2021-03-04 三菱重工業株式会社 Unmanned vehicle cooperation system, unmanned vehicle cooperation processing method, and program
JP2021039443A (en) * 2019-08-30 2021-03-11 三菱重工業株式会社 System and processing method for unmanned machine coordination, and program
JP7308104B2 (en) 2019-08-30 2023-07-13 三菱重工業株式会社 Unmanned aircraft cooperative system, unmanned aircraft cooperative processing method and program

Also Published As

Publication number Publication date
JP6507807B2 (en) 2019-05-08

Similar Documents

Publication Publication Date Title
EP3358461B1 (en) Apparatus and method for performing application in electronic device
US10790058B2 (en) User installed applications in a physiological parameter display device
EP3335214B1 (en) Method and electronic device for playing a virtual musical instrument
JP6509895B2 (en) Resource management based on device specific or user specific resource usage profile
US9807559B2 (en) Leveraging user signals for improved interactions with digital personal assistant
KR20170044426A (en) Method for recognizing voice signal and electronic device supporting the same
CN109416676B (en) Method for determining role of electronic device and electronic device thereof
US20160062983A1 (en) Electronic device and method for recognizing named entities in electronic device
KR102464280B1 (en) Input processing method and device
US12121797B2 (en) Program, electronic device, and method
KR20170027589A (en) Method for controlling function and an electronic device thereof
KR20160130491A (en) Application dehydration and rehydration during application-to-application calls
KR20170060980A (en) Device for controlling driving frequency and method of operating the same
KR20170089655A (en) Method and electronic device processing an input using view layers
US20160313912A1 (en) Method and device for providing controller
KR102478952B1 (en) Method for storing image and electronic device thereof
EP3048519B1 (en) Electronic device and method for displaying object in electronic device
KR102126286B1 (en) Electronic Device for Controlling Transmission Power and Method Thereof
JP6507807B2 (en) Control method, control device, and program
KR20180058419A (en) Mobile device for providing exercise contents and wearable device connected therewith
US10482237B2 (en) Method for processing security of application and electronic device supporting the same
US20150143225A1 (en) Handling timer-based resizing events based on activity detection
KR20210001864A (en) Electronic apparatus and control method thereof
US20150301586A1 (en) Control method and information processing device
US10608900B2 (en) Generating a deferrable data flow

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190318

R150 Certificate of patent or registration of utility model

Ref document number: 6507807

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150