JP2009131914A - Robot control system - Google Patents
Robot control system Download PDFInfo
- Publication number
- JP2009131914A JP2009131914A JP2007308144A JP2007308144A JP2009131914A JP 2009131914 A JP2009131914 A JP 2009131914A JP 2007308144 A JP2007308144 A JP 2007308144A JP 2007308144 A JP2007308144 A JP 2007308144A JP 2009131914 A JP2009131914 A JP 2009131914A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- information
- age
- communication
- variable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
この発明は、ロボット制御システムに関し、特にたとえば人間との間でコミュニケーション行動を実行するロボットを用いた、ロボット制御システムに関する。 The present invention relates to a robot control system, and more particularly to a robot control system using, for example, a robot that executes communication behavior with a human.
この種の従来のロボット制御システムの一例が、特許文献1に開示されている。この特許文献1のコミュニケーションロボットは、自律的に動作を行う第1のモードと、専門家によって指示された動作を実行する第2のモードと、専門家の動作を反映する行動を実行し、対象者と専門家とのコミュニケーションを媒介する第3のモードとを実行する。また、第2のモードおよび第3のモードでは、専門家の遠隔操作によってコミュニケーションロボットは動作する。通常、コミュニケーションロボットは、第1のモードで対象者とコミュニケーションを行うが、コミュニケーションの状況などに応じて、第2のモードまたは第3のモードに切り替わり遠隔操作される。
An example of this type of conventional robot control system is disclosed in
たとえば、このコミュニケーションロボットは、博物館などに設置され、博物館に来館した人に対してコミュニケーションを行う。専門家が操作側装置によってコミュニケーションロボットに指示を出せば、コミュニケーションロボットは、第1のモードから第2のモードに切り替わる。また、対象者(コミュニケーションロボットの周囲の人間)から話しかけられれば(質問されれば)、コミュニケーションロボットは、第1のモードから第3のモードに切り替わる。
この特許文献1に示すコミュニケーションロボットは、たとえば、博物館などに設置されるため、博物館に来館した不特定多数の対象者とコミュニケーションを行うことになる。このような状況下では、コミュニケーションロボットは、対象者に話しかけられることが多いと推測される。このため、コミュニケーションロボットは、第3のモードで動作する頻度が高くなる。したがって、このコミュニケーションロボットを遠隔操作する専門家の負担が増加することになる。
Since the communication robot shown in
それゆえに、この発明の主たる目的は、新規な、ロボット制御システムを提供することである。 Therefore, the main object of the present invention is to provide a novel robot control system.
この発明の他の目的は、オペレータによる遠隔操作の回数をできるだけ減らすことができる、ロボット制御システムを提供することである。 Another object of the present invention is to provide a robot control system capable of reducing the number of remote operations by an operator as much as possible.
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。 The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate the corresponding relationship with the embodiments described in order to help understanding of the present invention, and do not limit the present invention.
第1の発明は、遠隔操作または自律制御により、人間との間で身体動作および音声の少なくとも一方によるコミュニケーション行動を行うロボットと、ネットワークを介してロボットの遠隔操作を行う操作端末と、ネットワークを介してロボットと操作端末とを仲介する中央制御装置とを備える、ロボット制御システムである。このロボット制御システムでは、ロボットは、操作端末からの遠隔操作に従ってコミュニケーション行動を実行する遠隔操作モードと、コミュニケーションの状況に応じたコミュニケーション行動についてのデータベースを参照して自律制御によるコミュニケーション行動を実行する自律制御モードとを切り替える切替手段、および切替手段によって切り替えられた遠隔操作モードまたは自律制御モードにおけるコミュニケーション行動についての動作履歴情報を中央制御装置に送信する送信手段を備え、中央制御装置は、送信手段によって送信された動作履歴情報を受信する受信手段、受信手段によって受信された動作履歴情報についてのコミュニケーション行動が遠隔操作によって実行されたかどうかを判断する判断手段、判断手段によって遠隔操作であることが判断された動作履歴情報を記憶装置に記憶する記憶手段、および記憶手段によって記憶された遠隔操作による動作履歴情報に基づいてデータベースを構築する構築手段を備えることを特徴とする。 According to a first aspect of the present invention, there is provided a robot that performs a communication action with a human by at least one of body movement and voice by remote operation or autonomous control, an operation terminal that performs remote operation of the robot via a network, and a network. And a central control device that mediates between the robot and the operation terminal. In this robot control system, the robot performs autonomous operation by referring to a remote operation mode in which communication behavior is executed in accordance with remote operation from an operation terminal and a database of communication behavior in accordance with the communication situation. A switching means for switching between the control modes, and a transmission means for transmitting operation history information about the communication behavior in the remote operation mode or the autonomous control mode switched by the switching means to the central control device. A receiving unit that receives the transmitted operation history information; a determination unit that determines whether a communication action for the operation history information received by the receiving unit has been executed by a remote operation; Storage means for storing operation history information determined to be remote operation in a storage device, and construction means for constructing a database based on remote operation operation history information stored by the storage means. To do.
第1の発明では、ロボット制御システム(10)は、遠隔操作または自律制御により、人間との間で身体動作および音声の少なくとも一方によるコミュニケーション行動を行うロボット(12)と、ネットワークを介してロボットの遠隔操作を行う操作端末(16)と、ネットワークを介してロボットと操作端末とを仲介する中央制御装置(14)とを備える。ロボットでは、切替手段(80,S313,S319,S321)は、操作端末からの遠隔操作に従ってコミュニケーション行動を実行する遠隔操作モードと、コミュニケーションの状況に応じたコミュニケーション行動についてのデータベースを参照して自律制御によるコミュニケーション行動を実行する自律制御モードとを切り替える。送信手段(80,102,104,S329)は、切替手段によって切り替えられた遠隔操作モードまたは自律制御モードにおけるコミュニケーション行動についての動作履歴情報を中央制御装置に送信する。中央制御装置では、受信手段(S3)は、送信手段によって送信された動作履歴情報を受信する。判断手段(S13)は、受信手段によって受信された動作履歴情報についてのコミュニケーション行動が遠隔操作によって実行されたかどうかを判断する。記憶手段(S7,S9,S15)は、判断手段によって遠隔操作であることが判断された動作履歴情報を記憶装置(14a)に記憶する。構築手段(S37,S41,S45)は、記憶手段によって記憶された遠隔操作による動作履歴情報に基づいてデータベースを構築する。たとえば、動作履歴情報は、遠隔操作履歴記録テーブルなどの名称で中央制御装置のメモリに記憶される。 In the first invention, the robot control system (10) includes a robot (12) that performs a communication action with a human by at least one of body motion and voice by remote control or autonomous control, and a robot via a network. An operation terminal (16) that performs remote operation and a central control device (14) that mediates between the robot and the operation terminal via a network are provided. In the robot, the switching means (80, S313, S319, S321) is autonomously controlled with reference to a remote operation mode in which communication behavior is executed according to remote operation from the operation terminal and a database of communication behavior according to the communication situation. Switch to autonomous control mode to execute communication action. The transmission means (80, 102, 104, S329) transmits the operation history information about the communication behavior in the remote operation mode or the autonomous control mode switched by the switching means to the central control device. In the central controller, the receiving means (S3) receives the operation history information transmitted by the transmitting means. The determining means (S13) determines whether or not the communication action for the operation history information received by the receiving means has been executed by remote operation. The storage means (S7, S9, S15) stores the operation history information determined to be remote operation by the determination means in the storage device (14a). The construction means (S37, S41, S45) constructs a database based on the operation history information by remote operation stored by the storage means. For example, the operation history information is stored in the memory of the central controller with a name such as a remote operation history recording table.
第1の発明によれば、遠隔操作によってロボットが過去に振舞った同じ動作を経験として記憶しておくので、自律行動を行う場合に、記憶しておいた経験に基づいて自律行動を行うことができる。これによって、オペレータによる遠隔操作の回数をできるだけ減らすことができる。 According to the first invention, since the same movement that the robot behaved in the past by remote operation is stored as an experience, when performing an autonomous action, the autonomous action can be performed based on the stored experience. it can. As a result, the number of remote operations by the operator can be reduced as much as possible.
第2の発明は、第1の発明に従属し、中央制御装置は、ロボットがコミュニケーション行動を実行する対象である人間の属性情報を取得する属性情報取得手段をさらに備え、構築手段は、属性情報に応じたデータベースを構築する。 A second invention is according to the first invention, wherein the central control device further includes attribute information acquisition means for acquiring attribute information of a human subject to which the robot performs communication behavior, and the construction means includes attribute information Build a database according to your needs.
第2の発明では、属性情報取得手段(S9)は、ロボットがコミュニケーション行動を実行する対象である人間の属性情報を取得する。そして、構築手段では、属性情報に応じたデータベースが構築される。つまり、コミュニケーション行動を行う対象の人間の属性情報が取得される場合に、構築手段は、属性情報が取得された人間に対して行われた遠隔操作の動作情報履歴からデータベースを構築する。 In the second invention, the attribute information acquisition means (S9) acquires the attribute information of the person who is the target for the robot to perform the communication action. In the construction means, a database corresponding to the attribute information is constructed. That is, when the attribute information of the person who is to perform the communication action is acquired, the construction unit constructs a database from the operation information history of the remote operation performed on the person from whom the attribute information has been acquired.
第2の発明によれば、ロボットは、属性情報が取得された人間に対して過去に行った行動、つまり経験に基づいて自律行動を行うことができる。 According to the second aspect of the invention, the robot can perform an autonomous action based on an action performed in the past, that is, an experience with respect to a person whose attribute information has been acquired.
第3の発明は、第2の発明に従属し、属性情報は、人間の名称の情報を含み、構築手段は、人間の名称の情報が示す名称毎にデータベースを構築する。 A third invention is dependent on the second invention, wherein the attribute information includes information on a human name, and the construction unit constructs a database for each name indicated by the information on the human name.
第3の発明では、属性情報には、人間の名称の情報が含まれる。そして、構築手段では、人間の名称の情報が示す名称毎にデータベースが構築される。たとえば、第3の発明で構築されるデータベースは、個人用ビヘービア遷移DBの名称で記憶される。また、個人名が山田一郎である場合に、個人用ビヘービア遷移DBは、山田一郎専用のデータベースとなる。つまり、属性情報に人間の名称の情報が含まれるため、構築手段は、名称の異なる人間に対して行った遠隔操作の動作情報履歴毎にデータベースを構築する。 In the third aspect of the invention, the attribute information includes human name information. In the construction means, a database is constructed for each name indicated by the human name information. For example, the database constructed in the third invention is stored under the name of the personal behavior transition DB. When the personal name is Ichiro Yamada, the personal behavior transition DB is a database dedicated to Ichiro Yamada. That is, since the attribute information includes human name information, the construction means constructs a database for each operation information history of remote operations performed on humans with different names.
第3の発明によれば、ロボットは、コミュニケーション行動を行う対象の人間の名称を取得することで、その人間に対して過去に行った行動、つまり経験にもとづいて自律行動を行うことができる。さらに、個人用のデータベースが中央制御装置に記憶されている人間は、ロボット制御システムが導入されている場所であれば、初めて訪れる場所であっても、ロボットと円滑にコミュニケーションを行うことができる。 According to the third aspect of the invention, the robot can perform the autonomous behavior based on the behavior that has been performed on the human in the past, that is, the experience, by acquiring the name of the human subject of the communication behavior. Furthermore, a person whose personal database is stored in the central controller can smoothly communicate with the robot even if it is a place where the robot control system is introduced even if it is the first place to visit.
第4の発明は、第2の発明または第3の発明に従属し、属性情報は、人間の年齢および性別の情報を含み、構築手段は、人間の年齢および性別の情報が示す年齢および性別毎にデータベースを構築する。 A fourth invention is dependent on the second invention or the third invention, wherein the attribute information includes information on a person's age and sex, and the construction means is provided for each age and sex indicated by the information on the person's age and sex. Build a database.
第4の発明では、属性情報には、人間の年齢(年代)および性別の情報が含まれる。そして、構築手段では、人間の年齢および性別の情報が示す年齢および性別毎にデータベースが構築される。たとえば、第4の発明で構築されるデータベースは、年齢・性別依存ビヘービア遷移DBの名称で記憶される。 In the fourth invention, the attribute information includes human age (age) and sex information. In the construction means, a database is constructed for each age and sex indicated by the information on the age and sex of the person. For example, the database constructed in the fourth invention is stored under the name of the age / sex dependent behavior transition DB.
第4の発明によれば、ロボットは、個人名が特定できない場合であっても、年齢・性別が取得された人間に対して過去に行った行動、つまり経験にもとづいて自律行動を行うことができる。さらに、年齢および性別のデータベースが中央制御装置に記憶されている人間は、ロボット制御システムの使用者は、デパートや百貨店などの様々な年代の人間が集まる場所で構築された年齢・性別データベースを、新たにデパートや百貨店などにロボット制御システムを導入する場合に、活用することができる。 According to the fourth invention, the robot can perform an autonomous action based on an action performed in the past, that is, an experience with respect to a person whose age and sex are acquired even when the personal name cannot be specified. it can. Furthermore, humans whose age and gender databases are stored in the central controller can be used by robot control system users who have an age and gender database built in places where people of various ages gather, such as department stores and department stores. This can be used when a robot control system is newly introduced in department stores or department stores.
第5の発明は、第1の発明ないし第4の発明のいずれかに従属し、中央制御装置は、ロボットがコミュニケーション行動を行ったときに当該人間が存在した場所の情報を取得する場所情報取得手段をさらに備え、構築手段は、場所の情報が示す場所毎にデータベースを構築する。 A fifth invention is dependent on any one of the first to fourth inventions, and the central control device acquires location information where the human is present when the robot performs a communication action. And a construction means for constructing a database for each location indicated by the location information.
第5の発明では、中央制御装置では、場所情報取得手段(S5)は、ロボットがコミュニケーション行動を行ったときに当該人間が存在した場所の情報を取得する。そして、構築手段では、場所の情報が示す場所毎にデータベースが構築される。たとえば、第5の発明で構築されるデータベースは、場所依存ビヘービア遷移DBの名称で記憶される。 In the fifth invention, in the central control device, the location information acquisition means (S5) acquires information on the location where the person exists when the robot performs the communication action. The construction means constructs a database for each location indicated by the location information. For example, the database constructed in the fifth invention is stored under the name of the location-dependent behavior transition DB.
第5の発明によれば、コミュニケーション行動を行う対象の人間の属性情報が取得できなくても、構築手段は、ロボットが遠隔操作の動作を行った場所の情報に基づいてデータベースを構築する。これによって、コミュニケーション行動を行う対象の人間の属性情報が取得できない場合であっても、ロボットは、コミュニケーション行動を行う場所で過去に行った行動、つまり経験に基づいて自律行動を行うことができる。さらに、ロボット制御システムの使用者は、様々な所で開催される、内容がほぼ同一のイベント会場でロボット制御システムを導入する場合に、過去に開催したイベントで構築した場所データベースを利用することができる。 According to the fifth invention, even if the attribute information of the human subject of the communication action cannot be acquired, the construction means constructs the database based on the information on the place where the robot has performed the remote operation. Thereby, even when the attribute information of the human subject of the communication action cannot be acquired, the robot can perform the autonomous action based on the action performed in the past at the place where the communication action is performed, that is, the experience. In addition, users of robot control systems may use the location database built at events held in the past when introducing the robot control system at various venues where the content is almost the same. it can.
第6の発明は、第5の発明に従属し、ロボットは、人間との間でコミュニケーション行動を行う状況を検出する検出手段、および検出手段によって検出された状況に応じたデータベースを選択する選択手段をさらに備える。 A sixth invention is according to the fifth invention, wherein the robot detects a situation in which a communication action is performed with a human, and a selection means that selects a database corresponding to the situation detected by the detection means Is further provided.
第6の発明では、ロボットの検出手段(80,S313)は、人間との間でコミュニケーション行動を行う状況を検出する。選択手段(80,S303,S307)は、検出手段によって検出された状況に応じたデータベースを選択する。たとえば、検索手段は、現在のロボットの動作に対応するデータを検索する。 In the sixth invention, the detection means (80, S313) of the robot detects a situation where a communication action is performed with a human. The selection means (80, S303, S307) selects a database corresponding to the situation detected by the detection means. For example, the search means searches for data corresponding to the current operation of the robot.
第6の発明によれば、ロボットは、現在の動作に応じて選択された過去に振舞った同じ動作のデータベースを検索することができる。これによって、ロボットは、オペレータを呼び出すことなく、自律行動によって人間とのコミュニケーション行動を行うことができる。 According to the sixth invention, the robot can search the database of the same action that has behaved in the past selected according to the current action. As a result, the robot can perform communication behavior with humans by autonomous behavior without calling an operator.
第7の発明は、第6の発明に従属し、コミュニケーション行動を行う状況は、人間の名称と、人間の年齢および性別と、人間の存在場所との少なくとも1つを含む。 A seventh invention is according to the sixth invention, and the situation in which the communication action is performed includes at least one of a human name, a human age and sex, and a human location.
第7の発明では、コミュニケーション行動を行う状況には、人間の名称と、人間の年齢および性別と、人間の存在場所との少なくとも1つが含まれる。つまり、ロボットは、人間の名称と、人間の年齢および性別と、人間の存在場所との少なくとも1つに基づいて、データベースを選択することができる。 In the seventh invention, the situation in which the communication action is performed includes at least one of a human name, a human age and sex, and a human location. That is, the robot can select the database based on at least one of the human name, the human age and sex, and the human location.
第7の発明によれば、ロボットは、人間の名称と、人間の年齢および性別と、人間の存在場所との少なくとも1つに基づいて、データベースを選択することができる。 According to the seventh aspect, the robot can select the database based on at least one of the human name, the human age and sex, and the human location.
この発明によれば、ロボットが過去に振舞った同じ動作を経験として記憶しておくので、自律行動を行う場合に、記憶しておいた経験に基づいて自律行動を行うことができる。これによって、オペレータによる遠隔操作の回数をできるだけ減らすことができる。 According to the present invention, since the same motion that the robot behaved in the past is stored as an experience, when performing an autonomous behavior, the autonomous behavior can be performed based on the stored experience. As a result, the number of remote operations by the operator can be reduced as much as possible.
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この実施例のロボット制御システム10は、ロボット12を含む。このロボット12は、ネットワーク200を介して、中央制御装置14および操作端末16に接続される。ロボット12は、相互作用指向のロボット(コミュニケーションロボット)であり、主として人間Aのようなコミュニケーションの対象(コミュニケーション対象)との間で、身振り手振りのような身体動作および音声の少なくとも一方を含むコミュニケーション行動を実行する機能を備えている。ロボット12は、一例として、受付ロボット,子守ロボットおよび介護ロボットなどであり、たとえば会社の受付や一般家庭の居間などの様々な場所および状況に配置され、通常は自律制御によって接客,道案内,子守および介護などの役割を果たす(自律制御モード)。
Referring to FIG. 1, the
なお、図1では、簡単のため、1台のロボット12および1台の操作端末16を示してあるが、いずれも2台以上であってよい。また、人間は1人に限定される必要はなく、複数であってよい。
In FIG. 1, for simplicity, one
ロボット12は、自律制御だけでは対応することが難しい事態や人間によってより細やかな対応(コミュニケーション等)が必要な事態になると、オペレータを呼び出す。具体的には、ロボット12は、オペレータの呼出要求(遠隔操作の依頼)を、ネットワーク200を介して中央制御装置14に送信する。中央制御装置14は、ロボット12からの呼出要求を受けて、対応(遠隔操作)可能なオペレータが操作する操作端末16を選択する。そして、中央制御装置14は、選択された操作端末16に、ロボット12の通信情報(IPアドレス)を通知する。すると、操作端末16のオペレータの操作により、ロボット12と操作端末16とがネットワーク200を介して通信可能に接続される。つまり、中央制御装置14は、ロボット12と操作端末16とを仲介する。その後、オペレータが操作端末16を用いてロボット12を遠隔操作する。たとえば、オペレータが操作端末16を用いて操作コマンドをロボット12に送信すると、ロボット12はその操作コマンドを受信し、受信した操作コマンドに従って動作(コミュニケーション行動)を実行する(遠隔操作モード)。
The
図2を参照して、ロボット12のハードウェアの構成について説明する。また、図2はこの実施例のロボット12の外観を示す正面図である。ロボット12は台車30を含み、台車30の下面にはロボット12を自律移動させる2つの車輪32および1つの従輪34が設けられる。2つの車輪32は車輪モータ36(図3参照)によってそれぞれ独立に駆動され、台車30すなわちロボット12を前後左右の任意方向に動かすことができる。また、従輪34は車輪32を補助する補助輪である。したがって、ロボット12は、配置された空間内を自律制御によって移動可能である。ただし、ロボット12は、或る場所に固定的に配置されても構わない。
The hardware configuration of the
台車30の上には、円柱形のセンサ取り付けパネル38が設けられ、このセンサ取り付けパネル38には、多数の赤外線距離センサ40が取り付けられる。これらの赤外線距離センサ40は、センサ取り付けパネル38すなわちロボット12の周囲の物体(人間や障害物など)との距離を測定するものである。
A cylindrical
なお、この実施例では、距離センサとして、赤外線距離センサを用いるようにしてあるが、赤外線距離センサに代えて、超音波距離センサやミリ波レーダなどを用いることもできる。 In this embodiment, an infrared distance sensor is used as the distance sensor, but an ultrasonic distance sensor, a millimeter wave radar, or the like can be used instead of the infrared distance sensor.
センサ取り付けパネル38の上には、胴体42が直立するように設けられる。また、胴体42の前方中央上部(人の胸に相当する位置)には、上述した赤外線距離センサ40がさらに設けられ、ロボット12の前方の主として人間との距離を計測する。また、胴体42には、その側面側上端部のほぼ中央から伸びる支柱44が設けられ、支柱44の上には、全方位カメラ46が設けられる。全方位カメラ46は、ロボット12の周囲を撮影するものであり、後述する眼カメラ70とは区別される。この全方位カメラ46としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ40および全方位カメラ46の設置位置は、当該部位に限定されず適宜変更され得る。
A
胴体42の両側面上端部(人の肩に相当する位置)には、それぞれ、肩関節48Rおよび肩関節48Lによって、上腕50Rおよび上腕50Lが設けられる。図示は省略するが、肩関節48Rおよび肩関節48Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節48Rは、直交する3軸のそれぞれの軸廻りにおいて上腕50Rの角度を制御できる。肩関節48Rの或る軸(ヨー軸)は、上腕50Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節48Lは、直交する3軸のそれぞれの軸廻りにおいて上腕50Lの角度を制御できる。肩関節48Lの或る軸(ヨー軸)は、上腕50Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。
An
また、上腕50Rおよび上腕50Lのそれぞれの先端には、肘関節52Rおよび肘関節52Lが設けられる。図示は省略するが、肘関節52Rおよび肘関節52Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕54Rおよび前腕54Lの角度を制御できる。
In addition, an elbow joint 52R and an elbow joint 52L are provided at the respective distal ends of the
前腕54Rおよび前腕54Lのそれぞれの先端には、人の手に相当する球体56Rおよび球体56Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人間の手の形をした「手」を用いることも可能である。また、図示は省略するが、台車30の前面,肩関節48Rと肩関節48Lとを含む肩に相当する部位,上腕50R,上腕50L,前腕54R,前腕54L,球体56Rおよび球体56Lには、それぞれ、接触センサ58(図3で包括的に示す)が設けられる。台車30の前面の接触センサ58は、台車30への人間や他の障害物の接触を検知する。したがって、ロボット12は、その自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪32の駆動を停止してロボット12の移動を急停止させることができる。また、その他の接触センサ58は、当該各部位に触れたかどうかを検知する。なお、接触センサ58の設置位置は、当該部位に限定されず、適宜な位置(人の胸,腹,脇,背中および腰に相当する位置)に設けられてもよい。
A
胴体42の中央上部(人の首に相当する位置)には首関節60が設けられ、さらにその上には頭部62が設けられる。図示は省略するが、首関節60は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット12の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。
A neck joint 60 is provided at the upper center of the body 42 (a position corresponding to a person's neck), and a
頭部62には、人の口に相当する位置に、スピーカ64が設けられる。スピーカ64は、ロボット12が、それの周辺の人間に対して音声ないし音によってコミュニケーションを取るために用いられる。また、人の耳に相当する位置には、マイク66Rおよびマイク66Lが設けられる。以下、右のマイク66Rと左のマイク66Lとをまとめてマイク66ということがある。マイク66は、周囲の音、とりわけコミュニケーションを実行する対象である人間の音声を取り込む。さらに、人の目に相当する位置には、眼球部68Rおよび眼球部68Lが設けられる。眼球部68Rおよび眼球部68Lは、それぞれ眼カメラ70Rおよび眼カメラ70Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがある。また、右の眼カメラ70Rと左の眼カメラ70Lとをまとめて眼カメラ70ということがある。
The
眼カメラ70は、ロボット12に接近した人間の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。また、眼カメラ70は、上述した全方位カメラ46と同様のカメラを用いることができる。たとえば、眼カメラ70は、眼球部68内に固定され、眼球部68は、眼球支持部(図示せず)を介して頭部62内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部62の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部62の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ70の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ64,マイク66および眼カメラ70の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。
The
このように、この実施例のロボット12は、車輪32の独立2軸駆動,肩関節48の3自由度(左右で6自由度),肘関節52の1自由度(左右で2自由度),首関節60の3自由度および眼球支持部の2自由度(左右で4自由度)の合計17自由度を有する。
As described above, the
図3はロボット12の電気的な構成を示すブロック図である。この図3を参照して、ロボット12は、CPU80を含む。CPU80は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス82を介して、メモリ84,モータ制御ボード86,センサ入力/出力ボード88および音声入力/出力ボード90に接続される。
FIG. 3 is a block diagram showing the electrical configuration of the
メモリ84は、図示は省略をするが、ROM,HDDおよびRAMを含む。ROMおよびHDDには、ロボット12の動作を制御するための制御プログラムが予め記憶される。たとえば、各センサの出力(センサ情報)を検知するための検知プログラムや、外部コンピュータ(中央制御装置14および操作端末16など)との間で必要なデータやコマンドを送受信するための通信プログラムなどが記録される。また、RAMは、ワークメモリやバッファメモリとして用いられる。
The
モータ制御ボード86は、たとえばDSPで構成され、各腕や首関節および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード86は、CPU80からの制御データを受け、右眼球部68Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ92」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、CPU80からの制御データを受け、左眼球部68Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ94」と示す)の回転角度を制御する。
The
また、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ96」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ98」と示す)の回転角度を制御する。
The
さらに、モータ制御ボード86は、CPU80からの制御データを受け、首関節60の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ100」と示す)の回転角度を制御する。そして、モータ制御ボード86は、CPU80からの制御データを受け、車輪32を駆動する2つのモータ(図3では、まとめて「車輪モータ36」と示す)の回転角度を制御する。なお、この実施例では、車輪モータ36を除くモータは、制御を簡素化するためにステッピングモータ(すなわち、パルスモータ)を用いる。ただし、車輪モータ36と同様に直流モータを用いるようにしてもよい。また、ロボット12の身体部位を駆動するアクチュエータは、電流を動力源とするモータに限らず適宜変更された、たとえば、他の実施例では、エアアクチュエータが適用されてもよい。
Further, the
センサ入力/出力ボード88は、モータ制御ボード86と同様に、DSPで構成され、各センサからの信号を取り込んでCPU80に与える。すなわち、赤外線距離センサ40のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード88を通じてCPU80に入力される。また、全方位カメラ46からの映像信号が、必要に応じてセンサ入力/出力ボード88で所定の処理を施してからCPU80に入力される。眼カメラ70からの映像信号も、同様にして、CPU80に入力される。また、上述した複数の接触センサ58(図3では、まとめて「接触センサ58」と示す)からの信号がセンサ入力/出力ボード88を介してCPU80に与えられる。音声入力/出力ボード90もまた、同様に、DSPで構成され、CPU80から与えられる音声合成データに従った音声または声がスピーカ64から出力される。また、マイク66からの音声入力が、音声入力/出力ボード90を介してCPU80に与えられる。
Similar to the
また、CPU80は、バス82を介して通信LANボード102に接続される。通信LANボード102は、たとえばDSPで構成され、CPU80から与えられた送信データを無線通信装置104に与え、無線通信装置104は送信データを、ネットワーク200を介して外部コンピュータ(中央制御装置14および操作端末16)に送信する。また、通信LANボード102は、無線通信装置104を介してデータを受信し、受信したデータをCPU80に与える。たとえば、送信データとしては、ロボット12から中央制御装置14へのオペレータ呼出要求の信号(コマンド)であったり、ロボット12が行ったコミュニケーション行動についての動作履歴情報(履歴データ)などであったりする。このように、コマンドのみならず履歴データを送信するのは、メモリ84の容量を少なくするためと、消費電力を抑えるためである。この実施例では、履歴データはコミュニケーション行動が実行される度に、中央制御装置14に送信されたが、一定時間または一定量の単位で中央制御装置14に送信されるようにしてもよい。
The
さらに、CPU80は、バス82を介して無線タグ読取装置106が接続される。無線タグ読取装置106は、アンテナ(図示せず)を介して、無線タグ18(RFIDタグ)から送信される識別情報の重畳された電波を受信する。そして、無線タグ読取装置106は、受信した電波信号を増幅し、当該電波信号から識別信号を分離し、当該識別情報を復調(デコード)してCPU80に与える。図1によれば無線タグ18は、ロボット12が配置された会社の受付や一般家庭の居間などに居る人間(人間A)に装着され、無線タグ読取装置106は、通信可能範囲内の無線タグ18を検出する。なお、無線タグ18は、アクティブ型であってもよいし、無線タグ読取装置106から送信される電波に応じて駆動されるパッシブ型であってもよい。
Further, the
図1に戻って、中央制御装置14は、当該ロボット遠隔操作システム10におけるオペレータの呼び出しを制御するコンピュータであり、ロボット12および操作端末16の状態を示す情報を管理する。中央制御装置14は、図示は省略するがCPUを含み、CPUにはメモリ14a,表示装置,入力装置および通信装置などが接続されている。中央制御装置14は、通信装置を介してネットワーク200に有線または無線で接続されている。メモリ14aには、当該中央制御装置14の動作を制御するための制御プログラムおよび必要なデータが記憶される。制御プログラムは、たとえば、ロボット12および操作端末16のそれぞれとの間で必要なデータやコマンドを送受信するための通信プログラムおよびロボット12からオペレータの呼出要求があったときに、オペレータ(操作端末16)を呼び出すための呼出プログラムなどを含む。
Returning to FIG. 1, the
また、操作端末16は、コンピュータであり、図示は省略するがCPUを含み、CPUにはメモリ,表示装置,入力装置,スピーカ,マイクおよび通信装置などが接続される。操作端末16は、通信装置を介してネットワーク200に有線または無線で接続されている。メモリには、当該操作端末16の動作を制御するための制御プログラムおよび必要なデータが記録される。制御プログラムは、たとえば、ロボット12および中央制御装置14との間で必要なデータやコマンドを送受信するための通信プログラム、入力装置から入力された操作コマンドを検出する検出プログラムおよび表示装置に画像などを表示するための表示プログラムなどを含む。
The
ここで、中央制御装置14のメモリ14aには、ロボット12から送信されるコミュニケーション行動の履歴データなどが記録される。この実施例では、コミュニケーション行動の履歴データとしては、ビヘービア(行動)履歴記録テーブルデータおよび遠隔操作履歴記録テーブルデータの2種類がメモリ14aに記録される。ビヘービア履歴記録テーブルは、自律制御およびオペレータの遠隔操作によるロボット12のコミュニケーション行動についての履歴を記録し、遠隔操作履歴記録テーブルは、オペレータの遠隔操作によるロボット12のコミュニケーション行動についての履歴を記録する。
Here, history data of communication behavior transmitted from the
図4はビヘービア履歴記録テーブルの一例を示す図解図である。この図4を参照して、ビヘービア履歴記録テーブルには、BEFORE,VALUE,AFTER,場所,名前,年代および性別などの情報が記録される。BEFORE(変化前のビヘービア名)の欄には、後述するVALUEの値が変化される前においてロボット12が対話相手に対して行ったコミュニケーション行動(ビヘービア)のコマンド名が記録される。たとえば、「GREET」,「HEAR」および「AKUSHU」などのコマンド名が記録される。
FIG. 4 is an illustrative view showing one example of a behavior history record table. Referring to FIG. 4, information such as BEFORE, VALUE, AFTER, location, name, age, and sex is recorded in the behavior history record table. In the column of BEFORE (behavior name before change), a command name of a communication action (behavior) performed by the
ここで、GREETのコマンドが実行されると、ロボット12は挨拶についてのコミュニケーション行動を実行する。たとえば、ロボット12は、「おはよう」,「こんにちは」または「こんばんは」と発話しながら、お辞儀する。HEARのコマンドが実行されると、ロボット12は質問についてのコミュニケーション行動を実行する。たとえば、ロボット12は、「何をして遊ぼうか」または「どうかしましたか」と発話して、その後、対話相手の返答を待つ。AKUSHUのコマンドが実行されると、ロボット12は握手についてのコミュニケーション行動を実行する。たとえば、ロボット12は、手を差し出す。
Here, when a GREET command is executed, the
また、図4では示されていないが、他にも「GOCHISOUSAMA」,「ZYAN」および「HUG」などのコマンドがある。GOCHISOUSAMAのコマンドが実行されると、ロボット12は食事の終了を意味する挨拶についてのコミュニケーション行動を実行する。たとえば、ロボット12は、「ごちそうさま」と発話しながら、手を合わせる。ZYANのコマンドが実行されると、ロボット12はジャンケンについてのコミュニケーション行動を実行する。たとえば、ロボット12は、「じゃんけん ぽん」と発話しながら、手を前に出す。HUGのコマンドが実行されると、ロボット12は抱擁についてのコミュニケーション行動を実行する。たとえば、ロボット12は、両手を前に出す。
Although not shown in FIG. 4, there are other commands such as “GOCHISOUSAMAMA”, “ZYAN”, and “HUG”. When the GOCHISOUSAMA command is executed, the
図4に戻って、VALUE(戻り値)の欄には、BEFOREの欄に記録されたコマンドに従ったコミュニケーション行動に対する対話相手の行動や反応などが対応する数値で記録される。VALUEの数値は、それぞれ異なる意味や内容であり、各コマンド(コミュニケーション行動)に対応して予め決められている。この実施例では、変化前のビヘービア(コミュニケーション行動)に対する対話相手の反応(反応の有無も含む)について、予め実験等により得られた意味や内容を数値で識別可能にメモリ14a等に記録してある。
Returning to FIG. 4, in the VALUE (return value) column, the actions and reactions of the conversation partner with respect to the communication behavior according to the command recorded in the BEFORE column are recorded with corresponding numerical values. The value of VALUE has a different meaning and content, and is determined in advance corresponding to each command (communication action). In this embodiment, the interaction partner's response to the behavior (communication behavior) before the change (including the presence or absence of the response) is recorded in the
たとえば、GREETのコマンドが実行された場合には、対話相手の反応(反応なしを含む)に関らず、VALUEには「1(常に)」が記録される。 For example, when a GREET command is executed, “1 (always)” is recorded in VALUE regardless of the response (including no response) of the conversation partner.
また、HEARのコマンドが実行された場合に、対話相手が「遊ぼう」などと言うと、VALUEには「1(遊ぼうといわれた)」が記録される。同様の場合に、対話相手が「○○に行きたいのですが」などと言うと、VALUEには「2(道案内を頼まれた)」が記録される。詳細な説明は省略するが、ロボット12は音声認識機能を備えており、たとえば、マイク66を通して入力された対話相手の音声に対応する音声信号をDPマッチング法やHMM(隠れマルコフモデル)法を用いて音声認識することにより、その対話相手の発話内容を認識することができる。
Further, when the HEAR command is executed and the conversation partner says “Let's play”, “1 (said to play)” is recorded in VALUE. In the same case, when the conversation partner says “I want to go to XX”, “2 (requested route guidance)” is recorded in VALUE. Although a detailed description is omitted, the
さらに、AKUSHUのコマンドが実行された場合に、対話相手がロボット12の球体56に触れると、VALUEには「1(握手された)」が記録される。同様の場合に、対話相手がロボット12の手に触れなければ、VALUEには「2(触れられなかった)」が記録される。ただし、ロボット12は、手つまり球体56Rまたは球体56Lに設けられた接触センサ58からの入力に基づいて握手された(触られた)かどうかを判断する。
Further, when the AKUSHU command is executed, when the conversation partner touches the sphere 56 of the
また、図4では示されていない、「GOCHISOUSAMA」,「ZAYN」および「HUG」についても同様である。GOCHISOUSAMAのコマンドが実行された場合には、対話相手の反応(反応なしを含む)に関らず、VALUEには「1(常に)」が記録される。また、ZYANのコマンドが実行された場合には、対話相手の反応(反応なしを含む)に関らず、VALUEには「1(常に)」が記録される。さらに、HUGのコマンドが実行された場合には、対話相手の反応(反応なしを含む)に関らず、VALUEには「1(常に)」が記録される。 The same applies to “GOCHISOUSAMAMA”, “ZAYN” and “HUG” which are not shown in FIG. When the GOCHISOUSAMA command is executed, “1 (always)” is recorded in VALUE regardless of the reaction (including no response) of the conversation partner. When a ZYAN command is executed, “1 (always)” is recorded in VALUE regardless of the reaction (including no response) of the conversation partner. Further, when a HUG command is executed, “1 (always)” is recorded in VALUE regardless of the reaction (including no response) of the conversation partner.
図4に戻って、AFTER(変化後のビヘービア名)の欄には、VALUEの欄に記録した対話相手の行動(反応なしを含む)の後に、ロボット12が行ったコミュニケーション行動のコマンド名が記録される。たとえば、「AKUSHU」,「GUIDE」,「NAME」,「BYE」および「HUG」などが記録される。
Returning to FIG. 4, the command name of the communication action performed by the
ここで、GUIDEのコマンドが実行されると、ロボット12は道案内についてのコミュニケーション行動を実行する。たとえば、ロボット12は、HEARのコマンドを実行することで得た(質問された)目的地まで対話相手を案内する。ただし、ロボット12は、予め決められている目的地まで対話相手を案内するようにしてもよい。また、NAMEのコマンドが実行されると、そのロボット12自身の名前を発話するコミュニケーション行動を実行する。たとえば、ロボット12は、或る対話相手に自身の名前(ロボビーR1など)を伝える。また、BYEのコマンドが実行されると、コミュニケーション終了についてのコミュニケーション行動を実行する。たとえば、ロボット12は、「さよなら」,「またね」または「ありがとうございました」と発話する。
Here, when the GUIDE command is executed, the
なお、「AKUSHU」および「HUG」のコマンドは、上述したとおりであるため、重複した説明は省略する。 Note that the commands “AKUSHU” and “HUG” are as described above, and thus redundant description is omitted.
また、図4では示されていないが、他にも「SONG」,「DRAG」,「FROM」,「PATROL」および「KISS」などのコマンドがある。SONGのコマンドが実行されると、ロボット12は歌唱についてのコミュニケーション行動を実行する。たとえば、ロボット12は、メモリ84に記録された音楽データ(たとえば、mp3ファイル形式などのデータ)に再生処理を施し、スピーカ64から音声として出力する。また、DRAGのコマンドが実行されると、ロボット12は薬の服用についてのコミュニケーション行動を実行する。たとえば、ロボット12は、或る対話相手に対して「薬を飲んでね」と発話することにより、薬を服用するように促す。また、FROMのコマンドが実行されると、ロボット12は出身地の質問についてのコミュニケーション行動を実行する。たとえば、ロボット12は、「どこからいらっしゃいましたか」と発話して、その後、対話相手の返答を待つ。また、PATROLのコマンドが実行されると、ロボット12は巡回についてのコミュニケーション行動を実行する。たとえば、ロボット12は、自身が置かれている空間(環境)を、予め決められたコースで移動する。さらに、KISSのコマンドが実行されると、ロボット12はスキンシップについてのコミュニケーション行動を実行する。たとえば、ロボット12は、対話相手とだっこなどの遊びを行い、「キスしてね」と発話する。
Although not shown in FIG. 4, there are other commands such as “SONG”, “DRAG”, “FROM”, “PATROL”, and “KISS”. When the SONG command is executed, the
図4に戻って、場所の欄には、ロボット12が配置されている場所(対応するビヘービアを行った場所)が記録される。たとえば、「外」および「家庭内」などが記録される。「外」は、ロボット12が配置されている場所が、屋外で行われる或るイベント会場や家以外の建物などであることを意味する。「家庭内」は、ロボット12が配置されている場所が、或る家の中であることを意味する。名前の欄には、ロボット12がビヘービア(コミュニケーション行動)を行った対話相手の名前が記録される。たとえば、「佐藤三郎」,「大村四郎」,「山田一郎」および「鈴木二郎」などが記述される。年代の欄には、対話相手の年代が記録される。たとえば、年代は、対話相手の年齢に基づいて、「大人」または「子ども」に分けて記録される。ただし、年代は、「10代」,「20代」,…,「60代以上」などのように細かく分けるようにしてもよい。性別の欄には、対話相手の性別が記録される。具体的には、「男性」,「女性」に分けて記憶される。
Returning to FIG. 4, the place where the
ここで、ビヘービア履歴記録テーブル(後述する遠隔操作履歴テーブルの場合も同様)に記録される名前,年代および性別の情報は、対話相手が所持する無線タグ18から送信される識別情報(タグID)に基づいて取得される。たとえば、中央制御装置14のメモリ14aなどにタグIDに対応して名前,年代(年齢)および性別の情報が記憶される。これは、中央制御装置14(ロボット制御装置システム10)の管理者がロボット12の対話相手となり得る者(ロボット12のサービスの提供を受ける者)からそのような情報を取得して、中央制御装置14に登録する。ただし、対話相手となり得る者の名前,年代および性別の情報は、中央制御装置14がアクセス可能なデータベース(図示せず)に登録されるようにしてもよい。
Here, the name, age and gender information recorded in the behavior history record table (the same applies to the remote operation history table described later) is the identification information (tag ID) transmitted from the
後述するように、ロボット12は対話相手が所持する無線タグ18のタグIDを検出して、中央制御装置14に送信する。中央制御装置14は、タグIDを受信すると、これに対応する名前,年代および性別の情報をメモリ14a等から取得し、ビヘービア履歴記録テーブルに記録する。
As will be described later, the
ただし、場所、名前、年代および性別のような対話相手に関する情報(属性情報)のうち、名前、年代および性別の情報については、取得できない情報もある。したがって、情報を取得できない場合には、対応する箇所を空欄にしてある。 However, among the information (attribute information) related to the conversation partner such as the place, name, age, and sex, there is information that cannot be acquired for the name, age, and sex information. Therefore, when information cannot be acquired, the corresponding part is left blank.
なお、個人を同定(特定)する手段としては、顔画像認識,静脈認識,虹彩認識および指紋認識などのバイオメトリクス認識を用いてもよい。 As a means for identifying (specifying) an individual, biometric recognition such as face image recognition, vein recognition, iris recognition, and fingerprint recognition may be used.
このようなロボット制御システム10では、上述したように、自律制御やオペレータの遠隔操作により、ロボット12はコミュニケーション行動を実行する。しかし、オペレータが遠隔操作する場合であっても、同じ状況では、ロボット12に実行させるコミュニケーション行動が繰り返される(同じである)ことがある。したがって、この実施例では、遠隔操作の場合の履歴情報から異なる状況の各々についてのデータベースを生成し、生成したデータベースを選択的に参照して、自律制御することにより、オペレータによる遠隔操作の回数(頻度)をできるだけ減らすようにしてある。
In such a
ただし、この実施例では、状況とは、特定の個人とコミュニケーション行動する場合、特定の年代および性別の対話相手とコミュニケーション行動する場合、および特定の場所でコミュニケーション行動する場合を意味する。 However, in this embodiment, the situation means a case where a communication action is carried out with a specific individual, a case where a communication action is carried out with a specific age and sex partner, and a case where a communication action is carried out at a specific place.
図5は、遠隔操作履歴記録テーブルを示す図解図である。この図5を参照して、遠隔操作履歴記録テーブルには、BEFORE,VALUE,AFTER,場所,名前,年代および性別などの情報が記録される。また、上述したとおり、遠隔操作履歴記録テーブルは、オペレータの遠隔操作によるロボット12のコミュニケーション行動の動作履歴情報を記録する。この実施例では、ビヘービア履歴記録テーブルに記録された動作履歴情報のうち、オペレータによってロボット12の遠隔操作が行われた場合の動作履歴情報のみが遠隔操作履歴記録テーブルに記録される。なお、各欄に記録される情報は、図4に示したビヘービア履歴記録テーブルと同様のため重複した説明は省略する。
FIG. 5 is an illustrative view showing a remote operation history record table. Referring to FIG. 5, information such as BEFORE, VALUE, AFTER, location, name, age, and sex is recorded in the remote operation history recording table. Further, as described above, the remote operation history record table records the operation history information of the communication behavior of the
この遠隔操作履歴記録テーブルから、3種類のデータセットが抽出される。具体的には、個人名が記録されているデータを抽出したデータセットDp,年齢・性別が記録されているデータを抽出したデータセットDas,他の情報(場所など)が記録されているデータを抽出したデータセットDnである。図6に示すように、データセットDpは、図5に示した遠隔操作履歴記録テーブルにおいて名前が記録されている動作履歴情報を抽出して生成される。また、図7に示すように、データセットDasは、図5に示した遠隔操作履歴記録テーブルにおいて、年代および性別が記録されている動作履歴情報を抽出して生成される。さらに、図8に示すように、データセットDnは、図5に示した遠隔操作履歴テーブルにおいて、場所が記録されている動作履歴情報を抽出して生成される。 Three types of data sets are extracted from this remote operation history recording table. Specifically, a data set Dp obtained by extracting data in which an individual name is recorded, a data set Das obtained by extracting data in which age and sex are recorded, and data in which other information (location, etc.) is recorded The extracted data set Dn. As shown in FIG. 6, the data set Dp is generated by extracting the operation history information whose name is recorded in the remote operation history recording table shown in FIG. Further, as shown in FIG. 7, the data set Das is generated by extracting operation history information in which the age and gender are recorded in the remote operation history recording table shown in FIG. Further, as shown in FIG. 8, the data set Dn is generated by extracting the operation history information in which the location is recorded in the remote operation history table shown in FIG.
次に、上述したように、この実施例では、中央制御装置14は、データセットDp,DasおよびDnのそれぞれから、各状況についてのデータベース(DB)を生成(構築)する。この実施例では、中央制御装置14は、データセットDpに基づいて個人用ビヘービア遷移DBを構築し、データセットDasに基づいて年代・性別依存ビヘービア遷移DBを構築し、そして、データセットDnに基づいて場所依存ビヘービア遷移DBを構築する。
Next, as described above, in this embodiment, the
図9は、個人用ビヘービア遷移DBの一例を示す図解図である。この個人用ビヘービア遷移DBは、上述したデータセットDpにおいて、特定の個人(ここでは、山田一郎)についてフィルタリングしたデータに基づいて生成される。図9からも分かるように、個人用ビヘービア遷移DBには、場所,BEFORE,VALUE,AFTERの情報が記録されるとともに、COUNT(回数)の情報が記録される。場所,BEFORE,VALUEおよびAFTERの情報については上述したとおりであるため、重複した説明は省略する。COUNTの情報は、データセットDpを特定の個人についてフィルタリングしたデータにおいて、場所,BEFORE,VALUEおよびAFTERの情報が示す内容が同じものについての回数を示す。 FIG. 9 is an illustrative view showing one example of a personal behavior transition DB. This personal behavior transition DB is generated based on data filtered for a specific individual (here, Ichiro Yamada) in the above-described data set Dp. As can be seen from FIG. 9, in the personal behavior transition DB, information on location, BEFORE, VALUE, and AFTER is recorded, and information on COUNT (number of times) is recorded. Since the information on the location, BEFORE, VALUE, and AFTER is as described above, a duplicate description is omitted. The COUNT information indicates the number of times that the contents indicated by the location, BEFORE, VALUE, and AFTER information are the same in the data obtained by filtering the data set Dp for a specific individual.
図9に示す例では、場所の情報が「外」である場合に、BEFOREの情報が「AKUSHU」で、「VALUE」の情報が「1(握手された)」で,AFTERの情報が「NAME」であるビヘービアの遷移が20回であることが分かる。また、場所の情報が「家庭内」である場合に、BEFOREの情報が「GOCHISOUSAMA」で、VALUEの情報が「1(常に)」で、AFTERの情報が「DRUG」であるビヘービアが30回であることが分かる。 In the example illustrated in FIG. 9, when the location information is “outside”, the BEFORE information is “AKUSHU”, the “VALUE” information is “1 (shake)”, and the AFTER information is “NAME”. It can be seen that there are 20 behavioral transitions. In addition, when the location information is “in-home”, the number of times that the BEFORE information is “GOCHISOUSAMA”, the VALUE information is “1 (always)”, and the AFTER information is “DRUG” is 30 times. I understand that there is.
なお、説明は省略するが、他の場合についても同様である。また、図示は省略するが、他の特定の個人(たとえば、鈴木二郎や佐藤三郎)についても同様の個人用ビヘービア遷移DBを生成することができる。 Although explanation is omitted, the same applies to other cases. Moreover, although illustration is abbreviate | omitted, the same personal behavior transition DB can be produced | generated also about other specific individuals (for example, Jiro Suzuki and Saburo Sato).
図10は、年代・性別依存ビヘービア遷移DBである。この年代・性別依存ビヘービア遷移DBは、上述したデータセットDasにおいて、或る年代と性別と(ここでは、大人・男性)についてフィルタリングしたデータに基づいて生成される。図10からも分かるように、年代・性別依存ビヘービア遷移DBには、場所,BEFORE,VALUE,AFTERの情報が記録されるとともに、COUNTの情報が記録される。これらの情報は上述したとおりであるため、重複した説明は省略する。 FIG. 10 shows the age / sex dependent behavior transition DB. This age / sex-dependent behavior transition DB is generated based on data filtered for a certain age and sex (here, adult / male) in the above-described data set Das. As can be seen from FIG. 10, in the age / gender-dependent behavior transition DB, information on location, BEFORE, VALUE, AFTER is recorded, and information on COUNT is recorded. Since these pieces of information are as described above, a duplicate description is omitted.
図10に示す例では、場所の情報が「外」である場合に、BEFOREの情報が「AKUSHU」で、VALUEの情報が「2(触れられなかった)」であり、AFTERの情報が「BYE」であるビヘービアの遷移が5回であることが分かる。また、場所の情報が「家庭内」である場合に、BEFOREの情報が「ZYAN」で、VALUEの情報が「1(常に)」で、AFTERの情報が「PATROL」であるビヘービアの遷移が3回であることが分かる。 In the example shown in FIG. 10, when the location information is “outside”, the BEFORE information is “AKUSHU”, the VALUE information is “2 (not touched)”, and the AFTER information is “BYE”. It can be seen that there are five behavior transitions. Further, when the location information is “in-home”, the transition of the behavior in which the BEFORE information is “ZYAN”, the VALUE information is “1 (always)”, and the AFTER information is “PATROL” is 3 It turns out that it is times.
なお、説明は省略するが、他の場合についても同様である。また、図示は省略するが、他の年代・性別(大人・女性,子ども・男性,子ども・女性)についても同様の年代・性別依存ビヘービア遷移DBを生成することができる。 Although explanation is omitted, the same applies to other cases. Although not shown, the same age / sex-dependent behavior transition DB can be generated for other age / sex (adult / female, child / male, child / woman).
図11は、場所依存ビヘービアDBである。この場所依存ビへービア遷移DBは、上述したデータセットDnにおいて、或る場所(ここでは、外)についてフィルタリングしたデータに基づいて生成される。図11からも分かるように,場所依存ビヘービア遷移DBには、BEFORE,VALUE,AFTERの情報が記録されるとともに、COUNTの情報が記録される。これらの情報は上述したとおりであるため、重複した説明は省略する。 FIG. 11 shows a location-dependent behavior DB. This place-dependent behavior transition DB is generated based on data filtered for a certain place (here, outside) in the above-described data set Dn. As can be seen from FIG. 11, in the location-dependent behavior transition DB, information on BEFORE, VALUE, and AFTER is recorded, and information on COUNT is recorded. Since these pieces of information are as described above, a duplicate description is omitted.
図11に示す例では、場所の情報が「外」である場合に、BEFOREの情報が「AKUSHU」で、VALUEの情報が「1(握手された)」であり、AFTERの情報が「FROM」であるビヘービア遷移が5回であることが分かる。また、場所の情報が「外」である場合に、BEFOREの情報が「HUG」で、VALUEの情報が「1(常に)」で、AFTERの情報が「KISS」であるビヘービアの遷移が10回であることが分かる。 In the example illustrated in FIG. 11, when the location information is “outside”, the BEFORE information is “AKUSHU”, the VALUE information is “1 (shake)”, and the AFTER information is “FROM”. It can be seen that there are five behavior transitions. In addition, when the location information is “outside”, the behavior transition in which the BEFORE information is “HUG”, the VALUE information is “1 (always)”, and the AFTER information is “KISS” is 10 times. It turns out that it is.
なお、説明は省略するが、他の場合についても同様である。また、図示は省略するが、他の場所(家庭内など)についても同様の場所依存ビヘービア遷移DBを生成することができる。 Although explanation is omitted, the same applies to other cases. Moreover, although illustration is abbreviate | omitted, the same place dependence behavior transition DB can be produced | generated also about other places (home etc.).
具体的には、中央制御装置14のCPUは、図12−図16に示す処理を含む、複数の処理を並行的に実行することで、複数のデータベースを構築する。また、ロボット12のCPU80は、図17に示す自律行動処理を含む、複数の処理を並列的に実行する。
Specifically, the CPU of the
図12は、履歴記憶処理を示すフロー図である。図12に示すように、中央制御装置14のCPUは、履歴記憶処理を開始すると、ステップS1で、停止命令が有るか否かを判断する。たとえば、中央制御装置14の管理者によって、停止命令の指示が与えられたか否かを判断する。ステップS1でYESであれば、つまり停止命令が有れば、そのまま履歴記憶処理を終了する。一方、ステップS1でNOであれば、つまり停止命令が無ければ、ステップS3で、ロボット12のビヘービアが変化したか否かを判断する。つまり、ロボット12からコミュニケーション行動の動作履歴情報が送信されたか否かを判断する。ステップS3でNOであれば、つまりロボット12のビヘービアが変化していなければ、ステップS1に戻る。一方、ステップS3でYESであれば、つまりロボット12のビヘービアが変化すれば、ステップS5で、BEFORE,VALUE,AFTERおよび場所の値をメモリ14aのバッファ領域に一時的に記録させる。
FIG. 12 is a flowchart showing the history storage process. As shown in FIG. 12, when starting the history storage process, the CPU of the
次のステップS7では、個人同定が行われているか否かを判断する。ここでは、ステップS3においてビヘービアが変化したと判断されたロボット12がコミュニケーションを行う対話相手の名前,年代および性別などの情報が分かるか否かを判断する。上述したように、ロボット12は、対話相手が所持する無線タグ18から送信されるタグIDを受信し、これを中央制御装置14に送信する。中央制御装置14は、メモリ14aを参照して、タグIDに対応する、対話相手の名前,年代および性別などの情報を取得する。ただし、上述したように、名前、年代および性別などの情報は全部または一部について取得できない場合もある。ステップS7でYESであれば、つまり、個人同定が行われていれば、ステップS9で、名前,年代および性別などをメモリ14aのバッファ領域に一時的に記録して、ステップS13に進む。一方、ステップS7でNOであれば、つまり個人同定が行われていなければ、そのままステップS11に進む。
In the next step S7, it is determined whether or not personal identification has been performed. Here, it is determined whether or not information such as the name, age, and sex of the conversation partner with whom the
ステップS11では、メモリ14aのバッファ領域に一時的に記録されたデータをビヘービア履歴記録テーブル(図4参照)に記録する。つまり、ステップS7でNOの場合には、BEFORE,VALUE,AFTERおよび場所の情報がビヘービア履歴記録テーブルに記録される。一方、ステップS7でYESの場合には、BEFORE,VALUE,AFTERおよび場所の情報に加えて、対話相手の名前、年代および性別などがビヘービア履歴記録テーブルに記録される。
In step S11, the data temporarily recorded in the buffer area of the
次のステップS13では、ビヘービア(行動)が遠隔操作によって変化したか否かを判断する。詳細な説明は省略するが、上述したように、中央制御装置14は、ロボット12と操作端末16(オペレータ)とを仲介するため、中央制御装置14では、操作端末16が遠隔操作中であるかどうかの情報やどの操作端末16がどのロボット12を遠隔操作しているかについての情報を管理している。したがって、今回行動履歴情報を送信してきたロボット14が遠隔操作中(遠隔操作モード)であるか否かを知ることができる。これにより、ビヘービアが遠隔操作によって変化したか否かを判断するのである。
In the next step S13, it is determined whether or not the behavior (action) has been changed by remote control. Although a detailed description is omitted, as described above, the
ステップS13でNOであれば、つまりビヘービアが遠隔操作によって変化していなければ、ロボット12がオペレータによって遠隔操作されていない(自律制御モード)と判断して、そのままステップS1に戻る。一方、ステップS13でYESであれば、つまりビヘービアが遠隔操作によって変化していれば、ロボット12がオペレータによって遠隔操作されていると判断して、ステップS15で、メモリ14aのバッファ領域に一時的に記録されたデータを遠隔操作履歴記憶テーブルに記録して、ステップS1に戻る。つまり、ステップS15では、ステップS11でビヘービア履歴記憶テーブルに記録したデータを遠隔操作履歴記憶テーブルにも記録しているのである。
If “NO” in the step S13, that is, if the behavior is not changed by the remote operation, it is determined that the
図13は、データベース構築処理を示すフロー図である。図13に示すように、中央制御装置14のCPUは、データベース構築処理を実行すると、ステップS31で、中止命令が有るか否か判断する。ここでは、たとえば、中央制御装置14の管理者によって、データベース構築の中止命令の指示が入力されたか否かを判断する。ステップS31でYESであれば、つまり中止命令が有れば、データベース構築処理を終了する。一方、ステップS31でNOであれば、つまり終了指示が無ければ、ステップS33で、遠隔操作履歴記録テーブルに個人名つきの新しい履歴データが記録されたか否かを判断する。つまり、遠隔操作履歴記録テーブルに対話相手の名前を含む動作履歴情報が記録されたか否かを判断する。
FIG. 13 is a flowchart showing the database construction process. As shown in FIG. 13, when the CPU of the
ステップS33でYESであれば、つまり遠隔操作履歴記録テーブルに個人名つきの新しい履歴データが記録されれば、ステップS37で、後述するデータセットDpから個人用ビヘービア遷移DBの構築処理(図14参照)を実行して、ステップS39に進む。一方、ステップS33でNOであれば、つまり遠隔操作履歴テーブルに個人名つきの新しい履歴データが記録されていなければ、ステップS35で、遠隔操作履歴記録テーブルに個人名なしの新しい履歴データが記録されたか否かを判断する。つまり、遠隔操作履歴記録テーブルに対話相手の名前の情報を含まない動作履歴情報が記録されたか否かを判断する。ステップS35でNOであれば、つまり遠隔操作履歴記録テーブルに個人名なしの新しい履歴データが記録されていなければ、ステップS31に戻る。一方、ステップS35でYESであれば、つまり遠隔操作履歴記録テーブルに個人名なしの履歴データが記録されれば、ステップS39に進む。 If YES in step S33, that is, if new history data with an individual name is recorded in the remote operation history recording table, in step S37, a personal behavior transition DB is constructed from a data set Dp described later (see FIG. 14). To proceed to step S39. On the other hand, if NO in step S33, that is, if new history data with an individual name is not recorded in the remote operation history table, whether new history data without an individual name is recorded in the remote operation history recording table in step S35. Judge whether or not. That is, it is determined whether or not operation history information not including information on the name of the conversation partner is recorded in the remote operation history recording table. If “NO” in the step S35, that is, if new history data without an individual name is not recorded in the remote operation history recording table, the process returns to the step S31. On the other hand, if “YES” in the step S35, that is, if history data without an individual name is recorded in the remote operation history recording table, the process proceeds to a step S39.
ステップS39では、新しい履歴データに年代および性別の情報が記録さているか否かを判断する。ステップS39でNOであれば、つまり新しい履歴データに年代および性別の情報が記録されていなければ、そのままステップS43に進む。一方、ステップS39でYESであれば、つまり新しい履歴データに年代および性別の情報が記録されていれば、ステップS41で、後述するデータセットDasから年代・性別依存ビヘービアDBの構築処理(図15参照)を実行して、ステップS43に進む。 In step S39, it is determined whether or not age and gender information is recorded in the new history data. If “NO” in the step S39, that is, if age and gender information is not recorded in the new history data, the process proceeds to a step S43 as it is. On the other hand, if YES in step S39, that is, if age and gender information is recorded in the new history data, in step S41, the construction processing of the age / gender-dependent behavior DB is performed from the data set Das described later (see FIG. 15). ) And the process proceeds to step S43.
ステップS43では、年代および性別が記録されていない履歴データが存在するか否かを判断する。ステップS43でNOであれば、つまり年代および性別が記録されていない履歴データが存在しなければ、ステップS31に戻る。一方、ステップS43でYESであれば、つまり年代および性別が記録されていない履歴データが存在すれば、ステップS45で、後述するデータセットDnから場所依存ビヘービア遷移DBの構築処理(図16参照)を実行して、ステップS31に戻る。 In step S43, it is determined whether or not there is history data in which age and gender are not recorded. If “NO” in the step S43, that is, if there is no history data in which age and gender are not recorded, the process returns to the step S31. On the other hand, if “YES” in the step S43, that is, if there is history data in which the age and the sex are not recorded, in a step S45, the process of constructing the location-dependent behavior transition DB from the data set Dn described later (see FIG. 16) is performed. Execute and return to step S31.
なお、この実施例では、新しい動作履歴情報が記録される度にデータベース構築処理(S37,S41,S45)を行うようにしてあるが、中央制御装置14のCPUの処理負荷を軽減するために、一定の時間(たとえば、3時間)が経過するか、または一定の数(たとえば、100個)の新しい動作履歴情報が記録される毎に、データベース構築処理が行われるようにしてもよい。
In this embodiment, the database construction process (S37, S41, S45) is performed every time new operation history information is recorded. However, in order to reduce the processing load on the CPU of the
図14は、図13に示したステップS37の個人用ビヘービア遷移DBの構築処理のフロー図である。図14に示すように、中央制御装置14のCPUは、個人用ビヘービア遷移DBの構築処理を開始すると、ステップS61で、変数nを初期化する(n=1)。この、変数nは、データセットDpに含まれる個人(個人名)NNan(n=1,2,…,Na)を識別するための変数である。ただし、変数iの最大値Naは、データセットDpに含まれる人間の総人数に相当する。
FIG. 14 is a flowchart of the process of constructing the personal behavior transition DB in step S37 shown in FIG. As shown in FIG. 14, when the CPU of the
次のステップS63では、変数nが最大値Naより大きいか否かを判断する。つまり、データセットDpに含まれるすべての個人名についての個人用ビヘービア遷移DBを構築したかどうかを判断する。ステップS63でYESであれば、すなわち、変数nが最大値Naより大きければ、図13に示したデータベース構築処理にリターンする。一方、ステップS63でNOであれば、つまり変数nが最大値Na以下であれば、ステップS65で他の変数i,j,k,pを初期化する(i=1,j=1,k=1,p=1)。ここで、変数iは、場所NLi(i=1,2,…,L)を識別するための変数である。ただし、変数iの最大値Lは、データセットDpに含まれる場所の種類の総数に相当する。また、変数jは、BEFOREのコマンド名NBj(j=1,2,…,B)を識別するための変数である。ただし、変数jの最大値Bは、データセットDpに含まれるBEFOREのコマンド名の種類の総数に相当する。さらに、変数kは、VALUEの戻り値NVk(k=1,2,…,V)を識別するための変数である。ただし、変数kの最大値Vは、データセットDpに含まれるVALUEの戻りの最大値に相当する。さらにまた、変数pは、AFTERのコマンド名NAfp(p=1,2,…,Af)を識別するための変数である。ただし、変数pの最大値Afは、データセットDpに含まれるAFTERのコマンド名の総数に相当する。 In the next step S63, it is determined whether or not the variable n is larger than the maximum value Na. That is, it is determined whether or not personal behavior transition DBs for all personal names included in the data set Dp have been constructed. If “YES” in the step S63, that is, if the variable n is larger than the maximum value Na, the process returns to the database construction process shown in FIG. On the other hand, if NO in step S63, that is, if the variable n is equal to or less than the maximum value Na, other variables i, j, k, and p are initialized in step S65 (i = 1, j = 1, k = 1, p = 1). Here, the variable i is a variable for identifying the place NL i (i = 1, 2,..., L). However, the maximum value L of the variable i corresponds to the total number of types of places included in the data set Dp. The variable j is a variable for identifying the BEFORE command name NB j (j = 1, 2,..., B). However, the maximum value B of the variable j corresponds to the total number of types of BEFORE command names included in the data set Dp. Furthermore, the variable k is a variable for identifying the return value NV k (k = 1, 2,..., V) of VALUE. However, the maximum value V of the variable k corresponds to the maximum value of VALUE returned in the data set Dp. Furthermore, the variable p is a variable for identifying the command name NAfp (p = 1, 2,..., Af) of AFTER. However, the maximum value Af of the variable p corresponds to the total number of AFTER command names included in the data set Dp.
次のステップS67では、配列Transition[1,2,…,m][1,2,…,m][1,2,…,m][1,2,…,m]を初期化する。つまり、配列Transition[1,2,…,m][1,2,…,m][1,2,…,m][1,2,…,m]のそれぞれの配列に0を設定する。 In the next step S67, the array Transition [1, 2,..., M] [1, 2,..., M] [1, 2,. That is, 0 is set to each array of the array Transition [1, 2,..., M] [1, 2,..., M] [1, 2,.
続いて、ステップS69では、変数iが最大値Lよりも大きいか否かを判断する。つまり、すべての場所NLiについて検索したかどうかを判断する。ステップS69でNOであれば、つまり変数iが最大値L以下であれば、ステップS71で、変数jが最大値Bよりも大きいか否かを判断する。つまり、すべてのBEFOREのコマンド名NBjについて検索したかどうかを判断する。ステップS71でYESであれば、つまり変数jが最大値Bよりも大きければ、ステップS81で、変数iをインクリメントするとともに、変数j,変数kおよび変数pのそれぞれを初期化(i=1,k=1,p=1)して、ステップ69に戻る。一方、ステップS71でNOであれば、つまり変数jが最大値B以下であれば、ステップS73で変数kが最大値Vよりも大きいか否かを判断する。つまり、VALUEの戻り値NVkが最大値を超えたかどうかを判断する。 Subsequently, in step S69, it is determined whether or not the variable i is larger than the maximum value L. That is, it is determined whether or not all the locations NL i have been searched. If “NO” in the step S69, that is, if the variable i is equal to or less than the maximum value L, it is determined whether or not the variable j is larger than the maximum value B in a step S71. That is, it is determined whether or not all BEFORE command names NB j have been searched. If “YES” in the step S71, that is, if the variable j is larger than the maximum value B, in the step S81, the variable i is incremented and the variables j, k, and p are initialized (i = 1, k). = 1, p = 1) and return to step 69. On the other hand, if “NO” in the step S71, that is, if the variable j is equal to or less than the maximum value B, it is determined whether or not the variable k is larger than the maximum value V in a step S73. That is, it is determined whether or not the return value NV k of VALUE exceeds the maximum value.
ステップS73でYESであれば、つまり変数kが最大値Vよりも大きければ、ステップS83で、変数jをインクリメントするとともに、変数kおよび変数pのそれぞれを初期化(k=1,p=1)して、ステップS71に戻る。一方、ステップS73でNOであれば、つまり変数kが最大値V以下であれば、ステップS75で、変数pが最大値Afよりも大きいか否かを判断する。つまり、すべてのAFTERのコマンド名NAfpを検索したかどうかを判断する。 If “YES” in the step S73, that is, if the variable k is larger than the maximum value V, the variable j is incremented and the variables k and p are initialized in the step S83 (k = 1, p = 1). Then, the process returns to step S71. On the other hand, if “NO” in the step S73, that is, if the variable k is equal to or less than the maximum value V, it is determined whether or not the variable p is larger than the maximum value Af in a step S75. In other words, it is determined whether or not to search the name of the command NAf p of all of the AFTER.
ステップS75でYESであれば、つまり変数pが最大値Afより大きければ、ステップS85で、変数kをインクリメントするとともに、変数pを初期化(p=1)して、ステップS73に戻る。一方、ステップS75でNOであれば、つまり変数pが最大値Af以下であれば、ステップS77で、データセットDpに含まれるデータのうち、変数i,j,k,pで指定されるデータの数(個数)を配列Transition[NLi][NBj][NVk][NAfp]に対して設定し、ステップS79で、変数pをインクリメントして、ステップS75に戻る。
If “YES” in the step S75, that is, if the variable p is larger than the maximum value Af, the variable k is incremented and the variable p is initialized (p = 1) in a step S85, and the process returns to the step S73. On the other hand, if NO in step S75, that is, if the variable p is equal to or less than the maximum value Af, in step S77, of the data specified by the variables i, j, k, and p among the data included in the data set Dp. The number (number) is set for the array Transition [NL i ] [NB j ] [NV k ] [NAf p ], and in
たとえば、変数(i,j,k,p)=(1,1,1,1)であり、この変数i,j,k,pに対応する、場所NL1=外,BEFOREのコマンド名NB1=AKUSHU,VALUEの戻り値NV1=1(握手された),AFTERのコマンド名NAfp1=NAMEであり、データセットDpをサーチした結果、このようなビヘービアの遷移についてのデータの個数が20個見つかった場合には、ステップS77では、配列Transition[NL1][NB1][NV1][NAf1]に「20」が設定される。 For example, the variable (i, j, k, p) = ( 1, 1, 1, 1 ), and the location NL 1 corresponding to the variable i, j, k, p = outside, the command name NB 1 of BEFORE = AKUSHU, VALUE return value NV 1 = 1 (shake hand), AFTER command name NAfp 1 = NAME, and as a result of searching the data set Dp, the number of data regarding such behavior transition is 20 If found, in step S77, “20” is set in the array Transition [NL 1 ] [NB 1 ] [NV 1 ] [NAf 1 ].
つまり、ステップS77では、中央制御装置14のCPUは、データセットDpを先頭から末尾までサーチし、変数i,j,k,pで決定されるビヘービアの遷移すなわち配列Transition[NLi][NBj][NVk][NAfp]と一致するビヘービアの遷移についてのデータを検出するたびに、当該配列Transition[NLi][NBj][NVk][NAfp]に対応する回数(Count)を1加算する。
That is, in step S77, the CPU of the
なお、すべての配列Transition[NLi][NBj][NVk][NAfp]についてサーチするため、データセットDpに存在しない配列Transition[NLi][NBj][NVk][NAfp]も存在する。かかる場合の回数は「0」である。回数が「0」であるデータに関しては、その後のロボット12の自律制御に利用されることがないため、図9に示したように、個人用ビヘービア遷移DB(年代・性別依存ビヘービア遷移DBと場所依存ビヘービア遷移DBも同様。)では、回数が「0」のビヘービアの遷移についてのデータは削除してある。
Incidentally, all of the sequences Transition [NL i] [NB j ] [NV k] for searching for [NAf p], sequences not present in the data set Dp Transition [NL i] [NB j] [NV k] [NAf p ] Is also present. The number of times in this case is “0”. Since the data whose number is “0” is not used for the subsequent autonomous control of the
図14に戻って、ステップS69でYESであれば、つまり変数iが最大値Lよりも大きければ、ステップS87で、配列Transition[1,2,…,m][1,2,…,m][1,2,…,m][1,2,…,m]の値をテーブルNNanに書き込む。ここで、テーブルNNanとは、変数nで指定される個人名(個人)のテーブルを意味する。たとえば、n=1で指定される個人名が山田一郎である場合に、テーブルNNa1は、山田一郎の個人用ビヘービア遷移DBである。そして、次のステップS89では、変数nをインクリメントして、ステップS63に戻る。つまり、次の(山田一郎とは別の)個人名についての個人用ビヘービア遷移DBの構築処理に移る。 Returning to FIG. 14, if YES in step S69, that is, if the variable i is larger than the maximum value L, in step S87, the array Transition [1, 2,..., M] [1, 2,. [1,2, ..., m] [ 1,2, ..., m] writes the value of the table NNa n. Here, the table NNa n means a table of personal names (individuals) specified by the variable n. For example, when the personal name designated by n = 1 is Ichiro Yamada, the table NNa 1 is the personal behavior transition DB for Ichiro Yamada. In the next step S89, the variable n is incremented and the process returns to step S63. That is, the process proceeds to the construction process of the personal behavior transition DB for the next personal name (different from Ichiro Yamada).
図15は、図13に示したステップS41の年代・性別依存ビヘービア遷移DBの構築処理を示すフロー図である。なお、この年代・性別依存ビヘービア遷移DBの構築処理は、上述した個人用ビヘービア遷移DBの構築処理とほぼ同じであるため、同様の処理については簡単に説明することにする。 FIG. 15 is a flowchart showing the construction processing of the age / sex dependent behavior transition DB in step S41 shown in FIG. Since the construction process of the age / gender-dependent behavior transition DB is almost the same as the construction process of the personal behavior transition DB described above, the same process will be briefly described.
図15に示すように、中央制御装置14のCPUは、年代・性別依存ビヘービア遷移DBの構築処理を開始すると、ステップS101で、変数age,sexを初期化する(age=1,sex=1)。この変数ageは、データセットDasに含まれる年代NAgage(age=1,2)を識別するための変数である。この実施例では、年代を子どもと大人と分類してあるため、変数ageは1(子ども)または2(大人)である。また、変数sexは、データセットDasに含まれる性別NSsex(sex=1,2)を識別するための変数である。この実施例では、性別を男性と女性とに分類してあるため、変数sexは1(男性)または2(女性)である。
As shown in FIG. 15, when the CPU of the
次のステップS103では、変数sexが最大値2より大きいか否かを判断する。つまり、データセットDasに含まれる男性と女性との両方について検索したかどうかを判断する。ステップS103でNOであれば、つまり変数sexが最大値2以下であれば、ステップS109に進む。一方、ステップS103でYESであれば、つまり変数sexが最大値2よりも大きければ、ステップS105で、変数ageをインクリメントするとともに、変数sexを初期化して(sex=1)、ステップS107で、変数ageが最大値2よりも大きいか否かを判断する。つまり、データセットDasに含まれる子どもと大人との両方について検索したかどうかを判断する。ステップS107でYESであれば、つまり変数ageが最大値2よりも大きければ、図13に示したデータベース構築処理にリターンする。一方、ステップS107でNOであれば、つまり変数ageが最大値2以下であれば、ステップS109に進む。
In the next step S103, it is determined whether or not the variable sex is larger than the
また、ステップS109では、変数i,j,k,pを初期化する(i=1,j=1,k=1,p=1)。なお、変数i,j,k,pは、いずれも上述の個人用ビヘービア遷移DB構築処理(図14参照)で説明したため、重複した説明は省略する。次のステップS111では、配列Transtion[1,2,…,m][1,2,…,m][1,2,…,m][1,2,…,m]を初期化する。次のステップS113では、変数iが最大値Lよりも大きいか否かを判断する。ステップS113でNOであれば、つまり変数iが最大値L以下であれば、ステップS115で変数jが最大値Bよりも大きいか否かを判断する。ステップS115でYESであれば、つまり変数jが最大値Bよりも大きければ、ステップS125で、変数iをインクリメントするとともに、変数j,変数kおよび変数pのそれぞれを初期化して、ステップ113に戻る。一方、ステップS115でNOであれば、つまり変数jが最大値B以下であれば、ステップS117で、変数kが最大値Vよりも大きいか否かを判断する。 In step S109, variables i, j, k, and p are initialized (i = 1, j = 1, k = 1, p = 1). Since the variables i, j, k, and p are all described in the above-described personal behavior transition DB construction process (see FIG. 14), redundant description is omitted. In the next step S111, the array Transition [1,2, ..., m] [1,2, ..., m] [1,2, ..., m] [1,2, ..., m] is initialized. In the next step S113, it is determined whether or not the variable i is larger than the maximum value L. If “NO” in the step S113, that is, if the variable i is equal to or less than the maximum value L, it is determined whether or not the variable j is larger than the maximum value B in a step S115. If “YES” in the step S115, that is, if the variable j is larger than the maximum value B, the variable i is incremented in the step S125, and each of the variable j, the variable k, and the variable p is initialized, and the process returns to the step 113. . On the other hand, if “NO” in the step S115, that is, if the variable j is equal to or less than the maximum value B, it is determined whether or not the variable k is larger than the maximum value V in a step S117.
ステップS117でYESであれば、つまり変数kが最大値Vよりも大きければ、ステップS127で、変数jをインクリメントするとともに、変数kおよび変数pのそれぞれを初期化して、ステップS115に戻る。一方、ステップS117でNOであれば、つまり変数kが最大値以下であれば、ステップS119で、変数pが最大値Afよりも大きいか否かを判断する。ステップS119でYESであれば、つまり変数pが最大値Afよりも大きければ、ステップS129で、変数kをインクリメントするとともに、変数pを初期化して、ステップS117に戻る。一方、ステップS119でNOであれば、つまり変数pが最大値Af以下であれば、ステップS121で、データセットDasに含まれるデータのうち、変数i,j,k,pで指定されるデータの数を、配列Transition[NLi][NBj][NVk][NAfp]に設定する。そして、ステップS123で、変数pをインクリメントして、ステップS119に戻る。 If “YES” in the step S117, that is, if the variable k is larger than the maximum value V, the variable j is incremented in the step S127, and each of the variable k and the variable p is initialized, and the process returns to the step S115. On the other hand, if “NO” in the step S117, that is, if the variable k is equal to or less than the maximum value, it is determined whether or not the variable p is larger than the maximum value Af in a step S119. If “YES” in the step S119, that is, if the variable p is larger than the maximum value Af, the variable k is incremented and the variable p is initialized in a step S129, and the process returns to the step S117. On the other hand, if NO in step S119, that is, if the variable p is equal to or less than the maximum value Af, in step S121, of the data specified by the variables i, j, k, and p among the data included in the data set Das. The number is set in the array Transition [NL i ] [NB j ] [ N k k ] [NAf p ]. In step S123, the variable p is incremented, and the process returns to step S119.
また、ステップS113でYESであれば、つまり変数iが最大値Lよりも大きければ、ステップS131で、配列Transition[1,2,…,m][1,2,…,m][1,2,…,m][1,2,…,m]の値をテーブルNAgageNSsexに書き込む。ここで、テーブルNAgageNSsexは変数ageおよび変数sexで指定する年代および性別のテーブルを意味する。たとえば、変数(age,sex)=(1,1)であれば、テーブルNAg1NS1は、子どもの男性についての年代・性別依存ビヘービア遷移DBを意味する。次のステップS133では、変数sexをインクリメントし、ステップS103に戻る。つまり、次の性別(女性)についての年代・性別依存ビヘービア遷移DBの構築処理に移行する。 If YES in step S113, that is, if the variable i is greater than the maximum value L, in step S131, the array Transition [1, 2,..., M] [1, 2,. , ..., m] [1,2, ..., writes the value of m] in table NAg age NS sex. Here, table NAg age NS sex refers to the age and sex of the table is specified by the variable age and variable sex. For example, if the variable (age, sex) = (1, 1), the table NAg 1 NS 1 means the age / gender-dependent behavior transition DB for the male child. In the next step S133, the variable sex is incremented, and the process returns to step S103. That is, the process proceeds to the construction process of the age / gender-dependent behavior transition DB for the next gender (female).
図16は、図13に示したステップS45の場所依存ビヘービア遷移DBの構築処理を示すフロー図である。なお、この図16に示す場所依存ビヘービア遷移DBの構築処理も、上述した個人用ビヘービア遷移DBの構築処理とほぼ同じであるため、同様の処理については簡単に説明することにする。 FIG. 16 is a flowchart showing the construction processing of the location-dependent behavior transition DB in step S45 shown in FIG. The location-dependent behavior transition DB construction process shown in FIG. 16 is substantially the same as the above-described personal behavior transition DB construction process, and therefore the same process will be briefly described.
図16に示すように、中央制御装置14のCPUは、場所依存ビヘービア遷移DBの構築処理を開始すると、ステップS201で、変数iを初期化する(i=1)。なお、変数iについては、上述してあるため、重複した説明は省略する。次のステップS203では、変数iが最大値Lより大きいか否かを判断する。
As shown in FIG. 16, when the CPU of the
ステップS203でYESであれば、つまり変数iが最大値Lよりも大きければ、すべての場所についての場所依存ビヘービア遷移DBを構築したと判断して、図13に示したデータベース構築処理にリターンする。一方、ステップS203でNOであれば、つまり変数iが最大値L以下であれば、ステップS205で、他の変数j,k,pを初期化する(j=1,k=1,p=1)。この変数j,k,pについても上述してあるため、重複した説明は省略する。次のステップS207では、配列TranstionL[1,2,…,m][1,2,…,m][1,2,…,m]を初期化する。つまり、配列TranstionL[1,2,…,m][1,2,…,m][1,2,…,m]のそれぞれの配列に0を設定する。 If “YES” in the step S203, that is, if the variable i is larger than the maximum value L, it is determined that the place-dependent behavior transition DBs for all the places are constructed, and the process returns to the database construction process shown in FIG. On the other hand, if NO in step S203, that is, if the variable i is equal to or less than the maximum value L, in step S205, other variables j, k, and p are initialized (j = 1, k = 1, p = 1). ). Since the variables j, k, and p are also described above, a duplicate description is omitted. In the next step S207, the array TransitionL [1,2, ..., m] [1,2, ..., m] [1,2, ..., m] is initialized. That is, 0 is set to each array of the array TransitionL [1,2, ..., m] [1,2, ..., m] [1,2, ..., m].
続いて、ステップS209では、変数jが最大値Bよりも大きいか否かを判断する。ステップS209でNOであれば、つまり変数jが最大値B以下であれば、ステップS211で、変数kが最大値Vよりも大きいか否かを判断する。ステップS211でYESであれば、つまり変数kが最大値Vより大きければ、ステップS219で、変数jをインクリメントするとともに、変数kおよび変数pを初期化して、ステップS209に戻る。一方、ステップS211でNOであれば、つまり変数kが変数Vより大きくなければ、ステップS213で変数pが最大値Afよりも大きいか否かを判断する。 Subsequently, in step S209, it is determined whether or not the variable j is larger than the maximum value B. If “NO” in the step S209, that is, if the variable j is equal to or less than the maximum value B, it is determined whether or not the variable k is larger than the maximum value V in a step S211. If “YES” in the step S211, that is, if the variable k is larger than the maximum value V, the variable j is incremented and the variables k and p are initialized in a step S219, and the process returns to the step S209. On the other hand, if “NO” in the step S211, that is, if the variable k is not larger than the variable V, it is determined whether or not the variable p is larger than the maximum value Af in a step S213.
ステップS213でYESであれば、つまり変数pが最大値Afよりも大きければ、ステップS221で、変数kをインクリメントするとともに、変数pを初期化して、ステップS211に戻る。一方、ステップS213でNOであれば、つまり変数pが最大値Af以下であれば、ステップS215で、データセットDnに含まれるデータのうち、変数j,k,pで指定されるデータの数(個数)を、配列TransitionL[NBj][NVk][NAfp]に設定する。次のステップS217では、変数pをインクリメントして、ステップS213に戻る。 If “YES” in the step S213, that is, if the variable p is larger than the maximum value Af, the variable k is incremented and the variable p is initialized in a step S221, and the process returns to the step S211. On the other hand, if NO in step S213, that is, if the variable p is equal to or less than the maximum value Af, in step S215, the number of data specified by the variables j, k, and p among the data included in the data set Dn ( Number) is set in the array TransitionL [NB j ] [NV k ] [NAf p ]. In the next step S217, the variable p is incremented and the process returns to step S213.
また、ステップS209でYESであれば、つまり変数jが最大値Bよりも大きければ、ステップS223で、配列TranstionL[1,2,…,m][1,2,…,m][1,2,…,m]の値をテーブルNLiに書き込み、ステップS225で、変数iをインクリメントして、ステップS203に戻る。ただし、ステップS223におけるテーブルNLiは、変数iで指定する場所についてのテーブルを意味する。たとえば、i=1で指定する場所が「外」である場合に、テーブルNL1は、場所が「外」である場合についてのテーブルを意味する。つまり、場所依存ビヘービア遷移DBには、変数iの最大値Lで示される個数分の(場所毎の)テーブルが記憶される。 If YES in step S209, that is, if the variable j is larger than the maximum value B, in step S223, the array TransitionL [1,2,..., M] [1,2,. ,..., M] are written to the table NL i , the variable i is incremented in step S225, and the process returns to step S203. However, the table NL i in step S223 means a table for the location specified by the variable i. For example, when the place designated by i = 1 is “outside”, the table NL 1 means a table for the case where the place is “outside”. That is, the place-dependent behavior transition DB stores as many tables (for each place) as the maximum value L of the variable i.
図17は、図1に示したロボット12のCPU80の全体処理を示すフロー図である。図17に示すように、ロボット12のCPU80は、全体処理を実行すると、ステップS301で、停止命令が有るか否かを判断する。ここでは、オペレータからの停止命令が入力されたか否かを判断する。ステップS301でYESであれば、つまり停止命令が有れば、ロボット12の全体処理を終了する。一方、ステップS301でNOであれば、つまり停止命令が無ければ、ステップS303で、個人を特定できたか否かを判断する。
FIG. 17 is a flowchart showing the overall processing of the
ここでは、たとえば、ロボット12は、対話相手が所持する無線タグ18のタグIDを検出し、検出したタグIDを中央制御装置14に送信する。中央制御装置14は、タグIDを受信すると、メモリ14aに記憶された個人名,年代(年齢)および性別に関するデータベース(図示せず)を参照して、タグIDに対応する個人名,年代,性別の情報を検出する。そして、中央制御装置14は、検索した結果を、ロボット12に送信する。このとき、ロボット12は、中央制御装置14から送信された情報に個人名が含まれている場合に、個人を特定できたと判断する。ただし、メモリ14aに、タグIDに対応して個人名,年代,性別のいずれの情報も登録されていない場合には、中央制御装置14は、情報が無い旨のメッセージをロボット12に送信する。
Here, for example, the
ステップS303でYESであれば、つまり個人を特定できれば、ステップS305で、利用するDBを個人用ビヘービア遷移DBに設定して、図18に示すステップS313に進む。ただし、ここで利用する個人用ビヘービア遷移DBは、特定された個人についてのDBである。一方、ステップS303でNOであれば、つまり個人を特定できなければ、ステップS307で、年代および性別の情報を取得できたか否かを判断する。つまり、中央制御装置14から送信された情報に、個人名は含まれていないが、年代および性別が含まれているか否かを判断する。
If “YES” in the step S303, that is, if an individual can be specified, the DB to be used is set in the personal behavior transition DB in a step S305, and the process proceeds to a step S313 shown in FIG. However, the personal behavior transition DB used here is a DB for the identified individual. On the other hand, if “NO” in the step S303, that is, if an individual cannot be specified, it is determined whether or not age and gender information can be acquired in a step S307. That is, it is determined whether the information transmitted from the
ステップS307でYESであれば、つまり年代および性別の情報を取得できれば、ステップS309で、利用するDBを年代・性別依存ビヘービアDBに設定して、ステップS313に進む。ただし、ここで利用する年代・性別依存ビヘービアDBは、取得された年代および性別についてのDBである。一方、ステップS307でNOあれば、つまり年代および性別の情報を取得できなければ、ステップS311で、利用するDBを場所依存ビヘービア遷移DBに設定して、ステップS313に進む。ただし、ここで利用する場所依存ビヘービア遷移DBは、対話相手(ロボット12)が現在存在する場所についてのDBである。詳細な説明は省略するが、このロボット12が現在存在する場所は、ロボット制御システム10の使用者等によって予め設定され、ロボット12内部のメモリ(図示せず)に記憶される。そして、中制御装置14には、ロボット12内部のメモリに記憶された場所の情報が、履歴データとともに送信される。
If “YES” in the step S307, that is, if age and gender information can be acquired, the DB to be used is set as the age / gender dependent behavior DB in a step S309, and the process proceeds to the step S313. However, the age / gender-dependent behavior DB used here is a DB for the acquired age and sex. On the other hand, if NO in step S307, that is, if age and gender information cannot be acquired, the DB to be used is set as the location-dependent behavior transition DB in step S311, and the process proceeds to step S313. However, the location-dependent behavior transition DB used here is a DB for a location where the conversation partner (robot 12) currently exists. Although a detailed description is omitted, the location where the
図18に示すステップS313では、現在のビヘービアとVALUEとに対応するデータがDBに存在するか否かを判断する。つまり、ロボット12が対話相手に行うコミュニケーション行動についてのコマンド名がBEFOREの欄に記述されるとともに、そのコミュニケーション行動に対する対話相手の行動が示す戻り値がVALUEの欄に記述されているデータが設定したDB内に存在するか否かを判断する。ステップS313でNOであれば、つまり現在のビヘービアとVALUEとに対応するデータがDBに存在しなければ、ステップS315で、オペレータを呼び出し、ステップS317で、遠隔操作処理を実行する。つまり、遠隔操作モードに切り替えられる。たとえば、ロボット12は、オペレータの呼出信号を中央制御装置14に送信し、中央制御装置14によって選択されたオペレータが操作端末16を操作することにより、遠隔操作される。なお、遠隔操作処理を終了すると、ステップS329で、履歴データを中央制御装置14に送信して、ステップS301に戻る。
In step S313 shown in FIG. 18, it is determined whether or not data corresponding to the current behavior and VALUE exists in the DB. That is, the command name for the communication action performed by the
また、ステップS313でYESであれば、つまり現在のビヘービアとVALUEとに対応するデータがDBに存在すれば、ステップS319で、そのデータに対応するCOUNTが一定数X(たとえば、30)より大きいか否かを判断する。ステップS319でYESであれば、つまりCOUNTの値が一定数Xよりも大きければ、そのままステップS323に進む。一方、ステップS319でNOであれば、つまりCOUNTの値が一定数X以下であれば、ステップS321で、COUNTの値の割合がY(たとえば、30)%より大きいか否かを判断する。ただし、COUNTの値の割合は、設定されたDBに記述されたCOUNTの総数に対する当該データに記述されたCOUNTが示す数の割合である。 If YES in step S313, that is, if data corresponding to the current behavior and VALUE exists in the DB, is COUNT corresponding to the data larger than a certain number X (for example, 30) in step S319? Judge whether or not. If “YES” in the step S319, that is, if the value of the COUNT is larger than the predetermined number X, the process proceeds to a step S323 as it is. On the other hand, if NO in step S319, that is, if the value of COUNT is equal to or smaller than a certain number X, it is determined in step S321 whether the ratio of the value of COUNT is greater than Y (for example, 30)%. However, the ratio of the value of COUNT is the ratio of the number indicated by COUNT described in the data to the total number of COUNT described in the set DB.
ステップS321でNOであれば、つまりCOUNTの値の割合がY%以下であれば、ステップS315に進む。一方、ステップS321でYESであれば、つまりCOUNTの値の割合がY%よりも大きければ、自律制御モードに切り替えられ、ステップS323で、対応する遷移情報をDBから取得する。具体的には、ステップS319またはS321でYESと判断されたデータのAFTERに記述されたコマンド名を取得する。そして、ステップS325では、ステップS323で取得した遷移情報(ここでは、AFTERのコマンド名)に従い動作を決定する。図示は省略するが、ここでは、決定されたコマンド名に従うコミュニケーション行動(ビヘービア)が実行される。 If “NO” in the step S321, that is, if the ratio of the value of the COUNT is equal to or less than Y%, the process proceeds to a step S315. On the other hand, if “YES” in the step S321, that is, if the ratio of the value of the COUNT is larger than Y%, the mode is switched to the autonomous control mode, and corresponding transition information is acquired from the DB in a step S323. Specifically, the command name described in the AFTER of the data determined as YES in step S319 or S321 is acquired. In step S325, the operation is determined in accordance with the transition information (here, the command name of AFTER) acquired in step S323. Although illustration is omitted, here, a communication action (behavior) according to the determined command name is executed.
次のステップS327では、動作が終了したか否かを判断する。つまり、ロボット12が、ステップS325で決定された動作(コミュニケーション行動)を終了したか否かを判断する。ステップS327でNOであれば、つまり動作が終了していなければ、ステップS327に戻って、動作が終了するのを待機する。一方、ステップS327でYESであれば、つまり動作が終了すれば、ステップS329に進む。
In the next step S327, it is determined whether or not the operation is finished. That is, it is determined whether or not the
この実施例によれば、遠隔操作による動作履歴情報に基づいて個人名、年代および性別、場所のような環境に応じたデータベースを作成し、いずれかのデータベースを参照して、コミュニケーション行動を決定するので、オペレータの操作なしに自律行動する機会を増加させることができる。このため、オペレータが遠隔操作する回数や頻度を出切るだけ低減することができる。 According to this embodiment, a database corresponding to an environment such as an individual name, age and gender, and location is created based on operation history information by remote operation, and communication behavior is determined by referring to any database. Therefore, the opportunity to autonomously operate without the operator's operation can be increased. For this reason, it is possible to reduce the number and frequency of remote operations by the operator as much as possible.
なお、この実施例では、個人用ビヘービア遷移DB,年代・性別依存ビヘービア遷移DBおよび場所依存ビヘービア遷移DBを作成し、これらを選択的に利用するため、たとえば、異なる場所にこのロボット制御システム(ロボット)が配置される場合であっても、ロボットは、特定に個人や特定の年代・個人に応じたサービスを提供することができ、また、個人や年代・性別を知ることができなくても、場所毎に適切なサービスを提供することができる。 In this embodiment, the personal behavior transition DB, the age / gender-dependent behavior transition DB, and the location-dependent behavior transition DB are created and used selectively. For example, the robot control system (robot) ), The robot can provide a service specific to an individual or a specific age / individual, and even if the person / age / gender cannot be known, An appropriate service can be provided for each place.
また、この実施例では、ロボットは、対話相手の個人名等の情報を中央制御装置に問い合わせるようにしてあるが、中央制御装置のメモリに記憶された個人名,年代(年齢)および性別に関するデータベースと同様のデータベースをロボットのメモリに記憶しておいて、ロボット自身で、個人名,年代,性別の情報を取得できるようにしてもよい。 In this embodiment, the robot inquires the central control unit about information such as the personal name of the conversation partner, but a database relating to the personal name, age (age) and gender stored in the memory of the central control unit. A database similar to the above may be stored in the memory of the robot so that the robot itself can acquire information on the personal name, age, and sex.
10 …ロボット制御システム
12 …ロボット
14 …中央制御装置
14a …メモリ
16 …操作端末
18 …無線タグ
64 …スピーカ
66 …マイク
80 …CPU
82 …バス
84 …メモリ
88 …センサ入力/出力ボード
90 …音声入力/出力ボード
102 …通信LANボード
104 …無線通信装置
106 …無線タグ読取装置
200 …ネットワーク
DESCRIPTION OF
82 ...
Claims (7)
前記ロボットは、
前記操作端末からの遠隔操作に従ってコミュニケーション行動を実行する遠隔操作モードと、コミュニケーションの状況に応じたコミュニケーション行動についてのデータベースを参照して自律制御によるコミュニケーション行動を実行する自律制御モードとを切り替える切替手段、および
前記切替手段によって切り替えられた前記遠隔操作モードまたは前記自律制御モードにおけるコミュニケーション行動についての動作履歴情報を中央制御装置に送信する送信手段を備え、
前記中央制御装置は、
前記送信手段によって送信された動作履歴情報を受信する受信手段、
前記受信手段によって受信された動作履歴情報についてのコミュニケーション行動が遠隔操作によって実行されたかどうかを判断する判断手段、
前記判断手段によって前記遠隔操作であることが判断された前記動作履歴情報を記憶装置に記憶する記憶手段、および
前記記憶手段によって記憶された遠隔操作による前記動作履歴情報に基づいて前記データベースを構築する構築手段を備えることを特徴とする、ロボット制御システム。 A robot that performs communication with humans through at least one of body movement and voice by remote control or autonomous control, an operation terminal that performs remote control of the robot via a network, and the robot via the network In a robot control system comprising a central controller that mediates the operation terminal,
The robot is
Switching means for switching between a remote operation mode for executing a communication action in accordance with a remote operation from the operation terminal and an autonomous control mode for executing a communication action by autonomous control with reference to a database of communication actions according to the communication situation; And transmission means for transmitting operation history information about communication behavior in the remote operation mode or the autonomous control mode switched by the switching means to a central control device,
The central controller is
Receiving means for receiving the operation history information transmitted by the transmitting means;
A judging means for judging whether or not a communication action about the operation history information received by the receiving means has been executed by remote operation;
Storage means for storing the operation history information determined to be the remote operation by the determination means in a storage device, and constructing the database based on the operation history information by the remote operation stored by the storage means A robot control system comprising a construction means.
前記構築手段は、前記属性情報に応じた前記データベースを構築する、請求項1のロボット制御システム。 The central control device further includes attribute information acquisition means for acquiring attribute information of a human who is a target on which the robot performs a communication action,
The robot control system according to claim 1, wherein the construction unit constructs the database according to the attribute information.
前記構築手段は、前記人間の名称の情報が示す名称毎に前記データベースを構築する、請求項2記載のロボット制御システム。 The attribute information includes information on the human name,
The robot control system according to claim 2, wherein the construction unit constructs the database for each name indicated by the human name information.
前記構築手段は、前記人間の年齢および性別の情報が示す年齢および性別毎に前記データベースを構築する、請求項2または3記載のロボット制御システム。 The attribute information includes information on the age and sex of the human,
The robot control system according to claim 2 or 3, wherein the construction unit constructs the database for each age and sex indicated by the age and sex information of the human.
前記構築手段は、前記場所の情報が示す場所毎に前記データベースを構築する、請求項1ないし4のいずれかに記載のロボット制御システム。 The central control device further includes a location information acquisition unit that acquires information on a location where the person exists when the robot performs a communication action,
The robot control system according to claim 1, wherein the construction unit constructs the database for each location indicated by the location information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007308144A JP2009131914A (en) | 2007-11-29 | 2007-11-29 | Robot control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007308144A JP2009131914A (en) | 2007-11-29 | 2007-11-29 | Robot control system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009131914A true JP2009131914A (en) | 2009-06-18 |
Family
ID=40864347
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007308144A Pending JP2009131914A (en) | 2007-11-29 | 2007-11-29 | Robot control system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009131914A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011067943A (en) * | 2009-09-22 | 2011-04-07 | Gm Global Technology Operations Inc | Interactive robot control system and method of use |
WO2012147394A1 (en) * | 2011-04-25 | 2012-11-01 | ソニー株式会社 | Evaluation device and evaluation method, service provision system, and computer program |
JP2018001387A (en) * | 2016-07-08 | 2018-01-11 | ロボットスタート株式会社 | Robot, program, robot system, and server |
JP2019045928A (en) * | 2017-08-30 | 2019-03-22 | 株式会社国際電気通信基礎技術研究所 | Sensory stimulation presentation system, program, and method |
CN109709947A (en) * | 2017-10-26 | 2019-05-03 | 株式会社日立大厦系统 | Robot management system |
US10809715B2 (en) | 2018-02-28 | 2020-10-20 | Panasonic Intellectual Property Management Co., Ltd. | Apparatus, robot, method, and recording medium |
US11474499B2 (en) | 2018-10-24 | 2022-10-18 | Toyota Jidosha Kabushiki Kaisha | Communication robot and control program of communication robot |
US11491661B2 (en) | 2018-10-24 | 2022-11-08 | Toyota Jidosha Kabushiki Kaisha | Communication robot and control program of communication robot |
JP2023039445A (en) * | 2021-09-08 | 2023-03-20 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハー | Doppelganger tele-robotic system |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04216107A (en) * | 1990-12-17 | 1992-08-06 | Nippon Telegr & Teleph Corp <Ntt> | Remote control system for intelligent parameter remote adjustment type semi-self-control robot |
JP2004227276A (en) * | 2003-01-23 | 2004-08-12 | Advanced Telecommunication Research Institute International | Human communication behavior recording system and method |
JP2005131748A (en) * | 2003-10-31 | 2005-05-26 | Advanced Telecommunication Research Institute International | Relationship detecting system |
JP2005324278A (en) * | 2004-05-13 | 2005-11-24 | Honda Motor Co Ltd | Robot control device |
JP2006075948A (en) * | 2004-09-10 | 2006-03-23 | Honda Motor Co Ltd | Controller for robot |
JP2007190641A (en) * | 2006-01-19 | 2007-08-02 | Advanced Telecommunication Research Institute International | Communication robot |
JP2007216363A (en) * | 2006-02-20 | 2007-08-30 | Saitama Univ | Communication robot |
-
2007
- 2007-11-29 JP JP2007308144A patent/JP2009131914A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04216107A (en) * | 1990-12-17 | 1992-08-06 | Nippon Telegr & Teleph Corp <Ntt> | Remote control system for intelligent parameter remote adjustment type semi-self-control robot |
JP2004227276A (en) * | 2003-01-23 | 2004-08-12 | Advanced Telecommunication Research Institute International | Human communication behavior recording system and method |
JP2005131748A (en) * | 2003-10-31 | 2005-05-26 | Advanced Telecommunication Research Institute International | Relationship detecting system |
JP2005324278A (en) * | 2004-05-13 | 2005-11-24 | Honda Motor Co Ltd | Robot control device |
JP2006075948A (en) * | 2004-09-10 | 2006-03-23 | Honda Motor Co Ltd | Controller for robot |
JP2007190641A (en) * | 2006-01-19 | 2007-08-02 | Advanced Telecommunication Research Institute International | Communication robot |
JP2007216363A (en) * | 2006-02-20 | 2007-08-30 | Saitama Univ | Communication robot |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011067943A (en) * | 2009-09-22 | 2011-04-07 | Gm Global Technology Operations Inc | Interactive robot control system and method of use |
WO2012147394A1 (en) * | 2011-04-25 | 2012-11-01 | ソニー株式会社 | Evaluation device and evaluation method, service provision system, and computer program |
JP2012230506A (en) * | 2011-04-25 | 2012-11-22 | Sony Corp | Evaluation device, evaluation method, service provision system, and computer program |
JP2018001387A (en) * | 2016-07-08 | 2018-01-11 | ロボットスタート株式会社 | Robot, program, robot system, and server |
JP7012953B2 (en) | 2017-08-30 | 2022-01-31 | 株式会社国際電気通信基礎技術研究所 | Sensory stimulation presentation system, program and method |
JP2019045928A (en) * | 2017-08-30 | 2019-03-22 | 株式会社国際電気通信基礎技術研究所 | Sensory stimulation presentation system, program, and method |
CN109709947A (en) * | 2017-10-26 | 2019-05-03 | 株式会社日立大厦系统 | Robot management system |
JP2019079419A (en) * | 2017-10-26 | 2019-05-23 | 株式会社日立ビルシステム | Robot management system |
CN109709947B (en) * | 2017-10-26 | 2021-11-16 | 株式会社日立大厦系统 | Robot management system |
US10809715B2 (en) | 2018-02-28 | 2020-10-20 | Panasonic Intellectual Property Management Co., Ltd. | Apparatus, robot, method, and recording medium |
US11474499B2 (en) | 2018-10-24 | 2022-10-18 | Toyota Jidosha Kabushiki Kaisha | Communication robot and control program of communication robot |
US11491661B2 (en) | 2018-10-24 | 2022-11-08 | Toyota Jidosha Kabushiki Kaisha | Communication robot and control program of communication robot |
JP2023039445A (en) * | 2021-09-08 | 2023-03-20 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハー | Doppelganger tele-robotic system |
JP7548970B2 (en) | 2021-09-08 | 2024-09-10 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハー | Doppelganger remote robot system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5429462B2 (en) | Communication robot | |
JP2009131914A (en) | Robot control system | |
JP5033994B2 (en) | Communication robot | |
JP5070441B2 (en) | Robot remote control system | |
JP5366048B2 (en) | Information provision system | |
JP4599522B2 (en) | Communication robot | |
JP4639343B2 (en) | Robot remote control system | |
JP2009241166A (en) | Robot remote operation system | |
JP4386367B2 (en) | Communication robot improvement system | |
JP4024683B2 (en) | Communication robot | |
JP2023017880A (en) | Information processing device and information processing method | |
JP2024023193A (en) | Information processing device, and information processing method | |
JP7120254B2 (en) | Information processing device, information processing method, and program | |
JP7559900B2 (en) | Information processing device, information processing method, and program | |
JP7416295B2 (en) | Robots, dialogue systems, information processing methods and programs | |
US11938625B2 (en) | Information processing apparatus, information processing method, and program | |
JP2007320033A (en) | Communication robot | |
JP5163202B2 (en) | Article estimation system | |
KR20180082777A (en) | Communion robot system for senior citizen | |
JP5324956B2 (en) | Road guidance robot | |
JP5842245B2 (en) | Communication robot | |
JP6468643B2 (en) | Communication system, confirmation action determination device, confirmation action determination program, and confirmation action determination method | |
JP2007160427A (en) | Robot control system | |
JP5866646B2 (en) | Communication system, utterance content generation device, utterance content generation program, and utterance content generation method | |
JP2007152445A (en) | Self-propelled robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Effective date: 20100909 Free format text: JAPANESE INTERMEDIATE CODE: A621 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120405 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120410 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120731 |