[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7392377B2 - Equipment, information processing methods, programs, information processing systems, and information processing system methods - Google Patents

Equipment, information processing methods, programs, information processing systems, and information processing system methods Download PDF

Info

Publication number
JP7392377B2
JP7392377B2 JP2019187168A JP2019187168A JP7392377B2 JP 7392377 B2 JP7392377 B2 JP 7392377B2 JP 2019187168 A JP2019187168 A JP 2019187168A JP 2019187168 A JP2019187168 A JP 2019187168A JP 7392377 B2 JP7392377 B2 JP 7392377B2
Authority
JP
Japan
Prior art keywords
emotion
target
robot
video
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019187168A
Other languages
Japanese (ja)
Other versions
JP2021064067A (en
Inventor
篤史 小杉
敏之 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2019187168A priority Critical patent/JP7392377B2/en
Publication of JP2021064067A publication Critical patent/JP2021064067A/en
Application granted granted Critical
Publication of JP7392377B2 publication Critical patent/JP7392377B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、機器、情報処理方法、プログラム、情報処理システムおよび情報処理システムの方法に関する。 The present invention relates to a device, an information processing method, a program, an information processing system, and a method of the information processing system.

近年、様々な技術が知られている。例えば、他の会議参加者の表示をしながら発言者が誰であるかを容易に認識することを可能にし、議参加者に関する映像情報を自然かつ詳細に認識することを可能にするテレビ会議システムが開示されている(例えば、特許文献1参照。)。 Various techniques have become known in recent years. For example, a video conferencing system that makes it possible to easily recognize who is speaking while displaying other meeting participants, and allows for natural and detailed recognition of video information about meeting participants. has been disclosed (for example, see Patent Document 1).

また、監視エリア全体を撮像する監視用カメラと、人の顔部分を撮像するクローズアップ用カメラと、監視装置とを備えるシステムにおいて、監視装置が、監視用カメラによって撮像された画像に基づき人の動きを検出し、検出した人の動きに応じてクローズアップ用カメラによって撮像された画像を録画する技術が開示されている(例えば、特許文献2参照。)。 Further, in a system including a surveillance camera that images the entire surveillance area, a close-up camera that images a person's face, and a surveillance device, the surveillance device may 2. Description of the Related Art A technique has been disclosed in which a motion is detected and an image captured by a close-up camera is recorded according to the detected motion of a person (see, for example, Patent Document 2).

さらに、遠隔操作によって自由移動させることが可能なロボット装置が開示されている(例えば、特許文献3参照。)。操作者は、遠隔地の会議場に出席させたロボット装置を介して、会議の状況を見たり、聞いたり、表情を見せたり、話したり、資料を提示したり、握手をしたりすることができる。 Furthermore, a robot device that can be moved freely by remote control has been disclosed (see, for example, Patent Document 3). Operators can view and hear the status of the meeting, show facial expressions, speak, present materials, and shake hands through a robot device placed in a remote conference room. can.

特開平7-336660号公報Japanese Patent Application Publication No. 7-336660 特開平10-336632号公報Japanese Patent Application Publication No. 10-336632 特開2002-46088号公報Japanese Patent Application Publication No. 2002-46088

特許文献1は、テレビ会議システムを開示しているに過ぎず、特許文献2は、画像を用いる監視装置を開示しているに過ぎず、特許文献3は、遠隔操作によって自由移動しつつ情報のやりとりを行うことが可能なロボット装置を開示しているに過ぎない。しかし、対象(例えば、人など)によって機器が用いられる場合には、機器による処理は、対象の感情が考慮された上で実行されたほうが、対象にとって利便性が高いと考えられる。 Patent Document 1 merely discloses a video conference system, Patent Document 2 merely discloses a monitoring device that uses images, and Patent Document 3 discloses a video conferencing system that uses images while freely moving and transmitting information by remote control. It merely discloses a robotic device capable of interacting. However, when a device is used by a target (for example, a person), it is considered more convenient for the target if the processing by the device is executed after taking the target's emotions into consideration.

そこで、対象にとってより利便性の高い処理を行うことを可能とする技術が提供されることが望まれる。 Therefore, it is desired to provide a technology that allows processing to be performed more conveniently for the target.

上記問題を解決するために、本発明のある観点によれば、複数の撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別する感情識別部と、前記感情識別部によって識別された感情に対応した処理を行う処理部と、を備える、機器であって、前記処理部は、前記感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、前記複数の撮像部によって撮像された映像に基づいて、前記機器を斜め上方向から俯瞰した俯瞰映像に前記機器をかたどったグラフィックをレンダリングした自由視点映像を生成し、前記自由視点映像がオペレータの操作端末に送信されるように通信部を制御する、機器が提供される。
In order to solve the above problem, according to one aspect of the present invention, an emotion identification section that identifies the emotion of a target in the video based on images captured by a plurality of imaging sections; and a processing unit that performs processing corresponding to the identified emotion , the processing unit configured to perform processing corresponding to the identified emotion when there is a target whose emotion value of hostility is equal to or higher than a first threshold value. generates a free-viewpoint video in which a graphic in the shape of the device is rendered into a bird's-eye view of the device from diagonally above based on the images captured by the plurality of imaging units, and the free-viewpoint video is used by the operator. A device is provided that controls a communication unit to transmit information to an operating terminal of the device.

前記処理部は、前記感情のうちの視線の感情値が第2の閾値以上である対象が存在する場合には、前記機器によって前記対象の位置に基づく所定の動作がなされるように前記機器を制御してもよい。 The processing unit may cause the device to perform a predetermined operation based on the position of the target when there is a target whose gaze emotion value among the emotions is equal to or higher than a second threshold. May be controlled.

前記視線の感情値は、前記視線と前記機器との位置関係に基づいて識別されてもよい。 The emotional value of the line of sight may be identified based on a positional relationship between the line of sight and the device.

前記処理部は、前記感情のうちの第1の感情の感情値が第1の条件を満たす場合には、前記機器が前記対象に接近するように移動部を制御してもよい。 The processing unit may control the moving unit so that the device approaches the target when an emotion value of a first emotion among the emotions satisfies a first condition.

前記処理部は、前記感情のうちの第2の感情の感情値が第2の条件を満たす場合には、前記機器と前記操作端末とが接続されるように前記通信部を制御してもよい。
The processing unit may control the communication unit so that the device and the operation terminal are connected when the emotion value of a second emotion among the emotions satisfies a second condition. .

前記機器と接続される前記操作端末は、前記感情のうちの第3の感情の感情値に基づいて選択されてもよい。 The operation terminal connected to the device may be selected based on an emotion value of a third emotion among the emotions.

前記処理部は、前記機器とオペレータの操作端末とが接続された後、前記操作端末から受信された前記オペレータによって発せられた音声が出力されるようにスピーカを制御してもよい。 The processing unit may control a speaker so that the sound emitted by the operator received from the operation terminal is output after the device and the operator's operation terminal are connected.

前記処理部は、前記第2の感情の感情値が前記第2の条件を満たす場合には、前記第2の条件に対応するコンテンツが表示されるように前記機器が備える表示装置を制御してもよい。 The processing unit controls a display device included in the device so that content corresponding to the second condition is displayed when the emotional value of the second emotion satisfies the second condition. Good too.

前記処理部は、前記第2の感情の感情値が前記第2の条件を満たす場合には、前記自由視点映像が前記操作端末に送信されるように前記通信部を制御してもよい。
The processing unit may control the communication unit so that the free viewpoint video is transmitted to the operation terminal when the emotional value of the second emotion satisfies the second condition.

また、本発明の別の観点によれば、複数の撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別することと、前記感情に対応した処理を行うことと、前記感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、前記複数の撮像部によって撮像された映像に基づいて、機器を斜め上方向から俯瞰した俯瞰映像に前記機器をかたどったグラフィックをレンダリングした自由視点映像を生成し、前記自由視点映像がオペレータの操作端末に送信されるように通信部を制御することと、を含む、情報処理方法が提供される。
According to another aspect of the present invention, the steps include: identifying an emotion of a target appearing in the video based on the video captured by a plurality of imaging units; and performing processing corresponding to the emotion ; When there is a target whose emotional value of hostility among the emotions is equal to or higher than the first threshold value, the above-mentioned object is added to an overhead image obtained by looking down on the device from diagonally above, based on the images captured by the plurality of imaging units. An information processing method is provided, which includes: generating a free-viewpoint video by rendering a graphic shaped like a device; and controlling a communication unit so that the free-viewpoint video is transmitted to an operator's operation terminal .

また、本発明の別の観点によれば、コンピュータを、複数の撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別する感情識別部と、前記感情識別部によって識別された感情に対応した処理を行う処理部と、を備える機器であって、前記処理部は、前記感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、前記複数の撮像部によって撮像された映像に基づいて、前記機器を斜め上方向から俯瞰した俯瞰映像に前記機器をかたどったグラフィックをレンダリングした自由視点映像を生成し、前記自由視点映像がオペレータの操作端末に送信されるように通信部を制御する、機器として機能させるためのプログラムが提供される。
According to another aspect of the present invention, the computer includes an emotion identification unit that identifies the emotion of a target in the video based on images captured by a plurality of imaging units; and a processing unit that performs processing corresponding to the emotion , wherein the processing unit performs processing corresponding to the emotion when there is a target whose emotion value of hostility among the emotions is equal to or higher than a first threshold value. A free-viewpoint video is generated by rendering a graphic in the shape of the device onto a bird's-eye view of the device from diagonally above, based on images captured by a plurality of imaging units, and the free-viewpoint video is displayed on an operator's operating terminal. A program is provided for controlling the communication unit so that the communication unit functions as a device .

また、本発明の別の観点によれば、機器と管理センタとを有する情報処理システムであって、前記機器は、複数の撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別する感情識別部と、前記感情のうちの所定の感情値が所定の条件を満たす場合には、前記機器とオペレータの操作端末とが接続されるように通信部を制御する処理部と、を備え、前記処理部は、前記感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、前記複数の撮像部によって撮像された映像に基づいて、前記機器を斜め上方向から俯瞰した俯瞰映像に前記機器をかたどったグラフィックをレンダリングした自由視点映像を生成し、前記自由視点映像がオペレータの操作端末に送信されるように通信部を制御し、前記管理センタは、前記感情に基づいて前記オペレータを選択するコミュニケーション部を備える、情報処理システムが提供される。
According to another aspect of the present invention, there is provided an information processing system including a device and a management center, wherein the device is configured to determine the emotion of a target depicted in the video based on the video captured by a plurality of imaging units. an emotion identification unit that identifies the emotion, and a processing unit that controls a communication unit so that the device and an operator's operation terminal are connected when a predetermined emotional value of the emotions satisfies a predetermined condition; If there is a target whose emotional value of hostility among the emotions is equal to or higher than a first threshold, the processing unit controls the device based on the images captured by the plurality of imaging units. Generates a free-viewpoint video by rendering a graphic in the shape of the device on an overhead video viewed diagonally from above, controls a communication unit so that the free-viewpoint video is transmitted to an operating terminal of an operator, and the management center An information processing system is provided, including a communication unit that selects the operator based on the emotion.

また、本発明の別の観点によれば、複数の撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別することと、前記感情のうちの所定の感情値が所定の条件を満たす場合には、機器と前記感情に基づいて選択されたオペレータの操作端末とが接続されるように通信部を制御することと、前記感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、前記複数の撮像部によって撮像された映像に基づいて、前記機器を斜め上方向から俯瞰した俯瞰映像に前記機器をかたどったグラフィックをレンダリングした自由視点映像を生成し、前記自由視点映像がオペレータの操作端末に送信されるように通信部を制御することと、を有する、情報処理システムの方法が提供される。
According to another aspect of the present invention, it is possible to identify the emotion of a target shown in the video based on the video captured by a plurality of imaging units, and to identify the emotion of a target shown in the video based on the video captured by a plurality of imaging units; If the conditions are met, the communication unit is controlled so that the device and the operation terminal of the operator selected based on the emotion are connected, and the emotion value of hostility among the emotions is a first threshold value. If there is a target as described above, a free-viewpoint video is created by rendering a graphic in the shape of the device into an overhead video that looks down on the device from diagonally above, based on the images captured by the plurality of imaging units. and controlling a communication unit so that the free-viewpoint video is generated and transmitted to an operating terminal of an operator .

以上説明したように本発明によれば、対象にとってより利便性の高い処理を行うことを可能とする技術が提供される。 As described above, according to the present invention, a technique is provided that allows processing to be performed more conveniently for the target.

本発明の実施形態に係る情報処理システムの構成例を示す図である。1 is a diagram illustrating a configuration example of an information processing system according to an embodiment of the present invention. 対象と位置と感情との紐づけデータテーブルの構成例を示す図である。FIG. 2 is a diagram illustrating an example of a configuration of a data table linking objects, positions, and emotions; 感情とコンテンツとの紐づけデータテーブルの構成例を示す図である。FIG. 3 is a diagram illustrating an example of the configuration of a data table linking emotions and content. オペレータと感情との紐づけデータテーブルの構成例を示す図である。It is a figure which shows the example of a structure of the linking data table of an operator and an emotion. 表示部によって表示されるエリア監視画面の例を示す図である。FIG. 3 is a diagram showing an example of an area monitoring screen displayed by a display unit. 同実施形態に係る情報処理システムの動作例を示すフローチャートである。2 is a flowchart illustrating an example of the operation of the information processing system according to the embodiment. 同実施形態に係る情報処理システムの動作例を示すフローチャートである。2 is a flowchart illustrating an example of the operation of the information processing system according to the embodiment. 同実施形態に係るロボットの例としての情報処理装置のハードウェア構成を示す図である。FIG. 2 is a diagram showing a hardware configuration of an information processing device as an example of a robot according to the embodiment. 走行ルート情報の例を示す図である。It is a figure showing an example of driving route information. マップに表現された現在ルートと代替ルートの例を示す図である。FIG. 3 is a diagram showing an example of a current route and an alternative route expressed on a map. マップに表現された障害物の発見地点の例を示す図である。FIG. 3 is a diagram illustrating an example of obstacle discovery points expressed on a map. ロボットの視線の映像に表現された現在ルートの例を示す図である。FIG. 3 is a diagram illustrating an example of a current route expressed in an image of a robot's line of sight. ロボットの視線の映像に表現されたルート補正候補の例を示す図である。FIG. 6 is a diagram illustrating an example of route correction candidates expressed in a robot's line of sight image. ロボットの視線の映像に表現されたルート補正後の現在ルートの例を示す図である。FIG. 6 is a diagram illustrating an example of a current route after route correction expressed in an image of the robot's line of sight. 迂回可否の識別結果とロボットのアクションとの対応関係の例を示す表である。7 is a table showing an example of the correspondence between the identification result of whether a detour is possible and the action of the robot. ロボットの視線の映像に表現された現在ルートの例を示す図である。FIG. 3 is a diagram illustrating an example of a current route expressed in an image of a robot's line of sight. 自由視点の映像に表現された現在ルートの例を示す図である。FIG. 3 is a diagram illustrating an example of a current route expressed in a free viewpoint video. マップに表現された手動ルートの例を示す図である。FIG. 3 is a diagram showing an example of a manual route expressed on a map. 手動ルートで目標位置に向かって走行するロボットの視線の映像の例を示す図である。FIG. 3 is a diagram illustrating an example of an image of the line of sight of a robot traveling toward a target position along a manual route.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings. Note that, in this specification and the drawings, components having substantially the same functional configurations are designated by the same reference numerals and redundant explanation will be omitted.

また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一の機能構成を有する複数の構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、異なる実施形態の類似する構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。 Further, in this specification and the drawings, a plurality of components having substantially the same functional configuration may be distinguished by attaching different numbers after the same reference numeral. However, if there is no particular need to distinguish between a plurality of components having substantially the same functional configuration, only the same reference numerals are given. Further, similar components in different embodiments may be distinguished by attaching different alphabets after the same reference numerals. However, when it is not necessary to particularly distinguish between similar components of different embodiments, only the same reference numerals are given.

(1.実施形態の詳細)
続いて、本発明の実施形態の詳細について説明する。
(1. Details of embodiment)
Next, details of embodiments of the present invention will be described.

(1-1.システム構成の説明)
図1は、本発明の実施形態に係る情報処理システムの構成例を示す図である。図1に示されるように、情報処理システム1は、ロボット100と、管理センタ160とを備える。ロボット100および管理センタ160は、ネットワークの例としてのIP(Internet Protocol)網150に接続されており、IP網150を介して互いに通信可能に構成されている。
(1-1. Explanation of system configuration)
FIG. 1 is a diagram showing a configuration example of an information processing system according to an embodiment of the present invention. As shown in FIG. 1, the information processing system 1 includes a robot 100 and a management center 160. The robot 100 and the management center 160 are connected to an IP (Internet Protocol) network 150 as an example of a network, and are configured to be able to communicate with each other via the IP network 150.

ここで、ロボットとは、一般に、「人造人間」、「人間に類似した動作や作業を行うもの」、「指示に基づき動作や作業をコンピュータ操作により行う装置」、「自律的な動作や作業をコンピュータ操作により行う装置」、「自動制御によるマニピュレーション機能又は、移動機能をもち、各種の作業をプログラムによって実行でき、産業に使用される機械」(JIS B 0134-1998)、「人間にサービスするロボット」(JIS B 0187:2005)「センサ、知能・制御系、駆動系の3つの要素技術を有する、知能化した機械システム」(経済産業省ロボット政策研究会)、等のように解される。 Here, the term robot generally refers to an "artificial human", "a device that performs actions and tasks similar to those of humans", "a device that performs actions and tasks based on instructions by computer operation", and "a device that performs autonomous actions and tasks". "A device operated by a computer", "A machine that has a manipulation function or a movement function under automatic control, can perform various tasks according to a program, and is used in industry" (JIS B 0134-1998), "A robot that provides services to humans" (JIS B 0187:2005) "An intelligent mechanical system that has the three elemental technologies of sensors, intelligence/control systems, and drive systems" (Robot Policy Study Group of the Ministry of Economy, Trade and Industry).

ロボット100は、対象の感情に応じた処理を実行する機器の一例として機能する。本発明の実施形態では、ロボット100によって感情が考慮される対象が人である場合を主に想定する。しかし、感情が考慮される対象は、人以外の動物(例えば、犬または猫など)であってもよいし、機械(例えば、ロボットなど)であってもよいし、その他の感情推定され得るものであってもよい。また、本発明の実施形態では、ロボット100が1台存在する場合を主に想定する。しかし、ロボット100は、複数台存在していてもよい。 The robot 100 functions as an example of a device that executes processing according to the emotion of a target. In the embodiment of the present invention, it is mainly assumed that the object whose emotions are considered by the robot 100 is a person. However, the object for which emotions are considered may be an animal other than a human (for example, a dog or a cat), a machine (for example, a robot, etc.), or any other object whose emotion can be estimated. It may be. Furthermore, in the embodiment of the present invention, it is mainly assumed that there is one robot 100. However, a plurality of robots 100 may exist.

図1に示されるように、ロボット100は、ネットワーク101、監視部102、通信部103、コミュニケーション部104、人工知能部105、移動部106および制御データベース141を備える。 As shown in FIG. 1, the robot 100 includes a network 101, a monitoring section 102, a communication section 103, a communication section 104, an artificial intelligence section 105, a movement section 106, and a control database 141.

ネットワーク101は、ロボット100の内部の機能ブロック同士の通信を中継する。ネットワーク101の形態は限定されない。例えば、ネットワーク101は、LAN(Local Area Network)やUSB(Universal Serial Bus)などを含んでもよい。ロボット100の内部の機能ブロックは、ネットワーク101上でP2P(Peer to Peer)ネットワークを形成し、機能ブロック同士でP2P通信を行うようにしてもよい。この場合、ロボット100は、各機能ブロック(ノード)のノード情報を管理するノード情報管理部(図示省略)を有し、ノード情報管理部が機能ブロックから要求があった際に接続先のノード情報を与え、機能ブロックがノード情報管理部から与えられたノード情報に基づきP2P接続を行ってP2P通信を行う。ノード情報管理部は、各機能ブロックの起動時に機能ブロック毎のノード名、URI(Uniform Resource Identifier)、通信ポート番号、IPアドレス等の登録を受けると共にノード情報として管理し、例えば、機能ブロックから接続先ノード名で要求を受けると、ノード名でノード情報を参照し、ノード名に対応するURI、通信ポート番号、IPアドレス等をノード情報として要求元の機能ブロックへ与える。 The network 101 relays communication between functional blocks inside the robot 100. The form of network 101 is not limited. For example, the network 101 may include a LAN (Local Area Network), a USB (Universal Serial Bus), and the like. The functional blocks inside the robot 100 may form a P2P (Peer to Peer) network on the network 101, and perform P2P communication between the functional blocks. In this case, the robot 100 has a node information management unit (not shown) that manages node information of each functional block (node), and the node information management unit receives connection destination node information when there is a request from the functional block. is given, and the functional block performs P2P connection and P2P communication based on the node information given from the node information management section. The node information management unit receives the registration of the node name, URI (Uniform Resource Identifier), communication port number, IP address, etc. for each functional block when each functional block is activated, and manages it as node information, for example, when connecting from the functional block. When a request is received using the destination node name, the node information is referred to using the node name, and the URI, communication port number, IP address, etc. corresponding to the node name are provided as node information to the request source functional block.

監視部102は、周囲を監視する機能を有する。本発明の実施形態では、監視部102が、エリア監視カメラ111を含んでおり、エリア監視カメラ111が周囲の映像を撮像する場合を主に想定する。しかし、監視部102は、エリア監視カメラ111の代わりに、または、エリア監視カメラ111に追加して、周囲の音を検出するマイクロフォンを含んでもよいし、周囲の匂いを検出する匂いセンサを含んでもよいし、他のセンサを含んでもよい。 The monitoring unit 102 has a function of monitoring the surroundings. In the embodiment of the present invention, it is mainly assumed that the monitoring unit 102 includes an area monitoring camera 111, and the area monitoring camera 111 captures an image of the surrounding area. However, instead of or in addition to the area monitoring camera 111, the monitoring unit 102 may include a microphone that detects surrounding sounds, or may include an odor sensor that detects surrounding odors. or may include other sensors.

通信部103は、通信インタフェースによって構成されており、IP網150に接続されている。例えば、通信部103は、IP網150を介して管理センタ160との間で通信を行うことが可能である。 The communication unit 103 is configured with a communication interface and is connected to the IP network 150. For example, the communication unit 103 can communicate with the management center 160 via the IP network 150.

コミュニケーション部104は、対象との間でコミュニケーションを行う機能を有する。より詳細に、コミュニケーション部104は、対象からの入力を受ける入力装置と、対象への出力を行う出力装置とを含んでいる。本発明の実施形態では、コミュニケーション部104が、対象からの操作を検出する検出装置および対象に視覚情報を提示するディスプレイが積層されたタッチパネル121と、対象に音(自動音声またはオペレータから発せられた音)を提示するスピーカ122と、対象から発せられた音(例えば、声など)を検出するマイクロフォン123とを含んでいる場合を主に想定する。しかし、コミュニケーション部104が具体的にどのようなデバイスを含んでいるかは限定されない。 The communication unit 104 has a function of communicating with a target. More specifically, the communication unit 104 includes an input device that receives input from a target, and an output device that outputs output to the target. In the embodiment of the present invention, the communication unit 104 includes a touch panel 121 stacked with a detection device that detects an operation from a target and a display that presents visual information to the target, and a touch panel 121 that includes a detection device that detects an operation from a target and a display that presents visual information to the target. It is mainly assumed that the device includes a speaker 122 that presents a sound (sound), and a microphone 123 that detects a sound (such as a voice) emitted from a target. However, there is no limitation as to what kind of devices the communication unit 104 specifically includes.

移動部106は、車輪およびモーターを備えており、人工知能部105による制御に従って、モーターが車輪を回転させることによって床面上を移動する。このように、本発明の実施形態では、ロボット100が床面上を移動可能である場合を主に想定するが、ロボット100は、床面上を移動できなくてもよい。例えば、ロボット100は、人工知能部105による制御に従って、床面上に静止した状態で身体の一部(例えば、頭部など)のみを動かすことが可能であってもよい。また、ロボット100は、空中を移動する飛行物体(ドローン)であってもよく、その場合、移動部106は、プロペラおよびモーターを備えており、人工知能部105による制御に従って、モーターがプロペラを回転させることによって空中を移動する。 The moving unit 106 includes wheels and a motor, and moves on the floor by rotating the wheels by the motor under the control of the artificial intelligence unit 105. As described above, although the embodiment of the present invention mainly assumes a case where the robot 100 can move on the floor, the robot 100 does not need to be able to move on the floor. For example, under the control of the artificial intelligence unit 105, the robot 100 may be able to move only a part of its body (for example, the head) while remaining stationary on the floor. Further, the robot 100 may be a flying object (drone) that moves in the air. In that case, the moving unit 106 is equipped with a propeller and a motor, and the motor rotates the propeller under control by the artificial intelligence unit 105. Move through the air by

人工知能部105は、CPU(Central Processing Unit)などの演算装置を含み、図示しないメモリにより記憶されているプログラムがCPUによりRAM(Random Access Memory)に展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。あるいは、人工知能部105は、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。 The artificial intelligence unit 105 includes an arithmetic unit such as a CPU (Central Processing Unit), and its functions are performed by loading a program stored in a memory (not shown) into a RAM (Random Access Memory) and executing it by the CPU. It can be realized. At this time, a computer-readable recording medium on which the program is recorded may also be provided. Alternatively, the artificial intelligence unit 105 may be configured with dedicated hardware, or may be configured with a combination of multiple pieces of hardware.

より詳細に、人工知能部105は、エリア監視カメラ111による監視結果に基づいて、ロボット100による動作の判断を行う。そして、人工知能部105は、判断結果に基づいて、ロボット100が動作するようにロボット100を制御する。図1に示されるように、人工知能部105は、感情判断部131および行動処理部132を含んでいる。 More specifically, the artificial intelligence unit 105 determines the operation of the robot 100 based on the results of monitoring by the area monitoring camera 111. Then, the artificial intelligence unit 105 controls the robot 100 so that the robot 100 operates based on the determination result. As shown in FIG. 1, the artificial intelligence section 105 includes an emotion judgment section 131 and a behavior processing section 132.

制御データベース141は、対象と位置と感情との紐づけデータテーブル142(図2)、および、感情とコンテンツとの紐づけデータテーブル143(図3)を有する。なお、制御データベース141は、記憶装置に格納されている。ここで、記憶装置は、ロボット100の動作を制御するためのプログラムを記憶している。また、記憶装置は、(制御データベース141やノード情報管理部が管理するノード情報を含む)各種のデータを記憶する。当該プログラムには、OS(Operating System)およびアプリケーションなどが含まれる。 The control database 141 has a data table 142 (FIG. 2) linking objects, positions, and emotions, and a data table 143 (FIG. 3) linking emotions and content. Note that the control database 141 is stored in a storage device. Here, the storage device stores a program for controlling the operation of the robot 100. The storage device also stores various data (including the control database 141 and node information managed by the node information management unit). The program includes an OS (Operating System), an application, and the like.

感情判断部131は、エリア監視カメラ111によって撮像された映像に基づいて、映像に写る対象の位置を検出する。本発明の実施形態では、感情判断部131によって検出される対象が1つである場合を主に想定する。しかし、感情判断部131によって検出される対象は、複数であってもよい。そして、感情判断部131は、検出した対象の感情を識別する。 Based on the video captured by the area monitoring camera 111, the emotion determining unit 131 detects the position of the object shown in the video. In the embodiment of the present invention, a case is mainly assumed in which the number of objects detected by the emotion determining unit 131 is one. However, the emotion determining unit 131 may detect a plurality of objects. Then, the emotion determining unit 131 identifies the detected emotion of the target.

本発明の実施形態では、感情判断部131が、対象の感情の例として、対象の各種類の感情(興味、困り、焦り、泣き、敵意、視線それぞれの感情)を識別する場合を主に想定する。特に、敵意の感情は、怒りの感情なども含み得る。また、泣きの感情は、哀しみの感情を含み得る。さらに、視線の感情は、何かを見たいという感情に相当し得る。しかし、感情判断部131によって識別される感情の種類はこれらに限定されない。より詳細に、感情判断部131は、各種類の感情の値(感情値)を算出する。 In the embodiment of the present invention, it is mainly assumed that the emotion determining unit 131 identifies various types of emotions of the target (emotions of interest, trouble, impatience, crying, hostility, and gaze) as examples of the target's emotions. do. In particular, feelings of hostility may include feelings of anger. Moreover, the emotion of crying may include the emotion of sadness. Furthermore, the emotion of gaze can correspond to the emotion of wanting to see something. However, the types of emotions identified by the emotion determining unit 131 are not limited to these. More specifically, the emotion determining unit 131 calculates the value of each type of emotion (emotion value).

感情判断部131は、検出した対象それぞれに対して対象IDを付与するとともに、検出した対象それぞれの処理順序を算出し(処理順序を導出し)、付与した対象IDと対象の位置と識別した各種類の感情値と処理順序とを制御データベース141の対象と位置と感情との紐づけデータテーブル142(図2)に登録する。処理順序については後に詳細に説明する。 The emotion determining unit 131 assigns a target ID to each detected target, calculates the processing order for each detected target (derives the processing order), and assigns the assigned target ID and the position of the target to each identified target. The emotion value of the type and the processing order are registered in the object-position-emotion association data table 142 (FIG. 2) of the control database 141. The processing order will be explained in detail later.

図2は、対象と位置と感情との紐づけデータテーブル142の構成例を示す図である。図2に示されるように、対象と位置と感情との紐づけデータテーブル142は、「対象ID」と、対象の「位置」と、「興味」、「困り」、「焦り」、「泣き」、「敵意」、「視線」それぞれの感情値と、「順序」とが対応付けられてなる。 FIG. 2 is a diagram showing a configuration example of a data table 142 linking objects, positions, and emotions. As shown in FIG. 2, the data table 142 linking objects, positions, and emotions includes "object ID," "position," "interest," "trouble," "impatient," and "crying." , "hostility", and "gaze" are associated with their emotional values and "order."

「対象ID」は、対象を一意に識別するための情報である。対象の「位置」は、対象の三次元位置である。図2に示された例では、対象の三次元位置がX座標とY座標とZ座標との組み合わせによって表現されている。しかし、対象の三次元位置は、かかる形式に限定されない。また、各感情値は、大きいほど当該種類の感情が強いことを示す。図2に示された例では、感情値の最小値が「0」であり、感情値の最大値が「100」である場合を想定する。しかし、感情値の最小値および最大値は、これらに限定されない。 “Target ID” is information for uniquely identifying a target. The "position" of an object is the three-dimensional position of the object. In the example shown in FIG. 2, the three-dimensional position of the object is expressed by a combination of X, Y, and Z coordinates. However, the three-dimensional position of the object is not limited to this format. Furthermore, the larger each emotion value is, the stronger the emotion of the type is. In the example shown in FIG. 2, it is assumed that the minimum emotional value is "0" and the maximum emotional value is "100". However, the minimum and maximum emotional values are not limited to these values.

特に、「視線」の感情値は、ロボット100に対する対象の視線の強さを示す。ここで、視線の強さは、感情判断部131によって視線とロボット100との位置関係に基づいて識別されてよい。より詳細に、本発明の実施形態では、視線の強さが、対象によってロボット100に視線が連続して当てられている時間である場合を主に想定する。しかし、視線の強さは、かかる例に限定されない。例えば、視線の強さは、対象の視線方向と対象からロボット100への方向とのなす角度に関する値であってもよいし、対象の位置とロボット100の位置との距離に関する値であってもよい。 In particular, the emotional value of "gaze" indicates the strength of the target's gaze toward the robot 100. Here, the strength of the gaze may be identified by the emotion determining unit 131 based on the positional relationship between the gaze and the robot 100. More specifically, in the embodiments of the present invention, it is mainly assumed that the strength of the line of sight is the amount of time that the target continuously looks at the robot 100 . However, the strength of the gaze is not limited to this example. For example, the strength of the line of sight may be a value related to the angle between the line of sight direction of the target and the direction from the target to the robot 100, or a value related to the distance between the position of the target and the position of the robot 100. good.

例えば、対象の視線方向と対象からロボット100への方向とのなす角度が小さいほど、対象がロボット100に強く視線を向けていると言える。そこで、感情判断部131は、対象の視線方向と対象からロボット100への方向とのなす角度が小さいほど、「視線」の感情値を大きく算出してもよい。あるいは、対象の位置とロボット100の位置との距離が小さいほど、対象がロボット100に視線を強く向けていると言える。そこで、感情判断部131は、対象からロボット100までの距離が小さいほど、「視線」の感情値を大きく算出してもよい。 For example, it can be said that the smaller the angle between the direction of the target's line of sight and the direction from the target to the robot 100, the more strongly the target is directing its line of sight toward the robot 100. Therefore, the emotion determining unit 131 may calculate the emotion value of the "gaze" to be larger as the angle between the direction of the target's line of sight and the direction from the target toward the robot 100 is smaller. Alternatively, it can be said that the smaller the distance between the position of the target and the position of the robot 100, the stronger the target is directing its line of sight toward the robot 100. Therefore, the emotion determining unit 131 may calculate the emotion value of the "gaze" to be larger as the distance from the object to the robot 100 is smaller.

「順序」は、ロボット100による処理順序を示している。本発明の実施形態では、処理順序が、全部または一部の感情値の合計値の大きい順である場合を主に想定する。図2には、全部の感情値の合計値が最も大きい対象(対象ID=30003)の処理順序が最も早く(「順序」=1)、合計値が次に大きい対象(対象ID=20002)の処理順序が次に早く(「順序」=2)、合計値が最も小さい対象(対象ID=10001)の処理順序が最も遅い例が示されている(「順序」=3)。しかし、処理順序は、かかる例に限定されない。例えば、処理順序は、いずれかの一つの感情値が大きい順であってもよい。 “Order” indicates the processing order by the robot 100. In the embodiment of the present invention, it is mainly assumed that the processing order is in descending order of the total value of all or part of the emotional values. In Figure 2, the object with the highest total emotional value (object ID = 30003) has the fastest processing order (“order” = 1), and the object with the next highest total value (object ID = 20002) has the highest processing order (“order” = 1). An example is shown in which the processing order is the next earliest ("order" = 2) and the processing order of the object with the smallest total value (object ID = 10001) is the latest ("order" = 3). However, the processing order is not limited to this example. For example, the processing order may be in descending order of the emotional value of any one.

行動処理部132は、感情判断部131によって識別された感情に対応した処理を行う。かかる構成によれば、対象にとってより利便性の高い処理がロボット100によって行われ得る。ここでは、行動処理部132が、処理順序が最も早い(最高値の)処理のみを実行する場合を想定する。しかし、行動処理部132は、処理順序が早い順に所定数の処理のみを実行してもよいし、処理順序が早い順に全部の処理を実行してもよい。 The behavior processing unit 132 performs processing corresponding to the emotion identified by the emotion determination unit 131. According to this configuration, the robot 100 can perform processing that is more convenient for the target. Here, it is assumed that the behavior processing unit 132 executes only the process with the earliest processing order (highest value). However, the behavior processing unit 132 may execute only a predetermined number of processes in order of earliest processing order, or may execute all processes in order of earliest processing order.

例えば、行動処理部132は、感情判断部131によって識別された感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、オペレータの操作端末164に通報されるように通信部103を制御する。通信部103は、行動処理部132による制御に従って管理センタ160に通報する。かかる構成によれば、オペレータが敵意の感情を持つ対象を早期に監視することが可能になるという効果が享受される。 For example, the behavior processing unit 132 may notify the operator's operation terminal 164 if there is a target whose emotion value of hostility among the emotions identified by the emotion determination unit 131 is equal to or higher than a first threshold. The communication unit 103 is controlled accordingly. The communication unit 103 reports to the management center 160 under the control of the behavior processing unit 132. According to such a configuration, an advantageous effect is obtained in that the operator can quickly monitor a target with which he feels hostile.

ここで、通報を受ける操作端末164は、あらかじめ決められていてもよいし、そのときの状況に応じて決められてもよい(例えば、空いているオペレータの操作端末164が通報を受けてもよい)。このとき、行動処理部132は、通報とともにエリア監視カメラ111によって撮像された映像と敵意の感情を持つ対象の位置とが操作端末164に送信されるように通信部103を制御する。 Here, the operating terminal 164 that receives the notification may be determined in advance or may be determined depending on the situation at that time (for example, the operating terminal 164 of an available operator may receive the notification. ). At this time, the behavior processing unit 132 controls the communication unit 103 so that the video captured by the area monitoring camera 111 and the position of the object with hostile feelings are transmitted to the operating terminal 164 along with the report.

また、行動処理部132は、感情判断部131によって識別された感情のうちの視線の感情値が第2の閾値以上である対象が存在する場合には(例えば、敵意の感情値が第1の閾値未満である場合、かつ、視線の感情値が第2の閾値以上である場合には)、ロボット100によって当該対象の位置に基づく所定の動作がなされるようにロボット100を制御する。かかる構成によれば、ロボット100によって対象の存在が認識されたことを早期に対象に知らせることが可能になるという効果が享受される。 In addition, if there is a target whose gaze emotion value among the emotions identified by the emotion judgment unit 131 is equal to or higher than the second threshold (for example, if the emotion value of hostility is the first If the emotional value of the line of sight is less than the threshold and the emotional value of the line of sight is greater than or equal to the second threshold, the robot 100 is controlled so that the robot 100 performs a predetermined action based on the position of the target. According to this configuration, it is possible to quickly notify the target that the robot 100 has recognized the existence of the target.

対象の位置に基づく所定の動作は、特定の動作に限定されない。例えば、対象の位置に基づく所定の動作は、ロボット100が当該対象にロボット100の頭部の正面(例えば、顔など)を見せるように頭部を動かす動作であってもよいし、ロボット100が当該対象にロボット100の胴体の正面(例えば、腹など)を見せるように胴体を動かす動作であってもよいし、タッチパネル121を当該対象に近づける動作であってもよいし、他の動作であってもよい。 The predetermined motion based on the position of the target is not limited to a specific motion. For example, the predetermined action based on the position of the target may be an action in which the robot 100 moves its head so that the front side of the head of the robot 100 (for example, the face) is shown to the target, or an action in which the robot 100 It may be an action of moving the body of the robot 100 so that the front side (for example, the belly) of the body of the robot 100 is shown to the subject, an action of bringing the touch panel 121 closer to the subject, or any other motion. It's okay.

また、行動処理部132は、(例えば、敵意の感情値が第1の閾値未満である場合、かつ、視線の感情値が第2の閾値未満である場合には)感情判断部131によって識別された感情と、あらかじめ用意された感情とコンテンツとの紐づけデータテーブル143とに基づいて、処理を決定し得る。 Furthermore, the behavior processing unit 132 is identified by the emotion determination unit 131 (for example, when the emotion value of hostility is less than a first threshold and the emotion value of gaze is less than a second threshold). The process can be determined based on the emotion and the emotion-content association data table 143 prepared in advance.

図3は、感情とコンテンツとの紐づけデータテーブル143の構成例を示す図である。図3に示されるように、感情とコンテンツとの紐づけデータテーブル143は、「興味の閾値」と、「困りの閾値」と、「焦りの閾値」と、「泣きの閾値」と、コンテンツとが対応付けられてなる。行動処理部132は、感情判断部131によって識別された各感情(興味、困り、焦り、泣き)の値が、対応する閾値以上である場合に、対応するコンテンツが出力されるように制御する。 FIG. 3 is a diagram showing a configuration example of the emotion-content association data table 143. As shown in FIG. 3, the emotion-content association data table 143 includes information such as "threshold of interest", "threshold of trouble", "threshold of impatience", "threshold of crying", and content. are associated with each other. The behavior processing unit 132 controls so that the corresponding content is output when the value of each emotion (interest, trouble, impatience, crying) identified by the emotion determination unit 131 is equal to or greater than the corresponding threshold value.

なお、コンテンツは、HTML(HyperText Markup Language)、XML(Extensible Markup Language)、CSS(Cascading Style Sheets)またはJSON(JavaScript(登録商標) Object Notation)などの形式による記述を組み合わせて形成されればよい。また、コンテンツは、文字、動画像、音などを含むよう形成されてもよい。また、コンテンツとしてコンテンツに係る資源の場所を表すURL(Uniform Resource Locator)を設定し、URLに基づきコンテンツが取得され、コンテンツが出力されるように制御してもよい。また、図3に示された例は、感情とコンテンツとの紐づけの一例に過ぎないため、感情とコンテンツとの紐づけは、図3に示された例に限定されない。 The content may be HTML (HyperText Markup Language), XML (Extensible Markup Language), CSS (Cascading Style Sheets), or JSON (JavaScript (registered trademark) Ob It may be formed by combining descriptions in a format such as eject Notation). Furthermore, the content may be formed to include characters, moving images, sounds, and the like. Alternatively, a URL (Uniform Resource Locator) indicating the location of a resource related to the content may be set as the content, and the content may be controlled to be acquired and output based on the URL. Further, since the example shown in FIG. 3 is only an example of the association between emotions and content, the association between emotions and content is not limited to the example shown in FIG. 3.

図3に示された例では、コンテンツの例として、メッセージと、音声と、センタ接続とが挙げられている。ただし、図3に示された例は、感情とコンテンツとの紐づけの一例に過ぎない。行動処理部132は、感情判断部131によって識別された興味の感情値が「興味の閾値」以上である場合には、コンテンツの例としてのメッセージ「〇〇にご興味はお有りですか」がタッチパネル121によって表示されるようにタッチパネル121を制御する。かかる構成によれば、オペレータが容易に対象とコミュニケーションを取ることが可能になるという効果が享受される。具体的なメッセージの内容は限定されない。 In the example shown in FIG. 3, messages, audio, and center connection are listed as examples of content. However, the example shown in FIG. 3 is only an example of linking emotions and content. If the emotion value of the interest identified by the emotion determination unit 131 is equal to or higher than the “interest threshold,” the behavior processing unit 132 displays the message “Are you interested in 〇〇” as an example of the content on the touch panel? The touch panel 121 is controlled so as to be displayed by the touch panel 121. According to such a configuration, the effect that the operator can easily communicate with the target can be enjoyed. The specific content of the message is not limited.

さらに、行動処理部132は、感情判断部131によって識別された感情のうちのある感情(第1の感情)の感情値がロボット100を対象に接近させる必要のある条件(第1の条件)を満たす場合には、ロボット100が対象に接近するように移動部106を制御してもよい。かかる構成によれば、ロボット100が対象とコミュニケーションを取り始めるまでの時間を短縮することが可能になるという効果が享受される。 Furthermore, the behavior processing unit 132 determines a condition (first condition) under which the emotion value of a certain emotion (first emotion) among the emotions identified by the emotion determination unit 131 requires the robot 100 to approach the target. If the conditions are satisfied, the moving unit 106 may be controlled so that the robot 100 approaches the target. According to this configuration, it is possible to enjoy the effect that it becomes possible to shorten the time until the robot 100 starts communicating with the target.

ロボット100を対象に接近させる必要のある条件は、興味の感情値が「興味の閾値」以上であるという条件であってもよい。あるいは、ロボット100を対象に接近させる必要のある条件は、他の感情値(例えば、困り、焦り、または、泣きの感情値)が対応する閾値以上であるという条件であってもよい。 The condition that requires the robot 100 to approach the target may be that the emotion value of interest is equal to or higher than an "interest threshold." Alternatively, the condition that requires the robot 100 to approach the target may be a condition that another emotional value (for example, an emotional value of trouble, impatience, or crying) is equal to or higher than a corresponding threshold value.

行動処理部132は、対象の視線が当たる位置に(あるいは、対象の視界にロボット100が入るように)ロボット100を対象に接近させてもよい。また、ロボット100の対象への接近は、毎回同じように行われてもよいし、状況に応じて異なるように行われてもよい。例えば、ロボット100を対象に接近させるスピード(ロボット100の移動スピード)は、毎回同じであってもよいし、対象の感情のうちのある感情値または対象の性別などに基づいて、変化してもよい。あるいは、ロボット100を対象に接近させる経路も、毎回同じであってもよいし、対象の感情のうちのある感情値または対象の性別などに基づいて、変化してもよい。 The behavior processing unit 132 may cause the robot 100 to approach the target at a position where the target's line of sight falls (or so that the robot 100 enters the target's field of view). Furthermore, the robot 100 may approach the target in the same way each time, or may approach the target differently depending on the situation. For example, the speed at which the robot 100 approaches the target (the moving speed of the robot 100) may be the same each time, or may vary based on a certain emotional value of the target's emotions or the gender of the target. good. Alternatively, the route by which the robot 100 approaches the target may be the same each time, or may be changed based on a certain emotional value of the target's emotions, the gender of the target, or the like.

また、行動処理部132は、感情判断部131によって識別された困りの感情値が「困りの閾値」以上である場合には、コンテンツの例としてのメッセージ「どうなされましたか」がタッチパネル121によって表示されるようにタッチパネル121を制御するとともに、コンテンツの例としての動作「管理センタのオペレータの操作端末への接続」が通信部103によって行われるように通信部103を制御する。通信部103は、行動処理部132による制御に従って、管理センタ160に接続要求を送信する。接続要求には、各感情値が含まれてよい。ただし、オペレータの操作端末164に接続されるための条件は、かかる例に限定されない。 Further, if the emotional value of trouble identified by the emotion determining unit 131 is equal to or higher than the "troubled threshold", the behavior processing unit 132 displays a message "What did you do" as an example of the content on the touch panel 121. The communication unit 103 is controlled so that the communication unit 103 performs the operation “connection to the operation terminal of the operator of the management center” as an example of the content. The communication unit 103 transmits a connection request to the management center 160 under the control of the behavior processing unit 132. The connection request may include each emotion value. However, the conditions for connection to the operator's operation terminal 164 are not limited to this example.

すなわち、行動処理部132は、感情判断部131によって識別された感情のうちのある感情(第2の感情)の感情値が管理センタ160で対応する必要がある条件(第2の条件)を満たす場合には、当該条件に対応するコンテンツが表示されるようにタッチパネル121を制御するとともに、ロボット100とオペレータの操作端末164とが接続されるように通信部103を制御すればよい。かかる構成によれば、オペレータが早期に対象の状態を確認できるという効果が享受される。 That is, the behavior processing unit 132 satisfies the condition (second condition) that the emotional value of a certain emotion (second emotion) among the emotions identified by the emotion determining unit 131 needs to be handled by the management center 160. In this case, the touch panel 121 may be controlled so that the content corresponding to the condition is displayed, and the communication unit 103 may be controlled so that the robot 100 and the operator's operation terminal 164 are connected. According to such a configuration, the operator can enjoy the effect of being able to check the state of the target at an early stage.

このとき、管理センタ160で対応する必要がある条件は、他の感情値(例えば、興味、焦り、または、泣きの感情値)が閾値以上であるという条件であってよい。後に説明するように、オペレータは、管理センタ160において選択されればよい。ロボット100とオペレータの操作端末164とが接続された後は、行動処理部132は、操作端末164から受信されたオペレータによって発せられた音声が出力されるようにスピーカ122を制御するとともに、エリア監視カメラ111によって撮像された映像が操作端末164に送信されるように通信部103を制御する。 At this time, the condition that needs to be handled by the management center 160 may be a condition that another emotional value (for example, an emotional value of interest, impatience, or crying) is equal to or higher than a threshold value. As will be explained later, the operator may be selected at the management center 160. After the robot 100 and the operator's operation terminal 164 are connected, the behavior processing unit 132 controls the speaker 122 so that the voice emitted by the operator received from the operation terminal 164 is output, and also controls the area monitoring. The communication unit 103 is controlled so that the video imaged by the camera 111 is transmitted to the operation terminal 164.

また、行動処理部132は、感情判断部131によって識別された焦りの感情値が「焦りの閾値」以上である場合には、コンテンツの例としてのメッセージ「何かお探しですか」がタッチパネル121によって表示されるようにタッチパネル121を制御する。かかる構成によれば、オペレータが容易に対象とコミュニケーションを取ることが可能になるという効果が享受される。具体的なメッセージの内容は限定されない。 In addition, when the emotion value of impatience identified by the emotion determination unit 131 is equal to or higher than the “impatient threshold,” the behavior processing unit 132 displays the message “Are you looking for something” as an example of the content on the touch panel 121? The touch panel 121 is controlled so as to be displayed. According to such a configuration, the effect that the operator can easily communicate with the target can be enjoyed. The specific content of the message is not limited.

また、行動処理部132は、感情判断部131によって識別された泣きの感情値が「泣きの閾値」以上である場合には、コンテンツの例としての音声(音楽)がスピーカ122によって出力されるようにスピーカ122を制御する。かかる構成によれば、オペレータが容易に対象とコミュニケーションを取ることが可能になるという効果が享受される。具体的な音声の内容は限定されない。 Further, the behavior processing unit 132 causes the speaker 122 to output audio (music) as an example of content when the emotional value of crying identified by the emotion determining unit 131 is equal to or higher than the “crying threshold”. The speaker 122 is controlled to. According to such a configuration, the effect that the operator can easily communicate with the target can be enjoyed. The specific content of the audio is not limited.

管理センタ160は、ロボット100を遠隔から管理する。本発明の実施形態では、管理センタ160によって1台のロボット100が管理される場合を主に想定する。しかし、管理センタ160によって複数台のロボット100が管理されてもよい。図1に示されるように、管理センタ160は、ゲートウェイ装置161、ネットワーク162、コミュニケーション部163、管理データベース165、および、複数の操作端末164を備える。 The management center 160 remotely manages the robot 100. In the embodiment of the present invention, it is mainly assumed that one robot 100 is managed by the management center 160. However, multiple robots 100 may be managed by the management center 160. As shown in FIG. 1, the management center 160 includes a gateway device 161, a network 162, a communication section 163, a management database 165, and a plurality of operation terminals 164.

ゲートウェイ装置161は、IP網150に接続されている。例えば、ゲートウェイ装置161は、IP網150を介してロボット100との間で通信を行うことが可能である。より詳細には、ゲートウェイ装置161は、タッチパネル121によって検出された操作、マイクロフォン123によって検出された音、接続要求、エリア監視カメラ111によって撮像された映像、対象の位置、対象の感情などを受信し、オペレータから発せられた音(例えば、声など)をロボット100に送信する。 Gateway device 161 is connected to IP network 150. For example, the gateway device 161 can communicate with the robot 100 via the IP network 150. More specifically, the gateway device 161 receives an operation detected by the touch panel 121, a sound detected by the microphone 123, a connection request, an image captured by the area monitoring camera 111, a target position, a target emotion, etc. , transmits the sound (eg, voice, etc.) emitted by the operator to the robot 100.

ネットワーク162は、管理センタ160の内部の機能ブロック同士の通信を中継する。ネットワーク162の形態は限定されない。例えば、ネットワーク162は、LAN(Local Area Network)などを含んでもよい。 The network 162 relays communication between functional blocks within the management center 160. The form of network 162 is not limited. For example, the network 162 may include a LAN (Local Area Network).

管理データベース165は、オペレータと感情との紐づけデータテーブル166(図4)を有する。なお、管理データベース165は、記憶装置に格納されている。ここで、記憶装置は、管理センタ160の動作を制御するためのプログラムを記憶している。また、記憶装置は、(管理データベース165を含む)各種のデータを記憶する。当該プログラムには、OS(Operating System)およびアプリケーションなどが含まれる。 The management database 165 has a data table 166 (FIG. 4) that associates operators with emotions. Note that the management database 165 is stored in a storage device. Here, the storage device stores a program for controlling the operation of the management center 160. The storage device also stores various data (including the management database 165). The program includes an OS (Operating System), an application, and the like.

コミュニケーション部163は、接続制御部171を備える。コミュニケーション部163は、ロボット100から送信された通報がゲートウェイ装置161によって受信された場合、操作端末164に通報を送信する。上記したように、通報を受ける操作端末164は、あらかじめ決められていてもよいし、そのときの状況に応じて決められてもよい。 The communication section 163 includes a connection control section 171. When the gateway device 161 receives the notification sent from the robot 100, the communication unit 163 sends the notification to the operation terminal 164. As described above, the operating terminal 164 that receives the report may be determined in advance, or may be determined depending on the situation at that time.

一方、コミュニケーション部163は、ロボット100から送信された接続要求がゲートウェイ装置161によって受信された場合、接続要求に基づいてオペレータを選択する。図4は、オペレータと感情との紐づけデータテーブル166の構成例を示す図である。図4に示されるように、オペレータと感情との紐づけデータテーブル166は、「オペレータID」と「興味の閾値」、「困りの閾値」、「焦りの閾値」、「泣きの閾値」とが対応付けられてなる。 On the other hand, when the gateway device 161 receives a connection request transmitted from the robot 100, the communication unit 163 selects an operator based on the connection request. FIG. 4 is a diagram showing an example of the configuration of the data table 166 linking operators and emotions. As shown in FIG. 4, the operator-emotion association data table 166 includes "operator ID", "interest threshold", "trouble threshold", "impatient threshold", and "crying threshold". It becomes associated.

「オペレータID」は、オペレータを一意に識別するための情報である。 "Operator ID" is information for uniquely identifying an operator.

「興味の閾値」は、興味の感情値の閾値である。同様に、「困りの閾値」は、困りの感情値の閾値であり、「焦りの閾値」は、焦りの感情値の閾値であり、「泣きの閾値」は、泣きの感情値の閾値である。なお、オペレータに閾値が対応付けられる感情の種類は、これらに限定されない。ここでは、感情値の最小値が「0」である場合を想定しているため、図4に示された例では、オペレータID「aaa」には、興味の閾値「50」のみが実質的に対応付けられ、オペレータID「bbb」には、困りの閾値「50」のみが実質的に対応付けられ、オペレータID「ccc」には、焦りの閾値「50」および泣きの閾値のみが実質的に対応付けられている。 The “threshold of interest” is the threshold of the emotional value of interest. Similarly, the "threshold of trouble" is the threshold of the emotional value of trouble, the "threshold of impatience" is the threshold of the emotional value of impatience, and the "threshold of crying" is the threshold of the emotional value of crying. . Note that the types of emotions with which operators are associated with thresholds are not limited to these. Here, it is assumed that the minimum emotional value is "0", so in the example shown in FIG. 4, the operator ID "aaa" has only the interest threshold "50". The operator ID "bbb" is substantially associated with only the distress threshold "50", and the operator ID "ccc" is substantially associated with only the impatience threshold "50" and the crying threshold. are associated.

コミュニケーション部163は、接続要求に含まれる各感情値のうちのある感情(第3の感情)の感情値に基づいてオペレータを選択する。かかる構成によれば、対象の感情に適したオペレータが選択され得る。ここでは、興味、困り、焦り、および、泣きそれぞれの感情値が接続要求に含まれる場合を想定する。コミュニケーション部163は、興味、困り、焦り、および、泣きそれぞれの感情値が、オペレータと感情との紐づけデータテーブル166の対応する閾値以上であるオペレータIDが存在する場合に、当該オペレータID(オペレータ)を選択すればよい。 The communication unit 163 selects an operator based on the emotional value of a certain emotion (third emotion) among the emotional values included in the connection request. According to this configuration, an operator suitable for the target emotion can be selected. Here, it is assumed that the connection request includes emotional values of interest, trouble, impatience, and crying. If there is an operator ID whose emotional values for interest, trouble, impatience, and crying are equal to or higher than the corresponding threshold values in the operator-emotion association data table 166, the communication unit 163 stores the operator ID (operator ).

コミュニケーション部163は、オペレータを選択すると、接続制御部171によってロボット100とオペレータの操作端末164との接続制御を行う。例えば、接続制御部171による接続制御は、WebRTC(Web Real-Time Communication)によって実現されてもよい。ロボット100と操作端末164とが接続されると、ロボット100と操作端末164との間の通信が開始される(対象とオペレータとの間のコミュニケーションが開始される)。 When the communication unit 163 selects an operator, the communication unit 163 controls the connection between the robot 100 and the operator's operating terminal 164 using the connection control unit 171. For example, the connection control by the connection control unit 171 may be realized by WebRTC (Web Real-Time Communication). When the robot 100 and the operating terminal 164 are connected, communication between the robot 100 and the operating terminal 164 is started (communication between the target and the operator is started).

操作端末164は、図示しない制御部を備える。制御部は、CPU(Central Processing Unit)などの演算装置を含み、図示しないメモリにより記憶されているプログラムがCPUによりRAM(Random Access Memory)に展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。あるいは、制御部は、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。 The operation terminal 164 includes a control section (not shown). The control unit includes an arithmetic unit such as a CPU (Central Processing Unit), and its functions are realized by loading a program stored in a memory (not shown) into a RAM (Random Access Memory) and executing it by the CPU. obtain. At this time, a computer-readable recording medium on which the program is recorded may also be provided. Alternatively, the control unit may be configured by dedicated hardware or a combination of multiple pieces of hardware.

操作端末164は、通信部181、操作部182、および、表示部183を有する。通信部181は、通信インタフェースによって構成されており、IP網150に接続されている。例えば、通信部181は、IP網150を介してロボット100との間で通信を行うことが可能である。操作部182は、オペレータからの操作(例えば、コミュニケーション開始操作など)を検出する。 The operation terminal 164 includes a communication section 181, an operation section 182, and a display section 183. The communication unit 181 is configured with a communication interface and is connected to the IP network 150. For example, the communication unit 181 can communicate with the robot 100 via the IP network 150. The operation unit 182 detects an operation from an operator (for example, an operation to start communication, etc.).

表示部183は、通信部181によって通報が受信されると、エリア監視カメラ111によって撮像された映像を表示する。これによって、オペレータは、敵意の感情を持つ対象を早期に監視することが可能になるという効果が享受される。 When the communication unit 181 receives the report, the display unit 183 displays the image captured by the area monitoring camera 111. This provides the operator with the advantage of being able to quickly monitor targets with hostile feelings.

一方、操作端末164とロボット100との接続がなされると、表示部183は、エリア監視カメラ111によって撮像された映像と対象の位置とに基づいて、対象が拡大された映像(拡大映像)を表示する。また、表示部183は、対象の各感情値を表示する。 On the other hand, when the operation terminal 164 and the robot 100 are connected, the display unit 183 displays an enlarged image of the object (enlarged image) based on the image captured by the area monitoring camera 111 and the position of the object. indicate. Furthermore, the display unit 183 displays each emotion value of the target.

図5は、表示部183によって表示されるエリア監視画面185の例を示す図である。図5に示されたように、一例として、表示部183は、エリア監視画面185を表示する。エリア監視画面185には、対象301の拡大映像が含まれており、当該拡大映像には、(ロボット100に相当する)ロボット100も写っている。ロボット100は、拡大映像の中央に位置してもよい。なお、ロボット100は、既に説明したように移動部106およびタッチパネル121を備える他、エリア監視カメラ111の例としてのカメラ111a~111dを備える。本発明の実施形態では、カメラ111a~111dそれぞれによって撮像された映像に基づいて、エリア監視画面185に表示されているような自由視点の映像(ロボット100の俯瞰映像(当該ロボット100周辺の自由視点映像であって当該ロボット100を斜め上方向から俯瞰した映像)に、ロボット100をかたどったグラフィック(いわゆるアバター画像)をレンダリングした、いわゆるフライングビュー(登録商標)の映像)が形成(レンダリング)されてもよい。自由視点の映像を形成する処理については、例えば、参考文献1(沖電気工業株式会社 駒井 英敬著,「フライングビュー」,[Online],INTERNET,[2019年10月8日検索],<URL:https://www.oki.com/jp/iot/doc/2018/img/ceatec/ceatec_flyingview.pdf>の記載技術を適用するようにしてもよい。カメラの個数および取り付け位置などは限定されない。対象301の近傍には、対象301のIDと各感情値が表示されている。オペレータは、このようにして表示部183によって表示されたエリア監視画面185を見ることができる。 FIG. 5 is a diagram showing an example of the area monitoring screen 185 displayed by the display unit 183. As shown in FIG. 5, as an example, the display unit 183 displays an area monitoring screen 185. The area monitoring screen 185 includes an enlarged image of the target 301, and the robot 100 (corresponding to the robot 100) is also included in the enlarged image. The robot 100 may be located at the center of the enlarged image. Note that the robot 100 includes the moving unit 106 and the touch panel 121 as described above, and also includes cameras 111a to 111d as examples of the area monitoring camera 111. In the embodiment of the present invention, a free viewpoint video (an overhead video of the robot 100 (a free viewpoint around the robot 100) as displayed on the area monitoring screen 185 is based on the video captured by each of the cameras 111a to 111d. A so-called Flying View (registered trademark) image) is formed (rendered) in which a graphic in the shape of the robot 100 (a so-called avatar image) is rendered on the image (an image in which the robot 100 is viewed diagonally from above). Good too. Regarding the process of forming a free viewpoint image, for example, see Reference 1 (Oki Electric Industry Co., Ltd., Hidetaka Komai, "Flying View", [Online], INTERNET, [Retrieved October 8, 2019], <URL: You may apply the technology described in https://www.oki.com/jp/iot/doc/2018/img/ceatec/ceatec_flyingview.pdf>.The number of cameras and mounting positions are not limited.Target The ID of the target 301 and each emotional value are displayed near the area 301. The operator can view the area monitoring screen 185 displayed on the display unit 183 in this manner.

なお、操作端末164は、操作部182によってオペレータからのコミュニケーション開始操作が検出され、オペレータから発せられた音(例えば、声など)が操作端末164によって検出されると、オペレータから発せられた音がゲートウェイ装置161を介してロボット100に送信されるようにゲートウェイ装置161を制御する。これによって、対象は、オペレータから発せられた音を聴くことができる。一方、操作端末164は、対象から発せられた音がロボット100のマイクロフォン123によって検出された場合、対象から発せられた音を出力する。これによって、オペレータは、対象から発せられた音を聴くことができる。 Note that when the operation unit 182 detects a communication start operation from the operator and the operation terminal 164 detects a sound (for example, a voice) emitted by the operator, the operation terminal 164 detects the sound emitted by the operator. The gateway device 161 is controlled so that the information is transmitted to the robot 100 via the gateway device 161. This allows the subject to hear the sounds emitted by the operator. On the other hand, when the sound emitted from the object is detected by the microphone 123 of the robot 100, the operation terminal 164 outputs the sound emitted from the object. This allows the operator to hear the sound emitted by the object.

以上、本発明の実施形態に係る情報処理システム1の構成について説明した。 The configuration of the information processing system 1 according to the embodiment of the present invention has been described above.

(1-2.システムの動作)
続いて、本発明の実施形態に係る情報処理システム1の動作について説明する。図6および図7は、本発明の実施形態に係る情報処理システム1の動作例を示すフローチャートである。なお、情報処理システム1の構成について、上記のように詳細に説明したため、ここでの情報処理システム1の動作の説明は、情報処理システム1の構成の説明よりも、簡略化して行う。
(1-2. System operation)
Next, the operation of the information processing system 1 according to the embodiment of the present invention will be described. 6 and 7 are flowcharts illustrating an example of the operation of the information processing system 1 according to the embodiment of the present invention. Note that, since the configuration of the information processing system 1 has been described in detail as above, the operation of the information processing system 1 will be explained here in a simpler manner than the explanation of the configuration of the information processing system 1.

まず、図6に示されるように、ロボット100のエリア監視カメラ111は、周囲を撮像することによって映像を得る(S201)。次に、ロボット100の感情判断部131は、エリア監視カメラ111によって得られた映像に基づいて、対象と(対象の)位置と(対象の)感情との紐づけデータを作成する(S202)。感情判断部131は、対象と(対象の)位置と(対象の)感情との紐づけデータを、対象と位置と感情の紐づけデータテーブル142(図2)に登録する。 First, as shown in FIG. 6, the area monitoring camera 111 of the robot 100 obtains an image by capturing an image of the surrounding area (S201). Next, the emotion determination unit 131 of the robot 100 creates data linking the object, the position (of the object), and the emotion (of the object) based on the image obtained by the area monitoring camera 111 (S202). The emotion determining unit 131 registers the data linking the object, the position (of the object), and the emotion (of the object) in the linking data table 142 (FIG. 2) of the object, position, and emotion.

行動処理部132は、対象と(対象の)位置と(対象の)感情との紐づけデータに基づいて、敵意の感情値が閾値以上の対象が存在するか否かを判断する(S203)。 The behavior processing unit 132 determines whether or not there is a target whose hostile emotion value is equal to or higher than the threshold value, based on data linking the target, the position (of the target), and the emotion (of the target) (S203).

敵意の感情値が閾値以上の対象が存在する場合には(S203において「YES」)、ロボット100の通信部103が、IP網150を介して管理センタ160と通信を行い、管理センタ160の操作端末164に通報を行う(S211)。表示部183が、エリア監視カメラ111によって撮像された映像を表示すると、操作端末164のオペレータは、当該映像を見ることによって敵意の感情を持つ対象を監視することができる(S212)。 If there is a target whose hostile emotion value is equal to or higher than the threshold (“YES” in S203), the communication unit 103 of the robot 100 communicates with the management center 160 via the IP network 150, and controls the operation of the management center 160. A notification is sent to the terminal 164 (S211). When the display unit 183 displays the image captured by the area monitoring camera 111, the operator of the operating terminal 164 can monitor the target with hostile feelings by viewing the image (S212).

行動処理部132は、敵意の感情値が閾値以上の対象が存在しない場合には(S203において「NO」)、対象と(対象の)位置と(対象の)感情との紐づけデータに基づいて、対象の処理順序を計算する(処理順序を導出する)(S204)。そして、行動処理部132は、対象の処理順序を、対象と位置と感情の紐づけデータテーブル142(図2)に登録する。 If there is no target with a hostile emotion value equal to or higher than the threshold value (“NO” in S203), the behavior processing unit 132 performs processing based on the data linking the target, the position (of the target), and the emotion (of the target). , calculates the processing order of the target (derives the processing order) (S204). Then, the behavior processing unit 132 registers the processing order of the objects in the object-position-emotion association data table 142 (FIG. 2).

続いて、行動処理部132は、対象と(対象の)位置と(対象の)感情との紐づけデータから、処理順序が最高値のデータ(処理順序が最も早いデータ)を選択する(S205)。なお、以下の動作では、処理順序が最高値のデータについての処理のみが実行される場合を説明するが、上記したように、処理順序が早い順に所定数の処理が実行されてもよいし、処理順序が早い順に全部の処理が実行されてもよい。 Next, the behavior processing unit 132 selects data with the highest processing order (data with the earliest processing order) from the data linking the object, the position (of the object), and the emotion (of the object) (S205). . Note that in the following operation, a case will be described in which only processing is performed for data with the highest processing order, but as described above, a predetermined number of processes may be performed in ascending order of processing order, All processes may be executed in ascending order of processing order.

続いて、図7に示されるように、行動処理部132は、選択した対象が視線をロボット100に向けているか否かを判断する(S206)。対象が視線をロボット100に向けているか否かは、対象の視線の感情値が閾値以上であるか否かによって判断され得る。行動処理部132は、対象が視線をロボット100に向けていると判断した場合(S206において「YES」)、ロボット100が対象にロボット100の正面を見せるようにロボット100を制御する(S221)。その代わりに、上記したように、行動処理部132は、タッチパネル121を対象に近づけるようロボット100を制御してもよい。行動処理部132は、S207に進む。 Subsequently, as shown in FIG. 7, the behavior processing unit 132 determines whether the selected target is directing its line of sight toward the robot 100 (S206). Whether or not the target is directing its line of sight toward the robot 100 can be determined based on whether the emotional value of the target's line of sight is equal to or greater than a threshold value. If the behavior processing unit 132 determines that the target is directing its line of sight toward the robot 100 (“YES” in S206), the behavior processing unit 132 controls the robot 100 so that the robot 100 shows the front of the robot 100 to the target (S221). Instead, as described above, the behavior processing unit 132 may control the robot 100 to bring the touch panel 121 closer to the target. The behavior processing unit 132 proceeds to S207.

一方、行動処理部132は、対象が視線をロボット100に向けていないと判断した場合(S206において「NO」)、S207に進む。行動処理部132は、S207に進むと、ロボット100が対象に接近する必要があるかを判断する(S207)。行動処理部132は、ロボット100が対象に接近する必要があると判断した場合(S207において「YES」)、ロボット100が対象に接近するように移動部106を制御する(S222)。行動処理部132は、S208に進む。 On the other hand, if the behavior processing unit 132 determines that the target is not directing its line of sight toward the robot 100 ("NO" in S206), the process proceeds to S207. When proceeding to S207, the behavior processing unit 132 determines whether the robot 100 needs to approach the target (S207). If the behavior processing unit 132 determines that the robot 100 needs to approach the target (“YES” in S207), it controls the moving unit 106 so that the robot 100 approaches the target (S222). The behavior processing unit 132 proceeds to S208.

一方、行動処理部132は、ロボット100が対象に接近する必要がないと判断した場合(S207において「NO」)、S208に進む。行動処理部132は、S208に進むと、管理センタ160で対応する必要があるかを判断する(S208)。行動処理部132が、管理センタ160で対応する必要があると判断した場合(S208において「YES」)、通信部103は、IP網150を介して管理センタ160と通信し、コミュニケーション部163によって、対象の感情と、オペレータと感情との紐づけデータテーブル166(図4)とに基づいて選択されたオペレータの操作端末164に接続する(S223)。 On the other hand, if the behavior processing unit 132 determines that the robot 100 does not need to approach the target ("NO" in S207), the process proceeds to S208. When proceeding to S208, the behavior processing unit 132 determines whether the management center 160 needs to take action (S208). If the behavior processing unit 132 determines that the management center 160 needs to take action (“YES” in S208), the communication unit 103 communicates with the management center 160 via the IP network 150, and the communication unit 163 A connection is made to the operation terminal 164 of the operator selected based on the target emotion and the operator-emotion association data table 166 (FIG. 4) (S223).

続いて、操作端末164は、エリア監視カメラ111によって撮像された映像と対象の位置とに基づいて、対象の映像をエリア監視画面185(図5)に拡大表示する(S224)。これによって、オペレータは、対象を監視しつつ、対象に向けた音声(例えば、アドバイスなど)を発することができる。ロボット100の行動処理部132は、感情とコンテンツとの紐づけデータテーブル143(図3)から、対象の各感情値が合致するデータ(処理判断データ)を取得する。そして、行動処理部132は、取得した処理判断データに従い、コンテンツをタッチパネル121に表示させるとともに、スピーカ122からオペレータの音声を出力させる(S225)。 Subsequently, the operating terminal 164 displays an enlarged image of the target on the area monitoring screen 185 (FIG. 5) based on the image captured by the area monitoring camera 111 and the position of the target (S224). This allows the operator to emit voice (for example, advice, etc.) to the target while monitoring the target. The behavior processing unit 132 of the robot 100 acquires data (processing judgment data) that matches each emotion value of the target from the emotion-content association data table 143 (FIG. 3). Then, the behavior processing unit 132 causes the content to be displayed on the touch panel 121 and outputs the operator's voice from the speaker 122 according to the acquired processing judgment data (S225).

一方、行動処理部132は、管理センタ160で対応する必要がないと判断した場合(S208において「NO」)、感情とコンテンツとの紐づけデータテーブル143(図3)から、対象の各感情値が合致するデータ(処理判断データ)を取得する。そして、行動処理部132は、取得した処理判断データに従い、コンテンツをタッチパネル121に表示させるとともに、スピーカ122からあらかじめ登録されている音声(自動音声)を出力させる(S209)。 On the other hand, if the behavior processing unit 132 determines that there is no need for the management center 160 to take any action (“NO” in S208), the behavior processing unit 132 determines each emotion value of the target from the emotion-content association data table 143 (FIG. 3). Obtain matching data (processing judgment data). Then, the behavior processing unit 132 displays the content on the touch panel 121 according to the acquired processing judgment data, and causes the speaker 122 to output a pre-registered voice (automatic voice) (S209).

以上、本発明の実施形態に係る情報処理システム1の動作について説明した。 The operation of the information processing system 1 according to the embodiment of the present invention has been described above.

(2.ハードウェア構成例)
続いて、本発明の実施形態に係るロボット100のハードウェア構成例について説明する。ただし、本発明の実施形態に係る管理センタ160のハードウェア構成例も同様に実現され得る。
(2. Hardware configuration example)
Next, an example of the hardware configuration of the robot 100 according to the embodiment of the present invention will be described. However, the hardware configuration example of the management center 160 according to the embodiment of the present invention can be similarly implemented.

以下では、本発明の実施形態に係るロボット100のハードウェア構成例として、情報処理装置900のハードウェア構成例について説明する。なお、以下に説明する情報処理装置900のハードウェア構成例は、ロボット100のハードウェア構成の一例に過ぎない。したがって、ロボット100のハードウェア構成は、以下に説明する情報処理装置900のハードウェア構成から不要な構成が削除されてもよいし、新たな構成が追加されてもよい。 An example of the hardware configuration of the information processing device 900 will be described below as an example of the hardware configuration of the robot 100 according to the embodiment of the present invention. Note that the example hardware configuration of the information processing device 900 described below is only an example of the hardware configuration of the robot 100. Therefore, in the hardware configuration of the robot 100, unnecessary configurations may be deleted from the hardware configuration of the information processing device 900 described below, or new configurations may be added.

図8は、本発明の実施形態に係るロボット100の例としての情報処理装置900のハードウェア構成を示す図である。情報処理装置900は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置910と、通信装置911と、を備える。 FIG. 8 is a diagram showing a hardware configuration of an information processing device 900 as an example of the robot 100 according to the embodiment of the present invention. The information processing device 900 includes a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, a RAM (Random Access Memory) 903, a host bus 904, a bridge 905, an external bus 906, and an interface. With 907 , an input device 908, an output device 909, a storage device 910, and a communication device 911.

CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバス等から構成されるホストバス904により相互に接続されている。 The CPU 901 functions as an arithmetic processing device and a control device, and controls overall operations within the information processing device 900 according to various programs. Further, the CPU 901 may be a microprocessor. The ROM 902 stores programs used by the CPU 901, calculation parameters, and the like. The RAM 903 temporarily stores programs used in the execution of the CPU 901 and parameters that change as appropriate during the execution. These are interconnected by a host bus 904 composed of a CPU bus and the like.

ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。 The host bus 904 is connected via a bridge 905 to an external bus 906 such as a PCI (Peripheral Component Interconnect/Interface) bus. Note that the host bus 904, bridge 905, and external bus 906 do not necessarily need to be configured separately, and these functions may be implemented in one bus.

入力装置908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバー等ユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路等から構成されている。情報処理装置900を操作するユーザは、この入力装置908を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。 The input device 908 includes input means for the user to input information, such as a mouse, keyboard, touch panel, button, microphone, switch, and lever, and an input control circuit that generates an input signal based on the user's input and outputs it to the CPU 901. It is composed of etc. By operating the input device 908, a user operating the information processing device 900 can input various data to the information processing device 900 and instruct processing operations.

出力装置909は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプ等の表示装置およびスピーカ等の音声出力装置を含む。 The output device 909 includes, for example, a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Diode) device, a display device such as a lamp, and an audio output device such as a speaker.

ストレージ装置910は、データ格納用の装置である。ストレージ装置910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。ストレージ装置910は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置910は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。 The storage device 910 is a device for storing data. The storage device 910 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like. The storage device 910 is configured with, for example, an HDD (Hard Disk Drive). This storage device 910 drives a hard disk and stores programs executed by the CPU 901 and various data.

通信装置911は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置911は、無線通信または有線通信のどちらに対応してもよい。 The communication device 911 is, for example, a communication interface configured with a communication device for connecting to a network. Further, the communication device 911 may support either wireless communication or wired communication.

以上、本発明の実施形態に係るロボット100のハードウェア構成例について説明した。 The example hardware configuration of the robot 100 according to the embodiment of the present invention has been described above.

(3.まとめ)
以上に説明したように、本発明の実施形態によれば、エリア監視カメラ111(撮像部)によって撮像された映像に基づいて映像に写る対象の感情を識別する感情判断部131(感情識別部)と、感情判断部131によって識別された感情に対応した処理を行う行動処理部132(処理部)と、を備える、ロボット100(機器)が提供される。かかる構成によれば、対象にとってより利便性の高い処理を行うことが可能となる。
(3. Summary)
As described above, according to the embodiment of the present invention, the emotion determining unit 131 (emotion identification unit) identifies the emotion of the target in the video based on the video captured by the area monitoring camera 111 (imaging unit). and a behavior processing unit 132 (processing unit) that performs processing corresponding to the emotion identified by the emotion determination unit 131. According to this configuration, it becomes possible to perform processing that is more convenient for the target.

行動処理部132は、感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、オペレータの操作端末164に通報されるように通信部103を制御してもよい。かかる構成によれば、オペレータが敵意の感情を持つ対象を早期に監視することが可能になるという効果が享受される。さらに、行動処理部132は、敵意の感情値が第1の閾値以上である対象が存在する場合には、映像が操作端末164に送信されるように通信部103を制御してもよい。 The behavior processing unit 132 may control the communication unit 103 to notify the operator's operation terminal 164 if there is a target whose emotional value of hostility among the emotions is equal to or higher than a first threshold value. . According to such a configuration, an advantageous effect is obtained in that the operator can quickly monitor a target with which he feels hostile. Furthermore, the behavior processing unit 132 may control the communication unit 103 so that the video is transmitted to the operation terminal 164 when there is a target whose emotional value of hostility is equal to or higher than the first threshold value.

行動処理部132は、感情のうちの視線の感情値が第2の閾値以上である対象が存在する場合には、ロボット100によって対象の位置に基づく所定の動作がなされるようにロボット100を制御してもよい。かかる構成によれば、ロボット100によって対象の存在が認識されたことを早期に対象に知らせることが可能になるという効果が享受される。ここで、視線の感情値は、視線とロボット100との位置関係に基づいて識別されてもよい。 The behavior processing unit 132 controls the robot 100 so that the robot 100 performs a predetermined action based on the position of the target when there is a target whose gaze emotion value is equal to or higher than a second threshold. You may. According to this configuration, it is possible to quickly notify the target that the robot 100 has recognized the existence of the target. Here, the emotional value of the line of sight may be identified based on the positional relationship between the line of sight and the robot 100.

行動処理部132は、感情のうちの第1の感情の感情値が第1の条件(ロボット100を対象に接近させる必要のある条件)を満たす場合には、ロボット100が対象に接近するように移動部106を制御してもよい。かかる構成によれば、ロボット100が対象とコミュニケーションを取り始めるまでの時間を短縮することが可能になるという効果が享受される。 The behavior processing unit 132 causes the robot 100 to approach the target when the emotional value of the first emotion among the emotions satisfies a first condition (a condition that requires the robot 100 to approach the target). The moving unit 106 may also be controlled. According to this configuration, it is possible to enjoy the effect that it becomes possible to shorten the time until the robot 100 starts communicating with the target.

行動処理部132は、感情のうちの第2の感情の感情値が第2の条件(管理センタ160で対応する必要がある条件)を満たす場合には、ロボット100と操作端末164とが接続されるように通信部103を制御してもよい。ここで、ロボット100と接続される操作端末164は、感情のうちの第3の感情の感情値に基づいて選択されてもよい。かかる構成によれば、対象の感情に適したオペレータが選択され得る。 The behavior processing unit 132 connects the robot 100 and the operating terminal 164 when the emotional value of the second emotion among the emotions satisfies a second condition (a condition that the management center 160 needs to respond to). The communication unit 103 may be controlled so as to Here, the operating terminal 164 connected to the robot 100 may be selected based on the emotional value of the third emotion among the emotions. According to this configuration, an operator suitable for the target emotion can be selected.

ここで、行動処理部132は、ロボット100とオペレータの操作端末164とが接続された後、操作端末164から受信されたオペレータによって発せられた音声が出力されるようにスピーカ122を制御してもよい。対象は、オペレータによって発せられた音声を聴くことが可能になる。かかる構成によれば、オペレータが容易に対象とコミュニケーションを取ることが可能になるという効果が享受される。 Here, after the robot 100 and the operator's operating terminal 164 are connected, the behavior processing unit 132 controls the speaker 122 so that the voice uttered by the operator received from the operating terminal 164 is output. good. The subject will be able to hear the sounds made by the operator. According to such a configuration, the effect that the operator can easily communicate with the target can be enjoyed.

行動処理部132は、第2の感情の感情値が第2の条件を満たす場合には、第2の条件に対応するコンテンツが表示されるようにロボット100が備えるタッチパネル121(表示装置)を制御してもよい。かかる構成によれば、対象は、表示されたコンテンツを見ることが可能になる。あるいは、行動処理部132は、第2の感情の感情値が第2の条件を満たす場合には、映像が操作端末164に送信されるように通信部103を制御してもよい。かかる構成によれば、オペレータは、対象の映像を監視することが可能になる。 When the emotional value of the second emotion satisfies the second condition, the behavior processing unit 132 controls the touch panel 121 (display device) included in the robot 100 so that content corresponding to the second condition is displayed. You may. According to such a configuration, the subject can view the displayed content. Alternatively, the behavior processing unit 132 may control the communication unit 103 so that the video is transmitted to the operation terminal 164 when the emotional value of the second emotion satisfies the second condition. According to this configuration, the operator can monitor the target video.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。 Although preferred embodiments of the present invention have been described above in detail with reference to the accompanying drawings, the present invention is not limited to such examples. It is clear that a person with ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea stated in the claims. It is understood that these also naturally fall within the technical scope of the present invention.

例えば、上記では、行動処理部132が、敵意の感情を持つ対象が存在する場合に、オペレータの操作端末164に通報されるように制御し、エリア監視カメラ111によって撮像された映像が操作端末164に送信されるように制御する例を説明した。このとき、行動処理部132は、他のセンサによって得られたセンシングデータも操作端末164に送信されるように制御してもよい。より詳細に、行動処理部132は、敵意の感情を持つ対象の回りに存在する他のセンサを起動して敵意の感情を持つ対象を監視させてもよいし、既にセンサを用いて監視を行っている他のロボットが存在すれば、当該他のロボットのセンサによって敵意の感情を持つ対象を監視するようにしてもよい。 For example, in the above case, the behavior processing unit 132 controls the operator's operation terminal 164 to be notified when there is a target with hostile feelings, and the image captured by the area monitoring camera 111 is displayed on the operation terminal 164. We have explained an example of controlling the data so that it is sent to At this time, the behavior processing unit 132 may control so that sensing data obtained by other sensors is also transmitted to the operating terminal 164. More specifically, the behavior processing unit 132 may activate other sensors around the object with hostile feelings to monitor the object with hostile feelings, or may already monitor the object using sensors. If there is another robot that has feelings of hostility, the sensor of the other robot may be used to monitor the object that has hostile feelings.

本発明の実施形態に係るロボット100は、様々な分野の業務を行い得る。例えば、ロボット100は、警備業の分野において警備員が手動にて行っていた業務を代行することも可能である。例えば、ロボット100が対象の感情に対応する処理を行うことによって、簡易に対象を監視することができる(例えば、迷子になってしまった対象を簡易に識別することが可能となる)。 The robot 100 according to the embodiment of the present invention can perform tasks in various fields. For example, the robot 100 can perform tasks that were previously performed manually by security guards in the field of security services. For example, by having the robot 100 perform processing corresponding to the emotion of the target, the target can be easily monitored (for example, a lost target can be easily identified).

(ロボット自立走行)
本発明の実施形態に係るロボット100は、自立走行を行う。例えば、ロボット100は、図9に示される走行ルート情報に基づき、自立走行を行う。ここで、走行ルート情報は、地図(マップ)情報、ルート情報(ルート1)、初期位置情報(A)、目標位置情報(B)等に基づき形成されている情報である。地図(マップ)情報は、床および壁の位置などを含んでよい。ロボット100は、記憶装置やmicroSDカード(図示省略)等に予め設定された走行ルート情報を保持してもよいし、ネットワークを介して走行ルート情報をダウンロードしてもよい。ここでは、図9に示されたように、走行ルート情報が、二次元情報(縦横で表された地図(マップ)情報、ルート情報、初期位置情報、目標位置情報等に基づき形成される情報)である場合を主に想定する。しかし、走行ルート情報は、三次元情報(縦横高さで表された地図(マップ)情報、ルート情報、初期位置情報、目標位置情報等に基づき形成される情報)であってもよい。
(robot autonomous running)
The robot 100 according to the embodiment of the present invention runs independently. For example, the robot 100 runs independently based on the travel route information shown in FIG. 9 . Here, the traveling route information is information formed based on map information, route information (route 1), initial position information (A), target position information (B), and the like. The map information may include the locations of floors and walls, and the like. The robot 100 may hold travel route information set in advance in a storage device, a microSD card (not shown), or the like, or may download travel route information via a network. Here, as shown in FIG. 9, the driving route information is two-dimensional information (information formed based on map information expressed vertically and horizontally, route information, initial position information, target position information, etc.) We mainly assume that However, the driving route information may be three-dimensional information (information formed based on map information expressed in length, width, height, route information, initial position information, target position information, etc.).

(ロボット自立走行における障害物検知)
本発明の実施形態に係るロボット100は、走行路上で障害物を検知することが可能である。例えば、ロボット100は、エリア監視カメラ111によって得られた撮像情報に基づき障害物検知を行ってもよいし、センサ部(超音波センサやミリ波レーダー等)によって取得されたセンサ情報に基づき障害物検知を行ってもよいし、撮像情報とセンサ情報とに基づき障害物検知を行ってもよい。
(Obstacle detection in autonomous robot running)
The robot 100 according to the embodiment of the present invention is capable of detecting obstacles on a running path. For example, the robot 100 may detect obstacles based on image information obtained by the area monitoring camera 111, or detect obstacles based on sensor information obtained by a sensor unit (ultrasonic sensor, millimeter wave radar, etc.). Detection may be performed, or obstacle detection may be performed based on imaging information and sensor information.

(ロボット自立走行における障害物回避)
本発明の実施形態に係るロボット100は、走行路上で障害物検知を行うと、障害物回避を試みる。ロボット100は、例えば、現在ルート(図10のルート1)に障害物を検知した場合、走行ルート情報に基づき、現在ルート(図10のルート1)において障害物を回避できるルート補正候補を識別し現在ルート内で障害物を回避するルート補正(図10のルート1)、現在ルートとは別に設定された代替ルートを識別し代替ルートで障害物を回避する静的代替ルート補正(図10のルート2)、現在ルートとは別にAI(Artificial Intelligent)で発見した代替ルートを識別し代替ルートで障害物を回避する動的代替ルート補正(図10のルート3)、等により回避できるか否かを判断する。
(Obstacle avoidance in robot autonomous running)
When the robot 100 according to the embodiment of the present invention detects an obstacle on the travel path, it attempts to avoid the obstacle. For example, when the robot 100 detects an obstacle on the current route (route 1 in FIG. 10), the robot 100 identifies route correction candidates that can avoid the obstacle on the current route (route 1 in FIG. 10) based on the traveling route information. Route correction that avoids obstacles within the current route (Route 1 in Figure 10), Static alternative route correction that identifies an alternative route set apart from the current route and avoids obstacles on the alternative route (Route 1 in Figure 10) 2) Check whether obstacles can be avoided by dynamic alternative route correction (Route 3 in Figure 10), which identifies an alternative route discovered by AI (Artificial Intelligent) in addition to the current route, and avoids obstacles using the alternative route. to decide.

ここで、現在ルートにおいて障害物を回避できるルート補正候補を識別し現在ルート内で障害物を回避するルート補正について説明する。例えば、ロボット100が、現在ルート(図11のルート1)を自立走行中、ある地点(図11のC)で障害物を発見したとする(図12)。すると、ロボット100は、撮像情報とセンサ情報とに基づき、自身が自立走行中の現在ルートと障害物との位置関係を識別すると共に、通行可能なスペースの幅や高さを識別して自身の通行可否を識別し、現在ルートにおいて障害物を回避できるルート補正候補を識別する(図13)。そして、ロボット100は、現在ルートにおいて障害物を回避できるルート補正候補に従って、現在ルート内で障害物を回避するルート補正(図14のルート補正後ルート1)を行う。 Here, a description will be given of route correction that identifies route correction candidates that can avoid obstacles on the current route and avoids the obstacles on the current route. For example, assume that the robot 100 discovers an obstacle at a certain point (C in FIG. 11) while autonomously traveling along the current route (route 1 in FIG. 11) (FIG. 12). Then, based on the imaging information and sensor information, the robot 100 identifies the positional relationship between the current route it is traveling on and the obstacles, as well as the width and height of the passable space. It identifies passability and identifies route correction candidates that can avoid obstacles on the current route (FIG. 13). Then, the robot 100 performs route correction to avoid obstacles within the current route (route after route correction 1 in FIG. 14) according to route correction candidates that can avoid obstacles on the current route.

ここで、現在ルートとは別にAIで発見した代替ルートを識別し代替ルートで障害物を回避する動的代替ルート補正について説明する。例えば、ロボット100が、現在ルート(図11のルート1)を自立走行中、ある地点(図11のC)で障害物を発見したとする(図12)。すると、ロボット100は、走行ルート情報に基づき、障害物を発見した地点(図11のC)から目標位置(図11のB)に通ずる最短ルートを導出する。例えば、ロボット100は、AIにより、RRT(Rapidly exploring random tree)アルゴリズムなどに基づき障害物を発見した地点(図11のC)から目標位置(図11のB)までの最短ルートを導出する。このとき、ロボット100は、障害物を発見した地点(図11のC)から目標位置(図11のB)に通ずる純粋な最短ルートを導出してもよいし、障害物を発見した地点(図11のC)から障害物を回避しつつ現在ルートに戻り目標位置(図11のB)に通ずる最短ルートを導出してもよい。 Here, a description will be given of dynamic alternative route correction in which an alternative route discovered by AI is identified separately from the current route and obstacles are avoided on the alternative route. For example, suppose that the robot 100 discovers an obstacle at a certain point (C in FIG. 11) while autonomously traveling along the current route (route 1 in FIG. 11) (FIG. 12). Then, based on the traveling route information, the robot 100 derives the shortest route leading from the point where the obstacle is discovered (C in FIG. 11) to the target position (B in FIG. 11). For example, the robot 100 uses AI to derive the shortest route from the point where the obstacle is discovered (C in FIG. 11) to the target position (B in FIG. 11) based on an RRT (Rapidly Exploring Random Tree) algorithm or the like. At this time, the robot 100 may derive the pure shortest route leading from the point where the obstacle is discovered (C in FIG. 11) to the target position (B in FIG. 11C), the shortest route that returns to the current route and leads to the target position (B in FIG. 11) while avoiding obstacles may be derived.

そして、ロボット100は、現在ルートとは別にAIで発見した代替ルートを識別し代替ルートで障害物を回避する動的代替ルート補正(図10のルート3)を行う。なお、図10のルート3は、障害物を発見した地点(図11のC)から目標位置(図11のB)に通ずる純粋な最短ルートであり、障害物を発見した地点(図11のC)から障害物を回避しつつ現在ルートに戻り目標位置(図11のB)に通ずる最短ルートである。 The robot 100 then performs dynamic alternative route correction (route 3 in FIG. 10) that identifies an alternative route discovered by AI in addition to the current route and avoids obstacles on the alternative route. Note that route 3 in Figure 10 is the pure shortest route leading from the point where the obstacle was discovered (C in Figure 11) to the target position (B in Figure 11). ) is the shortest route that returns to the current route while avoiding obstacles and leads to the target position (B in FIG. 11).

(ロボット自立走行における障害物検知時オペレータ通知)
本発明の実施形態に係るロボット100は、障害物検知時にオペレータに通知を行う。このとき、例えば、ロボット100は、障害物回避できるか否かに係わらず、障害物検知時にオペレータに通知を行ってよい。さらに、ロボット100は、オペレータへの通知に際し、識別した障害物情報(ダンボール、倒木、危険物などの障害物を表す情報)をオペレータに通知してもよい。
(Operator notification when an obstacle is detected during robot autonomous travel)
The robot 100 according to the embodiment of the present invention notifies the operator when an obstacle is detected. At this time, for example, the robot 100 may notify the operator when an obstacle is detected, regardless of whether the obstacle can be avoided. Furthermore, when notifying the operator, the robot 100 may notify the operator of the identified obstacle information (information representing obstacles such as cardboard, fallen trees, dangerous objects, etc.).

ここで、迂回可否の識別結果とロボット100のアクションとの対応関係をまとめると、図15のようになる。 Here, the correspondence relationship between the identification result of whether a detour is possible and the action of the robot 100 is summarized as shown in FIG. 15.

(オペレータ遠隔操作)
本発明の実施形態に係るロボット100は、障害物検知を行い、自立走行(身動き)できなくなってしまった場合、オペレータにその旨(自立走行できないことや発見した障害物について)を通知し、遠隔操作モードに移行し、オペレータによる迂回ルート設定をできるようにしてもよい。遠隔操作モードへの移行は、ロボット100がオペレータの操作端末164に対し、遠隔操作モードへの移行通知を行ってオペレータが操作端末164に対して移行操作をすることでなされ得る。
(operator remote control)
The robot 100 according to the embodiment of the present invention detects obstacles, and when it becomes unable to move independently, it notifies the operator to that effect (about the inability to move independently and the detected obstacle), and remotely It may be possible to shift to an operation mode and allow the operator to set a detour route. The transition to the remote operation mode can be performed by the robot 100 notifying the operator's operation terminal 164 of transition to the remote operation mode, and the operator performing a transition operation on the operation terminal 164.

遠隔操作モードに移行すると、オペレータは、操作端末164に表示されるエリア監視画面でロボット100の周辺監視を行えるようになり、ロボット100が置かれている状態を観察できるようになる。ここで、遠隔操作モードにおいて、オペレータは迂回ルートを設定する。例えば、ロボット100が、図11のCの位置で障害物を発見し、遠隔操作モードに至った場合、オペレータは、操作端末164に表示される画面(図16や図17)において、走行ルート情報を呼び出し新たなルート(図18の手動ルート)を設定する。この場合、ロボット100は、設定に基づき、障害物を発見した位置(図11のC)から初期位置(図11のA)に移動し、新たなルート(図18の手動ルート)で目標位置(図18のB)に向かって走行する。 When shifting to the remote operation mode, the operator can monitor the surroundings of the robot 100 on the area monitoring screen displayed on the operation terminal 164, and can observe the state in which the robot 100 is placed. Here, in the remote control mode, the operator sets a detour route. For example, if the robot 100 discovers an obstacle at position C in FIG. and set a new route (manual route in Figure 18). In this case, the robot 100 moves from the position where the obstacle was discovered (C in Figure 11) to the initial position (A in Figure 11) based on the settings, and follows the new route (manual route in Figure 18) to the target position ( The vehicle travels toward B) in FIG.

なお、オペレータは、遠隔操作モードで新たなルートを設定後、新たなルートで目標位置に向かって走行しているロボット100の視線の映像を閲覧してもよい。図19は、障害物を発見した位置(図11のC)から初期位置(図11のA)に移動し、新たなルート(図18の手動ルート)で目標位置(図18のB)に向かって走行するロボット100の視線の映像であって、図18のAの位置の映像である。 Note that, after setting a new route in the remote control mode, the operator may view an image of the line of sight of the robot 100 traveling along the new route toward the target position. Figure 19 shows the movement from the position where the obstacle was found (C in Figure 11) to the initial position (A in Figure 11) and towards the target position (B in Figure 18) using a new route (manual route in Figure 18). 18. This is an image of the line of sight of the robot 100 as it runs, and is an image at the position A in FIG.

(エリア監視画面)
エリア監視画面に表示される映像は、ロボット1000の視線の映像であってもよいし、上記したように形成された自由視点の映像であってもよい。あるいは、エリア監視画面上で、エリア監視画面に表示される映像をロボット100の視線の映像にするか、自由視点の映像にするかをオペレータが切り替え可能であってもよい。
(Area monitoring screen)
The image displayed on the area monitoring screen may be an image of the line of sight of the robot 1000, or may be an image of a free viewpoint formed as described above. Alternatively, the operator may be able to switch on the area monitoring screen whether the image displayed on the area monitoring screen is an image of the line of sight of the robot 100 or an image of a free viewpoint.

1 情報処理システム
100 ロボット(機器)
101 ネットワーク
102 監視部
103 通信部
104 コミュニケーション部
105 人工知能部
106 移動部
111 エリア監視カメラ
121 タッチパネル
122 スピーカ
123 マイクロフォン
131 感情判断部
132 行動処理部
141 制御データベース
142 対象と位置と感情との紐づけデータテーブル
143 感情とコンテンツとの紐づけデータテーブル
150 IP網
160 管理センタ
161 ゲートウェイ装置
162 ネットワーク
163 コミュニケーション部
164 操作端末
165 管理データベース
166 オペレータと感情との紐づけデータテーブル
171 接続制御部
181 通信部
182 操作部
183 表示部
185 エリア監視画面
301 対象
1 Information processing system 100 Robot (equipment)
101 Network 102 Monitoring Department 103 Communication Department 104 Communication Department 105 Artificial Intelligence Department 106 Movement Department 111 Area Monitoring Camera 121 Touch Panel 122 Speaker 123 Microphone 131 Emotion Judgment Department 132 Behavior Processing Department 141 Control Database 142 Data linking objects, positions, and emotions Table 143 Data table linking emotions and content 150 IP network 160 Management center 161 Gateway device 162 Network 163 Communication unit 164 Operation terminal 165 Management database 166 Data table linking operators and emotions 171 Connection control unit 181 Communication unit 182 Operation Section 183 Display section 185 Area monitoring screen 301 Target

Claims (13)

複数の撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別する感情識別部と、
前記感情識別部によって識別された感情に対応した処理を行う処理部と、
を備える、機器であって、
前記処理部は、前記感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、前記複数の撮像部によって撮像された映像に基づいて、前記機器を斜め上方向から俯瞰した俯瞰映像に前記機器をかたどったグラフィックをレンダリングした自由視点映像を生成し、前記自由視点映像がオペレータの操作端末に送信されるように通信部を制御する、
機器。
an emotion identification unit that identifies the emotion of a target depicted in the video based on the video captured by the plurality of imaging units;
a processing unit that performs processing corresponding to the emotion identified by the emotion identification unit;
A device comprising:
When there is a target whose emotional value of hostility among the emotions is equal to or higher than a first threshold, the processing unit moves the device diagonally upward based on the images captured by the plurality of imaging units. generating a free-viewpoint video by rendering a graphic in the shape of the equipment on an overhead video viewed from above, and controlling a communication unit so that the free-viewpoint video is transmitted to an operating terminal of an operator;
device.
前記処理部は、前記感情のうちの視線の感情値が第2の閾値以上である対象が存在する場合には、前記機器によって前記対象の位置に基づく所定の動作がなされるように前記機器を制御する、
請求項1に記載の機器。
The processing unit may cause the device to perform a predetermined operation based on the position of the target when there is a target whose gaze emotion value among the emotions is equal to or higher than a second threshold. Control,
The device according to claim 1.
前記視線の感情値は、前記視線と前記機器との位置関係に基づいて識別される、
請求項2に記載の機器。
The emotional value of the line of sight is identified based on the positional relationship between the line of sight and the device,
The device according to claim 2.
前記処理部は、前記感情のうちの第1の感情の感情値が第1の条件を満たす場合には、前記機器が前記対象に接近するように移動部を制御する、
請求項1に記載の機器。
The processing unit controls the moving unit so that the device approaches the target when the emotional value of the first emotion among the emotions satisfies a first condition.
The device according to claim 1.
前記処理部は、前記感情のうちの第2の感情の感情値が第2の条件を満たす場合には、前記機器と前記操作端末とが接続されるように前記通信部を制御する、
請求項1に記載の機器。
The processing unit controls the communication unit so that the device and the operation terminal are connected when the emotion value of a second emotion among the emotions satisfies a second condition.
The device according to claim 1.
前記機器と接続される前記操作端末は、前記感情のうちの第3の感情の感情値に基づいて選択される、
請求項に記載の機器。
The operating terminal connected to the device is selected based on the emotional value of a third emotion among the emotions.
The device according to claim 5 .
前記処理部は、前記機器と前記操作端末とが接続された後、前記操作端末から受信された前記オペレータによって発せられた音声が出力されるようにスピーカを制御する、
請求項に記載の機器。
The processing unit controls a speaker so that the sound emitted by the operator received from the operation terminal is output after the device and the operation terminal are connected.
The device according to claim 5 .
前記処理部は、前記第2の感情の感情値が前記第2の条件を満たす場合には、前記第2の条件に対応するコンテンツが表示されるように前記機器が備える表示装置を制御する、
請求項に記載の機器。
The processing unit controls a display device included in the device so that content corresponding to the second condition is displayed when the emotional value of the second emotion satisfies the second condition.
The device according to claim 5 .
前記処理部は、前記第2の感情の感情値が前記第2の条件を満たす場合には、前記自由視点映像が前記操作端末に送信されるように前記通信部を制御する、
請求項に記載の機器。
The processing unit controls the communication unit so that the free viewpoint video is transmitted to the operating terminal when the emotional value of the second emotion satisfies the second condition.
The device according to claim 5 .
複数の撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別することと、
前記感情に対応した処理を行うことと、
前記感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、前記複数の撮像部によって撮像された映像に基づいて、機器を斜め上方向から俯瞰した俯瞰映像に前記機器をかたどったグラフィックをレンダリングした自由視点映像を生成し、前記自由視点映像がオペレータの操作端末に送信されるように通信部を制御することと、
を含む、情報処理方法。
identifying the emotion of a target depicted in the video based on the video captured by a plurality of imaging units;
performing processing corresponding to the emotion;
If there is a target whose emotional value of hostility among the emotions is equal to or higher than the first threshold, an overhead image of the device viewed from diagonally above is created based on the images captured by the plurality of imaging units. generating a free-viewpoint video by rendering a graphic shaped like the device, and controlling a communication unit so that the free-viewpoint video is transmitted to an operator's operation terminal;
information processing methods, including
コンピュータを、
複数の撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別する感情識別部と、
前記感情識別部によって識別された感情に対応した処理を行う処理部と、
を備える機器であって、
前記処理部は、前記感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、前記複数の撮像部によって撮像された映像に基づいて、前記機器を斜め上方向から俯瞰した俯瞰映像に前記機器をかたどったグラフィックをレンダリングした自由視点映像を生成し、前記自由視点映像がオペレータの操作端末に送信されるように通信部を制御する、
機器として機能させるためのプログラム。
computer,
an emotion identification unit that identifies the emotion of a target depicted in the video based on the video captured by the plurality of imaging units;
a processing unit that performs processing corresponding to the emotion identified by the emotion identification unit;
A device comprising:
When there is a target whose emotional value of hostility among the emotions is equal to or higher than a first threshold, the processing unit moves the device diagonally upward based on the images captured by the plurality of imaging units. generating a free-viewpoint video by rendering a graphic in the shape of the equipment on an overhead video viewed from above, and controlling a communication unit so that the free-viewpoint video is transmitted to an operating terminal of an operator;
A program to function as a device .
機器と管理センタとを有する情報処理システムであって、
前記機器は、
複数の撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別する感情識別部と、
前記感情のうちの所定の感情値が所定の条件を満たす場合には、前記機器とオペレータの操作端末とが接続されるように通信部を制御する処理部と、を備え、
前記処理部は、前記感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、前記複数の撮像部によって撮像された映像に基づいて、前記機器を斜め上方向から俯瞰した俯瞰映像に前記機器をかたどったグラフィックをレンダリングした自由視点映像を生成し、前記自由視点映像がオペレータの操作端末に送信されるように通信部を制御し、
前記管理センタは、
前記感情に基づいて前記オペレータを選択するコミュニケーション部を備える、
情報処理システム。
An information processing system having equipment and a management center,
The equipment includes:
an emotion identification unit that identifies the emotion of a target depicted in the video based on the video captured by the plurality of imaging units;
a processing unit that controls a communication unit so that when a predetermined emotional value of the emotions satisfies a predetermined condition, the device and an operator's operation terminal are connected;
When there is a target whose emotional value of hostility among the emotions is equal to or higher than a first threshold, the processing unit moves the device diagonally upward based on the images captured by the plurality of imaging units. generating a free-viewpoint video by rendering a graphic in the shape of the equipment on an overhead video viewed from above, and controlling a communication unit so that the free-viewpoint video is transmitted to an operator's operating terminal;
The management center is
comprising a communication unit that selects the operator based on the emotion;
Information processing system.
複数の撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別することと、
前記感情のうちの所定の感情値が所定の条件を満たす場合には、機器と前記感情に基づいて選択されたオペレータの操作端末とが接続されるように通信部を制御することと、
前記感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、前記複数の撮像部によって撮像された映像に基づいて、前記機器を斜め上方向から俯瞰した俯瞰映像に前記機器をかたどったグラフィックをレンダリングした自由視点映像を生成し、前記自由視点映像がオペレータの操作端末に送信されるように通信部を制御することと、
を有する、情報処理システムの方法。
identifying the emotion of a target depicted in the video based on the video captured by a plurality of imaging units;
If a predetermined emotional value among the emotions satisfies a predetermined condition, controlling a communication unit so that the device and an operating terminal of an operator selected based on the emotion are connected;
If there is a target whose emotional value of hostility among the emotions is equal to or higher than the first threshold, an overhead image of the device viewed diagonally from above is generated based on the images captured by the plurality of imaging units. generating a free-viewpoint video by rendering a graphic shaped like the device, and controlling a communication unit so that the free-viewpoint video is transmitted to an operating terminal of an operator;
A method for an information processing system, comprising:
JP2019187168A 2019-10-10 2019-10-10 Equipment, information processing methods, programs, information processing systems, and information processing system methods Active JP7392377B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019187168A JP7392377B2 (en) 2019-10-10 2019-10-10 Equipment, information processing methods, programs, information processing systems, and information processing system methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019187168A JP7392377B2 (en) 2019-10-10 2019-10-10 Equipment, information processing methods, programs, information processing systems, and information processing system methods

Publications (2)

Publication Number Publication Date
JP2021064067A JP2021064067A (en) 2021-04-22
JP7392377B2 true JP7392377B2 (en) 2023-12-06

Family

ID=75486268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019187168A Active JP7392377B2 (en) 2019-10-10 2019-10-10 Equipment, information processing methods, programs, information processing systems, and information processing system methods

Country Status (1)

Country Link
JP (1) JP7392377B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7120693B1 (en) * 2021-04-28 2022-08-17 株式会社I’mbesideyou Video image analysis system
JP7197950B2 (en) * 2021-04-28 2022-12-28 株式会社I’mbesideyou Video image analysis system
JP7197947B2 (en) * 2021-04-28 2022-12-28 株式会社I’mbesideyou Video image analysis system
WO2022230154A1 (en) * 2021-04-29 2022-11-03 株式会社I’mbesideyou Video analysis system
JP7156742B1 (en) 2021-04-29 2022-10-19 株式会社I’mbesideyou Video image analysis system
JP7156743B1 (en) 2021-04-29 2022-10-19 株式会社I’mbesideyou Video image analysis system
US20240253242A1 (en) * 2021-06-10 2024-08-01 Sony Group Corporation Robot operating system

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004230480A (en) 2003-01-28 2004-08-19 Sony Corp Robot device and robot control method, recording medium, and program
JP2006247780A (en) 2005-03-10 2006-09-21 Advanced Telecommunication Research Institute International Communication robot
JP2007229817A (en) 2006-02-27 2007-09-13 Toyota Motor Corp Autonomous mobile robot
JP2009075713A (en) 2007-09-19 2009-04-09 Toppan Printing Co Ltd Feeling determination method
JP2010066844A (en) 2008-09-09 2010-03-25 Fujifilm Corp Method and device for processing video content, and program for processing video content
JP2010154395A (en) 2008-12-26 2010-07-08 Sony Corp Information processing apparatus and method, and program
JP2012223457A (en) 2011-04-21 2012-11-15 Nikon Corp Electronic apparatus
JP2014206903A (en) 2013-04-15 2014-10-30 オムロン株式会社 Facial expression estimation device, control method, control program, and recording medium
JP2016522465A (en) 2013-03-15 2016-07-28 ジボ インコーポレイテッド Apparatus and method for providing a persistent companion device
JP2017073107A (en) 2015-10-08 2017-04-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Control method for information presentation device, and information presentation device
WO2017175559A1 (en) 2016-04-08 2017-10-12 Groove X株式会社 Autonomous robot exhibiting shyness
JP2017207801A (en) 2016-05-16 2017-11-24 Cocoro Sb株式会社 Customer response control system, customer response system, and program
US20180068321A1 (en) 2016-09-06 2018-03-08 Fujitsu Limited Reception supporting method and device
JP2018113616A (en) 2017-01-12 2018-07-19 ソニー株式会社 Information processing unit, information processing method, and program
JP2019008510A (en) 2017-06-23 2019-01-17 カシオ計算機株式会社 Robot, robot control method and program
JP2019005846A (en) 2017-06-23 2019-01-17 カシオ計算機株式会社 Robot, control method and program of the robot
JP2019091233A (en) 2017-11-14 2019-06-13 株式会社Jvcケンウッド Notification control system, notification control method, and program
WO2019163279A1 (en) 2018-02-26 2019-08-29 ソニー株式会社 Information processing device, information processing method, and program

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004230480A (en) 2003-01-28 2004-08-19 Sony Corp Robot device and robot control method, recording medium, and program
JP2006247780A (en) 2005-03-10 2006-09-21 Advanced Telecommunication Research Institute International Communication robot
JP2007229817A (en) 2006-02-27 2007-09-13 Toyota Motor Corp Autonomous mobile robot
JP2009075713A (en) 2007-09-19 2009-04-09 Toppan Printing Co Ltd Feeling determination method
JP2010066844A (en) 2008-09-09 2010-03-25 Fujifilm Corp Method and device for processing video content, and program for processing video content
JP2010154395A (en) 2008-12-26 2010-07-08 Sony Corp Information processing apparatus and method, and program
JP2012223457A (en) 2011-04-21 2012-11-15 Nikon Corp Electronic apparatus
JP2016522465A (en) 2013-03-15 2016-07-28 ジボ インコーポレイテッド Apparatus and method for providing a persistent companion device
JP2014206903A (en) 2013-04-15 2014-10-30 オムロン株式会社 Facial expression estimation device, control method, control program, and recording medium
JP2017073107A (en) 2015-10-08 2017-04-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Control method for information presentation device, and information presentation device
WO2017175559A1 (en) 2016-04-08 2017-10-12 Groove X株式会社 Autonomous robot exhibiting shyness
JP2017207801A (en) 2016-05-16 2017-11-24 Cocoro Sb株式会社 Customer response control system, customer response system, and program
US20180068321A1 (en) 2016-09-06 2018-03-08 Fujitsu Limited Reception supporting method and device
JP2018113616A (en) 2017-01-12 2018-07-19 ソニー株式会社 Information processing unit, information processing method, and program
JP2019008510A (en) 2017-06-23 2019-01-17 カシオ計算機株式会社 Robot, robot control method and program
JP2019005846A (en) 2017-06-23 2019-01-17 カシオ計算機株式会社 Robot, control method and program of the robot
JP2019091233A (en) 2017-11-14 2019-06-13 株式会社Jvcケンウッド Notification control system, notification control method, and program
WO2019163279A1 (en) 2018-02-26 2019-08-29 ソニー株式会社 Information processing device, information processing method, and program

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
上田 優子 他,拡張自由視点画像生成を用いた遠隔移動ロボット操縦インタフェース ,情報処理学会研究報告 2012(平成24)年度▲5▼ コンピュータビジョンとイメージメディア(CVIM) No.185 [CD-ROM] ,日本,一般社団法人情報処理学会,2013年02月15日,第1-6頁
神原 利彦 他,複数の全方位カメラからの自由視点画像の生成,電子情報通信学会2004年総合大会講演論文集 基礎・境界,日本,社団法人電子情報通信学会,2004年03月08日,第343頁
鬼頭 優 他,複数の魚眼カメラを用いた自由視点型俯瞰画像合成システムの開発,FIT2019 第18回情報科学技術フォーラム 講演論文集 第1分冊 選奨論文・一般論文 モデル・アルゴリズム・プログラミング ソフトウェア ハードウェア・アーキテクチャ ,日本,一般社団法人情報処理学会 ,一般社団法人電子情報通信学会,2019年08月20日,第245-246頁

Also Published As

Publication number Publication date
JP2021064067A (en) 2021-04-22

Similar Documents

Publication Publication Date Title
JP7392377B2 (en) Equipment, information processing methods, programs, information processing systems, and information processing system methods
US9223786B1 (en) Communication in a sensory immersive motion capture simulation environment
US11330951B2 (en) Robot cleaner and method of operating the same
JP7180613B2 (en) Information processing device and information processing method
KR102463806B1 (en) Electronic device capable of moving and method for operating thereof
KR20190086631A (en) An artificial intelligence apparatus for cleaning in consideration of user&#39;s action and method for the same
JP4315872B2 (en) Mobile robot controller
JP2022118200A (en) Mobile device, method for controlling mobile device and program
KR20190095193A (en) An artificial intelligence apparatus for managing operation of artificial intelligence system and method for the same
JP6609588B2 (en) Autonomous mobility system and autonomous mobility control method
JP7279646B2 (en) Information processing device, information processing method and program
JP7439826B2 (en) Information processing device, information processing method, and program
JP2020004182A (en) Robot, robot control program and robot control method
JP2017170568A (en) Service providing robot system
US11030979B2 (en) Information processing apparatus and information processing method
JP7415940B2 (en) Information processing device and method, and program
US11986959B2 (en) Information processing device, action decision method and program
CN112154018B (en) Control device, control method, and program
JP7408991B2 (en) Moving object system, moving object, control program, and control method
US10445791B2 (en) Systems and methods for autonomous assistance and routing
WO2021044953A1 (en) Information processing system and information processing method
JP4793904B2 (en) Communication robot system and communication robot
CN115904082A (en) Multi-mode interaction system and interaction method
JP5633003B2 (en) Recording control apparatus and recording control program
JP7258438B2 (en) ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231106

R150 Certificate of patent or registration of utility model

Ref document number: 7392377

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150