JP7392377B2 - Equipment, information processing methods, programs, information processing systems, and information processing system methods - Google Patents
Equipment, information processing methods, programs, information processing systems, and information processing system methods Download PDFInfo
- Publication number
- JP7392377B2 JP7392377B2 JP2019187168A JP2019187168A JP7392377B2 JP 7392377 B2 JP7392377 B2 JP 7392377B2 JP 2019187168 A JP2019187168 A JP 2019187168A JP 2019187168 A JP2019187168 A JP 2019187168A JP 7392377 B2 JP7392377 B2 JP 7392377B2
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- target
- robot
- video
- operator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 35
- 238000000034 method Methods 0.000 title claims description 15
- 238000003672 processing method Methods 0.000 title claims description 4
- 230000008451 emotion Effects 0.000 claims description 191
- 238000012545 processing Methods 0.000 claims description 128
- 238000004891 communication Methods 0.000 claims description 80
- 230000002996 emotional effect Effects 0.000 claims description 56
- 238000003384 imaging method Methods 0.000 claims description 24
- 206010020400 Hostility Diseases 0.000 claims description 19
- 238000013459 approach Methods 0.000 claims description 17
- 238000009877 rendering Methods 0.000 claims description 9
- 230000006399 behavior Effects 0.000 description 52
- 238000012544 monitoring process Methods 0.000 description 40
- 238000010586 diagram Methods 0.000 description 20
- 206010011469 Crying Diseases 0.000 description 15
- 230000009471 action Effects 0.000 description 15
- 238000012937 correction Methods 0.000 description 14
- 206010049976 Impatience Diseases 0.000 description 11
- 238000013473 artificial intelligence Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 235000019645 odor Nutrition 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000009429 distress Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本発明は、機器、情報処理方法、プログラム、情報処理システムおよび情報処理システムの方法に関する。 The present invention relates to a device, an information processing method, a program, an information processing system, and a method of the information processing system.
近年、様々な技術が知られている。例えば、他の会議参加者の表示をしながら発言者が誰であるかを容易に認識することを可能にし、議参加者に関する映像情報を自然かつ詳細に認識することを可能にするテレビ会議システムが開示されている(例えば、特許文献1参照。)。 Various techniques have become known in recent years. For example, a video conferencing system that makes it possible to easily recognize who is speaking while displaying other meeting participants, and allows for natural and detailed recognition of video information about meeting participants. has been disclosed (for example, see Patent Document 1).
また、監視エリア全体を撮像する監視用カメラと、人の顔部分を撮像するクローズアップ用カメラと、監視装置とを備えるシステムにおいて、監視装置が、監視用カメラによって撮像された画像に基づき人の動きを検出し、検出した人の動きに応じてクローズアップ用カメラによって撮像された画像を録画する技術が開示されている(例えば、特許文献2参照。)。 Further, in a system including a surveillance camera that images the entire surveillance area, a close-up camera that images a person's face, and a surveillance device, the surveillance device may 2. Description of the Related Art A technique has been disclosed in which a motion is detected and an image captured by a close-up camera is recorded according to the detected motion of a person (see, for example, Patent Document 2).
さらに、遠隔操作によって自由移動させることが可能なロボット装置が開示されている(例えば、特許文献3参照。)。操作者は、遠隔地の会議場に出席させたロボット装置を介して、会議の状況を見たり、聞いたり、表情を見せたり、話したり、資料を提示したり、握手をしたりすることができる。 Furthermore, a robot device that can be moved freely by remote control has been disclosed (see, for example, Patent Document 3). Operators can view and hear the status of the meeting, show facial expressions, speak, present materials, and shake hands through a robot device placed in a remote conference room. can.
特許文献1は、テレビ会議システムを開示しているに過ぎず、特許文献2は、画像を用いる監視装置を開示しているに過ぎず、特許文献3は、遠隔操作によって自由移動しつつ情報のやりとりを行うことが可能なロボット装置を開示しているに過ぎない。しかし、対象(例えば、人など)によって機器が用いられる場合には、機器による処理は、対象の感情が考慮された上で実行されたほうが、対象にとって利便性が高いと考えられる。
そこで、対象にとってより利便性の高い処理を行うことを可能とする技術が提供されることが望まれる。 Therefore, it is desired to provide a technology that allows processing to be performed more conveniently for the target.
上記問題を解決するために、本発明のある観点によれば、複数の撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別する感情識別部と、前記感情識別部によって識別された感情に対応した処理を行う処理部と、を備える、機器であって、前記処理部は、前記感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、前記複数の撮像部によって撮像された映像に基づいて、前記機器を斜め上方向から俯瞰した俯瞰映像に前記機器をかたどったグラフィックをレンダリングした自由視点映像を生成し、前記自由視点映像がオペレータの操作端末に送信されるように通信部を制御する、機器が提供される。
In order to solve the above problem, according to one aspect of the present invention, an emotion identification section that identifies the emotion of a target in the video based on images captured by a plurality of imaging sections; and a processing unit that performs processing corresponding to the identified emotion , the processing unit configured to perform processing corresponding to the identified emotion when there is a target whose emotion value of hostility is equal to or higher than a first threshold value. generates a free-viewpoint video in which a graphic in the shape of the device is rendered into a bird's-eye view of the device from diagonally above based on the images captured by the plurality of imaging units, and the free-viewpoint video is used by the operator. A device is provided that controls a communication unit to transmit information to an operating terminal of the device.
前記処理部は、前記感情のうちの視線の感情値が第2の閾値以上である対象が存在する場合には、前記機器によって前記対象の位置に基づく所定の動作がなされるように前記機器を制御してもよい。 The processing unit may cause the device to perform a predetermined operation based on the position of the target when there is a target whose gaze emotion value among the emotions is equal to or higher than a second threshold. May be controlled.
前記視線の感情値は、前記視線と前記機器との位置関係に基づいて識別されてもよい。 The emotional value of the line of sight may be identified based on a positional relationship between the line of sight and the device.
前記処理部は、前記感情のうちの第1の感情の感情値が第1の条件を満たす場合には、前記機器が前記対象に接近するように移動部を制御してもよい。 The processing unit may control the moving unit so that the device approaches the target when an emotion value of a first emotion among the emotions satisfies a first condition.
前記処理部は、前記感情のうちの第2の感情の感情値が第2の条件を満たす場合には、前記機器と前記操作端末とが接続されるように前記通信部を制御してもよい。
The processing unit may control the communication unit so that the device and the operation terminal are connected when the emotion value of a second emotion among the emotions satisfies a second condition. .
前記機器と接続される前記操作端末は、前記感情のうちの第3の感情の感情値に基づいて選択されてもよい。 The operation terminal connected to the device may be selected based on an emotion value of a third emotion among the emotions.
前記処理部は、前記機器とオペレータの操作端末とが接続された後、前記操作端末から受信された前記オペレータによって発せられた音声が出力されるようにスピーカを制御してもよい。 The processing unit may control a speaker so that the sound emitted by the operator received from the operation terminal is output after the device and the operator's operation terminal are connected.
前記処理部は、前記第2の感情の感情値が前記第2の条件を満たす場合には、前記第2の条件に対応するコンテンツが表示されるように前記機器が備える表示装置を制御してもよい。 The processing unit controls a display device included in the device so that content corresponding to the second condition is displayed when the emotional value of the second emotion satisfies the second condition. Good too.
前記処理部は、前記第2の感情の感情値が前記第2の条件を満たす場合には、前記自由視点映像が前記操作端末に送信されるように前記通信部を制御してもよい。
The processing unit may control the communication unit so that the free viewpoint video is transmitted to the operation terminal when the emotional value of the second emotion satisfies the second condition.
また、本発明の別の観点によれば、複数の撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別することと、前記感情に対応した処理を行うことと、前記感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、前記複数の撮像部によって撮像された映像に基づいて、機器を斜め上方向から俯瞰した俯瞰映像に前記機器をかたどったグラフィックをレンダリングした自由視点映像を生成し、前記自由視点映像がオペレータの操作端末に送信されるように通信部を制御することと、を含む、情報処理方法が提供される。
According to another aspect of the present invention, the steps include: identifying an emotion of a target appearing in the video based on the video captured by a plurality of imaging units; and performing processing corresponding to the emotion ; When there is a target whose emotional value of hostility among the emotions is equal to or higher than the first threshold value, the above-mentioned object is added to an overhead image obtained by looking down on the device from diagonally above, based on the images captured by the plurality of imaging units. An information processing method is provided, which includes: generating a free-viewpoint video by rendering a graphic shaped like a device; and controlling a communication unit so that the free-viewpoint video is transmitted to an operator's operation terminal .
また、本発明の別の観点によれば、コンピュータを、複数の撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別する感情識別部と、前記感情識別部によって識別された感情に対応した処理を行う処理部と、を備える機器であって、前記処理部は、前記感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、前記複数の撮像部によって撮像された映像に基づいて、前記機器を斜め上方向から俯瞰した俯瞰映像に前記機器をかたどったグラフィックをレンダリングした自由視点映像を生成し、前記自由視点映像がオペレータの操作端末に送信されるように通信部を制御する、機器として機能させるためのプログラムが提供される。
According to another aspect of the present invention, the computer includes an emotion identification unit that identifies the emotion of a target in the video based on images captured by a plurality of imaging units; and a processing unit that performs processing corresponding to the emotion , wherein the processing unit performs processing corresponding to the emotion when there is a target whose emotion value of hostility among the emotions is equal to or higher than a first threshold value. A free-viewpoint video is generated by rendering a graphic in the shape of the device onto a bird's-eye view of the device from diagonally above, based on images captured by a plurality of imaging units, and the free-viewpoint video is displayed on an operator's operating terminal. A program is provided for controlling the communication unit so that the communication unit functions as a device .
また、本発明の別の観点によれば、機器と管理センタとを有する情報処理システムであって、前記機器は、複数の撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別する感情識別部と、前記感情のうちの所定の感情値が所定の条件を満たす場合には、前記機器とオペレータの操作端末とが接続されるように通信部を制御する処理部と、を備え、前記処理部は、前記感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、前記複数の撮像部によって撮像された映像に基づいて、前記機器を斜め上方向から俯瞰した俯瞰映像に前記機器をかたどったグラフィックをレンダリングした自由視点映像を生成し、前記自由視点映像がオペレータの操作端末に送信されるように通信部を制御し、前記管理センタは、前記感情に基づいて前記オペレータを選択するコミュニケーション部を備える、情報処理システムが提供される。
According to another aspect of the present invention, there is provided an information processing system including a device and a management center, wherein the device is configured to determine the emotion of a target depicted in the video based on the video captured by a plurality of imaging units. an emotion identification unit that identifies the emotion, and a processing unit that controls a communication unit so that the device and an operator's operation terminal are connected when a predetermined emotional value of the emotions satisfies a predetermined condition; If there is a target whose emotional value of hostility among the emotions is equal to or higher than a first threshold, the processing unit controls the device based on the images captured by the plurality of imaging units. Generates a free-viewpoint video by rendering a graphic in the shape of the device on an overhead video viewed diagonally from above, controls a communication unit so that the free-viewpoint video is transmitted to an operating terminal of an operator, and the management center An information processing system is provided, including a communication unit that selects the operator based on the emotion.
また、本発明の別の観点によれば、複数の撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別することと、前記感情のうちの所定の感情値が所定の条件を満たす場合には、機器と前記感情に基づいて選択されたオペレータの操作端末とが接続されるように通信部を制御することと、前記感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、前記複数の撮像部によって撮像された映像に基づいて、前記機器を斜め上方向から俯瞰した俯瞰映像に前記機器をかたどったグラフィックをレンダリングした自由視点映像を生成し、前記自由視点映像がオペレータの操作端末に送信されるように通信部を制御することと、を有する、情報処理システムの方法が提供される。
According to another aspect of the present invention, it is possible to identify the emotion of a target shown in the video based on the video captured by a plurality of imaging units, and to identify the emotion of a target shown in the video based on the video captured by a plurality of imaging units; If the conditions are met, the communication unit is controlled so that the device and the operation terminal of the operator selected based on the emotion are connected, and the emotion value of hostility among the emotions is a first threshold value. If there is a target as described above, a free-viewpoint video is created by rendering a graphic in the shape of the device into an overhead video that looks down on the device from diagonally above, based on the images captured by the plurality of imaging units. and controlling a communication unit so that the free-viewpoint video is generated and transmitted to an operating terminal of an operator .
以上説明したように本発明によれば、対象にとってより利便性の高い処理を行うことを可能とする技術が提供される。 As described above, according to the present invention, a technique is provided that allows processing to be performed more conveniently for the target.
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings. Note that, in this specification and the drawings, components having substantially the same functional configurations are designated by the same reference numerals and redundant explanation will be omitted.
また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一の機能構成を有する複数の構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、異なる実施形態の類似する構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。 Further, in this specification and the drawings, a plurality of components having substantially the same functional configuration may be distinguished by attaching different numbers after the same reference numeral. However, if there is no particular need to distinguish between a plurality of components having substantially the same functional configuration, only the same reference numerals are given. Further, similar components in different embodiments may be distinguished by attaching different alphabets after the same reference numerals. However, when it is not necessary to particularly distinguish between similar components of different embodiments, only the same reference numerals are given.
(1.実施形態の詳細)
続いて、本発明の実施形態の詳細について説明する。
(1. Details of embodiment)
Next, details of embodiments of the present invention will be described.
(1-1.システム構成の説明)
図1は、本発明の実施形態に係る情報処理システムの構成例を示す図である。図1に示されるように、情報処理システム1は、ロボット100と、管理センタ160とを備える。ロボット100および管理センタ160は、ネットワークの例としてのIP(Internet Protocol)網150に接続されており、IP網150を介して互いに通信可能に構成されている。
(1-1. Explanation of system configuration)
FIG. 1 is a diagram showing a configuration example of an information processing system according to an embodiment of the present invention. As shown in FIG. 1, the
ここで、ロボットとは、一般に、「人造人間」、「人間に類似した動作や作業を行うもの」、「指示に基づき動作や作業をコンピュータ操作により行う装置」、「自律的な動作や作業をコンピュータ操作により行う装置」、「自動制御によるマニピュレーション機能又は、移動機能をもち、各種の作業をプログラムによって実行でき、産業に使用される機械」(JIS B 0134-1998)、「人間にサービスするロボット」(JIS B 0187:2005)「センサ、知能・制御系、駆動系の3つの要素技術を有する、知能化した機械システム」(経済産業省ロボット政策研究会)、等のように解される。 Here, the term robot generally refers to an "artificial human", "a device that performs actions and tasks similar to those of humans", "a device that performs actions and tasks based on instructions by computer operation", and "a device that performs autonomous actions and tasks". "A device operated by a computer", "A machine that has a manipulation function or a movement function under automatic control, can perform various tasks according to a program, and is used in industry" (JIS B 0134-1998), "A robot that provides services to humans" (JIS B 0187:2005) "An intelligent mechanical system that has the three elemental technologies of sensors, intelligence/control systems, and drive systems" (Robot Policy Study Group of the Ministry of Economy, Trade and Industry).
ロボット100は、対象の感情に応じた処理を実行する機器の一例として機能する。本発明の実施形態では、ロボット100によって感情が考慮される対象が人である場合を主に想定する。しかし、感情が考慮される対象は、人以外の動物(例えば、犬または猫など)であってもよいし、機械(例えば、ロボットなど)であってもよいし、その他の感情推定され得るものであってもよい。また、本発明の実施形態では、ロボット100が1台存在する場合を主に想定する。しかし、ロボット100は、複数台存在していてもよい。
The
図1に示されるように、ロボット100は、ネットワーク101、監視部102、通信部103、コミュニケーション部104、人工知能部105、移動部106および制御データベース141を備える。
As shown in FIG. 1, the
ネットワーク101は、ロボット100の内部の機能ブロック同士の通信を中継する。ネットワーク101の形態は限定されない。例えば、ネットワーク101は、LAN(Local Area Network)やUSB(Universal Serial Bus)などを含んでもよい。ロボット100の内部の機能ブロックは、ネットワーク101上でP2P(Peer to Peer)ネットワークを形成し、機能ブロック同士でP2P通信を行うようにしてもよい。この場合、ロボット100は、各機能ブロック(ノード)のノード情報を管理するノード情報管理部(図示省略)を有し、ノード情報管理部が機能ブロックから要求があった際に接続先のノード情報を与え、機能ブロックがノード情報管理部から与えられたノード情報に基づきP2P接続を行ってP2P通信を行う。ノード情報管理部は、各機能ブロックの起動時に機能ブロック毎のノード名、URI(Uniform Resource Identifier)、通信ポート番号、IPアドレス等の登録を受けると共にノード情報として管理し、例えば、機能ブロックから接続先ノード名で要求を受けると、ノード名でノード情報を参照し、ノード名に対応するURI、通信ポート番号、IPアドレス等をノード情報として要求元の機能ブロックへ与える。
The
監視部102は、周囲を監視する機能を有する。本発明の実施形態では、監視部102が、エリア監視カメラ111を含んでおり、エリア監視カメラ111が周囲の映像を撮像する場合を主に想定する。しかし、監視部102は、エリア監視カメラ111の代わりに、または、エリア監視カメラ111に追加して、周囲の音を検出するマイクロフォンを含んでもよいし、周囲の匂いを検出する匂いセンサを含んでもよいし、他のセンサを含んでもよい。
The
通信部103は、通信インタフェースによって構成されており、IP網150に接続されている。例えば、通信部103は、IP網150を介して管理センタ160との間で通信を行うことが可能である。
The
コミュニケーション部104は、対象との間でコミュニケーションを行う機能を有する。より詳細に、コミュニケーション部104は、対象からの入力を受ける入力装置と、対象への出力を行う出力装置とを含んでいる。本発明の実施形態では、コミュニケーション部104が、対象からの操作を検出する検出装置および対象に視覚情報を提示するディスプレイが積層されたタッチパネル121と、対象に音(自動音声またはオペレータから発せられた音)を提示するスピーカ122と、対象から発せられた音(例えば、声など)を検出するマイクロフォン123とを含んでいる場合を主に想定する。しかし、コミュニケーション部104が具体的にどのようなデバイスを含んでいるかは限定されない。
The
移動部106は、車輪およびモーターを備えており、人工知能部105による制御に従って、モーターが車輪を回転させることによって床面上を移動する。このように、本発明の実施形態では、ロボット100が床面上を移動可能である場合を主に想定するが、ロボット100は、床面上を移動できなくてもよい。例えば、ロボット100は、人工知能部105による制御に従って、床面上に静止した状態で身体の一部(例えば、頭部など)のみを動かすことが可能であってもよい。また、ロボット100は、空中を移動する飛行物体(ドローン)であってもよく、その場合、移動部106は、プロペラおよびモーターを備えており、人工知能部105による制御に従って、モーターがプロペラを回転させることによって空中を移動する。
The moving
人工知能部105は、CPU(Central Processing Unit)などの演算装置を含み、図示しないメモリにより記憶されているプログラムがCPUによりRAM(Random Access Memory)に展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。あるいは、人工知能部105は、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。
The
より詳細に、人工知能部105は、エリア監視カメラ111による監視結果に基づいて、ロボット100による動作の判断を行う。そして、人工知能部105は、判断結果に基づいて、ロボット100が動作するようにロボット100を制御する。図1に示されるように、人工知能部105は、感情判断部131および行動処理部132を含んでいる。
More specifically, the
制御データベース141は、対象と位置と感情との紐づけデータテーブル142(図2)、および、感情とコンテンツとの紐づけデータテーブル143(図3)を有する。なお、制御データベース141は、記憶装置に格納されている。ここで、記憶装置は、ロボット100の動作を制御するためのプログラムを記憶している。また、記憶装置は、(制御データベース141やノード情報管理部が管理するノード情報を含む)各種のデータを記憶する。当該プログラムには、OS(Operating System)およびアプリケーションなどが含まれる。
The
感情判断部131は、エリア監視カメラ111によって撮像された映像に基づいて、映像に写る対象の位置を検出する。本発明の実施形態では、感情判断部131によって検出される対象が1つである場合を主に想定する。しかし、感情判断部131によって検出される対象は、複数であってもよい。そして、感情判断部131は、検出した対象の感情を識別する。
Based on the video captured by the area monitoring camera 111, the
本発明の実施形態では、感情判断部131が、対象の感情の例として、対象の各種類の感情(興味、困り、焦り、泣き、敵意、視線それぞれの感情)を識別する場合を主に想定する。特に、敵意の感情は、怒りの感情なども含み得る。また、泣きの感情は、哀しみの感情を含み得る。さらに、視線の感情は、何かを見たいという感情に相当し得る。しかし、感情判断部131によって識別される感情の種類はこれらに限定されない。より詳細に、感情判断部131は、各種類の感情の値(感情値)を算出する。
In the embodiment of the present invention, it is mainly assumed that the
感情判断部131は、検出した対象それぞれに対して対象IDを付与するとともに、検出した対象それぞれの処理順序を算出し(処理順序を導出し)、付与した対象IDと対象の位置と識別した各種類の感情値と処理順序とを制御データベース141の対象と位置と感情との紐づけデータテーブル142(図2)に登録する。処理順序については後に詳細に説明する。
The
図2は、対象と位置と感情との紐づけデータテーブル142の構成例を示す図である。図2に示されるように、対象と位置と感情との紐づけデータテーブル142は、「対象ID」と、対象の「位置」と、「興味」、「困り」、「焦り」、「泣き」、「敵意」、「視線」それぞれの感情値と、「順序」とが対応付けられてなる。 FIG. 2 is a diagram showing a configuration example of a data table 142 linking objects, positions, and emotions. As shown in FIG. 2, the data table 142 linking objects, positions, and emotions includes "object ID," "position," "interest," "trouble," "impatient," and "crying." , "hostility", and "gaze" are associated with their emotional values and "order."
「対象ID」は、対象を一意に識別するための情報である。対象の「位置」は、対象の三次元位置である。図2に示された例では、対象の三次元位置がX座標とY座標とZ座標との組み合わせによって表現されている。しかし、対象の三次元位置は、かかる形式に限定されない。また、各感情値は、大きいほど当該種類の感情が強いことを示す。図2に示された例では、感情値の最小値が「0」であり、感情値の最大値が「100」である場合を想定する。しかし、感情値の最小値および最大値は、これらに限定されない。 “Target ID” is information for uniquely identifying a target. The "position" of an object is the three-dimensional position of the object. In the example shown in FIG. 2, the three-dimensional position of the object is expressed by a combination of X, Y, and Z coordinates. However, the three-dimensional position of the object is not limited to this format. Furthermore, the larger each emotion value is, the stronger the emotion of the type is. In the example shown in FIG. 2, it is assumed that the minimum emotional value is "0" and the maximum emotional value is "100". However, the minimum and maximum emotional values are not limited to these values.
特に、「視線」の感情値は、ロボット100に対する対象の視線の強さを示す。ここで、視線の強さは、感情判断部131によって視線とロボット100との位置関係に基づいて識別されてよい。より詳細に、本発明の実施形態では、視線の強さが、対象によってロボット100に視線が連続して当てられている時間である場合を主に想定する。しかし、視線の強さは、かかる例に限定されない。例えば、視線の強さは、対象の視線方向と対象からロボット100への方向とのなす角度に関する値であってもよいし、対象の位置とロボット100の位置との距離に関する値であってもよい。
In particular, the emotional value of "gaze" indicates the strength of the target's gaze toward the
例えば、対象の視線方向と対象からロボット100への方向とのなす角度が小さいほど、対象がロボット100に強く視線を向けていると言える。そこで、感情判断部131は、対象の視線方向と対象からロボット100への方向とのなす角度が小さいほど、「視線」の感情値を大きく算出してもよい。あるいは、対象の位置とロボット100の位置との距離が小さいほど、対象がロボット100に視線を強く向けていると言える。そこで、感情判断部131は、対象からロボット100までの距離が小さいほど、「視線」の感情値を大きく算出してもよい。
For example, it can be said that the smaller the angle between the direction of the target's line of sight and the direction from the target to the
「順序」は、ロボット100による処理順序を示している。本発明の実施形態では、処理順序が、全部または一部の感情値の合計値の大きい順である場合を主に想定する。図2には、全部の感情値の合計値が最も大きい対象(対象ID=30003)の処理順序が最も早く(「順序」=1)、合計値が次に大きい対象(対象ID=20002)の処理順序が次に早く(「順序」=2)、合計値が最も小さい対象(対象ID=10001)の処理順序が最も遅い例が示されている(「順序」=3)。しかし、処理順序は、かかる例に限定されない。例えば、処理順序は、いずれかの一つの感情値が大きい順であってもよい。
“Order” indicates the processing order by the
行動処理部132は、感情判断部131によって識別された感情に対応した処理を行う。かかる構成によれば、対象にとってより利便性の高い処理がロボット100によって行われ得る。ここでは、行動処理部132が、処理順序が最も早い(最高値の)処理のみを実行する場合を想定する。しかし、行動処理部132は、処理順序が早い順に所定数の処理のみを実行してもよいし、処理順序が早い順に全部の処理を実行してもよい。
The
例えば、行動処理部132は、感情判断部131によって識別された感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、オペレータの操作端末164に通報されるように通信部103を制御する。通信部103は、行動処理部132による制御に従って管理センタ160に通報する。かかる構成によれば、オペレータが敵意の感情を持つ対象を早期に監視することが可能になるという効果が享受される。
For example, the
ここで、通報を受ける操作端末164は、あらかじめ決められていてもよいし、そのときの状況に応じて決められてもよい(例えば、空いているオペレータの操作端末164が通報を受けてもよい)。このとき、行動処理部132は、通報とともにエリア監視カメラ111によって撮像された映像と敵意の感情を持つ対象の位置とが操作端末164に送信されるように通信部103を制御する。
Here, the operating
また、行動処理部132は、感情判断部131によって識別された感情のうちの視線の感情値が第2の閾値以上である対象が存在する場合には(例えば、敵意の感情値が第1の閾値未満である場合、かつ、視線の感情値が第2の閾値以上である場合には)、ロボット100によって当該対象の位置に基づく所定の動作がなされるようにロボット100を制御する。かかる構成によれば、ロボット100によって対象の存在が認識されたことを早期に対象に知らせることが可能になるという効果が享受される。
In addition, if there is a target whose gaze emotion value among the emotions identified by the
対象の位置に基づく所定の動作は、特定の動作に限定されない。例えば、対象の位置に基づく所定の動作は、ロボット100が当該対象にロボット100の頭部の正面(例えば、顔など)を見せるように頭部を動かす動作であってもよいし、ロボット100が当該対象にロボット100の胴体の正面(例えば、腹など)を見せるように胴体を動かす動作であってもよいし、タッチパネル121を当該対象に近づける動作であってもよいし、他の動作であってもよい。
The predetermined motion based on the position of the target is not limited to a specific motion. For example, the predetermined action based on the position of the target may be an action in which the
また、行動処理部132は、(例えば、敵意の感情値が第1の閾値未満である場合、かつ、視線の感情値が第2の閾値未満である場合には)感情判断部131によって識別された感情と、あらかじめ用意された感情とコンテンツとの紐づけデータテーブル143とに基づいて、処理を決定し得る。
Furthermore, the
図3は、感情とコンテンツとの紐づけデータテーブル143の構成例を示す図である。図3に示されるように、感情とコンテンツとの紐づけデータテーブル143は、「興味の閾値」と、「困りの閾値」と、「焦りの閾値」と、「泣きの閾値」と、コンテンツとが対応付けられてなる。行動処理部132は、感情判断部131によって識別された各感情(興味、困り、焦り、泣き)の値が、対応する閾値以上である場合に、対応するコンテンツが出力されるように制御する。
FIG. 3 is a diagram showing a configuration example of the emotion-content association data table 143. As shown in FIG. 3, the emotion-content association data table 143 includes information such as "threshold of interest", "threshold of trouble", "threshold of impatience", "threshold of crying", and content. are associated with each other. The
なお、コンテンツは、HTML(HyperText Markup Language)、XML(Extensible Markup Language)、CSS(Cascading Style Sheets)またはJSON(JavaScript(登録商標) Object Notation)などの形式による記述を組み合わせて形成されればよい。また、コンテンツは、文字、動画像、音などを含むよう形成されてもよい。また、コンテンツとしてコンテンツに係る資源の場所を表すURL(Uniform Resource Locator)を設定し、URLに基づきコンテンツが取得され、コンテンツが出力されるように制御してもよい。また、図3に示された例は、感情とコンテンツとの紐づけの一例に過ぎないため、感情とコンテンツとの紐づけは、図3に示された例に限定されない。 The content may be HTML (HyperText Markup Language), XML (Extensible Markup Language), CSS (Cascading Style Sheets), or JSON (JavaScript (registered trademark) Ob It may be formed by combining descriptions in a format such as eject Notation). Furthermore, the content may be formed to include characters, moving images, sounds, and the like. Alternatively, a URL (Uniform Resource Locator) indicating the location of a resource related to the content may be set as the content, and the content may be controlled to be acquired and output based on the URL. Further, since the example shown in FIG. 3 is only an example of the association between emotions and content, the association between emotions and content is not limited to the example shown in FIG. 3.
図3に示された例では、コンテンツの例として、メッセージと、音声と、センタ接続とが挙げられている。ただし、図3に示された例は、感情とコンテンツとの紐づけの一例に過ぎない。行動処理部132は、感情判断部131によって識別された興味の感情値が「興味の閾値」以上である場合には、コンテンツの例としてのメッセージ「〇〇にご興味はお有りですか」がタッチパネル121によって表示されるようにタッチパネル121を制御する。かかる構成によれば、オペレータが容易に対象とコミュニケーションを取ることが可能になるという効果が享受される。具体的なメッセージの内容は限定されない。
In the example shown in FIG. 3, messages, audio, and center connection are listed as examples of content. However, the example shown in FIG. 3 is only an example of linking emotions and content. If the emotion value of the interest identified by the
さらに、行動処理部132は、感情判断部131によって識別された感情のうちのある感情(第1の感情)の感情値がロボット100を対象に接近させる必要のある条件(第1の条件)を満たす場合には、ロボット100が対象に接近するように移動部106を制御してもよい。かかる構成によれば、ロボット100が対象とコミュニケーションを取り始めるまでの時間を短縮することが可能になるという効果が享受される。
Furthermore, the
ロボット100を対象に接近させる必要のある条件は、興味の感情値が「興味の閾値」以上であるという条件であってもよい。あるいは、ロボット100を対象に接近させる必要のある条件は、他の感情値(例えば、困り、焦り、または、泣きの感情値)が対応する閾値以上であるという条件であってもよい。
The condition that requires the
行動処理部132は、対象の視線が当たる位置に(あるいは、対象の視界にロボット100が入るように)ロボット100を対象に接近させてもよい。また、ロボット100の対象への接近は、毎回同じように行われてもよいし、状況に応じて異なるように行われてもよい。例えば、ロボット100を対象に接近させるスピード(ロボット100の移動スピード)は、毎回同じであってもよいし、対象の感情のうちのある感情値または対象の性別などに基づいて、変化してもよい。あるいは、ロボット100を対象に接近させる経路も、毎回同じであってもよいし、対象の感情のうちのある感情値または対象の性別などに基づいて、変化してもよい。
The
また、行動処理部132は、感情判断部131によって識別された困りの感情値が「困りの閾値」以上である場合には、コンテンツの例としてのメッセージ「どうなされましたか」がタッチパネル121によって表示されるようにタッチパネル121を制御するとともに、コンテンツの例としての動作「管理センタのオペレータの操作端末への接続」が通信部103によって行われるように通信部103を制御する。通信部103は、行動処理部132による制御に従って、管理センタ160に接続要求を送信する。接続要求には、各感情値が含まれてよい。ただし、オペレータの操作端末164に接続されるための条件は、かかる例に限定されない。
Further, if the emotional value of trouble identified by the
すなわち、行動処理部132は、感情判断部131によって識別された感情のうちのある感情(第2の感情)の感情値が管理センタ160で対応する必要がある条件(第2の条件)を満たす場合には、当該条件に対応するコンテンツが表示されるようにタッチパネル121を制御するとともに、ロボット100とオペレータの操作端末164とが接続されるように通信部103を制御すればよい。かかる構成によれば、オペレータが早期に対象の状態を確認できるという効果が享受される。
That is, the
このとき、管理センタ160で対応する必要がある条件は、他の感情値(例えば、興味、焦り、または、泣きの感情値)が閾値以上であるという条件であってよい。後に説明するように、オペレータは、管理センタ160において選択されればよい。ロボット100とオペレータの操作端末164とが接続された後は、行動処理部132は、操作端末164から受信されたオペレータによって発せられた音声が出力されるようにスピーカ122を制御するとともに、エリア監視カメラ111によって撮像された映像が操作端末164に送信されるように通信部103を制御する。
At this time, the condition that needs to be handled by the
また、行動処理部132は、感情判断部131によって識別された焦りの感情値が「焦りの閾値」以上である場合には、コンテンツの例としてのメッセージ「何かお探しですか」がタッチパネル121によって表示されるようにタッチパネル121を制御する。かかる構成によれば、オペレータが容易に対象とコミュニケーションを取ることが可能になるという効果が享受される。具体的なメッセージの内容は限定されない。
In addition, when the emotion value of impatience identified by the
また、行動処理部132は、感情判断部131によって識別された泣きの感情値が「泣きの閾値」以上である場合には、コンテンツの例としての音声(音楽)がスピーカ122によって出力されるようにスピーカ122を制御する。かかる構成によれば、オペレータが容易に対象とコミュニケーションを取ることが可能になるという効果が享受される。具体的な音声の内容は限定されない。
Further, the
管理センタ160は、ロボット100を遠隔から管理する。本発明の実施形態では、管理センタ160によって1台のロボット100が管理される場合を主に想定する。しかし、管理センタ160によって複数台のロボット100が管理されてもよい。図1に示されるように、管理センタ160は、ゲートウェイ装置161、ネットワーク162、コミュニケーション部163、管理データベース165、および、複数の操作端末164を備える。
The
ゲートウェイ装置161は、IP網150に接続されている。例えば、ゲートウェイ装置161は、IP網150を介してロボット100との間で通信を行うことが可能である。より詳細には、ゲートウェイ装置161は、タッチパネル121によって検出された操作、マイクロフォン123によって検出された音、接続要求、エリア監視カメラ111によって撮像された映像、対象の位置、対象の感情などを受信し、オペレータから発せられた音(例えば、声など)をロボット100に送信する。
ネットワーク162は、管理センタ160の内部の機能ブロック同士の通信を中継する。ネットワーク162の形態は限定されない。例えば、ネットワーク162は、LAN(Local Area Network)などを含んでもよい。
The
管理データベース165は、オペレータと感情との紐づけデータテーブル166(図4)を有する。なお、管理データベース165は、記憶装置に格納されている。ここで、記憶装置は、管理センタ160の動作を制御するためのプログラムを記憶している。また、記憶装置は、(管理データベース165を含む)各種のデータを記憶する。当該プログラムには、OS(Operating System)およびアプリケーションなどが含まれる。
The
コミュニケーション部163は、接続制御部171を備える。コミュニケーション部163は、ロボット100から送信された通報がゲートウェイ装置161によって受信された場合、操作端末164に通報を送信する。上記したように、通報を受ける操作端末164は、あらかじめ決められていてもよいし、そのときの状況に応じて決められてもよい。
The
一方、コミュニケーション部163は、ロボット100から送信された接続要求がゲートウェイ装置161によって受信された場合、接続要求に基づいてオペレータを選択する。図4は、オペレータと感情との紐づけデータテーブル166の構成例を示す図である。図4に示されるように、オペレータと感情との紐づけデータテーブル166は、「オペレータID」と「興味の閾値」、「困りの閾値」、「焦りの閾値」、「泣きの閾値」とが対応付けられてなる。
On the other hand, when the
「オペレータID」は、オペレータを一意に識別するための情報である。 "Operator ID" is information for uniquely identifying an operator.
「興味の閾値」は、興味の感情値の閾値である。同様に、「困りの閾値」は、困りの感情値の閾値であり、「焦りの閾値」は、焦りの感情値の閾値であり、「泣きの閾値」は、泣きの感情値の閾値である。なお、オペレータに閾値が対応付けられる感情の種類は、これらに限定されない。ここでは、感情値の最小値が「0」である場合を想定しているため、図4に示された例では、オペレータID「aaa」には、興味の閾値「50」のみが実質的に対応付けられ、オペレータID「bbb」には、困りの閾値「50」のみが実質的に対応付けられ、オペレータID「ccc」には、焦りの閾値「50」および泣きの閾値のみが実質的に対応付けられている。 The “threshold of interest” is the threshold of the emotional value of interest. Similarly, the "threshold of trouble" is the threshold of the emotional value of trouble, the "threshold of impatience" is the threshold of the emotional value of impatience, and the "threshold of crying" is the threshold of the emotional value of crying. . Note that the types of emotions with which operators are associated with thresholds are not limited to these. Here, it is assumed that the minimum emotional value is "0", so in the example shown in FIG. 4, the operator ID "aaa" has only the interest threshold "50". The operator ID "bbb" is substantially associated with only the distress threshold "50", and the operator ID "ccc" is substantially associated with only the impatience threshold "50" and the crying threshold. are associated.
コミュニケーション部163は、接続要求に含まれる各感情値のうちのある感情(第3の感情)の感情値に基づいてオペレータを選択する。かかる構成によれば、対象の感情に適したオペレータが選択され得る。ここでは、興味、困り、焦り、および、泣きそれぞれの感情値が接続要求に含まれる場合を想定する。コミュニケーション部163は、興味、困り、焦り、および、泣きそれぞれの感情値が、オペレータと感情との紐づけデータテーブル166の対応する閾値以上であるオペレータIDが存在する場合に、当該オペレータID(オペレータ)を選択すればよい。
The
コミュニケーション部163は、オペレータを選択すると、接続制御部171によってロボット100とオペレータの操作端末164との接続制御を行う。例えば、接続制御部171による接続制御は、WebRTC(Web Real-Time Communication)によって実現されてもよい。ロボット100と操作端末164とが接続されると、ロボット100と操作端末164との間の通信が開始される(対象とオペレータとの間のコミュニケーションが開始される)。
When the
操作端末164は、図示しない制御部を備える。制御部は、CPU(Central Processing Unit)などの演算装置を含み、図示しないメモリにより記憶されているプログラムがCPUによりRAM(Random Access Memory)に展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。あるいは、制御部は、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。
The
操作端末164は、通信部181、操作部182、および、表示部183を有する。通信部181は、通信インタフェースによって構成されており、IP網150に接続されている。例えば、通信部181は、IP網150を介してロボット100との間で通信を行うことが可能である。操作部182は、オペレータからの操作(例えば、コミュニケーション開始操作など)を検出する。
The
表示部183は、通信部181によって通報が受信されると、エリア監視カメラ111によって撮像された映像を表示する。これによって、オペレータは、敵意の感情を持つ対象を早期に監視することが可能になるという効果が享受される。
When the
一方、操作端末164とロボット100との接続がなされると、表示部183は、エリア監視カメラ111によって撮像された映像と対象の位置とに基づいて、対象が拡大された映像(拡大映像)を表示する。また、表示部183は、対象の各感情値を表示する。
On the other hand, when the
図5は、表示部183によって表示されるエリア監視画面185の例を示す図である。図5に示されたように、一例として、表示部183は、エリア監視画面185を表示する。エリア監視画面185には、対象301の拡大映像が含まれており、当該拡大映像には、(ロボット100に相当する)ロボット100も写っている。ロボット100は、拡大映像の中央に位置してもよい。なお、ロボット100は、既に説明したように移動部106およびタッチパネル121を備える他、エリア監視カメラ111の例としてのカメラ111a~111dを備える。本発明の実施形態では、カメラ111a~111dそれぞれによって撮像された映像に基づいて、エリア監視画面185に表示されているような自由視点の映像(ロボット100の俯瞰映像(当該ロボット100周辺の自由視点映像であって当該ロボット100を斜め上方向から俯瞰した映像)に、ロボット100をかたどったグラフィック(いわゆるアバター画像)をレンダリングした、いわゆるフライングビュー(登録商標)の映像)が形成(レンダリング)されてもよい。自由視点の映像を形成する処理については、例えば、参考文献1(沖電気工業株式会社 駒井 英敬著,「フライングビュー」,[Online],INTERNET,[2019年10月8日検索],<URL:https://www.oki.com/jp/iot/doc/2018/img/ceatec/ceatec_flyingview.pdf>の記載技術を適用するようにしてもよい。カメラの個数および取り付け位置などは限定されない。対象301の近傍には、対象301のIDと各感情値が表示されている。オペレータは、このようにして表示部183によって表示されたエリア監視画面185を見ることができる。
FIG. 5 is a diagram showing an example of the
なお、操作端末164は、操作部182によってオペレータからのコミュニケーション開始操作が検出され、オペレータから発せられた音(例えば、声など)が操作端末164によって検出されると、オペレータから発せられた音がゲートウェイ装置161を介してロボット100に送信されるようにゲートウェイ装置161を制御する。これによって、対象は、オペレータから発せられた音を聴くことができる。一方、操作端末164は、対象から発せられた音がロボット100のマイクロフォン123によって検出された場合、対象から発せられた音を出力する。これによって、オペレータは、対象から発せられた音を聴くことができる。
Note that when the
以上、本発明の実施形態に係る情報処理システム1の構成について説明した。
The configuration of the
(1-2.システムの動作)
続いて、本発明の実施形態に係る情報処理システム1の動作について説明する。図6および図7は、本発明の実施形態に係る情報処理システム1の動作例を示すフローチャートである。なお、情報処理システム1の構成について、上記のように詳細に説明したため、ここでの情報処理システム1の動作の説明は、情報処理システム1の構成の説明よりも、簡略化して行う。
(1-2. System operation)
Next, the operation of the
まず、図6に示されるように、ロボット100のエリア監視カメラ111は、周囲を撮像することによって映像を得る(S201)。次に、ロボット100の感情判断部131は、エリア監視カメラ111によって得られた映像に基づいて、対象と(対象の)位置と(対象の)感情との紐づけデータを作成する(S202)。感情判断部131は、対象と(対象の)位置と(対象の)感情との紐づけデータを、対象と位置と感情の紐づけデータテーブル142(図2)に登録する。
First, as shown in FIG. 6, the area monitoring camera 111 of the
行動処理部132は、対象と(対象の)位置と(対象の)感情との紐づけデータに基づいて、敵意の感情値が閾値以上の対象が存在するか否かを判断する(S203)。
The
敵意の感情値が閾値以上の対象が存在する場合には(S203において「YES」)、ロボット100の通信部103が、IP網150を介して管理センタ160と通信を行い、管理センタ160の操作端末164に通報を行う(S211)。表示部183が、エリア監視カメラ111によって撮像された映像を表示すると、操作端末164のオペレータは、当該映像を見ることによって敵意の感情を持つ対象を監視することができる(S212)。
If there is a target whose hostile emotion value is equal to or higher than the threshold (“YES” in S203), the
行動処理部132は、敵意の感情値が閾値以上の対象が存在しない場合には(S203において「NO」)、対象と(対象の)位置と(対象の)感情との紐づけデータに基づいて、対象の処理順序を計算する(処理順序を導出する)(S204)。そして、行動処理部132は、対象の処理順序を、対象と位置と感情の紐づけデータテーブル142(図2)に登録する。
If there is no target with a hostile emotion value equal to or higher than the threshold value (“NO” in S203), the
続いて、行動処理部132は、対象と(対象の)位置と(対象の)感情との紐づけデータから、処理順序が最高値のデータ(処理順序が最も早いデータ)を選択する(S205)。なお、以下の動作では、処理順序が最高値のデータについての処理のみが実行される場合を説明するが、上記したように、処理順序が早い順に所定数の処理が実行されてもよいし、処理順序が早い順に全部の処理が実行されてもよい。
Next, the
続いて、図7に示されるように、行動処理部132は、選択した対象が視線をロボット100に向けているか否かを判断する(S206)。対象が視線をロボット100に向けているか否かは、対象の視線の感情値が閾値以上であるか否かによって判断され得る。行動処理部132は、対象が視線をロボット100に向けていると判断した場合(S206において「YES」)、ロボット100が対象にロボット100の正面を見せるようにロボット100を制御する(S221)。その代わりに、上記したように、行動処理部132は、タッチパネル121を対象に近づけるようロボット100を制御してもよい。行動処理部132は、S207に進む。
Subsequently, as shown in FIG. 7, the
一方、行動処理部132は、対象が視線をロボット100に向けていないと判断した場合(S206において「NO」)、S207に進む。行動処理部132は、S207に進むと、ロボット100が対象に接近する必要があるかを判断する(S207)。行動処理部132は、ロボット100が対象に接近する必要があると判断した場合(S207において「YES」)、ロボット100が対象に接近するように移動部106を制御する(S222)。行動処理部132は、S208に進む。
On the other hand, if the
一方、行動処理部132は、ロボット100が対象に接近する必要がないと判断した場合(S207において「NO」)、S208に進む。行動処理部132は、S208に進むと、管理センタ160で対応する必要があるかを判断する(S208)。行動処理部132が、管理センタ160で対応する必要があると判断した場合(S208において「YES」)、通信部103は、IP網150を介して管理センタ160と通信し、コミュニケーション部163によって、対象の感情と、オペレータと感情との紐づけデータテーブル166(図4)とに基づいて選択されたオペレータの操作端末164に接続する(S223)。
On the other hand, if the
続いて、操作端末164は、エリア監視カメラ111によって撮像された映像と対象の位置とに基づいて、対象の映像をエリア監視画面185(図5)に拡大表示する(S224)。これによって、オペレータは、対象を監視しつつ、対象に向けた音声(例えば、アドバイスなど)を発することができる。ロボット100の行動処理部132は、感情とコンテンツとの紐づけデータテーブル143(図3)から、対象の各感情値が合致するデータ(処理判断データ)を取得する。そして、行動処理部132は、取得した処理判断データに従い、コンテンツをタッチパネル121に表示させるとともに、スピーカ122からオペレータの音声を出力させる(S225)。
Subsequently, the operating
一方、行動処理部132は、管理センタ160で対応する必要がないと判断した場合(S208において「NO」)、感情とコンテンツとの紐づけデータテーブル143(図3)から、対象の各感情値が合致するデータ(処理判断データ)を取得する。そして、行動処理部132は、取得した処理判断データに従い、コンテンツをタッチパネル121に表示させるとともに、スピーカ122からあらかじめ登録されている音声(自動音声)を出力させる(S209)。
On the other hand, if the
以上、本発明の実施形態に係る情報処理システム1の動作について説明した。
The operation of the
(2.ハードウェア構成例)
続いて、本発明の実施形態に係るロボット100のハードウェア構成例について説明する。ただし、本発明の実施形態に係る管理センタ160のハードウェア構成例も同様に実現され得る。
(2. Hardware configuration example)
Next, an example of the hardware configuration of the
以下では、本発明の実施形態に係るロボット100のハードウェア構成例として、情報処理装置900のハードウェア構成例について説明する。なお、以下に説明する情報処理装置900のハードウェア構成例は、ロボット100のハードウェア構成の一例に過ぎない。したがって、ロボット100のハードウェア構成は、以下に説明する情報処理装置900のハードウェア構成から不要な構成が削除されてもよいし、新たな構成が追加されてもよい。
An example of the hardware configuration of the
図8は、本発明の実施形態に係るロボット100の例としての情報処理装置900のハードウェア構成を示す図である。情報処理装置900は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置910と、通信装置911と、を備える。
FIG. 8 is a diagram showing a hardware configuration of an
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバス等から構成されるホストバス904により相互に接続されている。
The
ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
The
入力装置908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバー等ユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路等から構成されている。情報処理装置900を操作するユーザは、この入力装置908を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
The
出力装置909は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプ等の表示装置およびスピーカ等の音声出力装置を含む。
The
ストレージ装置910は、データ格納用の装置である。ストレージ装置910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。ストレージ装置910は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置910は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。
The storage device 910 is a device for storing data. The storage device 910 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like. The storage device 910 is configured with, for example, an HDD (Hard Disk Drive). This storage device 910 drives a hard disk and stores programs executed by the
通信装置911は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置911は、無線通信または有線通信のどちらに対応してもよい。
The
以上、本発明の実施形態に係るロボット100のハードウェア構成例について説明した。
The example hardware configuration of the
(3.まとめ)
以上に説明したように、本発明の実施形態によれば、エリア監視カメラ111(撮像部)によって撮像された映像に基づいて映像に写る対象の感情を識別する感情判断部131(感情識別部)と、感情判断部131によって識別された感情に対応した処理を行う行動処理部132(処理部)と、を備える、ロボット100(機器)が提供される。かかる構成によれば、対象にとってより利便性の高い処理を行うことが可能となる。
(3. Summary)
As described above, according to the embodiment of the present invention, the emotion determining unit 131 (emotion identification unit) identifies the emotion of the target in the video based on the video captured by the area monitoring camera 111 (imaging unit). and a behavior processing unit 132 (processing unit) that performs processing corresponding to the emotion identified by the
行動処理部132は、感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、オペレータの操作端末164に通報されるように通信部103を制御してもよい。かかる構成によれば、オペレータが敵意の感情を持つ対象を早期に監視することが可能になるという効果が享受される。さらに、行動処理部132は、敵意の感情値が第1の閾値以上である対象が存在する場合には、映像が操作端末164に送信されるように通信部103を制御してもよい。
The
行動処理部132は、感情のうちの視線の感情値が第2の閾値以上である対象が存在する場合には、ロボット100によって対象の位置に基づく所定の動作がなされるようにロボット100を制御してもよい。かかる構成によれば、ロボット100によって対象の存在が認識されたことを早期に対象に知らせることが可能になるという効果が享受される。ここで、視線の感情値は、視線とロボット100との位置関係に基づいて識別されてもよい。
The
行動処理部132は、感情のうちの第1の感情の感情値が第1の条件(ロボット100を対象に接近させる必要のある条件)を満たす場合には、ロボット100が対象に接近するように移動部106を制御してもよい。かかる構成によれば、ロボット100が対象とコミュニケーションを取り始めるまでの時間を短縮することが可能になるという効果が享受される。
The
行動処理部132は、感情のうちの第2の感情の感情値が第2の条件(管理センタ160で対応する必要がある条件)を満たす場合には、ロボット100と操作端末164とが接続されるように通信部103を制御してもよい。ここで、ロボット100と接続される操作端末164は、感情のうちの第3の感情の感情値に基づいて選択されてもよい。かかる構成によれば、対象の感情に適したオペレータが選択され得る。
The
ここで、行動処理部132は、ロボット100とオペレータの操作端末164とが接続された後、操作端末164から受信されたオペレータによって発せられた音声が出力されるようにスピーカ122を制御してもよい。対象は、オペレータによって発せられた音声を聴くことが可能になる。かかる構成によれば、オペレータが容易に対象とコミュニケーションを取ることが可能になるという効果が享受される。
Here, after the
行動処理部132は、第2の感情の感情値が第2の条件を満たす場合には、第2の条件に対応するコンテンツが表示されるようにロボット100が備えるタッチパネル121(表示装置)を制御してもよい。かかる構成によれば、対象は、表示されたコンテンツを見ることが可能になる。あるいは、行動処理部132は、第2の感情の感情値が第2の条件を満たす場合には、映像が操作端末164に送信されるように通信部103を制御してもよい。かかる構成によれば、オペレータは、対象の映像を監視することが可能になる。
When the emotional value of the second emotion satisfies the second condition, the
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。 Although preferred embodiments of the present invention have been described above in detail with reference to the accompanying drawings, the present invention is not limited to such examples. It is clear that a person with ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea stated in the claims. It is understood that these also naturally fall within the technical scope of the present invention.
例えば、上記では、行動処理部132が、敵意の感情を持つ対象が存在する場合に、オペレータの操作端末164に通報されるように制御し、エリア監視カメラ111によって撮像された映像が操作端末164に送信されるように制御する例を説明した。このとき、行動処理部132は、他のセンサによって得られたセンシングデータも操作端末164に送信されるように制御してもよい。より詳細に、行動処理部132は、敵意の感情を持つ対象の回りに存在する他のセンサを起動して敵意の感情を持つ対象を監視させてもよいし、既にセンサを用いて監視を行っている他のロボットが存在すれば、当該他のロボットのセンサによって敵意の感情を持つ対象を監視するようにしてもよい。
For example, in the above case, the
本発明の実施形態に係るロボット100は、様々な分野の業務を行い得る。例えば、ロボット100は、警備業の分野において警備員が手動にて行っていた業務を代行することも可能である。例えば、ロボット100が対象の感情に対応する処理を行うことによって、簡易に対象を監視することができる(例えば、迷子になってしまった対象を簡易に識別することが可能となる)。
The
(ロボット自立走行)
本発明の実施形態に係るロボット100は、自立走行を行う。例えば、ロボット100は、図9に示される走行ルート情報に基づき、自立走行を行う。ここで、走行ルート情報は、地図(マップ)情報、ルート情報(ルート1)、初期位置情報(A)、目標位置情報(B)等に基づき形成されている情報である。地図(マップ)情報は、床および壁の位置などを含んでよい。ロボット100は、記憶装置やmicroSDカード(図示省略)等に予め設定された走行ルート情報を保持してもよいし、ネットワークを介して走行ルート情報をダウンロードしてもよい。ここでは、図9に示されたように、走行ルート情報が、二次元情報(縦横で表された地図(マップ)情報、ルート情報、初期位置情報、目標位置情報等に基づき形成される情報)である場合を主に想定する。しかし、走行ルート情報は、三次元情報(縦横高さで表された地図(マップ)情報、ルート情報、初期位置情報、目標位置情報等に基づき形成される情報)であってもよい。
(robot autonomous running)
The
(ロボット自立走行における障害物検知)
本発明の実施形態に係るロボット100は、走行路上で障害物を検知することが可能である。例えば、ロボット100は、エリア監視カメラ111によって得られた撮像情報に基づき障害物検知を行ってもよいし、センサ部(超音波センサやミリ波レーダー等)によって取得されたセンサ情報に基づき障害物検知を行ってもよいし、撮像情報とセンサ情報とに基づき障害物検知を行ってもよい。
(Obstacle detection in autonomous robot running)
The
(ロボット自立走行における障害物回避)
本発明の実施形態に係るロボット100は、走行路上で障害物検知を行うと、障害物回避を試みる。ロボット100は、例えば、現在ルート(図10のルート1)に障害物を検知した場合、走行ルート情報に基づき、現在ルート(図10のルート1)において障害物を回避できるルート補正候補を識別し現在ルート内で障害物を回避するルート補正(図10のルート1)、現在ルートとは別に設定された代替ルートを識別し代替ルートで障害物を回避する静的代替ルート補正(図10のルート2)、現在ルートとは別にAI(Artificial Intelligent)で発見した代替ルートを識別し代替ルートで障害物を回避する動的代替ルート補正(図10のルート3)、等により回避できるか否かを判断する。
(Obstacle avoidance in robot autonomous running)
When the
ここで、現在ルートにおいて障害物を回避できるルート補正候補を識別し現在ルート内で障害物を回避するルート補正について説明する。例えば、ロボット100が、現在ルート(図11のルート1)を自立走行中、ある地点(図11のC)で障害物を発見したとする(図12)。すると、ロボット100は、撮像情報とセンサ情報とに基づき、自身が自立走行中の現在ルートと障害物との位置関係を識別すると共に、通行可能なスペースの幅や高さを識別して自身の通行可否を識別し、現在ルートにおいて障害物を回避できるルート補正候補を識別する(図13)。そして、ロボット100は、現在ルートにおいて障害物を回避できるルート補正候補に従って、現在ルート内で障害物を回避するルート補正(図14のルート補正後ルート1)を行う。
Here, a description will be given of route correction that identifies route correction candidates that can avoid obstacles on the current route and avoids the obstacles on the current route. For example, assume that the
ここで、現在ルートとは別にAIで発見した代替ルートを識別し代替ルートで障害物を回避する動的代替ルート補正について説明する。例えば、ロボット100が、現在ルート(図11のルート1)を自立走行中、ある地点(図11のC)で障害物を発見したとする(図12)。すると、ロボット100は、走行ルート情報に基づき、障害物を発見した地点(図11のC)から目標位置(図11のB)に通ずる最短ルートを導出する。例えば、ロボット100は、AIにより、RRT(Rapidly exploring random tree)アルゴリズムなどに基づき障害物を発見した地点(図11のC)から目標位置(図11のB)までの最短ルートを導出する。このとき、ロボット100は、障害物を発見した地点(図11のC)から目標位置(図11のB)に通ずる純粋な最短ルートを導出してもよいし、障害物を発見した地点(図11のC)から障害物を回避しつつ現在ルートに戻り目標位置(図11のB)に通ずる最短ルートを導出してもよい。
Here, a description will be given of dynamic alternative route correction in which an alternative route discovered by AI is identified separately from the current route and obstacles are avoided on the alternative route. For example, suppose that the
そして、ロボット100は、現在ルートとは別にAIで発見した代替ルートを識別し代替ルートで障害物を回避する動的代替ルート補正(図10のルート3)を行う。なお、図10のルート3は、障害物を発見した地点(図11のC)から目標位置(図11のB)に通ずる純粋な最短ルートであり、障害物を発見した地点(図11のC)から障害物を回避しつつ現在ルートに戻り目標位置(図11のB)に通ずる最短ルートである。
The
(ロボット自立走行における障害物検知時オペレータ通知)
本発明の実施形態に係るロボット100は、障害物検知時にオペレータに通知を行う。このとき、例えば、ロボット100は、障害物回避できるか否かに係わらず、障害物検知時にオペレータに通知を行ってよい。さらに、ロボット100は、オペレータへの通知に際し、識別した障害物情報(ダンボール、倒木、危険物などの障害物を表す情報)をオペレータに通知してもよい。
(Operator notification when an obstacle is detected during robot autonomous travel)
The
ここで、迂回可否の識別結果とロボット100のアクションとの対応関係をまとめると、図15のようになる。
Here, the correspondence relationship between the identification result of whether a detour is possible and the action of the
(オペレータ遠隔操作)
本発明の実施形態に係るロボット100は、障害物検知を行い、自立走行(身動き)できなくなってしまった場合、オペレータにその旨(自立走行できないことや発見した障害物について)を通知し、遠隔操作モードに移行し、オペレータによる迂回ルート設定をできるようにしてもよい。遠隔操作モードへの移行は、ロボット100がオペレータの操作端末164に対し、遠隔操作モードへの移行通知を行ってオペレータが操作端末164に対して移行操作をすることでなされ得る。
(operator remote control)
The
遠隔操作モードに移行すると、オペレータは、操作端末164に表示されるエリア監視画面でロボット100の周辺監視を行えるようになり、ロボット100が置かれている状態を観察できるようになる。ここで、遠隔操作モードにおいて、オペレータは迂回ルートを設定する。例えば、ロボット100が、図11のCの位置で障害物を発見し、遠隔操作モードに至った場合、オペレータは、操作端末164に表示される画面(図16や図17)において、走行ルート情報を呼び出し新たなルート(図18の手動ルート)を設定する。この場合、ロボット100は、設定に基づき、障害物を発見した位置(図11のC)から初期位置(図11のA)に移動し、新たなルート(図18の手動ルート)で目標位置(図18のB)に向かって走行する。
When shifting to the remote operation mode, the operator can monitor the surroundings of the
なお、オペレータは、遠隔操作モードで新たなルートを設定後、新たなルートで目標位置に向かって走行しているロボット100の視線の映像を閲覧してもよい。図19は、障害物を発見した位置(図11のC)から初期位置(図11のA)に移動し、新たなルート(図18の手動ルート)で目標位置(図18のB)に向かって走行するロボット100の視線の映像であって、図18のAの位置の映像である。
Note that, after setting a new route in the remote control mode, the operator may view an image of the line of sight of the
(エリア監視画面)
エリア監視画面に表示される映像は、ロボット1000の視線の映像であってもよいし、上記したように形成された自由視点の映像であってもよい。あるいは、エリア監視画面上で、エリア監視画面に表示される映像をロボット100の視線の映像にするか、自由視点の映像にするかをオペレータが切り替え可能であってもよい。
(Area monitoring screen)
The image displayed on the area monitoring screen may be an image of the line of sight of the robot 1000, or may be an image of a free viewpoint formed as described above. Alternatively, the operator may be able to switch on the area monitoring screen whether the image displayed on the area monitoring screen is an image of the line of sight of the
1 情報処理システム
100 ロボット(機器)
101 ネットワーク
102 監視部
103 通信部
104 コミュニケーション部
105 人工知能部
106 移動部
111 エリア監視カメラ
121 タッチパネル
122 スピーカ
123 マイクロフォン
131 感情判断部
132 行動処理部
141 制御データベース
142 対象と位置と感情との紐づけデータテーブル
143 感情とコンテンツとの紐づけデータテーブル
150 IP網
160 管理センタ
161 ゲートウェイ装置
162 ネットワーク
163 コミュニケーション部
164 操作端末
165 管理データベース
166 オペレータと感情との紐づけデータテーブル
171 接続制御部
181 通信部
182 操作部
183 表示部
185 エリア監視画面
301 対象
1
Claims (13)
前記感情識別部によって識別された感情に対応した処理を行う処理部と、
を備える、機器であって、
前記処理部は、前記感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、前記複数の撮像部によって撮像された映像に基づいて、前記機器を斜め上方向から俯瞰した俯瞰映像に前記機器をかたどったグラフィックをレンダリングした自由視点映像を生成し、前記自由視点映像がオペレータの操作端末に送信されるように通信部を制御する、
機器。 an emotion identification unit that identifies the emotion of a target depicted in the video based on the video captured by the plurality of imaging units;
a processing unit that performs processing corresponding to the emotion identified by the emotion identification unit;
A device comprising:
When there is a target whose emotional value of hostility among the emotions is equal to or higher than a first threshold, the processing unit moves the device diagonally upward based on the images captured by the plurality of imaging units. generating a free-viewpoint video by rendering a graphic in the shape of the equipment on an overhead video viewed from above, and controlling a communication unit so that the free-viewpoint video is transmitted to an operating terminal of an operator;
device.
請求項1に記載の機器。 The processing unit may cause the device to perform a predetermined operation based on the position of the target when there is a target whose gaze emotion value among the emotions is equal to or higher than a second threshold. Control,
The device according to claim 1.
請求項2に記載の機器。 The emotional value of the line of sight is identified based on the positional relationship between the line of sight and the device,
The device according to claim 2.
請求項1に記載の機器。 The processing unit controls the moving unit so that the device approaches the target when the emotional value of the first emotion among the emotions satisfies a first condition.
The device according to claim 1.
請求項1に記載の機器。 The processing unit controls the communication unit so that the device and the operation terminal are connected when the emotion value of a second emotion among the emotions satisfies a second condition.
The device according to claim 1.
請求項5に記載の機器。 The operating terminal connected to the device is selected based on the emotional value of a third emotion among the emotions.
The device according to claim 5 .
請求項5に記載の機器。 The processing unit controls a speaker so that the sound emitted by the operator received from the operation terminal is output after the device and the operation terminal are connected.
The device according to claim 5 .
請求項5に記載の機器。 The processing unit controls a display device included in the device so that content corresponding to the second condition is displayed when the emotional value of the second emotion satisfies the second condition.
The device according to claim 5 .
請求項5に記載の機器。 The processing unit controls the communication unit so that the free viewpoint video is transmitted to the operating terminal when the emotional value of the second emotion satisfies the second condition.
The device according to claim 5 .
前記感情に対応した処理を行うことと、
前記感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、前記複数の撮像部によって撮像された映像に基づいて、機器を斜め上方向から俯瞰した俯瞰映像に前記機器をかたどったグラフィックをレンダリングした自由視点映像を生成し、前記自由視点映像がオペレータの操作端末に送信されるように通信部を制御することと、
を含む、情報処理方法。 identifying the emotion of a target depicted in the video based on the video captured by a plurality of imaging units;
performing processing corresponding to the emotion;
If there is a target whose emotional value of hostility among the emotions is equal to or higher than the first threshold, an overhead image of the device viewed from diagonally above is created based on the images captured by the plurality of imaging units. generating a free-viewpoint video by rendering a graphic shaped like the device, and controlling a communication unit so that the free-viewpoint video is transmitted to an operator's operation terminal;
information processing methods, including
複数の撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別する感情識別部と、
前記感情識別部によって識別された感情に対応した処理を行う処理部と、
を備える機器であって、
前記処理部は、前記感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、前記複数の撮像部によって撮像された映像に基づいて、前記機器を斜め上方向から俯瞰した俯瞰映像に前記機器をかたどったグラフィックをレンダリングした自由視点映像を生成し、前記自由視点映像がオペレータの操作端末に送信されるように通信部を制御する、
機器として機能させるためのプログラム。 computer,
an emotion identification unit that identifies the emotion of a target depicted in the video based on the video captured by the plurality of imaging units;
a processing unit that performs processing corresponding to the emotion identified by the emotion identification unit;
A device comprising:
When there is a target whose emotional value of hostility among the emotions is equal to or higher than a first threshold, the processing unit moves the device diagonally upward based on the images captured by the plurality of imaging units. generating a free-viewpoint video by rendering a graphic in the shape of the equipment on an overhead video viewed from above, and controlling a communication unit so that the free-viewpoint video is transmitted to an operating terminal of an operator;
A program to function as a device .
前記機器は、
複数の撮像部によって撮像された映像に基づいて前記映像に写る対象の感情を識別する感情識別部と、
前記感情のうちの所定の感情値が所定の条件を満たす場合には、前記機器とオペレータの操作端末とが接続されるように通信部を制御する処理部と、を備え、
前記処理部は、前記感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、前記複数の撮像部によって撮像された映像に基づいて、前記機器を斜め上方向から俯瞰した俯瞰映像に前記機器をかたどったグラフィックをレンダリングした自由視点映像を生成し、前記自由視点映像がオペレータの操作端末に送信されるように通信部を制御し、
前記管理センタは、
前記感情に基づいて前記オペレータを選択するコミュニケーション部を備える、
情報処理システム。 An information processing system having equipment and a management center,
The equipment includes:
an emotion identification unit that identifies the emotion of a target depicted in the video based on the video captured by the plurality of imaging units;
a processing unit that controls a communication unit so that when a predetermined emotional value of the emotions satisfies a predetermined condition, the device and an operator's operation terminal are connected;
When there is a target whose emotional value of hostility among the emotions is equal to or higher than a first threshold, the processing unit moves the device diagonally upward based on the images captured by the plurality of imaging units. generating a free-viewpoint video by rendering a graphic in the shape of the equipment on an overhead video viewed from above, and controlling a communication unit so that the free-viewpoint video is transmitted to an operator's operating terminal;
The management center is
comprising a communication unit that selects the operator based on the emotion;
Information processing system.
前記感情のうちの所定の感情値が所定の条件を満たす場合には、機器と前記感情に基づいて選択されたオペレータの操作端末とが接続されるように通信部を制御することと、
前記感情のうちの敵意の感情値が第1の閾値以上である対象が存在する場合には、前記複数の撮像部によって撮像された映像に基づいて、前記機器を斜め上方向から俯瞰した俯瞰映像に前記機器をかたどったグラフィックをレンダリングした自由視点映像を生成し、前記自由視点映像がオペレータの操作端末に送信されるように通信部を制御することと、
を有する、情報処理システムの方法。
identifying the emotion of a target depicted in the video based on the video captured by a plurality of imaging units;
If a predetermined emotional value among the emotions satisfies a predetermined condition, controlling a communication unit so that the device and an operating terminal of an operator selected based on the emotion are connected;
If there is a target whose emotional value of hostility among the emotions is equal to or higher than the first threshold, an overhead image of the device viewed diagonally from above is generated based on the images captured by the plurality of imaging units. generating a free-viewpoint video by rendering a graphic shaped like the device, and controlling a communication unit so that the free-viewpoint video is transmitted to an operating terminal of an operator;
A method for an information processing system, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019187168A JP7392377B2 (en) | 2019-10-10 | 2019-10-10 | Equipment, information processing methods, programs, information processing systems, and information processing system methods |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019187168A JP7392377B2 (en) | 2019-10-10 | 2019-10-10 | Equipment, information processing methods, programs, information processing systems, and information processing system methods |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021064067A JP2021064067A (en) | 2021-04-22 |
JP7392377B2 true JP7392377B2 (en) | 2023-12-06 |
Family
ID=75486268
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019187168A Active JP7392377B2 (en) | 2019-10-10 | 2019-10-10 | Equipment, information processing methods, programs, information processing systems, and information processing system methods |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7392377B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7120693B1 (en) * | 2021-04-28 | 2022-08-17 | 株式会社I’mbesideyou | Video image analysis system |
JP7197950B2 (en) * | 2021-04-28 | 2022-12-28 | 株式会社I’mbesideyou | Video image analysis system |
JP7197947B2 (en) * | 2021-04-28 | 2022-12-28 | 株式会社I’mbesideyou | Video image analysis system |
WO2022230154A1 (en) * | 2021-04-29 | 2022-11-03 | 株式会社I’mbesideyou | Video analysis system |
JP7156742B1 (en) | 2021-04-29 | 2022-10-19 | 株式会社I’mbesideyou | Video image analysis system |
JP7156743B1 (en) | 2021-04-29 | 2022-10-19 | 株式会社I’mbesideyou | Video image analysis system |
US20240253242A1 (en) * | 2021-06-10 | 2024-08-01 | Sony Group Corporation | Robot operating system |
Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004230480A (en) | 2003-01-28 | 2004-08-19 | Sony Corp | Robot device and robot control method, recording medium, and program |
JP2006247780A (en) | 2005-03-10 | 2006-09-21 | Advanced Telecommunication Research Institute International | Communication robot |
JP2007229817A (en) | 2006-02-27 | 2007-09-13 | Toyota Motor Corp | Autonomous mobile robot |
JP2009075713A (en) | 2007-09-19 | 2009-04-09 | Toppan Printing Co Ltd | Feeling determination method |
JP2010066844A (en) | 2008-09-09 | 2010-03-25 | Fujifilm Corp | Method and device for processing video content, and program for processing video content |
JP2010154395A (en) | 2008-12-26 | 2010-07-08 | Sony Corp | Information processing apparatus and method, and program |
JP2012223457A (en) | 2011-04-21 | 2012-11-15 | Nikon Corp | Electronic apparatus |
JP2014206903A (en) | 2013-04-15 | 2014-10-30 | オムロン株式会社 | Facial expression estimation device, control method, control program, and recording medium |
JP2016522465A (en) | 2013-03-15 | 2016-07-28 | ジボ インコーポレイテッド | Apparatus and method for providing a persistent companion device |
JP2017073107A (en) | 2015-10-08 | 2017-04-13 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Control method for information presentation device, and information presentation device |
WO2017175559A1 (en) | 2016-04-08 | 2017-10-12 | Groove X株式会社 | Autonomous robot exhibiting shyness |
JP2017207801A (en) | 2016-05-16 | 2017-11-24 | Cocoro Sb株式会社 | Customer response control system, customer response system, and program |
US20180068321A1 (en) | 2016-09-06 | 2018-03-08 | Fujitsu Limited | Reception supporting method and device |
JP2018113616A (en) | 2017-01-12 | 2018-07-19 | ソニー株式会社 | Information processing unit, information processing method, and program |
JP2019008510A (en) | 2017-06-23 | 2019-01-17 | カシオ計算機株式会社 | Robot, robot control method and program |
JP2019005846A (en) | 2017-06-23 | 2019-01-17 | カシオ計算機株式会社 | Robot, control method and program of the robot |
JP2019091233A (en) | 2017-11-14 | 2019-06-13 | 株式会社Jvcケンウッド | Notification control system, notification control method, and program |
WO2019163279A1 (en) | 2018-02-26 | 2019-08-29 | ソニー株式会社 | Information processing device, information processing method, and program |
-
2019
- 2019-10-10 JP JP2019187168A patent/JP7392377B2/en active Active
Patent Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004230480A (en) | 2003-01-28 | 2004-08-19 | Sony Corp | Robot device and robot control method, recording medium, and program |
JP2006247780A (en) | 2005-03-10 | 2006-09-21 | Advanced Telecommunication Research Institute International | Communication robot |
JP2007229817A (en) | 2006-02-27 | 2007-09-13 | Toyota Motor Corp | Autonomous mobile robot |
JP2009075713A (en) | 2007-09-19 | 2009-04-09 | Toppan Printing Co Ltd | Feeling determination method |
JP2010066844A (en) | 2008-09-09 | 2010-03-25 | Fujifilm Corp | Method and device for processing video content, and program for processing video content |
JP2010154395A (en) | 2008-12-26 | 2010-07-08 | Sony Corp | Information processing apparatus and method, and program |
JP2012223457A (en) | 2011-04-21 | 2012-11-15 | Nikon Corp | Electronic apparatus |
JP2016522465A (en) | 2013-03-15 | 2016-07-28 | ジボ インコーポレイテッド | Apparatus and method for providing a persistent companion device |
JP2014206903A (en) | 2013-04-15 | 2014-10-30 | オムロン株式会社 | Facial expression estimation device, control method, control program, and recording medium |
JP2017073107A (en) | 2015-10-08 | 2017-04-13 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Control method for information presentation device, and information presentation device |
WO2017175559A1 (en) | 2016-04-08 | 2017-10-12 | Groove X株式会社 | Autonomous robot exhibiting shyness |
JP2017207801A (en) | 2016-05-16 | 2017-11-24 | Cocoro Sb株式会社 | Customer response control system, customer response system, and program |
US20180068321A1 (en) | 2016-09-06 | 2018-03-08 | Fujitsu Limited | Reception supporting method and device |
JP2018113616A (en) | 2017-01-12 | 2018-07-19 | ソニー株式会社 | Information processing unit, information processing method, and program |
JP2019008510A (en) | 2017-06-23 | 2019-01-17 | カシオ計算機株式会社 | Robot, robot control method and program |
JP2019005846A (en) | 2017-06-23 | 2019-01-17 | カシオ計算機株式会社 | Robot, control method and program of the robot |
JP2019091233A (en) | 2017-11-14 | 2019-06-13 | 株式会社Jvcケンウッド | Notification control system, notification control method, and program |
WO2019163279A1 (en) | 2018-02-26 | 2019-08-29 | ソニー株式会社 | Information processing device, information processing method, and program |
Non-Patent Citations (3)
Title |
---|
上田 優子 他,拡張自由視点画像生成を用いた遠隔移動ロボット操縦インタフェース ,情報処理学会研究報告 2012(平成24)年度▲5▼ コンピュータビジョンとイメージメディア(CVIM) No.185 [CD-ROM] ,日本,一般社団法人情報処理学会,2013年02月15日,第1-6頁 |
神原 利彦 他,複数の全方位カメラからの自由視点画像の生成,電子情報通信学会2004年総合大会講演論文集 基礎・境界,日本,社団法人電子情報通信学会,2004年03月08日,第343頁 |
鬼頭 優 他,複数の魚眼カメラを用いた自由視点型俯瞰画像合成システムの開発,FIT2019 第18回情報科学技術フォーラム 講演論文集 第1分冊 選奨論文・一般論文 モデル・アルゴリズム・プログラミング ソフトウェア ハードウェア・アーキテクチャ ,日本,一般社団法人情報処理学会 ,一般社団法人電子情報通信学会,2019年08月20日,第245-246頁 |
Also Published As
Publication number | Publication date |
---|---|
JP2021064067A (en) | 2021-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7392377B2 (en) | Equipment, information processing methods, programs, information processing systems, and information processing system methods | |
US9223786B1 (en) | Communication in a sensory immersive motion capture simulation environment | |
US11330951B2 (en) | Robot cleaner and method of operating the same | |
JP7180613B2 (en) | Information processing device and information processing method | |
KR102463806B1 (en) | Electronic device capable of moving and method for operating thereof | |
KR20190086631A (en) | An artificial intelligence apparatus for cleaning in consideration of user's action and method for the same | |
JP4315872B2 (en) | Mobile robot controller | |
JP2022118200A (en) | Mobile device, method for controlling mobile device and program | |
KR20190095193A (en) | An artificial intelligence apparatus for managing operation of artificial intelligence system and method for the same | |
JP6609588B2 (en) | Autonomous mobility system and autonomous mobility control method | |
JP7279646B2 (en) | Information processing device, information processing method and program | |
JP7439826B2 (en) | Information processing device, information processing method, and program | |
JP2020004182A (en) | Robot, robot control program and robot control method | |
JP2017170568A (en) | Service providing robot system | |
US11030979B2 (en) | Information processing apparatus and information processing method | |
JP7415940B2 (en) | Information processing device and method, and program | |
US11986959B2 (en) | Information processing device, action decision method and program | |
CN112154018B (en) | Control device, control method, and program | |
JP7408991B2 (en) | Moving object system, moving object, control program, and control method | |
US10445791B2 (en) | Systems and methods for autonomous assistance and routing | |
WO2021044953A1 (en) | Information processing system and information processing method | |
JP4793904B2 (en) | Communication robot system and communication robot | |
CN115904082A (en) | Multi-mode interaction system and interaction method | |
JP5633003B2 (en) | Recording control apparatus and recording control program | |
JP7258438B2 (en) | ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220809 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230314 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231013 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231024 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7392377 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |