[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2016090655A - Voice recognition robot system, voice recognition robot, controller for voice recognition robot, communication terminal for controlling voice recognition robot, and program - Google Patents

Voice recognition robot system, voice recognition robot, controller for voice recognition robot, communication terminal for controlling voice recognition robot, and program Download PDF

Info

Publication number
JP2016090655A
JP2016090655A JP2014221580A JP2014221580A JP2016090655A JP 2016090655 A JP2016090655 A JP 2016090655A JP 2014221580 A JP2014221580 A JP 2014221580A JP 2014221580 A JP2014221580 A JP 2014221580A JP 2016090655 A JP2016090655 A JP 2016090655A
Authority
JP
Japan
Prior art keywords
command
unit
voice
robot
voice recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014221580A
Other languages
Japanese (ja)
Inventor
矢島 俊輔
Shunsuke Yajima
俊輔 矢島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014221580A priority Critical patent/JP2016090655A/en
Publication of JP2016090655A publication Critical patent/JP2016090655A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Electric Vacuum Cleaner (AREA)

Abstract

PROBLEM TO BE SOLVED: To increase safety of a voice recognition robot.SOLUTION: A process that a voice recognition robot executes includes: a step (S1210) in which an operation control part receives input of an operation instruction (for example, "Clean.") in voice given to a voice input part; a step (S1220) in which the operation control part starts an operation (for example, cleaning) in response to the operation instruction; a step (S1230) in which the operation control part detects a stop switch of a robot body being depressed or detects a remote control signal for stopping the robot being received from a remote controller; a step (S1240) in which the operation control part makes a display part 6 display stopping in response to the depression of the stop switch once confirming that the signal detected in the step S1230 is prior to other instructions; and a step (S1250) in which the operation control part stops outputting the operation signal being output to the operation part.SELECTED DRAWING: Figure 12

Description

本開示は、音声認識の結果に応じて動作するロボットの制御に関し、より特定的には、当該音声認識ロボットの安全性を向上させる技術に関する。   The present disclosure relates to control of a robot that operates according to a result of speech recognition, and more particularly, to a technique for improving the safety of the speech recognition robot.

ネットワークを介してロボットを制御する技術が知られている。たとえば、特開2005−186234号公報(特許文献1)は、「ネットワークに接続した複数の制御装置から制御される場合に動作を円滑に実行できるネットワークロボット」を開示している([要約]参照)。   A technique for controlling a robot via a network is known. For example, Japanese Patent Laying-Open No. 2005-186234 (Patent Document 1) discloses “a network robot that can smoothly execute an operation when controlled by a plurality of control devices connected to a network” (see [Summary]). ).

特開2005−186234号公報に開示されたネットワークロボットは、「制御を許諾された許諾ユーザを特定するユーザ情報及び許諾ユーザがネットワークロボットを制御する際の優先度情報を予め記憶した記憶手段と、指令を送ったユーザが許諾ユーザか否かをユーザ情報に基づいて判定するユーザ判定手段と、優先度情報に基づいて指令による制御の順番を判定する優先度判定手段と、優先度判定手段の判定に基づいて自らを制御する制御手段と」を備える([要約]の[解決手段]参照)。   The network robot disclosed in Japanese Patent Application Laid-Open No. 2005-186234 includes “a storage unit that stores in advance user information for identifying a licensed user for whom control is permitted and priority information for the licensed user to control the network robot; User determination means for determining whether the user who sent the command is a licensed user based on user information, priority determination means for determining the order of control based on the command based on priority information, and determination of priority determination means And control means for controlling itself based on (see [Solution means] in [Summary]).

特開2005−186234号公報JP 2005-186234 A

ロボットの動作に関し、安全性を保障する必要がある。たとえば、国際規格ISO(International Standard Organization)13482は、装着型ロボット(Physical assistant robot)、移動作業型ロボット(mobile servant robot)、搭乗型ロボット(person carrier robot)などの安全性を規定している。   It is necessary to ensure the safety of the robot operation. For example, the international standard ISO (International Standard Organization) 13482 defines safety of a wearable robot (Physical assistant robot), a mobile servant robot, a boarding robot (person carrier robot), and the like.

また、たとえば、音声で制御される自立型ロボットの場合、音声制御であるために解決しなければならないことがある。たとえば、音声認識による動作、ネットワーク外からの遠隔操作等、さまざまな操作方法が考えられる。また、音声で制御されるロボットの場合、特定の操作装置(リモコン)がない場合もある。さらに、複数の人による複数の制御が重複して行われる可能性もある。したがって、優先度を用いた制御よりも安全性が向上する技術が必要とされている。   In addition, for example, in the case of a self-supporting robot controlled by voice, since it is voice control, it may be necessary to solve it. For example, various operation methods such as an operation based on voice recognition and a remote operation from outside the network are conceivable. In the case of a robot controlled by voice, there may be no specific operating device (remote controller). Furthermore, a plurality of controls by a plurality of people may be performed in an overlapping manner. Therefore, there is a need for a technique that improves safety over control using priority.

本開示は、上述のような問題点を解決するためになされたものであって、ある局面における目的は、安全性が向上する音声認識ロボットシステムを提供することである。他の局面における目的は、安全性が向上する音声認識ロボットを提供することである。他の局面における目的は、ロボットの安全性が向上するように当該ロボットを制御するための制御装置を提供することである。他の局面における目的は、音声認識ロボットの安全性が向上するように当該音声認識ロボットを制御するための通信端末を提供することである。他の局面における目的は、音声認識ロボットシステムの安全性が向上するように当該音声認識ロボットシステムを制御するためのプログラムを提供することである。さらに他の局面における目的は、音声認識ロボットの安全性が向上するように当該音声認識ロボットを制御するためのプログラムを提供することである。   The present disclosure has been made to solve the above-described problems, and an object in one aspect is to provide a voice recognition robot system with improved safety. An object in another aspect is to provide a voice recognition robot with improved safety. An object in another aspect is to provide a control device for controlling the robot so that the safety of the robot is improved. An object in another aspect is to provide a communication terminal for controlling the voice recognition robot so that the safety of the voice recognition robot is improved. An object in another aspect is to provide a program for controlling the voice recognition robot system so that the safety of the voice recognition robot system is improved. Still another object of the present invention is to provide a program for controlling the voice recognition robot so that the safety of the voice recognition robot is improved.

一実施の形態に従う音声認識ロボットシステムは、音声の入力を受け付けるように構成された音声入力部と、入力された音声を処理するように構成された音声認識部と、命令の入力を受け付けるように構成された入力部と、予め規定された動作を行なうように構成された動作部と、音声入力部に入力された音声による命令または入力部によって受け付けられた命令に応じて、動作部の動作を制御するように構成された制御部とを備える。制御部は、第1の命令が音声で与えられた場合に動作部を作動させ、第1の命令の後に第2の命令が入力部を介して与えられた場合に、動作部に、第1の命令に基づく動作を停止させ、第2の命令に基づく動作を行なわせるように構成されている。   A voice recognition robot system according to an embodiment receives a voice input unit configured to receive a voice input, a voice recognition unit configured to process the input voice, and a command input The operation unit operates in accordance with an input unit configured, an operation unit configured to perform a predetermined operation, and a voice command input to the voice input unit or a command received by the input unit. A control unit configured to control. The control unit activates the operation unit when the first command is given by voice, and when the second command is given via the input unit after the first command, The operation based on the second command is stopped and the operation based on the second command is performed.

ある局面によると、音声認識の結果に応じて動作するロボットの安全性が向上し得る。
この発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解されるこの発明に関する次の詳細な説明から明らかとなるであろう。
According to an aspect, the safety of a robot that operates according to the result of speech recognition can be improved.
The above and other objects, features, aspects and advantages of the present invention will become apparent from the following detailed description of the present invention taken in conjunction with the accompanying drawings.

音声認識ロボットシステム10の全体構成を表す図である。1 is a diagram illustrating an overall configuration of a voice recognition robot system 10. FIG. ロボット110が第1の命令に基づいて動作している場合に、第2の命令が与えられた場合の動作を表す図である。It is a figure showing operation | movement when the 2nd command is given when the robot 110 is operate | moving based on a 1st command. システム300によって実現される機能の構成を表すブロック図である。3 is a block diagram illustrating a configuration of functions realized by a system 300. FIG. 記憶部304におけるデータの格納の一態様を概念的に表す図である。FIG. 3 is a diagram conceptually illustrating one aspect of data storage in a storage unit 304. 本実施の形態に係るロボット110の構成を表すブロック図である。It is a block diagram showing the structure of the robot 110 which concerns on this Embodiment. サーバ120,130を実現するコンピュータ600のハードウェア構成を表すブロック図である。2 is a block diagram illustrating a hardware configuration of a computer 600 that implements servers 120 and 130. FIG. 携帯端末140のハードウェア構成を表すブロック図である。4 is a block diagram illustrating a hardware configuration of a mobile terminal 140. FIG. モニタ35に表示されるモニタ画面の一例を表す図である。6 is a diagram illustrating an example of a monitor screen displayed on a monitor 35. FIG. 本実施の形態に係るロボット110に対して、二人のユーザ(お母さんと子ども)がそれぞれ命令を与えた場合におけるロボット110の動作の変化を表すタイミングチャートである。It is a timing chart showing the change of operation of robot 110 when two users (mother and child) give a command to robot 110 concerning this embodiment, respectively. 音声認識ロボットシステム10が実行する処理の一部を表すフローチャートである。4 is a flowchart showing a part of processing executed by the speech recognition robot system 10. 第2の実施の形態に係る音声認識ロボットシステムの動作の変化を表すタイミングチャートである。It is a timing chart showing the change of operation of the voice recognition robot system concerning a 2nd embodiment. システム300が実行する処理の一部を表すフローチャートである。4 is a flowchart showing a part of processing executed by system 300. 第3の実施の形態に係る音声認識ロボットシステムの動作の変化を表すタイミングチャートである。It is a timing chart showing the change of operation of the voice recognition robot system concerning a 3rd embodiment. 動作制御部308が実行する処理の一部を表すフローチャートである。6 is a flowchart illustrating a part of processing executed by an operation control unit 308.

以下、図面を参照しつつ、本開示の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

<第1の実施の形態>
まず、優先制御において優先順位を決める要素について説明する。優先順位を決める要素としては、たとえば、(1)音声の指示者(例、母>娘>父>客>不明)、(2)指示方法(例、本体スイッチ>赤外線リモコン>音声>ウェブ)、(3)ウェブ、(4)緊急停止、がある。(1)音声の指示者に基づく優先順位の場合、音声により指示者(発話者)が認識される。指示者が「不明」である場合には、当該発話に基づく動作を行なわない。(2)優先順位が操作方法に基づく場合、現場での指示が最優先される。現場での指示は、たとえば、機器が備えるスイッチの操作、リモコン操作による指示等を含む。この場合、指示者を認識することなく、スイッチあるいはリモコンの操作に基づいて、制御が実行される。(3)ウェブの場合、たとえば、音声認識ロボット(例、自走式掃除機)を制御するための画面において命令が入力される。この場合、当該画面を表示している端末のユーザの名前が、当該命令を入力した指示者として表示され得る。したがって、他のユーザが当該画面を参照している場合、当該他のユーザは、その命令が誰によって入力されたものであるかを容易に認識することができる。(4)緊急停止の場合、緊急停止の指示(特定指示)は、いかなる場合も最優先で処理される。この場合、緊急指示が誰によって与えられたかは考慮されない。音声認識ロボットは、緊急指示の入力を検知すると、即座に実行している動作を停止する。
<First Embodiment>
First, elements for determining priority in priority control will be described. For example, (1) voice instructor (eg, mother>daughter>father>customer> unknown), (2) instruction method (eg, main unit switch> infrared remote control>voice> web), (3) Web, (4) Emergency stop. (1) In the case of the priority order based on the voice instructor, the instructor (speaker) is recognized by voice. When the instructor is “unknown”, the operation based on the utterance is not performed. (2) When the priority order is based on the operation method, the on-site instruction has the highest priority. The instruction at the site includes, for example, an operation of a switch provided in the device, an instruction by a remote control operation, and the like. In this case, the control is executed based on the operation of the switch or the remote controller without recognizing the instructor. (3) In the case of the web, for example, a command is input on a screen for controlling a voice recognition robot (eg, a self-propelled cleaner). In this case, the name of the user of the terminal displaying the screen can be displayed as the instructor who has input the command. Therefore, when another user is referring to the screen, the other user can easily recognize who the command is input by. (4) In the case of an emergency stop, the emergency stop instruction (specific instruction) is processed with the highest priority in any case. In this case, it is not considered who gave the emergency instruction. When the voice recognition robot detects the input of the emergency instruction, the voice recognition robot immediately stops the operation being executed.

本実施の形態において、停止とは、中止および中断を含み得る。すなわち、ある局面において音声認識ロボットが、その動作を中止する場合がある。当該動作が中止されると、以降は、その動作は行なわれない。別の局面において、音声認識ロボットが、その動作を中断する場合がある。当該動作が中断されても、その後に、音声認識ロボットが動作を再開するための条件が成立すると、当該音声認識ロボットは、動作を行なう。この時の動作は、必ずしも、中断前の動作と同じでなくてもよい。   In the present embodiment, the stop may include cancellation and interruption. That is, the voice recognition robot may stop its operation in a certain situation. When the operation is stopped, the operation is not performed thereafter. In another aspect, the voice recognition robot may interrupt its operation. Even if the operation is interrupted, the voice recognition robot performs the operation when a condition for the voice recognition robot to resume the operation is satisfied. The operation at this time is not necessarily the same as the operation before the interruption.

さらに別の局面において、音声認識ロボットは、所定の場所(例、充電ステーション)に移動してもよい。なお、緊急指示を与える方法は、特に限られない。   In yet another aspect, the voice recognition robot may move to a predetermined location (eg, a charging station). In addition, the method of giving an emergency instruction is not particularly limited.

図1を参照して、本実施の形態に係る音声認識ロボットシステム10(以下、単に「システム10」ともいう。)について説明する。図1は、システム10の全体構成を表す図である。ある局面において、システム10は、ロボット110と、サーバ120と、携帯端末140とを備える。ロボット110は、たとえば、お掃除ロボットその他の機器であって、命令に応じて動作可能な機器である。ロボット110とサーバ120とサーバ130とは、たとえば、家、事務所その他の一定の範囲であって一人以上のユーザが特定される範囲に設置される。ロボット110とサーバ120とサーバ130とは、インターネット150に接続可能である。   A speech recognition robot system 10 (hereinafter also simply referred to as “system 10”) according to the present embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating the overall configuration of the system 10. In one aspect, the system 10 includes a robot 110, a server 120, and a mobile terminal 140. The robot 110 is, for example, a cleaning robot or other equipment that is operable in response to a command. The robot 110, the server 120, and the server 130 are installed, for example, in a certain range such as a house, office, or the like where one or more users are specified. The robot 110, the server 120, and the server 130 can be connected to the Internet 150.

ある局面において、ロボット110は、音声、リモコン信号、遠隔操作による制御信号、タッチ操作等によって与えられる命令に基づいて作動する。   In one aspect, the robot 110 operates based on a command given by voice, a remote control signal, a remote control signal, a touch operation, or the like.

サーバ120とサーバ130とは、周知の構成を有するコンピュータによって実現される。サーバ120は、たとえば、家庭内のネットワークに接続される機器を管理するサーバとして機能する。当該機器は、お掃除ロボット、テレビ、エアコン、冷蔵庫、照明、給湯機器、調理機器、電気自動車等を含み得る。   The server 120 and the server 130 are realized by a computer having a known configuration. The server 120 functions as a server that manages devices connected to a home network, for example. The equipment may include a cleaning robot, a television, an air conditioner, a refrigerator, lighting, a hot water supply equipment, a cooking equipment, an electric vehicle, and the like.

サーバ130は、たとえば、ロボットによるサービス(癒しサービス、話し相手、遊び相手等)を提供する事業者によって管理され得るサーバとして機能する。たとえば、サーバ130は、各契約に応じて、上記のサービスを各家庭に提供し得る。   The server 130 functions as a server that can be managed by a business operator that provides services (healing service, talking partner, play partner, etc.) using a robot, for example. For example, the server 130 may provide the above services to each home according to each contract.

携帯端末140は、スマートフォン、タブレット端末等によって実現される。携帯端末140は、ロボット110に対して、操作信号を直接送信し得る。たとえば、携帯端末140は、赤外線信号、Bluetooth(登録商標)通信のための信号、NFC(Near Field Communication)信号等を送信し得る。別の局面において、携帯端末140は、間接的に操作信号を送信し得る。より具体的には、携帯端末140は、インターネット150を介して、あるいは、WiFi(Wireless Fidelity)によってロボット110に対して信号を送信し得る。   The mobile terminal 140 is realized by a smartphone, a tablet terminal, or the like. The mobile terminal 140 can directly transmit an operation signal to the robot 110. For example, the portable terminal 140 can transmit an infrared signal, a signal for Bluetooth (registered trademark) communication, an NFC (Near Field Communication) signal, and the like. In another aspect, the mobile terminal 140 may transmit the operation signal indirectly. More specifically, the mobile terminal 140 can transmit a signal to the robot 110 via the Internet 150 or by WiFi (Wireless Fidelity).

音声認識ロボットシステム10は、ある局面において、ロボット110の状態を報知し得る。報知される内容は、たとえば、(1)誰(または何)の指示で動作しているか(例、お母さんの指示で〜)、(2)何をしているのか(例、掃除中です〜)、(3)ロボット110に与えられた指示に対する応答(例、「〜なのでできません。」、「〜なので終わるまで待っててね。」、「はい、〜を始めます。」、「はい、〜を中断して〜を始めます。」、「〜を再開します。」)等を含み得る。   The speech recognition robot system 10 can notify the state of the robot 110 in a certain situation. The contents to be notified are, for example, (1) who (or what) instruction is working (eg, by mother's instruction), (2) what is being done (eg, cleaning is in progress) , (3) Responses to instructions given to the robot 110 (e.g. “I can't do it”, “I ’ll wait until it ’s over”), “Yes, start with”, “Yes,” May be suspended and begin "," "restarts".), Etc.

報知方法は、たとえば、(1)ロボット110の本体(例、スピーカ、表示部、LED、動作(自転運動、手足の動き、手話等))を用いる態様、(2)ウェブ(ネットワーク上の掲示板、特定の画面等)に表示される態様、(3)リモコン(携帯端末140をリモコンとして使用している場合)に内容を表示する態様、(4)その他の表示領域(たとえば、表示部を備えるテレビその他の家電)等を含む。   The notification method includes, for example, (1) a mode using the main body of the robot 110 (eg, speaker, display unit, LED, operation (spinning motion, limb movement, sign language, etc.)), (2) web (a bulletin board on a network, A mode displayed on a specific screen or the like, (3) a mode where content is displayed on a remote control (when the portable terminal 140 is used as a remote control), and (4) other display area (for example, a television having a display unit) Other household appliances).

報知のタイミングは、たとえば、(1)ロボット110が報知の指示を受信したとき(例、「今何しているの?」)、(2)動作の指示が音声認識ロボット(たとえば、ロボット110)に与えられたとき、(3)予約された動作を開始するとき、(4)予め定められたタイミングでロボット110がウェブにアップ(例、「今、お母さんの指示で掃除しています。」)等を含む。   The notification timing is, for example, (1) when the robot 110 receives a notification instruction (eg, “What are you doing now?”), (2) the operation instruction is a voice recognition robot (for example, the robot 110). (3) When the reserved motion is started, (4) The robot 110 is uploaded to the web at a predetermined timing (eg, “I am cleaning at the instruction of my mother”). Etc.

<動作概要>
図2を参照して、ロボット110の動作の概要について説明する。図2は、ロボット110が第1の命令に基づいて動作している場合に、第2の命令が与えられた場合の動作を表す図である。
<Overview of operation>
An outline of the operation of the robot 110 will be described with reference to FIG. FIG. 2 is a diagram illustrating an operation when the second command is given when the robot 110 is operating based on the first command.

場面(A)に示されるように、ある局面において、ロボット110は、第1のユーザ(お母さん)から与えられた第1の命令に基づいて掃除している。そこに、第2のユーザ(子供200)が「しりとりしよう」と発話する。ロボット110は、その発話の内容を認識し、当該発話を与えたユーザ(第2のユーザ)の優先順位と、掃除の指示を与えたユーザ(第2のユーザ)の優先順位とを比較する。ロボット110の各ユーザの優先順位は、たとえば、ロボット110、サーバ120,130、携帯端末140のいずれかの機器に保存されている。当該優先順位がロボット110以外の他の機器に保存されている場合には、ロボット110は、当該他の機器と通信して、優先順位に基づく判断結果を当該他の機器から受信して、判断結果に基づいて応答する。   As shown in the scene (A), in one aspect, the robot 110 is cleaning based on a first command given by a first user (mother). Then, the second user (child 200) utters “Let's dig up”. The robot 110 recognizes the content of the utterance and compares the priority of the user (second user) who gave the utterance with the priority of the user (second user) who gave the cleaning instruction. The priority order of each user of the robot 110 is stored in, for example, any one of the robot 110, the servers 120 and 130, and the mobile terminal 140. When the priority is stored in a device other than the robot 110, the robot 110 communicates with the other device, receives a determination result based on the priority from the other device, and determines Respond based on the results.

場面(A)の場合、お母さん(第1のユーザ)の優先順位は、子供200(第2のユーザ)の優先順位よりも高い。したがって、ロボット110は、子供200から与えられた音声から認識された指示(すなわち「しりとりしよう」という発話)に対して、当該指示に基づく動作を実行できない旨を回答する。たとえば、ロボット110は、「お母さんの指示で掃除しているのでできません。」と応答する。   In the case of the scene (A), the priority order of the mother (first user) is higher than the priority order of the child 200 (second user). Therefore, the robot 110 replies to the instruction recognized from the voice given from the child 200 (that is, the utterance “Let's talk”) that the operation based on the instruction cannot be executed. For example, the robot 110 responds “Can't do this because it is being cleaned by the mother's instructions”.

次に、場面(B)に示されるように、別の局面において、ロボット110がお母さん(第1のユーザ)の指示に基づいて掃除している場合に、子供200が、リモコン210を用いて、ロボット110の運転を停止させようとする場合がある。一例として、ロボット110の進行方向にジグソーパズルが展開されている場合において、ロボット200がジグソーパズルの上を走行する恐れがあるときである。このような場合、子供200は、ロボット110のリモコン210を用いて、ロボット110を緊急停止させることになる。子供200がリモコン210の停止スイッチ(図示しない)を押下すると、ロボット110は、掃除の指示(第1の命令)が与えられた後に停止の指示(第2の命令)をリモコン210から受信したことを検知する。仮に、第1の命令を与えたユーザ(お母さん)の優先順位が、第2の命令を与えたユーザ(子供200)の優先順位よりも高くても、ロボット110は、音声以外の命令(たとえば、リモコン210からの制御信号に基づく命令)を優先し、停止する。なお、ロボット110は、停止前に、リモコン210からの命令に応答することを明確にするために、音声で「お母さんの指示で掃除しているけど、停止。」と出力し得る。あるいは、ロボット110は、緊急停止を報知するための音(たとえばブザー)を鳴動してもよい。さらには別の局面において、ロボット110は、緊急停止を示すように、ライトを点灯させてもよい。   Next, as shown in the scene (B), in another aspect, when the robot 110 is cleaning based on the instruction of the mother (first user), the child 200 uses the remote controller 210, There is a case where the operation of the robot 110 is to be stopped. As an example, when a jigsaw puzzle is developed in the traveling direction of the robot 110, the robot 200 may travel on the jigsaw puzzle. In such a case, the child 200 makes an emergency stop of the robot 110 using the remote controller 210 of the robot 110. When the child 200 presses a stop switch (not shown) of the remote controller 210, the robot 110 receives a stop instruction (second instruction) from the remote controller 210 after a cleaning instruction (first instruction) is given. Is detected. Even if the priority level of the user (mother) who gave the first command is higher than the priority level of the user (child 200) who gave the second command, the robot 110 may receive commands other than voice (for example, A command based on a control signal from the remote controller 210 is prioritized and stopped. In order to clarify that the robot 110 responds to a command from the remote controller 210 before stopping, the robot 110 can output “Sound is being cleaned by the instruction of the mother but stopped.” By voice. Alternatively, the robot 110 may sound a sound (for example, a buzzer) for notifying an emergency stop. In yet another aspect, the robot 110 may turn on the light to indicate an emergency stop.

図3を参照して、音声認識ロボットシステム(以下、単に「システム300」ともいう。)の構成について説明する。図3は、システム300によって実現される機能の構成を表すブロック図である。システム300は、1つ以上の命令、たとえば、第1の命令321と第2の命令331の入力を受け付けて、各命令を与えたユーザの優先順位に基づいて動作し得る。   With reference to FIG. 3, the configuration of a voice recognition robot system (hereinafter also simply referred to as “system 300”) will be described. FIG. 3 is a block diagram illustrating a configuration of functions realized by the system 300. System 300 may accept input of one or more instructions, eg, first instruction 321 and second instruction 331, and operate based on the priority of the user who provided each instruction.

システム300は、指示入力部301と、音声入力部302と、音声出力部303と、記憶部304と、音声処理部305と、表示部306と、優先順位判断部307と、動作制御部308と、通信部309と、動作部310とを備える。   The system 300 includes an instruction input unit 301, a voice input unit 302, a voice output unit 303, a storage unit 304, a voice processing unit 305, a display unit 306, a priority order determination unit 307, and an operation control unit 308. The communication unit 309 and the operation unit 310 are provided.

ある局面において、システム300は、ロボット110単体として実現され得る。別の局面において、システム300は、ロボット110と音声認識処理機能を有する他の情報処理通信装置(たとえば、サーバ120、サーバ130、携帯端末140の少なくとも一つ)とによって実現され得る。したがって、指示入力部301と、音声入力部302と、音声出力部303と、記憶部304と、音声処理部305と、表示部306と、優先順位判断部307と、動作制御部308と、通信部309と、動作部310とは、常に、一つの機器において実現される必要はなく、その一部が、通信ネットワークによって接続可能な他の装置において実現されてもよい。   In one aspect, the system 300 can be realized as the robot 110 alone. In another aspect, system 300 can be realized by robot 110 and another information processing communication device having a voice recognition processing function (for example, at least one of server 120, server 130, and portable terminal 140). Therefore, the instruction input unit 301, the voice input unit 302, the voice output unit 303, the storage unit 304, the voice processing unit 305, the display unit 306, the priority order determination unit 307, the operation control unit 308, the communication The unit 309 and the operation unit 310 do not always have to be realized in one device, and a part thereof may be realized in another device connectable by a communication network.

指示入力部301は、システム300に対する信号の入力を受け付ける。たとえば、指示入力部301は、リモコン信号、パケット信号、赤外線信号その他の無線信号に基づく指示、あるいは、ハードウェアスイッチの操作に基づく指示の入力を受け付ける。ハードウェアスイッチは、トグルスイッチその他のボタンによって実現され得る。   The instruction input unit 301 receives a signal input to the system 300. For example, the instruction input unit 301 receives an instruction based on a remote control signal, a packet signal, an infrared signal, or another wireless signal, or an instruction based on an operation of a hardware switch. The hardware switch can be realized by a toggle switch or other buttons.

音声入力部302は、音声の入力を受け付ける。音声入力部302は、音を集める集音器としても実現され得る。音声入力部302は、たとえば、内蔵マイク、あるいは、着脱可能なマイクによって実現される。   The voice input unit 302 accepts voice input. The voice input unit 302 can also be realized as a sound collector that collects sound. The voice input unit 302 is realized by, for example, a built-in microphone or a detachable microphone.

音声出力部303は、音声処理部305から出力される信号に基づいて、音声を出力する。たとえば、音声出力部303は、システム300の状態を表すメッセージを音声で出力する。当該メッセージは、たとえば、「掃除中」、「緊急停止します」、「しりとりします」、「タイマーによる予約設定を受け付けました」、「予約設定をキャンセルしました」、「予約を受け付けられません」等を含むが、メッセージはこれらに限られず、少なくともロボット110が備える機能を報知するメッセージが使用され得る。音声出力部303は、少なくとも一つ以上のスピーカによって実現される。   The audio output unit 303 outputs audio based on the signal output from the audio processing unit 305. For example, the voice output unit 303 outputs a message representing the state of the system 300 by voice. The message can be, for example, “Cleaning”, “Emergency stop”, “Shit out”, “Reservation setting accepted by timer”, “Reservation canceled”, “Reservation not accepted” However, the message is not limited to these, and a message that informs at least the function of the robot 110 may be used. The audio output unit 303 is realized by at least one speaker.

記憶部304は、システム300の登録された一人以上のユーザの各々のユーザに割り当てられる優先順位を保持する。記憶部304は、たとえば、フラッシュメモリ、ハードディスクその他の不揮発性のデータ記録媒体によって実現され得る。ある局面において、優先順位は、システム300の管理者またはユーザによって設定される。別の局面において、優先順位は、各ユーザの属性に応じて割り当てられ得る。たとえば、優先順位の高低は、各ユーザの年齢の高低に対応し得る。さらに別の局面において、優先順位は、ランダムに割り当てられてもよい。   The storage unit 304 holds the priority assigned to each of one or more registered users of the system 300. The storage unit 304 can be realized by, for example, a flash memory, a hard disk, or other non-volatile data recording medium. In certain aspects, priorities are set by an administrator or user of system 300. In another aspect, priorities may be assigned according to each user's attributes. For example, the priority level may correspond to the age of each user. In yet another aspect, priorities may be assigned randomly.

音声処理部305は、システム300に入力された音声に対して予め規定された処理を実行する。処理後の信号は、動作制御部308に入力される。別の局面において、音声処理部305は、動作制御部308から送られる信号に基づいて、ユーザに対する応答として出力されるメッセージを生成し、音声出力部303に出力する。音声処理部305は、ある局面では、たとえば、プロセッサが音声処理プログラムを実行することにより実現され、別の局面では、専用の音声処理回路として実現され得る。   The voice processing unit 305 executes a predetermined process on the voice input to the system 300. The processed signal is input to the operation control unit 308. In another aspect, the voice processing unit 305 generates a message output as a response to the user based on the signal sent from the operation control unit 308 and outputs the message to the voice output unit 303. The voice processing unit 305 can be realized, for example, by a processor executing a voice processing program in one aspect, and can be realized as a dedicated voice processing circuit in another aspect.

表示部306は、動作制御部308から送られるデータに基づいて、システム300の状態をユーザに表示する。たとえば、表示部306は、システム300の状態あるいはロボット110の状態を示すメッセージを表示する。たとえば、表示部306は、モニタやライトによって実現される。   The display unit 306 displays the state of the system 300 to the user based on the data sent from the operation control unit 308. For example, the display unit 306 displays a message indicating the state of the system 300 or the state of the robot 110. For example, the display unit 306 is realized by a monitor or a light.

優先順位判断部307は、音声処理部305の処理によって特定されたユーザに基づいて、記憶部304に保存されている優先順位を読み出し、各命令の優先順位を判断する。優先順位判断部307は、たとえば、プロセッサが優先順位を判断するためのプログラムを実行することにより実現される。   The priority order determination unit 307 reads the priority order stored in the storage unit 304 based on the user specified by the processing of the sound processing unit 305, and determines the priority order of each command. The priority order determination unit 307 is realized, for example, when the processor executes a program for determining the priority order.

動作制御部308は、優先順位判断部307の結果に基づいて、動作部310による動作を制御する。別の局面において、動作制御部308は、優先順位判断部307の結果に基づく制御内容を音声処理部305に出力する。当該制御内容は、たとえば、第1の命令の後に与えられた第2の命令は実行されない旨、第1の命令を無効にして第2の命令に基づく動作が実行される旨等を含む。音声処理部305は、その制御内容を音声で出力するための信号を生成し、当該信号を音声出力部303に送出する。音声出力部303は、その信号に基づいて第2の命令に対する応答を音声で出力する。   The operation control unit 308 controls the operation of the operation unit 310 based on the result of the priority order determination unit 307. In another aspect, the operation control unit 308 outputs the control content based on the result of the priority order determination unit 307 to the voice processing unit 305. The control content includes, for example, that the second instruction given after the first instruction is not executed, that the operation based on the second instruction is executed with the first instruction invalidated, and the like. The voice processing unit 305 generates a signal for outputting the control content by voice, and sends the signal to the voice output unit 303. The voice output unit 303 outputs a response to the second command by voice based on the signal.

別の局面において、音声認識ロボットシステム300への発話者が認識されない場合、動作制御部308は、当該発話に基づく処理を実行しない。   In another aspect, when a speaker to the speech recognition robot system 300 is not recognized, the motion control unit 308 does not execute processing based on the utterance.

通信部309は、他の情報通信機器と通信する。通信部309は、たとえば、インターネット通信、LAN(Local Area Network)通信、赤外線通信、Bluetooth(登録商標)通信その他の通信のためのインターフェイスとして実現される。ある局面において、通信部309は、他の情報通信機器から送られた信号を、動作部310に対する命令として受信する。この場合、動作制御部308は、当該信号から命令を取り出し、優先順位判断部307に命令を送る。システム300が既に命令を受け付けている場合、優先順位判断部307は、当該命令の優先順位と当該他の命令の優先順位とを比較し、いずれの命令を実行するべきかを判断する。   The communication unit 309 communicates with other information communication devices. The communication unit 309 is realized, for example, as an interface for Internet communication, LAN (Local Area Network) communication, infrared communication, Bluetooth (registered trademark) communication, or other communication. In an aspect, the communication unit 309 receives a signal transmitted from another information communication device as a command for the operation unit 310. In this case, the operation control unit 308 extracts a command from the signal and sends the command to the priority order determination unit 307. When the system 300 has already received an instruction, the priority determination unit 307 compares the priority of the instruction with the priority of the other instruction and determines which instruction should be executed.

[データ構造]
図4を参照して、システム300のデータ構造について説明する。図4は、記憶部304におけるデータの格納の一態様を概念的に表す図である。ある局面において、記憶部304は、登録ユーザ410と優先順位420とを保持している。登録ユーザ410と優先順位420とは互いに関連付けられている。
[data structure]
The data structure of the system 300 will be described with reference to FIG. FIG. 4 is a diagram conceptually illustrating one mode of data storage in the storage unit 304. In one aspect, the storage unit 304 holds a registered user 410 and a priority order 420. The registered user 410 and the priority order 420 are associated with each other.

図4に示される例では、4人のユーザがシステム300のユーザとして登録されている。なお、登録可能なユーザの数は、4人よりも多くても少なくてもよい。ユーザAの優先順位は「1」であるので、ユーザB,C,Dの優先順位を上回る。したがって、その他の条件が同じである場合、システム300に最初に与えられる命令(第1の命令)がユーザAからの命令であるとき、その後、第2の命令として、ユーザB〜Dのいずれかから命令が与えられても、当該命令は無視され、第1の命令に基づく動作が継続する。あるいは、第1の命令がユーザB〜Dのいずれかから与えられた後に、第2の命令がユーザAによって与えられると、第1の命令に基づく動作が停止(中止または中断)され、第2の命令に基づく動作が開始される。   In the example shown in FIG. 4, four users are registered as users of the system 300. The number of users that can be registered may be more or less than four. Since the priority order of the user A is “1”, it exceeds the priority order of the users B, C, and D. Therefore, when other conditions are the same, when the first instruction (first instruction) given to the system 300 is an instruction from the user A, any one of the users B to D is then set as the second instruction. Is given, the instruction is ignored and the operation based on the first instruction continues. Alternatively, when the second command is given by the user A after the first command is given from any of the users B to D, the operation based on the first command is stopped (stopped or interrupted), and the second command The operation based on the instruction is started.

なお、優先順位は、たとえば、システム300のセットアップ時に、システム300のユーザ登録と共に設定され得る。   The priority order may be set together with user registration of the system 300 at the time of setup of the system 300, for example.

[ロボットの構成]
図5を参照して、ロボット110の構成について説明する。図5は、本実施の形態に係るロボット110の構成を表すブロック図である。ある局面において、ロボット110は複数のモジュールによって構成される。各モジュールは、ハードウェア、ソフトウェアおよびこれらの組み合わせとして実現され得る。たとえば、ロボット110は、制御部510と、記憶部520と、動作部530と、リモコン信号受信部540と、モニタ541と、ライト542と、スイッチ543と、集音部544と、スピーカ545と、通信部546と、バッテリ547とを備える。制御部510は、入力受付部511と、音声認識部512と、応答処理部513と、動作モード切替部514とを含む。記憶部520は、発話内容データベース521を含む。動作部530は、掃除部531を含む。
[Robot configuration]
The configuration of the robot 110 will be described with reference to FIG. FIG. 5 is a block diagram showing a configuration of robot 110 according to the present embodiment. In one aspect, the robot 110 includes a plurality of modules. Each module can be implemented as hardware, software, and combinations thereof. For example, the robot 110 includes a control unit 510, a storage unit 520, an operation unit 530, a remote control signal reception unit 540, a monitor 541, a light 542, a switch 543, a sound collection unit 544, a speaker 545, A communication unit 546 and a battery 547 are provided. Control unit 510 includes an input receiving unit 511, a voice recognition unit 512, a response processing unit 513, and an operation mode switching unit 514. Storage unit 520 includes utterance content database 521. The operation unit 530 includes a cleaning unit 531.

制御部510は、ロボット110の動作を制御する。制御部510は、たとえば、プロセッサ、制御回路等によって実現される。   Control unit 510 controls the operation of robot 110. Control unit 510 is realized by, for example, a processor, a control circuit, and the like.

入力受付部511は、ロボット110に対して与えられた命令の入力を受け付ける。当該命令は、たとえば、リモコン信号受信部540によって受信される制御信号、スイッチ543への操作、集音部544への動作命令の発話等によって、ロボット110に与えられる。   The input receiving unit 511 receives an input of a command given to the robot 110. The command is given to the robot 110 by, for example, a control signal received by the remote control signal receiving unit 540, an operation on the switch 543, an utterance of an operation command to the sound collecting unit 544, or the like.

音声認識部512は、集音部544から送られた音声信号を処理して、当該音声信号をもたらした発話を認識する。音声認識の処理は、周知の技術を用いて実現される。したがって、詳細な説明は繰り返さない。また、音声認識部512は、記憶部520に保存されているユーザデータに基づいて、当該発話を与えたユーザを特定する。当該ユーザデータは、たとえば、システム300のセットアップの際に行われるユーザ登録において、各ユーザが発話することにより入力され得る。あるいは、他の情報通信装置がロボット110にユーザデータを送信し、ロボット110が記憶部520に確保した領域に保存してもよい。   The voice recognition unit 512 processes the voice signal sent from the sound collection unit 544 and recognizes the utterance that brought about the voice signal. The voice recognition process is realized using a known technique. Therefore, detailed description will not be repeated. Further, the voice recognition unit 512 specifies the user who gave the utterance based on the user data stored in the storage unit 520. The user data can be input by each user speaking in a user registration performed at the time of setting up the system 300, for example. Alternatively, another information communication apparatus may transmit user data to the robot 110 and store the user data in an area secured in the storage unit 520.

応答処理部513は、音声認識部512による認識の結果に基づいて、音声信号に応じた命令を実行する。ある局面において、応答処理部513は、動作部530に動作の命令を送る。別の局面において、応答処理部513は、スピーカ545を介して、音声信号に対する返答を音声で出力するための信号を生成し、生成した信号をスピーカ545に送出する。   The response processing unit 513 executes a command corresponding to the voice signal based on the recognition result by the voice recognition unit 512. In one aspect, the response processing unit 513 sends an operation command to the operation unit 530. In another aspect, the response processing unit 513 generates a signal for outputting a response to the audio signal by voice via the speaker 545, and sends the generated signal to the speaker 545.

動作モード切替部514は、応答処理部513からの出力に基づいて、ロボット110の動作モードを切り替える。たとえば、ロボット110の動作モードは、たとえば、お掃除モード、しりとりモード、癒しモード等を含み得る。お掃除モードでは、ロボット110は、モータ(図示しない)を駆動してブラシ(図示しない)を回転させて掃除を行なう。しりとりモードでは、ロボット110は、ユーザの発話に応答して、しりとりのために記憶部520に予め保存されている辞書を用いて、当該ユーザとしりとりを行なう。癒しモードでは、ロボット110は、発話内容データベース521に保存されている癒し対話のための応答を、ユーザからの発話に応じて音声で出力する。   The operation mode switching unit 514 switches the operation mode of the robot 110 based on the output from the response processing unit 513. For example, the operation mode of the robot 110 may include, for example, a cleaning mode, a shiritori mode, a healing mode, and the like. In the cleaning mode, the robot 110 performs cleaning by driving a motor (not shown) and rotating a brush (not shown). In the shiritori mode, in response to the user's utterance, the robot 110 uses the dictionary stored in advance in the storage unit 520 for shiritori to perform the chatting with the user. In the healing mode, the robot 110 outputs a response for the healing dialogue stored in the utterance content database 521 by voice according to the utterance from the user.

記憶部520は、予め規定された動作をロボット110に実行させるためのプログラムやデータを保持している。当該プログラムは、お掃除モードにおいて掃除部531を運転させるための制御プログラム、他の情報通信機器と通信するためのプログラム、音声認識処理を実行するためのプログラム、ロボット110の状態を報知するためのプログラムなどを含み得る。当該データは、たとえば、発話内容データベース521、上記の各プログラムに用いられる設定データ等を含む。発話内容データベース521は、各動作モードに応じたプログラムの提供者によって、当該プログラムと共に与えられる。あるいは、ロボット110は、学習機能を有している場合には、ユーザとの対話を発話内容データベース521に蓄積してもよい。   The storage unit 520 holds a program and data for causing the robot 110 to execute a predetermined operation. The program includes a control program for operating the cleaning unit 531 in the cleaning mode, a program for communicating with other information communication devices, a program for executing voice recognition processing, and a status of the robot 110. It can include programs. The data includes, for example, the utterance content database 521, setting data used for each of the above programs. The utterance content database 521 is given together with the program by the provider of the program corresponding to each operation mode. Alternatively, when the robot 110 has a learning function, the robot 110 may accumulate dialogues with the user in the utterance content database 521.

動作部530は、ロボット110が備える動作機能を実現する。動作部530において、たとえば、掃除部531は、モータ、ブラシ等を含む。別の局面において、動作部530は、他の家電機器(たとえば、エアコン、給湯機、テレビ、冷蔵庫、電子レンジ、電磁調理器など)を実現するための構成であってもよい。   The operation unit 530 realizes an operation function included in the robot 110. In operation unit 530, for example, cleaning unit 531 includes a motor, a brush, and the like. In another aspect, operation unit 530 may have a configuration for realizing another household electrical appliance (for example, an air conditioner, a water heater, a television, a refrigerator, a microwave oven, an electromagnetic cooker, or the like).

モニタ541は、ロボット110の状態を表示する。モニタ541は、液晶モニタ、有機EL(Electro-Luminescence)モニタ等によって実現される。   The monitor 541 displays the state of the robot 110. The monitor 541 is realized by a liquid crystal monitor, an organic EL (Electro-Luminescence) monitor, or the like.

ライト542は、ロボット110の状態を示すために規定された色や点灯態様で光を出力する。ライト542は、たとえば、LED(Light Emitting Diode)、回転灯などによって実現される。   The light 542 outputs light in a color or lighting manner defined to indicate the state of the robot 110. The light 542 is realized by, for example, an LED (Light Emitting Diode) or a rotating lamp.

スイッチ543は、ロボット110に対する命令の入力を受け付ける。スイッチ543は、たとえば、トグルスイッチその他のハードウェアキーとして実現される。   The switch 543 receives a command input to the robot 110. The switch 543 is realized as, for example, a toggle switch or other hardware key.

集音部544は、ロボット110の周囲の音声を取得する。ある局面において、集音部544は、指向性を有するマイクとして実現され得る。別の局面において、集音部544は、指向性を有さないマイクとしても実現され得る。また、複数の集音部544がロボット110に設けられてもよい。   The sound collection unit 544 acquires sound around the robot 110. In a certain aspect, the sound collection unit 544 can be realized as a microphone having directivity. In another aspect, the sound collection unit 544 may be realized as a microphone having no directivity. A plurality of sound collection units 544 may be provided in the robot 110.

スピーカ545は、制御部510から送られる信号に基づいて音声を出力する。出力される音声は、ロボット110の動作を表すために予め規定された音声、ロボット110のユーザの発話への応答等を含み得る。   The speaker 545 outputs sound based on a signal sent from the control unit 510. The output voice may include a voice defined in advance to represent the operation of the robot 110, a response to the user's utterance of the robot 110, and the like.

通信部546は、他の情報通信機器(たとえば、サーバ120,130、携帯端末140等)と通信する。通信の態様は、特に限定されない。通信は無線通信によって行われるが、有線通信が用いられてもよい。   The communication unit 546 communicates with other information communication devices (for example, the servers 120 and 130, the portable terminal 140, etc.). The mode of communication is not particularly limited. Although communication is performed by wireless communication, wired communication may be used.

バッテリ547は、ロボット110に電力を供給する。バッテリ547は、たとえば、充電可能な二次電池、乾電池等を含み得る。   The battery 547 supplies power to the robot 110. The battery 547 may include, for example, a rechargeable secondary battery, a dry battery, or the like.

[サーバの構成]
図6を参照して、サーバ120,130の構成について説明する。図6は、サーバ120,130を実現するコンピュータ600のハードウェア構成を表すブロック図である。
[Server configuration]
The configuration of the servers 120 and 130 will be described with reference to FIG. FIG. 6 is a block diagram illustrating a hardware configuration of a computer 600 that implements the servers 120 and 130.

コンピュータ600は、主たる構成要素として、プログラムを実行するCPU(Central Processing Unit)1と、コンピュータ600のユーザによる指示の入力を受けるマウス2およびキーボード3と、CPU1によるプログラムの実行により生成されたデータ、又はマウス2若しくはキーボード3を介して入力されたデータを揮発的に格納するRAM(Random Access Memory)4と、データを不揮発的に格納するハードディスク5と、光ディスク駆動装置6と、通信I/F(Interface)7と、モニタ8とを備える。各構成要素は、相互にバスによって接続されている。光ディスク駆動装置6には、CD−ROM9その他の光ディスクが装着される。通信インターフェイス7は、USB(Universal Serial Bus)インターフェイス、有線LAN(Local Area Network)、無線LAN、Bluetooth(登録商標)インターフェイス等を含むが、これらに限られない。   The computer 600 includes, as main components, a CPU (Central Processing Unit) 1 that executes a program, a mouse 2 and a keyboard 3 that receive input of instructions from a user of the computer 600, data generated by execution of the program by the CPU 1, Alternatively, a RAM (Random Access Memory) 4 that stores data input via the mouse 2 or the keyboard 3 in a volatile manner, a hard disk 5 that stores data in a nonvolatile manner, an optical disk drive device 6, and a communication I / F ( Interface) 7 and a monitor 8. Each component is connected to each other by a bus. A CD-ROM 9 and other optical disks are mounted on the optical disk drive 6. The communication interface 7 includes, but is not limited to, a USB (Universal Serial Bus) interface, a wired LAN (Local Area Network), a wireless LAN, and a Bluetooth (registered trademark) interface.

コンピュータ600における処理は、コンピュータ600を構成するハードウェアおよびCPU1により実行されるソフトウェアによって実現される。このようなソフトウェアは、ハードディスク5に予め格納されている場合がある。また、ソフトウェアは、CD−ROM9その他のコンピュータ読み取り可能な不揮発性のデータ記録媒体に格納されて、プログラム製品として流通している場合もある。あるいは、当該ソフトウェアは、インターネットその他のネットワークに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。このようなソフトウェアは、光ディスク駆動装置6その他のデータ読取装置によってデータ記録媒体から読み取られて、あるいは、通信I/F7を介してダウンロードされた後、ハードディスク5に一旦格納される。そのソフトウェアは、CPU1によってハードディスク5から読み出され、RAM4に実行可能なプログラムの形式で格納される。CPU1は、そのプログラムを実行する。   Processing in the computer 600 is realized by hardware constituting the computer 600 and software executed by the CPU 1. Such software may be stored in the hard disk 5 in advance. The software may be stored in a CD-ROM 9 or other non-volatile computer-readable data recording medium and distributed as a program product. Alternatively, the software may be provided as a program product that can be downloaded by an information provider connected to the Internet or other networks. Such software is read from the data recording medium by the optical disk driving device 6 or other data reading device, or downloaded via the communication I / F 7 and then temporarily stored in the hard disk 5. The software is read from the hard disk 5 by the CPU 1 and stored in the RAM 4 in the form of an executable program. The CPU 1 executes the program.

図6に示されるコンピュータ600を構成する各構成要素は、一般的なものである。したがって、本実施の形態に係るサーバ120,130における技術思想を実現する本質的な部分は、コンピュータ600に格納されたプログラムであるともいえる。コンピュータ600のハードウェアの動作は周知であるので、詳細な説明は繰り返さない。   Each component constituting the computer 600 shown in FIG. 6 is a general component. Accordingly, it can be said that an essential part of realizing the technical idea in the servers 120 and 130 according to the present embodiment is a program stored in the computer 600. Since the operation of the hardware of computer 600 is well known, detailed description will not be repeated.

なお、データ記録媒体としては、CD−ROM、FD(Flexible Disk)、ハードディスクに限られず、磁気テープ、カセットテープ、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、IC(Integrated Circuit)カード(メモリカードを含む)、光カード、マスクROM、EPROM(Electronically Programmable Read-Only Memory)、EEPROM(Electronically Erasable Programmable Read-Only Memory)、フラッシュROMなどの半導体メモリ等の固定的にプログラムを担持する不揮発性のデータ記録媒体でもよい。ここでいうプログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含み得る。   The data recording medium is not limited to a CD-ROM, FD (Flexible Disk), and hard disk, but is a magnetic tape, cassette tape, optical disk (MO (Magnetic Optical Disc) / MD (Mini Disc) / DVD (Digital Versatile Disc)). ), IC (Integrated Circuit) card (including memory card), optical card, mask ROM, EPROM (Electronically Programmable Read-Only Memory), EEPROM (Electronically Erasable Programmable Read-Only Memory), flash ROM, etc. It may be a non-volatile data recording medium that carries a fixed program. The program here may include not only a program directly executable by the CPU but also a program in a source program format, a compressed program, an encrypted program, and the like.

[端末の構成]
図7を参照して、本実施の形態に係る携帯端末140の構成について説明する。図7は、携帯端末140のハードウェア構成を表すブロック図である。
[Terminal configuration]
With reference to FIG. 7, a configuration of portable terminal 140 according to the present embodiment will be described. FIG. 7 is a block diagram illustrating a hardware configuration of the mobile terminal 140.

携帯端末140は、CPU20と、アンテナ23と、通信装置24と、操作ボタン25と、カメラ26と、フラッシュメモリ27と、RAM28と、ROM29と、メモリカード駆動装置30と、マイク32と、スピーカ33と、音声信号処理回路34と、モニタ35と、LED36と、データ通信インターフェイス37と、バイブレータ38と、加速度センサ39とを備える。メモリカード駆動装置30には、メモリカード31が装着され得る。   The portable terminal 140 includes a CPU 20, an antenna 23, a communication device 24, an operation button 25, a camera 26, a flash memory 27, a RAM 28, a ROM 29, a memory card driving device 30, a microphone 32, and a speaker 33. An audio signal processing circuit 34, a monitor 35, an LED 36, a data communication interface 37, a vibrator 38, and an acceleration sensor 39. A memory card 31 can be attached to the memory card drive device 30.

アンテナ23は、基地局(図示しない)を介して、サーバ120,130によって発信される信号を受信し、または、サーバ120,130を介して他の通信装置と通信するための信号を送信する。アンテナ23によって受信された信号は、通信装置24によってフロントエンド処理が行なわれた後、処理後の信号は、CPU20に送られる。   The antenna 23 receives signals transmitted by the servers 120 and 130 via a base station (not shown), or transmits signals for communicating with other communication devices via the servers 120 and 130. The signal received by the antenna 23 is subjected to front-end processing by the communication device 24, and the processed signal is sent to the CPU 20.

操作ボタン25は、携帯端末140に対する操作を受け付ける。操作ボタン25は、たとえば、ハードウェアキーまたはソフトウェアキーとして実現される。操作ボタン25は、ユーザによる操作を受け付けると、その時の携帯端末140の動作モードに応じた信号をCPU20に送出する。   The operation button 25 receives an operation on the mobile terminal 140. The operation button 25 is realized as a hardware key or a software key, for example. When the operation button 25 accepts an operation by the user, the operation button 25 sends a signal corresponding to the operation mode of the mobile terminal 140 at that time to the CPU 20.

CPU20は、携帯端末140に対して与えられる命令に基づいて携帯端末140の動作を制御するための処理を実行する。携帯端末140が信号を受信すると、CPU20は、通信装置24から送られた信号に基づいて予め規定された処理を実行し、処理後の信号を音声信号処理回路34に送出する。音声信号処理回路34は、その信号に対して予め規定された信号処理を実行し、処理後の信号をスピーカ33に送出する。スピーカ33は、その信号に基づいて音声を出力する。   The CPU 20 executes processing for controlling the operation of the mobile terminal 140 based on a command given to the mobile terminal 140. When the portable terminal 140 receives the signal, the CPU 20 executes a predetermined process based on the signal sent from the communication device 24 and sends the processed signal to the audio signal processing circuit 34. The audio signal processing circuit 34 performs predetermined signal processing on the signal, and sends the processed signal to the speaker 33. The speaker 33 outputs sound based on the signal.

マイク32は、携帯端末140に対する発話を受け付けて、発話された音声に対応する信号を音声信号処理回路34に対して送出する。音声信号処理回路34は、予め規定された処理を当該信号に対して実行し、処理後の信号をCPU20に対して送出する。CPU20は、その信号を送信用のデータに変換し、変換後のデータを通信装置24に対して送出する。通信装置24は、そのデータを用いて送信用の信号を生成し、アンテナ23に向けてその信号を送出する。アンテナ23から発信される信号は、サーバ120,130に受信される。なお、他の局面において、アンテナ23の代わりに、有線によってサーバ120,130と携帯端末140とが接続されていてもよい。   The microphone 32 receives an utterance to the mobile terminal 140 and sends a signal corresponding to the uttered voice to the voice signal processing circuit 34. The audio signal processing circuit 34 performs a predetermined process on the signal, and sends the processed signal to the CPU 20. The CPU 20 converts the signal into data for transmission, and sends the converted data to the communication device 24. The communication device 24 generates a signal for transmission using the data, and transmits the signal to the antenna 23. A signal transmitted from the antenna 23 is received by the servers 120 and 130. In another aspect, instead of the antenna 23, the servers 120 and 130 and the mobile terminal 140 may be connected by wire.

フラッシュメモリ27は、CPU20から送られるデータを格納する。また、CPU20は、フラッシュメモリ27に格納されているデータを読み出し、そのデータを用いて予め規定された処理を実行する。   The flash memory 27 stores data sent from the CPU 20. In addition, the CPU 20 reads data stored in the flash memory 27 and executes a predetermined process using the data.

RAM28は、操作ボタン25に対して行なわれた操作に基づいてCPU20によって生成されるデータを一時的に保持する。ROM29は、携帯端末140に予め定められた動作を実行させるためのプログラムあるいはデータを格納している。CPU20は、ROM29から当該プログラムまたはデータを読み出し、携帯端末140の動作を制御する。   The RAM 28 temporarily holds data generated by the CPU 20 based on the operation performed on the operation button 25. The ROM 29 stores a program or data for causing the mobile terminal 140 to execute a predetermined operation. The CPU 20 reads the program or data from the ROM 29 and controls the operation of the mobile terminal 140.

メモリカード駆動装置30は、メモリカード31に格納されているデータを読み出し、CPU20に送出する。メモリカード駆動装置30は、CPU20によって出力されるデータを、メモリカード31の空き領域に書き込む。   The memory card driving device 30 reads data stored in the memory card 31 and sends it to the CPU 20. The memory card drive device 30 writes the data output by the CPU 20 in the empty area of the memory card 31.

音声信号処理回路34は、上述のような通話のための信号処理を実行する。なお、図3に示される例では、CPU20と音声信号処理回路34とが別個の構成として示されてい
るが、他の局面において、CPU20と音声信号処理回路34とが一体として構成されていてもよい。
The audio signal processing circuit 34 performs signal processing for a call as described above. In the example shown in FIG. 3, the CPU 20 and the audio signal processing circuit 34 are shown as separate configurations. However, in other aspects, the CPU 20 and the audio signal processing circuit 34 may be configured as an integral unit. Good.

モニタ35は、CPU20から取得されるデータに基づいて画像を表示する。モニタ35は、たとえば、フラッシュメモリ27に格納されている静止画像(たとえば、会議資料、契約書その他の電子文書)、動画像、音楽ファイルの属性(当該ファイルの名前、演奏者、演奏時間など)を表示する。静止画像は、描画された画像、デフォルトで携帯端末140の製造事業者によって予め準備された画像を含み得る。   The monitor 35 displays an image based on data acquired from the CPU 20. The monitor 35 has, for example, still images (for example, conference materials, contracts and other electronic documents), moving images, and music file attributes (name of the file, performer, performance time, etc.) stored in the flash memory 27. Is displayed. The still image may include a drawn image and an image prepared in advance by a manufacturer of the mobile terminal 140 by default.

LED36は、CPU20からの信号に基づいて、予め定められた発光動作を実現する。データ通信インターフェイス37は、データ通信用のケーブルの装着を受け付ける。   The LED 36 realizes a predetermined light emission operation based on a signal from the CPU 20. The data communication interface 37 accepts attachment of a data communication cable.

データ通信インターフェイス37は、CPU20から出力される信号を当該ケーブルに対して送出する。あるいは、データ通信インターフェイス37は、当該ケーブルを介して受信されるデータを、CPU20に対して送出する。   The data communication interface 37 sends a signal output from the CPU 20 to the cable. Alternatively, the data communication interface 37 sends data received via the cable to the CPU 20.

バイブレータ38は、CPU20から出力される信号に基づいて、予め定められた周波数で発振動作を実行する。   Vibrator 38 performs an oscillating operation at a predetermined frequency based on a signal output from CPU 20.

加速度センサ39は、携帯端末140に作用する加速度の方向を検出する。検出結果は、CPU20に入力される。   The acceleration sensor 39 detects the direction of acceleration acting on the mobile terminal 140. The detection result is input to the CPU 20.

なお、本実施の形態に係る携帯端末140は上述の構成要素を全て備える必要はなく、少なくとも、音声入出力機能と通信機能とを有する情報処理端末であればよい。   Note that the mobile terminal 140 according to the present embodiment need not include all the above-described components, and may be any information processing terminal having at least a voice input / output function and a communication function.

[モニタ画面]
図8を参照して、本実施の形態に係る携帯端末140に表示される画面について説明する。図8は、モニタ35に表示されるモニタ画面の一例を表す図である。
[Monitor screen]
With reference to FIG. 8, a screen displayed on portable terminal 140 according to the present embodiment will be described. FIG. 8 is a diagram illustrating an example of a monitor screen displayed on the monitor 35.

ある局面において、モニタ35は、遠隔制御を見守る画面を表示する。より具体的には、モニタ35は、監視の対象となる機器のリストを表示する。当該リストは、たとえば、ユーザによって与えられた各機器の名前と、識別名と、ステータスと、操作履歴と、操作日時と、命令を与えた指示者と、命令が有効であるか無効であるかを表すステータスとを含み得る。   In one aspect, the monitor 35 displays a screen for watching the remote control. More specifically, the monitor 35 displays a list of devices to be monitored. The list includes, for example, the name, identification name, status, operation history, operation date and time, the instructor who gave the command, and whether the command is valid or invalid. And a status representing.

図8に示される例では、モニタ35は、お掃除ロボット(たとえば、ロボット110)と、癒しロボット(図示しない)とを監視している。お掃除ロボットは、現在、「掃除中」であり運転している。操作履歴によれば、第1の命令(たとえば、掃除して。)が第1のユーザ(お母さん)によって与えられ、その後、第2の命令(たとえば、「しりとりしよう」)が第2のユーザ(子供)によって与えられている。ユーザの優先順位を考慮した結果、第2の命令は無視されており、第1の命令に基づく動作(すなわち「掃除」)が継続して実行されている。   In the example shown in FIG. 8, the monitor 35 monitors a cleaning robot (for example, the robot 110) and a healing robot (not shown). The cleaning robot is currently “cleaning” and is driving. According to the operation history, a first command (e.g., clean) is given by the first user (mother), and then a second command (e.g., "Let's shave") is sent to the second user (e.g. Children). As a result of considering the priority of the user, the second command is ignored, and the operation based on the first command (ie, “cleaning”) is continuously executed.

このような画面は、たとえば、タブレット端末やスマートフォンのモニタにおける表示が最適となるように構成されている。また、このような画面が表示されている間に、新たな命令がロボット110に与えられた場合には、当該新たな命令を受け付けるか無視するかの判断が行なわれた後、更新された情報として、モニタ35に表示され得る。   Such a screen is configured, for example, such that the display on a monitor of a tablet terminal or a smartphone is optimal. Further, when a new command is given to the robot 110 while such a screen is displayed, the updated information is determined after determining whether to accept or ignore the new command. Can be displayed on the monitor 35.

また、このような画面は、たとえば、SNS(Social Network Service)のような態様で、特定の複数ユーザ間で情報を共有するための画面として構成されてもよい。   Moreover, such a screen may be configured as a screen for sharing information among a plurality of specific users, for example, in a manner such as SNS (Social Network Service).

[動作例]
図9を参照して、ロボット110の動作例について説明する。図9は、本実施の形態に係るロボット110に対して、二人のユーザ(お母さんと子ども)がそれぞれ命令を与えた場合におけるロボット110の動作の変化を表すタイミングチャートである。
[Operation example]
An example of the operation of the robot 110 will be described with reference to FIG. FIG. 9 is a timing chart showing changes in the operation of the robot 110 when two users (mom and child) give commands to the robot 110 according to the present embodiment.

場面(A)に示されるように、時刻t(1)において、第1の命令(たとえば「掃除して」)が第1のユーザ(他のユーザより高い優先順位を有するユーザ、たとえば、「お母さん」)によって、音声でロボット110に与えられる。ロボット110は、音声を受け付けて、第1の命令を認識すると、当該命令に応じた動作(掃除)を開始する。   As shown in scene (A), at time t (1), the first command (eg, “clean up”) is the first user (a user having a higher priority than other users, eg, “mom” ]) Is given to the robot 110 by voice. When the robot 110 receives the voice and recognizes the first command, the robot 110 starts an operation (cleaning) according to the command.

その後、時刻t(2)において、次の命令(第2の命令)が第2のユーザによって、音声でロボット110に与えられる。異なるユーザから命令が音声でロボット110に与えられると、各命令の優先順位の高低が判定される。第2のユーザ(たとえば「子供})の優先順位が、第1のユーザ(お母さん)の優先順位よりも低い場合には、ロボット110は、第2の命令を無視し、第1の命令に基づく動作を継続する。   Thereafter, at time t (2), the next command (second command) is given to the robot 110 by voice by the second user. When a command from a different user is given to the robot 110 by voice, the priority level of each command is determined. If the priority of the second user (eg, “children”) is lower than the priority of the first user (mother), the robot 110 ignores the second command and is based on the first command. Continue operation.

このとき、ロボット110は、第2の命令に対する応答として、たとえば「お母さんの指示で掃除しているので待っててね。」と音声で出力してもよい。そして、第1の命令に基づく動作(掃除)が完了した後、第2の命令に基づく動作(しりとりゲーム)を開始してもよい。この場合、ロボット110は、第2の命令を保留にする。   At this time, as a response to the second command, the robot 110 may output, for example, “Please wait because it is being cleaned by the instruction of the mother” by voice. Then, after the operation based on the first command (cleaning) is completed, the operation based on the second command (the shiritori game) may be started. In this case, the robot 110 puts the second command on hold.

あるいは、別の局面において、ロボット110は、「お母さんの指示で掃除しているので、しりとりはできません。」と音声で出力してもよい。この場合、第2の命令は無視され、あるいは、破棄され得る。   Alternatively, in another aspect, the robot 110 may output a voice saying “Since it is cleaned by the instruction of the mother, it cannot be removed”. In this case, the second instruction can be ignored or discarded.

さらに別の局面において、ロボット110は、第2のユーザからの当該命令を記憶しておき、掃除していない場合にその命令を与えたユーザ(子供)の発話を認識した場合に、「しりとりする?」と発話してもよい。   In yet another aspect, the robot 110 stores the command from the second user and recognizes the utterance of the user (child) who gave the command when not cleaning, "?"

場面(B)では、時刻t(3)において、第1の命令(=掃除して。)が第1のユーザ(子供)によって、音声でロボット110に与えられる。ロボット110は、第1の命令を認識すると、掃除部531を駆動して掃除を開始する。   In the scene (B), at time t (3), the first command (= clean) is given to the robot 110 by voice by the first user (child). When the robot 110 recognizes the first command, it drives the cleaning unit 531 to start cleaning.

その後、時刻t(4)において、第2の命令(=お掃除やめて)が第2のユーザ(お母さん)によって、音声でロボット110に与えられる。ロボット110は、第1の命令に基づく動作の実行中に第2の命令を受け付けると、各命令の優先順位の高低を判断する。より具体的には、たとえば、ロボット110は、各命令を与えたユーザに与えられている優先順位の高低を判断する。ある局面において、第2の命令を音声で与えたユーザの優先順位が第1の命令を与えたユーザの優先順位よりも高い場合には、ロボット110は、第2の命令を実行し得る。たとえば、ロボット110は、第2の命令を認識すると、「停止します。」と音声で応答する。あるいは、ロボット110は、「中断します。」と音声で出力し、現在の動作モードをスタンバイモードに切り替える。   Thereafter, at time t (4), the second command (= stop cleaning) is given to the robot 110 by voice by the second user (mother). When the robot 110 receives the second command during the execution of the operation based on the first command, the robot 110 determines the priority level of each command. More specifically, for example, the robot 110 determines the level of priority given to the user who gave each command. In one aspect, if the priority of the user who gave the second command by voice is higher than the priority of the user who gave the first command, the robot 110 may execute the second command. For example, when the robot 110 recognizes the second command, it responds with a voice saying “Stop”. Alternatively, the robot 110 outputs a voice message “I will suspend” and switches the current operation mode to the standby mode.

その後、第2の命令を与えたユーザの優先順位と同等かそれ以上の優先順位を有するユーザによる命令(第3の命令)が与えられると、ロボット110は、第3の命令に基づく動作を開始する。たとえば、「お母さん」がロボット110に対して「掃除して」と音声で命令を与えると、ロボット110は、掃除を再開し得る。   Thereafter, when a command (third command) by a user having a priority equal to or higher than the priority of the user who has given the second command is given, the robot 110 starts an operation based on the third command. To do. For example, if “mom” gives a voice command to robot 110 “clean it”, robot 110 may resume cleaning.

[制御構造]
図10を参照して、本実施の形態に係るシステム300の制御構造について説明する。図10は、システム300が実行する処理の一部を表すフローチャートである。ある局面において、当該処理は、各処理を実現する命令がプロセッサによって実行されることにより実現される。別の局面において、当該処理は、各処理を実現する回路素子その他のハードウェアによっても実現され得る。
[Control structure]
With reference to FIG. 10, a control structure of system 300 according to the present embodiment will be described. FIG. 10 is a flowchart showing a part of processing executed by the system 300. In a certain aspect, the processing is realized by an instruction for realizing each processing being executed by the processor. In another aspect, the processing may be realized by a circuit element or other hardware that realizes each processing.

ステップS1010にて、音声入力部302は、音声による動作命令(第1の命令:たとえば「掃除して」)の入力を受け付ける。音声処理部305は、当該音声に基づく信号を処理する。処理結果は、動作制御部308に入力される。   In step S1010, voice input unit 302 accepts an input of a voice operation command (first command: for example, “clean”). The voice processing unit 305 processes a signal based on the voice. The processing result is input to the operation control unit 308.

ステップS1020にて、動作制御部308は、動作命令に基づいて動作を開始する。たとえば、動作制御部308は、動作部310に信号を送ることにより、動作部310に動作を開始させる。動作部310による動作は、たとえば、動作部310が含まれる筐体の物理的な位置が変わるような動作(移動、あるいは駆動に相当する)と、当該筐体の物理的な位置はそのままで姿勢が変わるような動作(たとえば、当該筐体がぬいぐるみである場合に、当該ぬいぐるみの手足が動くような動作)とのいずれであってもよい。   In step S1020, operation control unit 308 starts an operation based on the operation command. For example, the operation control unit 308 causes the operation unit 310 to start an operation by sending a signal to the operation unit 310. The operation by the operation unit 310 includes, for example, an operation in which the physical position of the housing including the operation unit 310 changes (equivalent to movement or driving), and the physical position of the housing without changing the posture. (For example, when the housing is a stuffed animal, the movement of the stuffed animal's limbs).

ステップS1030にて、動作制御部308は、音声入力部302に対する発話に基づいて、音声による新たな動作命令(第2の命令:たとえば「しりとりしよう」)の入力を検出する。   In step S 1030, operation control unit 308 detects an input of a new operation command (second command: “let's try to squeeze”) by voice based on the speech to voice input unit 302.

ステップS1040にて、優先順位判断部307は、音声処理部305による処理の結果と、記憶部304に格納されている優先順位に基づいて、第1の命令の優先順位が第2の命令の優先順位よりも高いか否かを判断する。優先順位判断部307は、第1の命令の優先順位が第2の命令の優先順位よりも高いと判断すると(ステップS1040にてYES)、制御をステップS1050に切り替える。そうでない場合には(ステップS1040にてNO)、優先順位判断部307は、制御をステップS1060に切り替える。   In step S1040, the priority order determination unit 307 determines that the priority order of the first instruction is the priority order of the second instruction based on the processing result of the sound processing unit 305 and the priority order stored in the storage unit 304. Judge whether it is higher than the ranking. If priority determination unit 307 determines that the priority of the first instruction is higher than the priority of the second instruction (YES in step S1040), control is switched to step S1050. If not (NO in step S1040), priority determination unit 307 switches control to step S1060.

ステップS1050にて、音声出力部303は、動作制御部308からの信号に基づいて、第2の命令に基づく動作(しりとり)を実行できない旨を音声で出力し、第1の命令に基づく動作(たとえば、掃除)を継続する。なお、動作制御部308は、第2の命令に基づく動作を受け付けた上で保留し、第1の命令に基づく動作を実行してから、第2の命令に基づく動作を実行してもよい。   In step S1050, the audio output unit 303 outputs, based on the signal from the operation control unit 308, a voice indicating that the operation (shiritori) based on the second command cannot be performed, and the operation based on the first command ( For example, cleaning is continued. Note that the operation control unit 308 may accept the operation based on the second command, hold the operation, execute the operation based on the first command, and then execute the operation based on the second command.

ステップS1060にて、音声出力部303は、動作制御部308からの信号に基づいて、第1の命令に基づく動作を中止する旨を音声で出力し、当該動作を中止し、第2の命令に基づく動作を開始する。なお、動作制御部308は、第2の命令に基づく動作を実行してから、第1の命令に基づく動作を再開してもよい。   In step S1060, based on the signal from the operation control unit 308, the audio output unit 303 outputs a voice indicating that the operation based on the first command is to be stopped, stops the operation, and outputs the second command. Start the operation based on. Note that the operation control unit 308 may resume the operation based on the first command after performing the operation based on the second command.

(ロボット110の制御構造)
なお、たとえば、システム300がロボット110によって実現される場合、制御構造は、以下のようになる。
(Control structure of robot 110)
For example, when the system 300 is realized by the robot 110, the control structure is as follows.

ステップS1010にて、制御部510は、入力受付部511として、集音部544を介して、音声による動作命令(第1の命令:たとえば「掃除して」)の入力を受け付ける。音声認識部512は、当該音声に基づく信号を処理する。処理結果は、応答処理部513に入力される。   In step S1010, control unit 510 receives input of a voice operation command (first command: for example, “clean”) as input reception unit 511 via sound collection unit 544. The voice recognition unit 512 processes a signal based on the voice. The processing result is input to the response processing unit 513.

ステップS1020にて、制御部510は、応答処理部513として、動作命令に基づいて作動を開始する。たとえば、応答処理部513は、動作部530に信号を送ることにより、掃除部531に掃除動作を開始させる。   In step S1020, control unit 510 starts operation as response processing unit 513 based on the operation command. For example, the response processing unit 513 causes the cleaning unit 531 to start a cleaning operation by sending a signal to the operation unit 530.

ステップS1030にて、制御部510は、入力受付部511として、集音部544に対する発話に基づいて、音声による新たな動作命令(第2の命令:たとえば「しりとりしよう」)の入力を検出する。   In step S 1030, control unit 510 detects input of a new operation command (second command: for example, “let's squeeze”) by voice based on utterance to sound collection unit 544 as input reception unit 511.

ステップS1040にて、制御部510は、応答処理部513として、音声認識部512による処理の結果と、記憶部520に格納されている優先順位に基づいて、第1の命令の優先順位が第2の命令の優先順位よりも高いか否かを判断する。応答処理部513は、第1の命令の優先順位が第2の命令の優先順位よりも高いと判断すると(ステップS1040にてYES)、制御をステップS1050に切り替える。そうでない場合には(ステップS1040にてNO)、応答処理部513は、制御をステップS1060に切り替える。   In step S1040, control unit 510 uses response processing unit 513 to set the priority order of the first instruction to the second order based on the result of processing by speech recognition unit 512 and the priority order stored in storage unit 520. It is determined whether or not it is higher than the priority of the instruction. When response processing unit 513 determines that the priority order of the first instruction is higher than the priority order of the second instruction (YES in step S1040), control is switched to step S1050. If not (NO in step S1040), response processing unit 513 switches control to step S1060.

ステップS1050にて、制御部510は、スピーカ545を介して、第2の命令に基づく動作(しりとり)を実行できない旨を音声で出力し、第1の命令に基づく動作(たとえば、掃除)を継続する。   At step S1050, control unit 510 outputs, via speaker, 545 that the operation based on the second command (shitori) cannot be performed, and continues the operation based on the first command (for example, cleaning). To do.

ステップS1060にて、制御部510は、第1の命令に基づく動作を中止する旨を音声で出力し、当該動作を中止し、第2の命令に基づく動作を開始する。   In step S1060, control unit 510 outputs by voice that the operation based on the first command is to be stopped, stops the operation, and starts the operation based on the second command.

このように、ユーザの優先順位に基づいてロボット110の動作が規定されるので、最も高い優先順位を持つユーザは、ロボット110の動作を完全に制御することができる。したがって、たとえば、ロボット110を緊急に停止させたい場合には、当該ユーザは、ロボット110に「停止」と発話を行なうことにより、ロボット110を停止させることができる。これにより、音声認識機能を備えるロボット110の安全性が担保され得る。   As described above, since the operation of the robot 110 is defined based on the priority order of the user, the user having the highest priority order can completely control the operation of the robot 110. Therefore, for example, when it is desired to stop the robot 110 urgently, the user can stop the robot 110 by saying “stop” to the robot 110. Thereby, the safety | security of the robot 110 provided with a speech recognition function can be ensured.

<第2の実施の形態>
以下、本開示の第2の実施の形態について説明する。なお、本実施の形態に係る音声認識ロボットシステムは、第1の実施の形態に係る音声認識ロボットシステム10と同様の構成を用いて実現される。したがって、以下、適宜、第1の実施の形態における構成を用いて説明する。
<Second Embodiment>
Hereinafter, a second embodiment of the present disclosure will be described. Note that the speech recognition robot system according to the present embodiment is realized using the same configuration as the speech recognition robot system 10 according to the first embodiment. Therefore, the following description will be given using the configuration in the first embodiment as appropriate.

[動作の概要]
まず、図11を参照して、第2の実施の形態について説明する。図11は、第2の実施の形態に係るロボット110の動作の変化を表すタイミングチャートである。
[Overview of operation]
First, a second embodiment will be described with reference to FIG. FIG. 11 is a timing chart showing changes in the operation of the robot 110 according to the second embodiment.

図11に示されるように、時刻t(1)において、第1の命令がユーザから音声によって与えられる。たとえば、「お掃除して」との動作命令がロボット110に与えられる。ロボット110は、その動作命令に応答して、掃除を開始する。   As shown in FIG. 11, at the time t (1), the first command is given by voice from the user. For example, an operation command “clean it” is given to the robot 110. The robot 110 starts cleaning in response to the operation command.

その後、時刻t(2)において、第2の命令として、ロボット110の停止命令が、音声とは別の態様で与えられる。別の態様とは、ロボット110に対して命令を直接与える態様ともいえる。たとえば、ある局面において、ロボット110の停止ボタンが押下される。別の局面において、ユーザが、ロボット110のリモコン210の停止ボタンを押下して、制御信号がリモコン210からロボット110に送られる。このような場合、仮に、第1の命令を音声で与えたユーザの優先順位が最も高いものであっても、ロボット110は、第2の命令に基づいて運転を停止する。このとき、ロボット110は、「停止します。」とのメッセージを音声で出力し得る。   After that, at time t (2), a stop command for the robot 110 is given as a second command in a mode different from the voice. Another mode can be said to be a mode in which commands are directly given to the robot 110. For example, in a certain situation, a stop button of the robot 110 is pressed. In another aspect, the user presses a stop button on the remote controller 210 of the robot 110, and a control signal is sent from the remote controller 210 to the robot 110. In such a case, even if the user who gave the first command by voice has the highest priority, the robot 110 stops driving based on the second command. At this time, the robot 110 can output a voice message “Stop” by voice.

[制御構造]
図12を参照して、本実施の形態に係るシステム300の制御構造について説明する。図12は、システム300が実行する処理の一部を表すフローチャートである。
[Control structure]
With reference to FIG. 12, a control structure of system 300 according to the present embodiment will be described. FIG. 12 is a flowchart showing a part of processing executed by the system 300.

ステップS1210にて、動作制御部308は、音声入力部302に対して与えられた音声による動作命令(たとえば「掃除して」)の入力を受け付ける。   In step S <b> 1210, operation control unit 308 accepts an input of an operation command (for example, “clean”) by voice given to voice input unit 302.

ステップS1220にて、動作制御部308は、動作命令に基づいて動作を開始する。たとえば、ロボット110は、掃除を開始する。   In step S1220, operation control unit 308 starts an operation based on the operation command. For example, the robot 110 starts cleaning.

ステップS1230にて、動作制御部308は、ロボット110本体の停止スイッチの押下を検出する。あるいは、他の局面において、動作制御部308は、リモコン210から、ロボット110を停止させるためのリモコン信号の受信を検知する。   In step S1230, operation control unit 308 detects pressing of a stop switch of main body of robot 110. Alternatively, in another aspect, operation control unit 308 detects reception of a remote control signal for stopping robot 110 from remote controller 210.

ステップS1240にて、動作制御部308は、ステップS1230において検出された信号が他の命令よりも優先することを確認すると、停止スイッチの押下に基づいて停止する旨を表示部306に表示させる。あるいは、動作制御部308は、音声出力部303にその旨を音声で出力させる。   In step S1240, when the operation control unit 308 confirms that the signal detected in step S1230 has priority over other commands, the operation control unit 308 causes the display unit 306 to display that the signal is stopped based on the pressing of the stop switch. Alternatively, the operation control unit 308 causes the audio output unit 303 to output a sound to that effect.

ステップS1250にて、動作制御部308は、動作部310に出力されていた動作信号の出力を停止する。動作部310は、停止する。   In step S1250, operation control unit 308 stops outputting the operation signal output to operation unit 310. The operation unit 310 stops.

(ロボット110の制御構造)
なお、たとえば、システム300がロボット110によって実現される場合、制御構造は、以下のようになる。
(Control structure of robot 110)
For example, when the system 300 is realized by the robot 110, the control structure is as follows.

ステップS1210にて、制御部510は、入力受付部511として、集音部544に対して与えられた音声による動作命令(たとえば「掃除して」)の入力を受け付ける。   In step S 1210, control unit 510 receives input of an operation command (for example, “clean”) by voice given to sound collection unit 544 as input reception unit 511.

ステップS1220にて、制御部510は、動作命令に基づいて作動を開始する。たとえば、掃除部531は、掃除のための動作(モータ回転、ブラシ回転等)を開始する。   In step S1220, control unit 510 starts operation based on the operation command. For example, the cleaning unit 531 starts an operation for cleaning (motor rotation, brush rotation, etc.).

ステップS1230にて、制御部510は、入力受付部511として、スイッチ543の押下を検出する。あるいは、他の局面において、制御部510は、リモコン信号受信部540を介して、リモコン210から、ロボット110を停止させるためのリモコン信号の受信を検知する。   In step S1230, control unit 510 detects depression of switch 543 as input reception unit 511. Alternatively, in another aspect, control unit 510 detects reception of a remote control signal for stopping robot 110 from remote control 210 via remote control signal receiving unit 540.

ステップS1240にて、制御部510は、応答処理部513として、ステップS1230において検出された信号が他の命令よりも優先することを確認すると、スイッチ543の押下に基づいて停止する旨をモニタ541に表示させる。あるいは、制御部510は、スピーカ545にその旨を音声で出力させる。   In step S1240, when the control unit 510 confirms that the signal detected in step S1230 has priority over other commands as the response processing unit 513, the control unit 510 notifies the monitor 541 that the control unit 510 stops based on pressing of the switch 543. Display. Alternatively, control unit 510 causes speaker 545 to output a sound to that effect.

ステップS1250にて、制御部510は、掃除部531に出力されていた動作信号の出力を停止する。掃除部531は、動作を停止する。   In step S1250, control unit 510 stops outputting the operation signal output to cleaning unit 531. The cleaning unit 531 stops its operation.

このように、本実施の形態によれば、音声による命令を与えたユーザの優先順位よりも低い優先順位のユーザが、ロボット110に命令を直接与えた場合には、ロボット110は、直接与えられた命令に従って作動し、あるいは、停止する。これにより、たとえば、緊急にロボット110を停止させたい場合などにおいて、安全性を担保することができる。   As described above, according to the present embodiment, when a user with a priority lower than the priority of a user who has given a voice command directly gives a command to the robot 110, the robot 110 is given directly. Operates or stops according to command. Thereby, for example, when it is desired to stop the robot 110 urgently, safety can be ensured.

<第3の実施の形態>
以下、第3の実施の形態について説明する。本実施の形態は、命令として将来の動作の命令(たとえば、タイマー予約)が適用できる点で、前述の各実施の形態と異なる。なお、本実施の形態に係る音声認識ロボットシステムは、第1の実施の形態に係る音声認識ロボットシステム10に含まれるハードウェアの構成を用いて実現される。したがって、以下、適宜、第1の実施の形態に係る構成を用いて本実施の形態を説明し、同じ説明は繰り返さない。
<Third Embodiment>
The third embodiment will be described below. This embodiment is different from the above-described embodiments in that an instruction for a future operation (for example, timer reservation) can be applied as an instruction. Note that the speech recognition robot system according to the present embodiment is realized using the hardware configuration included in the speech recognition robot system 10 according to the first embodiment. Therefore, the present embodiment will be described below using the configuration according to the first embodiment as appropriate, and the same description will not be repeated.

[動作概要]
図13を参照して、本実施の形態に係る音声認識ロボットシステムの動作の概要について説明する。図13は、第3の実施の形態に係る音声認識ロボットシステムの動作の変化を表すタイミングチャートである。
[Operation overview]
With reference to FIG. 13, an outline of the operation of the speech recognition robot system according to the present embodiment will be described. FIG. 13 is a timing chart showing changes in the operation of the speech recognition robot system according to the third embodiment.

場面(A)に示されるように、ある局面の時刻t(1)において、第1の命令が、第1のユーザ(たとえば、お母さん)によってシステム300に入力される。第1の命令の入力は、たとえば、携帯端末140その他の情報処理端末に表示されるロボット110の動作の予約画面に対して行なわれる。あるいは、第1のユーザは、たとえばスイッチ543を操作することにより、直接、ロボット110に対して予約情報を入力してもよい。第1の命令は、動作の予約として、たとえば、時刻t(3)において、指定された動作(たとえば、掃除)をロボット110に実行させる、というものである。なお、予約の対象となる動作は「掃除」に限られない。   As shown in scene (A), a first command is input to system 300 by a first user (eg, mom) at time t (1) of an aspect. The input of the first command is performed, for example, on a reservation screen for the operation of the robot 110 displayed on the portable terminal 140 or other information processing terminal. Alternatively, the first user may directly input the reservation information to the robot 110 by operating the switch 543, for example. The first command is to cause the robot 110 to execute a specified operation (for example, cleaning) at time t (3) as an operation reservation, for example. The operation to be reserved is not limited to “cleaning”.

その後、時刻t(2)において、第2の命令が、第2のユーザ(子供)によってシステムに入力される。この入力は、第2のユーザが使用する携帯端末140に表示される上記予約画面に対して行われる。あるいは、第2のユーザがロボット110に対して予約情報を直接入力してもよい。第2の命令は、時刻t(3)よりも後の時刻t(4)に、第2のユーザによって指定された動作(たとえば、しりとり)を実行させるというものである。   Thereafter, at time t (2), the second command is input to the system by the second user (child). This input is performed on the reservation screen displayed on the mobile terminal 140 used by the second user. Alternatively, the second user may directly input reservation information to the robot 110. The second command is to cause an operation (for example, shiritori) designated by the second user to be executed at time t (4) after time t (3).

動作制御部308は、二つの命令(動作の予約)が入力されたことを検知すると、優先順位判断部307に、各命令を与えたユーザの優先順位を判断させる。優先順位の判断の結果、動作制御部308は、第1のユーザ(お母さん)の命令(動作の予約)を優先させることを決定し、時刻t(4)における動作の予約を受け付けない。システム300は、その旨を出力する。たとえば、音声出力部303は、「お母さんの予約があるので受け付けません」とのメッセージを音声で出力する。別の局面において、表示部306は、その旨を表示してもよい。あるいは、システム300は、命令が受けつけられなかったことを示す態様として予め規定された態様で、ライトを点灯させ、あるいは、ブザーを鳴動させてもよい。   When the operation control unit 308 detects that two commands (operation reservation) are input, the operation control unit 308 causes the priority determination unit 307 to determine the priority of the user who has given each command. As a result of the priority order determination, the operation control unit 308 determines to give priority to the instruction (operation reservation) of the first user (mother), and does not accept the operation reservation at time t (4). The system 300 outputs that fact. For example, the voice output unit 303 outputs a message “This is not accepted because there is a reservation for the mother” by voice. In another aspect, the display unit 306 may display that effect. Alternatively, the system 300 may turn on the light or sound the buzzer in a manner that is predefined as a manner that indicates that the command has not been accepted.

場面(B)は、あとに入力される命令を与えたユーザの優先順位が先に命令を与えたユーザの優先順位よりも高い場合の動作の概要を表す。より具体的には、時刻t(5)において、第1の命令が、第1のユーザ(子供)によって入力される。第1の命令は、時刻t(7)に、第1のユーザによって指定された動作(たとえば、しりとり)を実行させる、というものである。動作制御部308は、そのような命令の入力を検知すると、その命令を304に格納する。さらに、動作制御部308は、動作の予約を受け付けたことを示すメッセージを音声出力部303に音声で出力させる。   The scene (B) represents an outline of the operation in the case where the priority of the user who gave the command to be input later is higher than the priority of the user who gave the command first. More specifically, at time t (5), the first command is input by the first user (child). The first command is to execute an operation (for example, shiritori) designated by the first user at time t (7). When the operation control unit 308 detects the input of such a command, the operation control unit 308 stores the command in 304. Furthermore, the operation control unit 308 causes the audio output unit 303 to output a message indicating that the operation reservation has been received by audio.

その後、時刻t(7)が到来する前の時刻t(6)において、第2の命令が第2のユーザ(お母さん)によって入力される。第2の命令は、時刻t(8)に、第2のユーザによって指定された動作(たとえば、掃除)を実行する、というものである。なお、予約によって指定される時刻t(8)は、時刻t(7)の前でも後でもよい。   Thereafter, at time t (6) before time t (7) arrives, the second command is input by the second user (mother). The second command is to execute an action (for example, cleaning) designated by the second user at time t (8). The time t (8) designated by the reservation may be before or after the time t (7).

動作制御部308は、第2の命令が入力されたことを検知すると、第2の命令を与えた第2のユーザの優先順位と、第1の命令を与えた第1のユーザの優先順位との高低を優先順位判断部307に判断させる。この場合、第2のユーザの優先順位が第1のユーザの優先順位よりも高いので、動作制御部308は、第1のユーザによって与えられた第1の命令に基づく予約をキャンセルし、第2のユーザによって与えられた第2の命令に基づく予約を設定する。動作制御部308は、さらに、その旨を報知するために、たとえば、「お母さんの予約が入ったので、あなたの予約をキャンセルします。」とのメッセージを音声出力部303に音声で出力させる。その結果、時刻t(7)が到来しても、ロボット110は、第1の命令に基づく動作(しりとり)を実行せず、時刻t(8)が到来すると、ロボット110は、第2の命令に基づく動作(掃除)を開始する。   When the operation control unit 308 detects that the second command has been input, the priority order of the second user who has given the second command, the priority level of the first user who has given the first command, The priority order determination unit 307 determines whether the level is higher or lower. In this case, since the priority order of the second user is higher than the priority order of the first user, the operation control unit 308 cancels the reservation based on the first command given by the first user, The reservation based on the second command given by the user is set. The operation control unit 308 further causes the voice output unit 303 to output a message such as, for example, “Your mother's reservation has been entered, so your reservation will be canceled.” As a result, even when the time t (7) arrives, the robot 110 does not execute the operation (slippery) based on the first command. When the time t (8) arrives, the robot 110 receives the second command. The operation (cleaning) based on is started.

[制御構造]
図14を参照して、本実施の形態に係るシステム300の制御構造について説明する。図14は、動作制御部308が実行する処理の一部を表すフローチャートである。
[Control structure]
With reference to FIG. 14, a control structure of system 300 according to the present embodiment will be described. FIG. 14 is a flowchart illustrating a part of the process executed by the operation control unit 308.

ステップS1410にて、動作制御部308は、第1のユーザによる動作の予約の入力を受け付ける。   In step S1410, operation control unit 308 accepts an operation reservation input by the first user.

ステップS1420にて、動作制御部308は、第2のユーザによる動作の予約の入力を検出する。   In step S1420, operation controller 308 detects an operation reservation input by the second user.

ステップS1430にて、優先順位判断部307は、第2のユーザの優先順位は第1のユーザの優先順位よりも高いか否かを判断する。この判断は、記憶部304に保存されている優先順位に基づいて行なわれる。優先順位判断部307は、第2のユーザの優先順位が第1のユーザの優先順位よりも高いと判断すると(ステップS1430にてYES)、制御をステップS1440に切り替える。そうでない場合には(ステップS1430にてNO)、優先順位判断部307は、制御をステップS1450に切り替える。   In step S1430, priority determination unit 307 determines whether the second user's priority is higher than the first user's priority. This determination is made based on the priority order stored in the storage unit 304. If priority determination unit 307 determines that the second user's priority is higher than the first user's priority (YES in step S1430), control is switched to step S1440. If not (NO in step S1430), priority determination unit 307 switches control to step S1450.

ステップS1440にて、動作制御部308は、第1のユーザによる予約をキャンセルする旨を音声出力部303に音声で出力させ、当該予約をキャンセルし、第2のユーザによる予約を設定する。なお、キャンセルする旨の通知の態様は、音声に限られず、メッセージの表示、ライトの点灯、ブザーの鳴動等が用いられてもよい。なお、動作制御部308は、第1のユーザによる予約をキャンセルせずに、第2のユーザによる予約の動作が実行されるまで、動作を保留してもよい。   In step S1440, the operation control unit 308 causes the voice output unit 303 to output a voice to cancel the reservation by the first user, cancel the reservation, and set the reservation by the second user. Note that the mode of notification of cancellation is not limited to voice, and message display, light lighting, buzzer sound, and the like may be used. Note that the operation control unit 308 may suspend the operation until the reservation operation by the second user is executed without canceling the reservation by the first user.

ステップS1450にて、動作制御部308は、第2のユーザによる予約を受け付けない旨を音声出力部303に音声で出力させ、第1のユーザによる予約を維持する。予約を受け付けない旨の通知の態様は、音声に限られず、ステップS1440の場合と同様に、他の態様が用いられてもよい。なお、動作制御部308は、第2のユーザによる予約を受け付けた上で、第1のユーザによる予約の動作が実行されるまで、動作を保留してもよい。   In step S1450, operation control unit 308 causes voice output unit 303 to output a voice message indicating that the reservation by the second user is not accepted, and maintains the reservation by the first user. The mode of notification that the reservation is not accepted is not limited to voice, and other modes may be used as in the case of step S1440. Note that the operation control unit 308 may suspend the operation after receiving the reservation by the second user until the reservation operation by the first user is executed.

(ロボット110の制御構造)
なお、たとえば、システム300がロボット110によって実現される場合、制御構造は、以下のようになる。
(Control structure of robot 110)
For example, when the system 300 is realized by the robot 110, the control structure is as follows.

ステップS1410にて、制御部510は、入力受付部511として、スイッチ543、リモコン信号受信部540あるいは通信部546を介して、第1のユーザによる動作の予約の入力を受け付ける。   In step S1410, control unit 510 receives an operation reservation input by the first user via switch 543, remote control signal reception unit 540, or communication unit 546 as input reception unit 511.

ステップS1420にて、制御部510は、入力受付部511として、スイッチ543、リモコン信号受信部540あるいは通信部546を介して、第2のユーザによる別の予約の入力を検出する。   In step S1420, control unit 510 detects another reservation input by the second user via switch 543, remote control signal reception unit 540, or communication unit 546 as input reception unit 511.

ステップS1430にて、制御部510は、応答処理部513として、第2のユーザの優先順位が第1のユーザの優先順位よりも高いか否かを判断する。この判断は、記憶部520に保存されている優先順位に基づいて行なわれる。制御部510は、第2のユーザの優先順位が第1のユーザの優先順位よりも高いと判断すると(ステップS1430にてYES)、制御をステップS1440に切り替える。そうでない場合には(ステップS1430にてNO)、制御部510は、制御をステップS1450に切り替える。   In step S1430, control unit 510 determines whether or not the priority order of the second user is higher than the priority order of the first user as response processing unit 513. This determination is made based on the priority order stored in the storage unit 520. When control unit 510 determines that the priority order of the second user is higher than the priority order of the first user (YES in step S1430), control unit 510 switches control to step S1440. If not (NO in step S1430), control unit 510 switches control to step S1450.

ステップS1440にて、制御部510は、応答処理部513として第1のユーザによる予約をキャンセルする旨をスピーカ545に音声で出力させ、当該予約をキャンセルし、第2のユーザによる予約を設定する。なお、キャンセルする旨の通知の態様は、音声に限られず、メッセージの表示、ライトの点灯、ブザーの鳴動等が用いられてもよい。   In step S1440, control unit 510 causes speaker 545 to output a voice to cancel the reservation by the first user as response processing unit 513, cancel the reservation, and set the reservation by the second user. Note that the mode of notification of cancellation is not limited to voice, and message display, light lighting, buzzer sound, and the like may be used.

ステップS1450にて、制御部510は、第2のユーザによる予約を受け付けない旨をスピーカ545に音声で出力させ、第1のユーザによる予約を維持する。予約を受け付けない旨の通知の態様は、音声に限られず、ステップS1440の場合と同様に、他の態様が用いられてもよい。   In step S1450, control unit 510 causes speaker 545 to output a voice message indicating that the reservation by the second user is not accepted, and maintains the reservation by the first user. The mode of notification that the reservation is not accepted is not limited to voice, and other modes may be used as in the case of step S1440.

以上のようにして、本実施の形態によれば、将来の動作を規定する予約について、予約情報を入力したユーザに割り当てられている優先順位が考慮される。これにより、優先順位の高いユーザによる予約が優先されることになるので、システム300の将来の動作を安全側に維持することが可能となる。   As described above, according to the present embodiment, the priority assigned to the user who has input the reservation information is considered for the reservation that defines the future operation. As a result, since reservations by users with higher priorities are prioritized, the future operation of the system 300 can be maintained on the safe side.

<第4の実施の形態>
以下、第4の実施の形態について説明する。第1の実施の形態の別の局面として、ロボット110と他の装置とが協働する場合があり得る。この場合、ロボット110において行なわれる処理の一部は、ロボット110と通信可能な他の装置において実行されてもよい。たとえば、音声認識、ユーザ特定、優先順位の高低の判定等は、他の装置(たとえば、サーバ120、サーバ130、携帯端末140等)によって実行されてもよい。ユーザの発話を受け付けたロボット110は、その発話に基づく音声信号を当該他の装置に送信し、当該他の装置が音声認識、ユーザ特定、優先順位の高低の判定等を実行する。なお、これらの処理に必要なデータ(たとえば、ユーザ毎の優先順位)およびプログラム(音声認識、ロボット110に発話させるメッセージを作成するためのプログラム等)は、当該他の装置に予め保存されている。
<Fourth embodiment>
Hereinafter, a fourth embodiment will be described. As another aspect of the first embodiment, the robot 110 and another device may cooperate. In this case, a part of the processing performed in the robot 110 may be executed in another device that can communicate with the robot 110. For example, voice recognition, user identification, determination of priority level, and the like may be executed by other devices (for example, the server 120, the server 130, the mobile terminal 140, etc.). The robot 110 that has received the user's utterance transmits a voice signal based on the utterance to the other device, and the other device performs voice recognition, user identification, determination of priority level, and the like. Data necessary for these processes (for example, priority for each user) and programs (speech recognition, a program for creating a message to be uttered by the robot 110, etc.) are stored in advance in the other device. .

このようにしても、ロボット110の安全性を担保することができる。
<第5の実施の形態>
第2の実施の形態の処理を実現するための別の局面として、ロボット110と他の装置とが協働する場合があり得る。この場合、第5の実施の形態として、第4の実施の形態と同様に、ロボット110において行なわれる処理の一部は、ロボット110と通信可能な他の装置において実行されてもよい。なお、本実施の形態は、第1の実施の形態に示された各構成を用いて実現される。したがって、当該構成の説明は繰り返さない。
Even in this case, the safety of the robot 110 can be ensured.
<Fifth embodiment>
As another aspect for realizing the processing of the second embodiment, the robot 110 and another device may cooperate. In this case, as the fifth embodiment, as in the fourth embodiment, a part of the processing performed in the robot 110 may be executed in another device that can communicate with the robot 110. Note that this embodiment is realized by using each configuration shown in the first embodiment. Therefore, description of the configuration will not be repeated.

<第6の実施の形態>
第3の実施の形態の処理を実現するための別の局面として、ロボット110と他の装置とが協働する場合があり得る。この場合、第6の実施の形態として、第4の実施の形態と同様に、ロボット110において行なわれる処理の一部は、ロボット110と通信可能な他の装置において実行されてもよい。なお、本実施の形態は、第1の実施の形態に示された各構成を用いて実現される。したがって、当該構成の説明は繰り返さない。
<Sixth Embodiment>
As another aspect for realizing the processing of the third embodiment, the robot 110 and another device may cooperate. In this case, as in the sixth embodiment, as in the fourth embodiment, part of the processing performed in the robot 110 may be executed in another device that can communicate with the robot 110. Note that this embodiment is realized by using each configuration shown in the first embodiment. Therefore, description of the configuration will not be repeated.

<第7の実施の形態>
第7の実施の形態について説明する。第7の実施の形態に係る音声認識ロボットシステムは、安全性を担保するために優先順位の代わりに予め規定された言葉を用いる点で、前述の各実施の形態と異なる。なお、本実施の形態は、第1の実施の形態に示された各構成を用いて実現される。したがって、当該構成の説明は繰り返さない。
<Seventh embodiment>
A seventh embodiment will be described. The speech recognition robot system according to the seventh embodiment is different from the above-described embodiments in that words defined in advance are used instead of priorities in order to ensure safety. Note that this embodiment is realized by using each configuration shown in the first embodiment. Therefore, description of the configuration will not be repeated.

ある局面において、音声認識ロボットシステム300は、ユーザによって予め入力された言葉を記憶している。たとえば、ユーザが、音声認識ロボットシステム300の動作を緊急停止させるための言葉として「ストップ」を音声あるいは文字で登録すると、その音声あるいは文字は、記憶部304に格納される。当該予め入力された言葉は、たとえば、音声認識ロボットシステム300の複数のユーザにのみ共有される言葉である。   In one aspect, the speech recognition robot system 300 stores words that are input in advance by the user. For example, when the user registers “stop” as a word for urgently stopping the operation of the voice recognition robot system 300 by voice or text, the voice or text is stored in the storage unit 304. The pre-input words are words shared only by a plurality of users of the speech recognition robot system 300, for example.

登録されたユーザが、音声認識ロボットシステム300の動作中に発話し、その発話の内容が予め規定された内容(たとえば、「ストップ」)である場合に、動作制御部308は、当該発話の内容に基づいて動作部310の動作を制御する。これにより、音声認識ロボットシステム300に対して操作できない場合、リモコンが故障した場合であっても、音声認識ロボットシステム300を停止させることができる。これにより、音声認識ロボットシステム300の安全性を担保することができる。   When the registered user speaks during the operation of the speech recognition robot system 300 and the content of the speech is a predefined content (for example, “stop”), the motion control unit 308 displays the content of the speech. The operation of the operation unit 310 is controlled based on the above. As a result, the voice recognition robot system 300 can be stopped even when the voice recognition robot system 300 cannot be operated or the remote control fails. Thereby, the safety | security of the speech recognition robot system 300 can be ensured.

<構成>
一実施の形態に従う本開示に基づく構成は、以下のように、要約され得る。ある局面において、各構成は、複数のモジュールの組み合わせとして実現される。各モジュールは、ハードウェアおよびソフトウェアおよびこれらの組み合わせとして実現され得る。
<Configuration>
A configuration based on the present disclosure according to an embodiment may be summarized as follows. In one aspect, each configuration is realized as a combination of a plurality of modules. Each module may be implemented as hardware and software and combinations thereof.

[構成1]
音声認識ロボットシステム(300)であって、
音声の入力を受け付けるように構成された音声入力部(302)と、
入力された音声を処理するように構成された音声認識部(305)と、
命令の入力を受け付けるように構成された入力部(301)と、
予め規定された動作を行なうように構成された動作部(310)と、
上記音声入力部に入力された音声による命令または上記入力部によって受け付けられた命令に応じて、上記動作部の動作を制御するように構成された制御部(308)とを備え、
上記制御部は、
第1の命令が音声で与えられた場合に上記動作部を作動させ、
上記第1の命令の後に第2の命令が上記入力部を介して与えられた場合に、上記動作部に、上記第1の命令に基づく動作を停止させ、上記第2の命令に基づく動作を行なわせるように構成されている。
[Configuration 1]
A speech recognition robot system (300),
A voice input unit (302) configured to accept voice input;
A speech recognition unit (305) configured to process input speech;
An input unit (301) configured to accept an input of an instruction;
An operation unit (310) configured to perform a predefined operation;
A control unit (308) configured to control the operation of the operation unit in accordance with a voice command input to the voice input unit or a command received by the input unit;
The control unit
When the first command is given by voice, the operation unit is activated,
When a second command is given via the input unit after the first command, the operation unit stops the operation based on the first command and performs an operation based on the second command. It is configured to be performed.

[構成2]
音声認識ロボット(110)であって、
集音部(544)と、
命令の入力を受け付けるように構成されたスイッチ543のような入力部と、
予め規定された動作を行なうように構成された動作部(530)と、
上記集音部によって取得された音声による命令または上記入力部によって受け付けられた命令に応じて、上記動作部の動作を制御するように構成された制御部(510)とを備え、
上記制御部は、
第1の命令が音声で与えられた場合に上記動作部を作動させ、
上記第1の命令の後に第2の命令が上記入力部を介して与えられた場合に、上記動作部に、上記第1の命令に基づく動作を停止させ、上記第2の命令に基づく動作を行なわせるように構成されている。
[Configuration 2]
A speech recognition robot (110),
A sound collection unit (544);
An input unit such as a switch 543 configured to accept an input of a command;
An operation unit (530) configured to perform a predefined operation;
A control unit (510) configured to control the operation of the operation unit in response to a voice command acquired by the sound collection unit or a command received by the input unit;
The control unit
When the first command is given by voice, the operation unit is activated,
When a second command is given via the input unit after the first command, the operation unit stops the operation based on the first command and performs an operation based on the second command. It is configured to be performed.

[構成3]
上記動作部を作動させる命令を与えるユーザ毎に設定された優先順位をそれぞれ保存するように構成された記憶部(520)をさらに備え、
上記制御部は、
上記第2の命令が音声で与えられた場合に、上記第2の命令を与えたユーザの優先順位が上記第1の命令を与えたユーザの優先順位よりも高い場合に、上記第1の命令に基づく動作を停止させ、上記第2の命令に基づく動作を行なわせるようにさらに構成されている、構成2に記載の音声認識ロボット。
[Configuration 3]
A storage unit (520) configured to store a priority set for each user who gives a command to operate the operation unit;
The control unit
When the second command is given by voice, the first command is given when the priority of the user who gives the second command is higher than the priority of the user who gives the first command. The voice recognition robot according to Configuration 2, further configured to stop the operation based on the second instruction and perform the operation based on the second command.

[構成4]
上記音声認識ロボットの動作の予約情報を格納するための記憶部(520)をさらに備え、
第1の予約を与えたユーザの優先順位が、上記第1の予約で指定される時刻の後に指定される第2の予約を与えたユーザの優先順位よりも低い場合に、上記制御部は、第1の予約をキャンセルするように構成されている、構成2に記載の音声認識ロボット。
[Configuration 4]
A storage unit (520) for storing reservation information of operation of the voice recognition robot;
When the priority of the user who gave the first reservation is lower than the priority of the user who gave the second reservation specified after the time specified in the first reservation, the control unit The speech recognition robot according to configuration 2, configured to cancel the first reservation.

[構成5]
上記音声認識ロボットの動作の予約情報を格納するための記憶部(520)をさらに備え、
第1の予約を与えたユーザの優先順位が、上記第1の予約で指定される時刻の後に指定される第2の予約を与えたユーザの優先順位よりも高い場合に、上記制御部は、上記第2の予約を受け付けないように構成されている、構成2に記載の音声認識ロボット。
[Configuration 5]
A storage unit (520) for storing reservation information of operation of the voice recognition robot;
When the priority of the user who gave the first reservation is higher than the priority of the user who gave the second reservation specified after the time specified in the first reservation, the control unit The speech recognition robot according to Configuration 2, configured to not accept the second reservation.

[構成6]
上記音声認識ロボットの動作の予約情報を格納するための記憶部(520)をさらに備え、
上記制御部は、優先順位が高い第1の予約が実行されるまで、上記第1の予約の優先順位よりも低い第2の予約の実行を保留するように構成されている、構成2に記載の音声認識ロボット。
[Configuration 6]
A storage unit (520) for storing reservation information of operation of the voice recognition robot;
The configuration according to Configuration 2, wherein the control unit is configured to suspend execution of a second reservation lower than the priority of the first reservation until a first reservation having a higher priority is executed. Voice recognition robot.

[構成7]
情報通信端末と通信するように構成された通信部をさらに備え、
上記入力部は、上記情報通信端末によって送信された指示信号の入力を受け付けるように構成されている、構成2〜6のいずれかに記載の音声認識ロボット。
[Configuration 7]
A communication unit configured to communicate with the information communication terminal;
The voice recognition robot according to any one of configurations 2 to 6, wherein the input unit is configured to receive an input of an instruction signal transmitted by the information communication terminal.

[構成8]
上記音声認識ロボットに登録されたユーザによる発話の内容が予め規定された内容である場合に、上記制御部は、上記発話の内容に基づいて上記動作部の動作を制御するようにさらに構成されている、構成2〜7のいずれかに記載の音声認識ロボット。
[Configuration 8]
The control unit is further configured to control the operation of the operation unit based on the content of the utterance when the content of the utterance by the user registered in the voice recognition robot is a predetermined content. The speech recognition robot according to any one of configurations 2 to 7.

[構成9]
命令を含む音声の発話者が認識された場合に、上記制御部は、当該命令に基づく動作を上記動作部に実行させるように構成されている、構成8に記載の音声認識ロボット。
[Configuration 9]
The speech recognition robot according to Configuration 8, wherein when a voice speaker including a command is recognized, the control unit is configured to cause the operation unit to perform an operation based on the command.

[構成10]
上記音声認識ロボットに命令が与えられたことを報知するように構成された報知部をさらに備える、構成2〜9のいずれかに記載の音声認識ロボット。
[Configuration 10]
The speech recognition robot according to any one of configurations 2 to 9, further comprising a notification unit configured to notify that a command has been given to the speech recognition robot.

[構成11]
音声認識処理機能を備えるサーバと通信するように構成された通信部をさらに備え、
上記制御部は、上記サーバによる音声認識処理の結果に基づいて、上記動作部の動作を制御するように構成されている、構成2〜10のいずれかに記載の音声認識ロボット。
[Configuration 11]
A communication unit configured to communicate with a server having a voice recognition processing function;
The speech recognition robot according to any one of configurations 2 to 10, wherein the control unit is configured to control an operation of the operation unit based on a result of a speech recognition process performed by the server.

[構成12]
音声認識ロボットの制御装置であって、
上記音声認識ロボットから音声信号を受信するように構成された受信部と、
上記音声信号に基づいて、上記音声認識ロボットの動作を制御するための処理を実行するように構成された制御部とを備え、
上記制御部は、
上記受信部によって受信された第1の音声信号から取得される第1の命令に基づいて動作するように、上記音声認識ロボットに命令を送信し、
上記第1の音声信号の後に受信される第2の音声信号から取得される第2の命令が上記入力部を介して与えられた場合に、上記音声認識ロボットが有する動作部に対し、上記第1の命令に基づく動作を停止させ、上記第2の命令に基づく動作を行なわせるように構成されている。
[Configuration 12]
A control device for a voice recognition robot,
A receiver configured to receive a voice signal from the voice recognition robot;
A control unit configured to execute processing for controlling the operation of the voice recognition robot based on the voice signal;
The control unit
Transmitting a command to the voice recognition robot to operate based on a first command acquired from the first voice signal received by the receiving unit;
When the second command acquired from the second voice signal received after the first voice signal is given through the input unit, the operation unit of the voice recognition robot has the second command. The operation based on the first instruction is stopped, and the operation based on the second instruction is performed.

[構成13]
音声認識ロボットを制御するための通信端末であって、
上記音声認識ロボットは、
集音部と、
上記通信端末から信号を受信するように構成された受信部と、
予め規定された動作を行なうように構成された動作部と、
命令に応じて上記動作部の動作を制御するように構成された制御部とを備えており、
上記通信端末は、
上記通信端末に対する命令の入力を受け付けるように構成された入力部と、
上記音声認識ロボットが音声による第1の命令で動作している場合に、上記音声認識ロボットに対する第2の命令が上記入力部に与えられたとき、上記第2の命令に基づいて上記音声認識ロボットを制御するための制御信号を生成するように構成された制御部と、
上記制御信号を上記音声認識ロボットに送信するように構成された送信部とを備える。
[Configuration 13]
A communication terminal for controlling a voice recognition robot,
The above speech recognition robot
The sound collection section;
A receiver configured to receive a signal from the communication terminal;
An operating unit configured to perform a predefined operation;
A control unit configured to control the operation of the operation unit according to a command,
The communication terminal
An input unit configured to receive an instruction input to the communication terminal;
When the voice recognition robot is operating with the first command by voice and the second command for the voice recognition robot is given to the input unit, the voice recognition robot is based on the second command. A control unit configured to generate a control signal for controlling
A transmission unit configured to transmit the control signal to the voice recognition robot.

[構成14]
音声認識ロボットシステムを制御するためのプログラムであって、上記音声認識ロボットシステムは、予め規定された動作を行なうように構成された動作部を有しており、
上記プログラムは、上記音声認識ロボットシステムに、
音声による第1の命令の入力を受けるステップと、
上記第1の命令の入力に応答して上記動作部を作動させるステップと、
上記第1の命令の後に、音声と異なる態様で第2の命令の入力を受けるステップと、
上記第2の命令の入力に応答して、上記動作部に、上記第1の命令に基づく動作を停止させ、上記第2の命令に基づく動作を行なわせるステップとを実行させる。
[Configuration 14]
A program for controlling a speech recognition robot system, wherein the speech recognition robot system has an operation unit configured to perform a predetermined operation,
The above program is added to the above voice recognition robot system.
Receiving a first command input by voice;
Activating the operating unit in response to an input of the first command;
Receiving the input of the second command in a manner different from the voice after the first command;
In response to the input of the second command, the operation unit is caused to stop the operation based on the first command and perform the operation based on the second command.

[構成15]
音声認識ロボットを制御するためのプログラムであって、
上記プログラムは、上記音声認識ロボットのプロセッサに、
音声による第1の命令の入力を受け付けるステップと、
上記第1の命令に基づいて、上記音声認識ロボットが有する動作部を作動させるステップと、
上記第1の命令の入力の後に、音声と異なる態様で第2の命令の入力を受け付けるステップと、
上記第2の命令に基づいて、上記動作部に、上記第1の命令に基づく動作を停止させ、上記第2の命令に基づく動作を行なわせるステップとを実行させる。
[Configuration 15]
A program for controlling a speech recognition robot,
The program is stored in the processor of the voice recognition robot.
Receiving a first command input by voice;
Activating the operation unit of the voice recognition robot based on the first command;
Receiving the input of the second command in a manner different from the voice after the input of the first command;
Based on the second command, the operation unit is caused to stop the operation based on the first command and perform the operation based on the second command.

[構成16]
通信端末に音声認識ロボットを制御させるためのプログラムであって、
上記音声認識ロボットは、
集音部と、
上記通信端末から信号を受信するように構成された受信部と、
予め規定された動作を行なうように構成された動作部と、
命令に応じて上記動作部の動作を制御するように構成された制御部とを備えており、
上記プログラムは、上記通信端末に、
上記音声認識ロボットが音声による第1の命令で動作している場合に、上記音声認識ロボットに対する第2の命令を受け付けるステップと、
上記第2の命令に基づいて上記音声認識ロボットを制御するための制御信号を生成するステップと、
上記制御信号を上記音声認識ロボットに送信するステップとを実行させる。
[Configuration 16]
A program for causing a communication terminal to control a voice recognition robot,
The above speech recognition robot
The sound collection section;
A receiver configured to receive a signal from the communication terminal;
An operating unit configured to perform a predefined operation;
A control unit configured to control the operation of the operation unit according to a command,
The program is stored in the communication terminal.
Receiving a second command for the voice recognition robot when the voice recognition robot is operating with a first command by voice;
Generating a control signal for controlling the voice recognition robot based on the second command;
Transmitting the control signal to the voice recognition robot.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

10,300 音声認識ロボットシステム、150 インターネット、200 子供。   10,300 Voice recognition robot system, 150 Internet, 200 children.

Claims (16)

音声認識ロボットシステムであって、
音声の入力を受け付けるように構成された音声入力部と、
入力された音声を処理するように構成された音声認識部と、
命令の入力を受け付けるように構成された入力部と、
予め規定された動作を行なうように構成された動作部と、
前記音声入力部に入力された音声による命令または前記入力部によって受け付けられた命令に応じて、前記動作部の動作を制御するように構成された制御部とを備え、
前記制御部は、
第1の命令が音声で与えられた場合に前記動作部を作動させ、
前記第1の命令の後に第2の命令が前記入力部を介して与えられた場合に、前記動作部に、前記第1の命令に基づく動作を停止させ、前記第2の命令に基づく動作を行なわせるように構成されている、音声認識ロボットシステム。
A speech recognition robot system,
A voice input unit configured to accept voice input;
A speech recognizer configured to process input speech;
An input unit configured to accept input of instructions;
An operating unit configured to perform a predefined operation;
A control unit configured to control the operation of the operation unit in response to a command by voice input to the voice input unit or a command received by the input unit;
The controller is
Actuating the operating unit when the first command is given by voice;
When a second command is given via the input unit after the first command, the operation unit stops the operation based on the first command, and performs an operation based on the second command. A speech recognition robot system configured to be performed.
音声認識ロボットであって、
集音部と、
命令の入力を受け付けるように構成された入力部と、
予め規定された動作を行なうように構成された動作部と、
前記集音部によって取得された音声による命令または前記入力部によって受け付けられた命令に応じて、前記動作部の動作を制御するように構成された制御部とを備え、
前記制御部は、
第1の命令が音声で与えられた場合に前記動作部を作動させ、
前記第1の命令の後に第2の命令が前記入力部を介して与えられた場合に、前記動作部に、前記第1の命令に基づく動作を停止させ、前記第2の命令に基づく動作を行なわせるように構成されている、音声認識ロボット。
A speech recognition robot,
The sound collection section;
An input unit configured to accept input of instructions;
An operating unit configured to perform a predefined operation;
A control unit configured to control the operation of the operation unit in response to a voice command acquired by the sound collection unit or a command received by the input unit;
The controller is
Actuating the operating unit when the first command is given by voice;
When a second command is given via the input unit after the first command, the operation unit stops the operation based on the first command, and performs an operation based on the second command. A speech recognition robot that is configured to perform.
前記動作部を作動させる命令を与えるユーザ毎に設定された優先順位をそれぞれ保存するように構成された記憶部をさらに備え、
前記制御部は、
前記第2の命令が音声で与えられた場合に、前記第2の命令を与えたユーザの優先順位が前記第1の命令を与えたユーザの優先順位よりも高い場合に、前記第1の命令に基づく動作を停止させ、前記第2の命令に基づく動作を行なわせるようにさらに構成されている、請求項2に記載の音声認識ロボット。
A storage unit configured to store a priority set for each user who gives a command to operate the operation unit;
The controller is
When the second command is given by voice, if the priority of the user who gave the second command is higher than the priority of the user who gave the first command, the first command The voice recognition robot according to claim 2, further configured to stop an operation based on the second command and to perform an operation based on the second command.
前記音声認識ロボットの動作の予約情報を格納するための記憶部をさらに備え、
第1の予約を与えたユーザの優先順位が、前記第1の予約で指定される時刻の後に指定される第2の予約を与えたユーザの優先順位よりも低い場合に、前記制御部は、第1の予約をキャンセルするように構成されている、請求項2に記載の音声認識ロボット。
A storage unit for storing reservation information of operation of the voice recognition robot;
When the priority of the user who gave the first reservation is lower than the priority of the user who gave the second reservation specified after the time specified in the first reservation, the control unit The speech recognition robot according to claim 2, wherein the speech recognition robot is configured to cancel the first reservation.
前記音声認識ロボットの動作の予約情報を格納するための記憶部をさらに備え、
第1の予約を与えたユーザの優先順位が、前記第1の予約で指定される時刻の後に指定される第2の予約を与えたユーザの優先順位よりも高い場合に、前記制御部は、前記第2の予約を受け付けないように構成されている、請求項2に記載の音声認識ロボット。
A storage unit for storing reservation information of operation of the voice recognition robot;
When the priority of the user who gave the first reservation is higher than the priority of the user who gave the second reservation specified after the time specified in the first reservation, the control unit The voice recognition robot according to claim 2, wherein the robot is configured not to accept the second reservation.
前記音声認識ロボットの動作の予約情報を格納するための記憶部をさらに備え、
前記制御部は、優先順位が高い第1の予約が実行されるまで、前記第1の予約の優先順位よりも低い第2の予約の実行を保留するように構成されている、請求項2に記載の音声認識ロボット。
A storage unit for storing reservation information of operation of the voice recognition robot;
The control unit is configured to suspend execution of a second reservation lower than the priority of the first reservation until a first reservation having a higher priority is executed. The voice recognition robot described.
情報通信端末と通信するように構成された通信部をさらに備え、
前記入力部は、前記情報通信端末によって送信された指示信号の入力を受け付けるように構成されている、請求項2〜6のいずれかに記載の音声認識ロボット。
A communication unit configured to communicate with the information communication terminal;
The voice recognition robot according to claim 2, wherein the input unit is configured to receive an input of an instruction signal transmitted by the information communication terminal.
前記音声認識ロボットに登録されたユーザによる発話の内容が予め規定された内容である場合に、前記制御部は、前記発話の内容に基づいて前記動作部の動作を制御するようにさらに構成されている、請求項2〜7のいずれかに記載の音声認識ロボット。   The control unit is further configured to control the operation of the operation unit based on the content of the utterance when the content of the utterance by the user registered in the voice recognition robot is a predetermined content. The voice recognition robot according to claim 2. 命令を含む音声の発話者が認識された場合に、前記制御部は、当該命令に基づく動作を前記動作部に実行させるように構成されている、請求項8に記載の音声認識ロボット。   The voice recognition robot according to claim 8, wherein when a voice speaker including a command is recognized, the control unit is configured to cause the operation unit to perform an operation based on the command. 前記音声認識ロボットに命令が与えられたことを報知するように構成された報知部をさらに備える、請求項2〜9のいずれかに記載の音声認識ロボット。   The speech recognition robot according to claim 2, further comprising a notification unit configured to notify that a command has been given to the speech recognition robot. 音声認識処理機能を備えるサーバと通信するように構成された通信部をさらに備え、
前記制御部は、前記サーバによる音声認識処理の結果に基づいて、前記動作部の動作を制御するように構成されている、請求項2〜10のいずれかに記載の音声認識ロボット。
A communication unit configured to communicate with a server having a voice recognition processing function;
The voice recognition robot according to claim 2, wherein the control unit is configured to control an operation of the operation unit based on a result of a voice recognition process performed by the server.
音声認識ロボットの制御装置であって、
前記音声認識ロボットから音声信号を受信するように構成された受信部と、
前記音声信号に基づいて、前記音声認識ロボットの動作を制御するための処理を実行するように構成された制御部とを備え、
前記制御部は、
前記受信部によって受信された第1の音声信号から取得される第1の命令に基づいて動作するように、前記音声認識ロボットに命令を送信し、
前記第1の音声信号の後に受信される第2の音声信号から取得される第2の命令が前記入力部を介して与えられた場合に、前記音声認識ロボットが有する動作部に対し、前記第1の命令に基づく動作を停止させ、前記第2の命令に基づく動作を行なわせるように構成されている、制御装置。
A control device for a voice recognition robot,
A receiver configured to receive a voice signal from the voice recognition robot;
A control unit configured to execute processing for controlling the operation of the voice recognition robot based on the voice signal;
The controller is
Transmitting a command to the voice recognition robot to operate based on a first command acquired from the first voice signal received by the receiving unit;
When the second command acquired from the second voice signal received after the first voice signal is given through the input unit, the operation unit of the voice recognition robot has the second command. A control device configured to stop an operation based on an instruction of 1 and to perform an operation based on the second instruction.
音声認識ロボットを制御するための通信端末であって、
前記音声認識ロボットは、
集音部と、
前記通信端末から信号を受信するように構成された受信部と、
予め規定された動作を行なうように構成された動作部と、
命令に応じて前記動作部の動作を制御するように構成された制御部とを備えており、 前記通信端末は、
前記通信端末に対する命令の入力を受け付けるように構成された入力部と、
前記音声認識ロボットが音声による第1の命令で動作している場合に、前記音声認識ロボットに対する第2の命令が前記入力部に与えられたとき、前記第2の命令に基づいて前記音声認識ロボットを制御するための制御信号を生成するように構成された制御部と、
前記制御信号を前記音声認識ロボットに送信するように構成された送信部とを備える、通信端末。
A communication terminal for controlling a voice recognition robot,
The voice recognition robot is
The sound collection section;
A receiver configured to receive a signal from the communication terminal;
An operating unit configured to perform a predefined operation;
A control unit configured to control the operation of the operation unit according to a command, the communication terminal,
An input unit configured to receive an instruction input to the communication terminal;
When the voice recognition robot is operating with a first command by voice and the second command for the voice recognition robot is given to the input unit, the voice recognition robot is based on the second command. A control unit configured to generate a control signal for controlling
A communication terminal comprising: a transmission unit configured to transmit the control signal to the voice recognition robot.
音声認識ロボットシステムを制御するためのプログラムであって、前記音声認識ロボットシステムは、予め規定された動作を行なうように構成された動作部を有しており、
前記プログラムは、前記音声認識ロボットシステムに、
音声による第1の命令の入力を受けるステップと、
前記第1の命令の入力に応答して前記動作部を作動させるステップと、
前記第1の命令の後に、音声と異なる態様で第2の命令の入力を受けるステップと、
前記第2の命令の入力に応答して、前記動作部に、前記第1の命令に基づく動作を停止させ、前記第2の命令に基づく動作を行なわせるステップとを実行させる、プログラム。
A program for controlling a speech recognition robot system, wherein the speech recognition robot system has an operation unit configured to perform a predetermined operation,
The program is stored in the voice recognition robot system.
Receiving a first command input by voice;
Activating the operating unit in response to an input of the first command;
Receiving an input of a second command after the first command in a manner different from voice;
In response to the input of the second command, the program causes the operating unit to stop the operation based on the first command and to perform the operation based on the second command.
音声認識ロボットを制御するためのプログラムであって、
前記プログラムは、前記音声認識ロボットのプロセッサに、
音声による第1の命令の入力を受け付けるステップと、
前記第1の命令に基づいて、前記音声認識ロボットが有する動作部を作動させるステップと、
前記第1の命令の入力の後に、音声と異なる態様で第2の命令の入力を受け付けるステップと、
前記第2の命令に基づいて、前記動作部に、前記第1の命令に基づく動作を停止させ、前記第2の命令に基づく動作を行なわせるステップとを実行させる、プログラム。
A program for controlling a speech recognition robot,
The program is stored in the processor of the voice recognition robot.
Receiving a first command input by voice;
Activating an operation unit of the voice recognition robot based on the first command;
Receiving the input of the second command in a manner different from voice after the input of the first command;
A program for causing the operation unit to stop an operation based on the first instruction and to perform an operation based on the second instruction based on the second instruction.
通信端末に音声認識ロボットを制御させるためのプログラムであって、
前記音声認識ロボットは、
集音部と、
前記通信端末から信号を受信するように構成された受信部と、
予め規定された動作を行なうように構成された動作部と、
命令に応じて前記動作部の動作を制御するように構成された制御部とを備えており、
前記プログラムは、前記通信端末に、
前記音声認識ロボットが音声による第1の命令で動作している場合に、前記音声認識ロボットに対する第2の命令を受け付けるステップと、
前記第2の命令に基づいて前記音声認識ロボットを制御するための制御信号を生成するステップと、
前記制御信号を前記音声認識ロボットに送信するステップとを実行させる、プログラム。
A program for causing a communication terminal to control a voice recognition robot,
The voice recognition robot is
The sound collection section;
A receiver configured to receive a signal from the communication terminal;
An operating unit configured to perform a predefined operation;
A control unit configured to control the operation of the operation unit according to a command,
The program is stored in the communication terminal.
Receiving a second command for the voice recognition robot when the voice recognition robot is operating with a first command by voice;
Generating a control signal for controlling the voice recognition robot based on the second command;
Transmitting the control signal to the voice recognition robot.
JP2014221580A 2014-10-30 2014-10-30 Voice recognition robot system, voice recognition robot, controller for voice recognition robot, communication terminal for controlling voice recognition robot, and program Pending JP2016090655A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014221580A JP2016090655A (en) 2014-10-30 2014-10-30 Voice recognition robot system, voice recognition robot, controller for voice recognition robot, communication terminal for controlling voice recognition robot, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014221580A JP2016090655A (en) 2014-10-30 2014-10-30 Voice recognition robot system, voice recognition robot, controller for voice recognition robot, communication terminal for controlling voice recognition robot, and program

Publications (1)

Publication Number Publication Date
JP2016090655A true JP2016090655A (en) 2016-05-23

Family

ID=56018502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014221580A Pending JP2016090655A (en) 2014-10-30 2014-10-30 Voice recognition robot system, voice recognition robot, controller for voice recognition robot, communication terminal for controlling voice recognition robot, and program

Country Status (1)

Country Link
JP (1) JP2016090655A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106887228A (en) * 2016-12-27 2017-06-23 深圳市优必选科技有限公司 Robot voice control method and device and robot
JP2017133822A (en) * 2016-10-31 2017-08-03 真理 井上 Air conditioner and air conditioning system
CN109599101A (en) * 2017-10-02 2019-04-09 福特全球技术公司 The external voice monitoring based on accelerometer independently stopped for voice control
WO2019069731A1 (en) * 2017-10-06 2019-04-11 ソニー株式会社 Information processing device, information processing method, program, and moving body
CN109658922A (en) * 2017-10-12 2019-04-19 现代自动车株式会社 The device and method for handling user's input of vehicle
KR20190064613A (en) * 2016-10-03 2019-06-10 구글 엘엘씨 Multi-user personalization on voice interface devices
CN110103236A (en) * 2019-05-13 2019-08-09 佛山科学技术学院 The small-sized house keeper robot of intelligent security guard and control method
WO2019223064A1 (en) * 2018-05-21 2019-11-28 深圳市沃特沃德股份有限公司 Voice control method for sweeping robot and sweeping robot
CN111283679A (en) * 2020-01-19 2020-06-16 路邦科技授权有限公司 Multi-connected voice control automatic guide transportation system and control method thereof
KR20210007360A (en) * 2019-07-11 2021-01-20 엘지전자 주식회사 Moving Robot and controlling method
JP2021506187A (en) * 2017-12-12 2021-02-18 ロヴィ ガイズ, インコーポレイテッド Systems and methods for modifying media asset playback in response to verbal commands that are unrelated to media asset playback
CN112703516A (en) * 2018-09-18 2021-04-23 远程连接株式会社 Reservation device, reservation method, and reservation system
CN113892859A (en) * 2020-06-22 2022-01-07 珠海格力电器股份有限公司 Control method of sweeping robot and sweeping robot
JP2022043156A (en) * 2016-06-15 2022-03-15 アイロボット・コーポレーション System and method for controlling autonomous mobile robot
CN114326495A (en) * 2021-12-24 2022-04-12 中电海康集团有限公司 Robot control system architecture and voice instruction processing method
US11563597B2 (en) 2017-12-12 2023-01-24 ROVl GUIDES, INC. Systems and methods for modifying playback of a media asset in response to a verbal command unrelated to playback of the media asset

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07104677A (en) * 1993-10-08 1995-04-21 Honda Motor Co Ltd On-vehicle information display device
JP2000231142A (en) * 1999-02-12 2000-08-22 Olympus Optical Co Ltd Camera
JP2004033624A (en) * 2002-07-05 2004-02-05 Nti:Kk Remote controller by pet type robot
JP2004268151A (en) * 2003-03-05 2004-09-30 Yaskawa Electric Corp Robot control device and control method
JP2005186234A (en) * 2003-12-26 2005-07-14 Victor Co Of Japan Ltd Network robot and its control method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07104677A (en) * 1993-10-08 1995-04-21 Honda Motor Co Ltd On-vehicle information display device
JP2000231142A (en) * 1999-02-12 2000-08-22 Olympus Optical Co Ltd Camera
JP2004033624A (en) * 2002-07-05 2004-02-05 Nti:Kk Remote controller by pet type robot
JP2004268151A (en) * 2003-03-05 2004-09-30 Yaskawa Electric Corp Robot control device and control method
JP2005186234A (en) * 2003-12-26 2005-07-14 Victor Co Of Japan Ltd Network robot and its control method

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022043156A (en) * 2016-06-15 2022-03-15 アイロボット・コーポレーション System and method for controlling autonomous mobile robot
KR20190064613A (en) * 2016-10-03 2019-06-10 구글 엘엘씨 Multi-user personalization on voice interface devices
KR102311684B1 (en) * 2016-10-03 2021-10-08 구글 엘엘씨 Multi-User Personalization on Voice Interface Devices
US11527249B2 (en) 2016-10-03 2022-12-13 Google Llc Multi-user personalization at a voice interface device
JP2019535035A (en) * 2016-10-03 2019-12-05 グーグル エルエルシー Multi-user personalization in voice interface devices
JP2021119403A (en) * 2016-10-03 2021-08-12 グーグル エルエルシーGoogle LLC Multi-user personalization at voice interface device
JP7225301B2 (en) 2016-10-03 2023-02-20 グーグル エルエルシー Multi-user personalization in voice interface devices
JP2017133822A (en) * 2016-10-31 2017-08-03 真理 井上 Air conditioner and air conditioning system
CN106887228A (en) * 2016-12-27 2017-06-23 深圳市优必选科技有限公司 Robot voice control method and device and robot
CN106887228B (en) * 2016-12-27 2020-06-05 深圳市优必选科技有限公司 Robot voice control method and device and robot
CN109599101A (en) * 2017-10-02 2019-04-09 福特全球技术公司 The external voice monitoring based on accelerometer independently stopped for voice control
WO2019069731A1 (en) * 2017-10-06 2019-04-11 ソニー株式会社 Information processing device, information processing method, program, and moving body
CN109658922A (en) * 2017-10-12 2019-04-19 现代自动车株式会社 The device and method for handling user's input of vehicle
CN109658922B (en) * 2017-10-12 2023-10-10 现代自动车株式会社 Apparatus and method for processing user input for vehicle
US11563597B2 (en) 2017-12-12 2023-01-24 ROVl GUIDES, INC. Systems and methods for modifying playback of a media asset in response to a verbal command unrelated to playback of the media asset
JP2021506187A (en) * 2017-12-12 2021-02-18 ロヴィ ガイズ, インコーポレイテッド Systems and methods for modifying media asset playback in response to verbal commands that are unrelated to media asset playback
JP7275134B2 (en) 2017-12-12 2023-05-17 ロヴィ ガイズ, インコーポレイテッド Systems and methods for modifying playback of media assets in response to verbal commands unrelated to playback of media assets
WO2019223064A1 (en) * 2018-05-21 2019-11-28 深圳市沃特沃德股份有限公司 Voice control method for sweeping robot and sweeping robot
CN112703516A (en) * 2018-09-18 2021-04-23 远程连接株式会社 Reservation device, reservation method, and reservation system
CN110103236A (en) * 2019-05-13 2019-08-09 佛山科学技术学院 The small-sized house keeper robot of intelligent security guard and control method
US20220280007A1 (en) * 2019-07-11 2022-09-08 Lg Electronics Inc. Mobile robot and method of controlling the same
KR102306436B1 (en) * 2019-07-11 2021-09-28 엘지전자 주식회사 Moving Robot and controlling method
WO2021006674A3 (en) * 2019-07-11 2021-02-25 엘지전자 주식회사 Mobile robot and control method therefor
KR20210007360A (en) * 2019-07-11 2021-01-20 엘지전자 주식회사 Moving Robot and controlling method
CN111283679A (en) * 2020-01-19 2020-06-16 路邦科技授权有限公司 Multi-connected voice control automatic guide transportation system and control method thereof
CN113892859A (en) * 2020-06-22 2022-01-07 珠海格力电器股份有限公司 Control method of sweeping robot and sweeping robot
CN114326495A (en) * 2021-12-24 2022-04-12 中电海康集团有限公司 Robot control system architecture and voice instruction processing method
CN114326495B (en) * 2021-12-24 2024-02-09 中电海康集团有限公司 Robot control system architecture and voice instruction processing method

Similar Documents

Publication Publication Date Title
JP2016090655A (en) Voice recognition robot system, voice recognition robot, controller for voice recognition robot, communication terminal for controlling voice recognition robot, and program
JP6739907B2 (en) Device specifying method, device specifying device and program
JP6516585B2 (en) Control device, method thereof and program
CN204695548U (en) Take portable intelligent device as intelligent interactive system and the house robot system of control axis
JP2016522465A (en) Apparatus and method for providing a persistent companion device
JP2015184563A (en) Interactive household electrical system, server device, interactive household electrical appliance, method for household electrical system to interact, and program for realizing the same by computer
CN104813642A (en) Methods, apparatuses and computer readable medium for triggering a gesture recognition mode and device pairing and sharing via non-touch gestures
KR102421824B1 (en) Electronic device for providing voice based service using external device and operating method thereof, the external device and operating method thereof
JP6316214B2 (en) SYSTEM, SERVER, ELECTRONIC DEVICE, SERVER CONTROL METHOD, AND PROGRAM
US20210383806A1 (en) User input processing method and electronic device supporting same
WO2017141530A1 (en) Information processing device, information processing method and program
CN109804407B (en) Care maintenance system and server
KR102629796B1 (en) An electronic device supporting improved speech recognition
KR20190095193A (en) An artificial intelligence apparatus for managing operation of artificial intelligence system and method for the same
JP2018176386A (en) Information processing device and program
JP7439826B2 (en) Information processing device, information processing method, and program
JP2016099469A (en) Voice recognition operation device, control device of voice recognition operation device, method for operating voice recognition operation device, program, and control system of voice recognition operation device
JP2016091456A (en) Voice recognition robot and program for controlling voice recognition robot
JP6489793B2 (en) Electronic device, control system, control method, and control program
CN111352501A (en) Service interaction method and device
JP6864831B2 (en) Robot devices and programs
WO2015179466A1 (en) Remote interactive media
TW201918889A (en) Boot system and boot method applied to intelligent robot
US10551871B2 (en) Interactive multimedia assistant device with a swappable personality customizable skin
JP6257040B2 (en) Karaoke system, portable information processing apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190806