JP2016090655A - Voice recognition robot system, voice recognition robot, controller for voice recognition robot, communication terminal for controlling voice recognition robot, and program - Google Patents
Voice recognition robot system, voice recognition robot, controller for voice recognition robot, communication terminal for controlling voice recognition robot, and program Download PDFInfo
- Publication number
- JP2016090655A JP2016090655A JP2014221580A JP2014221580A JP2016090655A JP 2016090655 A JP2016090655 A JP 2016090655A JP 2014221580 A JP2014221580 A JP 2014221580A JP 2014221580 A JP2014221580 A JP 2014221580A JP 2016090655 A JP2016090655 A JP 2016090655A
- Authority
- JP
- Japan
- Prior art keywords
- command
- unit
- voice
- robot
- voice recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
- Electric Vacuum Cleaner (AREA)
Abstract
Description
本開示は、音声認識の結果に応じて動作するロボットの制御に関し、より特定的には、当該音声認識ロボットの安全性を向上させる技術に関する。 The present disclosure relates to control of a robot that operates according to a result of speech recognition, and more particularly, to a technique for improving the safety of the speech recognition robot.
ネットワークを介してロボットを制御する技術が知られている。たとえば、特開2005−186234号公報(特許文献1)は、「ネットワークに接続した複数の制御装置から制御される場合に動作を円滑に実行できるネットワークロボット」を開示している([要約]参照)。 A technique for controlling a robot via a network is known. For example, Japanese Patent Laying-Open No. 2005-186234 (Patent Document 1) discloses “a network robot that can smoothly execute an operation when controlled by a plurality of control devices connected to a network” (see [Summary]). ).
特開2005−186234号公報に開示されたネットワークロボットは、「制御を許諾された許諾ユーザを特定するユーザ情報及び許諾ユーザがネットワークロボットを制御する際の優先度情報を予め記憶した記憶手段と、指令を送ったユーザが許諾ユーザか否かをユーザ情報に基づいて判定するユーザ判定手段と、優先度情報に基づいて指令による制御の順番を判定する優先度判定手段と、優先度判定手段の判定に基づいて自らを制御する制御手段と」を備える([要約]の[解決手段]参照)。 The network robot disclosed in Japanese Patent Application Laid-Open No. 2005-186234 includes “a storage unit that stores in advance user information for identifying a licensed user for whom control is permitted and priority information for the licensed user to control the network robot; User determination means for determining whether the user who sent the command is a licensed user based on user information, priority determination means for determining the order of control based on the command based on priority information, and determination of priority determination means And control means for controlling itself based on (see [Solution means] in [Summary]).
ロボットの動作に関し、安全性を保障する必要がある。たとえば、国際規格ISO(International Standard Organization)13482は、装着型ロボット(Physical assistant robot)、移動作業型ロボット(mobile servant robot)、搭乗型ロボット(person carrier robot)などの安全性を規定している。 It is necessary to ensure the safety of the robot operation. For example, the international standard ISO (International Standard Organization) 13482 defines safety of a wearable robot (Physical assistant robot), a mobile servant robot, a boarding robot (person carrier robot), and the like.
また、たとえば、音声で制御される自立型ロボットの場合、音声制御であるために解決しなければならないことがある。たとえば、音声認識による動作、ネットワーク外からの遠隔操作等、さまざまな操作方法が考えられる。また、音声で制御されるロボットの場合、特定の操作装置(リモコン)がない場合もある。さらに、複数の人による複数の制御が重複して行われる可能性もある。したがって、優先度を用いた制御よりも安全性が向上する技術が必要とされている。 In addition, for example, in the case of a self-supporting robot controlled by voice, since it is voice control, it may be necessary to solve it. For example, various operation methods such as an operation based on voice recognition and a remote operation from outside the network are conceivable. In the case of a robot controlled by voice, there may be no specific operating device (remote controller). Furthermore, a plurality of controls by a plurality of people may be performed in an overlapping manner. Therefore, there is a need for a technique that improves safety over control using priority.
本開示は、上述のような問題点を解決するためになされたものであって、ある局面における目的は、安全性が向上する音声認識ロボットシステムを提供することである。他の局面における目的は、安全性が向上する音声認識ロボットを提供することである。他の局面における目的は、ロボットの安全性が向上するように当該ロボットを制御するための制御装置を提供することである。他の局面における目的は、音声認識ロボットの安全性が向上するように当該音声認識ロボットを制御するための通信端末を提供することである。他の局面における目的は、音声認識ロボットシステムの安全性が向上するように当該音声認識ロボットシステムを制御するためのプログラムを提供することである。さらに他の局面における目的は、音声認識ロボットの安全性が向上するように当該音声認識ロボットを制御するためのプログラムを提供することである。 The present disclosure has been made to solve the above-described problems, and an object in one aspect is to provide a voice recognition robot system with improved safety. An object in another aspect is to provide a voice recognition robot with improved safety. An object in another aspect is to provide a control device for controlling the robot so that the safety of the robot is improved. An object in another aspect is to provide a communication terminal for controlling the voice recognition robot so that the safety of the voice recognition robot is improved. An object in another aspect is to provide a program for controlling the voice recognition robot system so that the safety of the voice recognition robot system is improved. Still another object of the present invention is to provide a program for controlling the voice recognition robot so that the safety of the voice recognition robot is improved.
一実施の形態に従う音声認識ロボットシステムは、音声の入力を受け付けるように構成された音声入力部と、入力された音声を処理するように構成された音声認識部と、命令の入力を受け付けるように構成された入力部と、予め規定された動作を行なうように構成された動作部と、音声入力部に入力された音声による命令または入力部によって受け付けられた命令に応じて、動作部の動作を制御するように構成された制御部とを備える。制御部は、第1の命令が音声で与えられた場合に動作部を作動させ、第1の命令の後に第2の命令が入力部を介して与えられた場合に、動作部に、第1の命令に基づく動作を停止させ、第2の命令に基づく動作を行なわせるように構成されている。 A voice recognition robot system according to an embodiment receives a voice input unit configured to receive a voice input, a voice recognition unit configured to process the input voice, and a command input The operation unit operates in accordance with an input unit configured, an operation unit configured to perform a predetermined operation, and a voice command input to the voice input unit or a command received by the input unit. A control unit configured to control. The control unit activates the operation unit when the first command is given by voice, and when the second command is given via the input unit after the first command, The operation based on the second command is stopped and the operation based on the second command is performed.
ある局面によると、音声認識の結果に応じて動作するロボットの安全性が向上し得る。
この発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解されるこの発明に関する次の詳細な説明から明らかとなるであろう。
According to an aspect, the safety of a robot that operates according to the result of speech recognition can be improved.
The above and other objects, features, aspects and advantages of the present invention will become apparent from the following detailed description of the present invention taken in conjunction with the accompanying drawings.
以下、図面を参照しつつ、本開示の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
<第1の実施の形態>
まず、優先制御において優先順位を決める要素について説明する。優先順位を決める要素としては、たとえば、(1)音声の指示者(例、母>娘>父>客>不明)、(2)指示方法(例、本体スイッチ>赤外線リモコン>音声>ウェブ)、(3)ウェブ、(4)緊急停止、がある。(1)音声の指示者に基づく優先順位の場合、音声により指示者(発話者)が認識される。指示者が「不明」である場合には、当該発話に基づく動作を行なわない。(2)優先順位が操作方法に基づく場合、現場での指示が最優先される。現場での指示は、たとえば、機器が備えるスイッチの操作、リモコン操作による指示等を含む。この場合、指示者を認識することなく、スイッチあるいはリモコンの操作に基づいて、制御が実行される。(3)ウェブの場合、たとえば、音声認識ロボット(例、自走式掃除機)を制御するための画面において命令が入力される。この場合、当該画面を表示している端末のユーザの名前が、当該命令を入力した指示者として表示され得る。したがって、他のユーザが当該画面を参照している場合、当該他のユーザは、その命令が誰によって入力されたものであるかを容易に認識することができる。(4)緊急停止の場合、緊急停止の指示(特定指示)は、いかなる場合も最優先で処理される。この場合、緊急指示が誰によって与えられたかは考慮されない。音声認識ロボットは、緊急指示の入力を検知すると、即座に実行している動作を停止する。
<First Embodiment>
First, elements for determining priority in priority control will be described. For example, (1) voice instructor (eg, mother>daughter>father>customer> unknown), (2) instruction method (eg, main unit switch> infrared remote control>voice> web), (3) Web, (4) Emergency stop. (1) In the case of the priority order based on the voice instructor, the instructor (speaker) is recognized by voice. When the instructor is “unknown”, the operation based on the utterance is not performed. (2) When the priority order is based on the operation method, the on-site instruction has the highest priority. The instruction at the site includes, for example, an operation of a switch provided in the device, an instruction by a remote control operation, and the like. In this case, the control is executed based on the operation of the switch or the remote controller without recognizing the instructor. (3) In the case of the web, for example, a command is input on a screen for controlling a voice recognition robot (eg, a self-propelled cleaner). In this case, the name of the user of the terminal displaying the screen can be displayed as the instructor who has input the command. Therefore, when another user is referring to the screen, the other user can easily recognize who the command is input by. (4) In the case of an emergency stop, the emergency stop instruction (specific instruction) is processed with the highest priority in any case. In this case, it is not considered who gave the emergency instruction. When the voice recognition robot detects the input of the emergency instruction, the voice recognition robot immediately stops the operation being executed.
本実施の形態において、停止とは、中止および中断を含み得る。すなわち、ある局面において音声認識ロボットが、その動作を中止する場合がある。当該動作が中止されると、以降は、その動作は行なわれない。別の局面において、音声認識ロボットが、その動作を中断する場合がある。当該動作が中断されても、その後に、音声認識ロボットが動作を再開するための条件が成立すると、当該音声認識ロボットは、動作を行なう。この時の動作は、必ずしも、中断前の動作と同じでなくてもよい。 In the present embodiment, the stop may include cancellation and interruption. That is, the voice recognition robot may stop its operation in a certain situation. When the operation is stopped, the operation is not performed thereafter. In another aspect, the voice recognition robot may interrupt its operation. Even if the operation is interrupted, the voice recognition robot performs the operation when a condition for the voice recognition robot to resume the operation is satisfied. The operation at this time is not necessarily the same as the operation before the interruption.
さらに別の局面において、音声認識ロボットは、所定の場所(例、充電ステーション)に移動してもよい。なお、緊急指示を与える方法は、特に限られない。 In yet another aspect, the voice recognition robot may move to a predetermined location (eg, a charging station). In addition, the method of giving an emergency instruction is not particularly limited.
図1を参照して、本実施の形態に係る音声認識ロボットシステム10(以下、単に「システム10」ともいう。)について説明する。図1は、システム10の全体構成を表す図である。ある局面において、システム10は、ロボット110と、サーバ120と、携帯端末140とを備える。ロボット110は、たとえば、お掃除ロボットその他の機器であって、命令に応じて動作可能な機器である。ロボット110とサーバ120とサーバ130とは、たとえば、家、事務所その他の一定の範囲であって一人以上のユーザが特定される範囲に設置される。ロボット110とサーバ120とサーバ130とは、インターネット150に接続可能である。
A speech recognition robot system 10 (hereinafter also simply referred to as “
ある局面において、ロボット110は、音声、リモコン信号、遠隔操作による制御信号、タッチ操作等によって与えられる命令に基づいて作動する。
In one aspect, the
サーバ120とサーバ130とは、周知の構成を有するコンピュータによって実現される。サーバ120は、たとえば、家庭内のネットワークに接続される機器を管理するサーバとして機能する。当該機器は、お掃除ロボット、テレビ、エアコン、冷蔵庫、照明、給湯機器、調理機器、電気自動車等を含み得る。
The
サーバ130は、たとえば、ロボットによるサービス(癒しサービス、話し相手、遊び相手等)を提供する事業者によって管理され得るサーバとして機能する。たとえば、サーバ130は、各契約に応じて、上記のサービスを各家庭に提供し得る。
The
携帯端末140は、スマートフォン、タブレット端末等によって実現される。携帯端末140は、ロボット110に対して、操作信号を直接送信し得る。たとえば、携帯端末140は、赤外線信号、Bluetooth(登録商標)通信のための信号、NFC(Near Field Communication)信号等を送信し得る。別の局面において、携帯端末140は、間接的に操作信号を送信し得る。より具体的には、携帯端末140は、インターネット150を介して、あるいは、WiFi(Wireless Fidelity)によってロボット110に対して信号を送信し得る。
The
音声認識ロボットシステム10は、ある局面において、ロボット110の状態を報知し得る。報知される内容は、たとえば、(1)誰(または何)の指示で動作しているか(例、お母さんの指示で〜)、(2)何をしているのか(例、掃除中です〜)、(3)ロボット110に与えられた指示に対する応答(例、「〜なのでできません。」、「〜なので終わるまで待っててね。」、「はい、〜を始めます。」、「はい、〜を中断して〜を始めます。」、「〜を再開します。」)等を含み得る。
The speech
報知方法は、たとえば、(1)ロボット110の本体(例、スピーカ、表示部、LED、動作(自転運動、手足の動き、手話等))を用いる態様、(2)ウェブ(ネットワーク上の掲示板、特定の画面等)に表示される態様、(3)リモコン(携帯端末140をリモコンとして使用している場合)に内容を表示する態様、(4)その他の表示領域(たとえば、表示部を備えるテレビその他の家電)等を含む。
The notification method includes, for example, (1) a mode using the main body of the robot 110 (eg, speaker, display unit, LED, operation (spinning motion, limb movement, sign language, etc.)), (2) web (a bulletin board on a network, A mode displayed on a specific screen or the like, (3) a mode where content is displayed on a remote control (when the
報知のタイミングは、たとえば、(1)ロボット110が報知の指示を受信したとき(例、「今何しているの?」)、(2)動作の指示が音声認識ロボット(たとえば、ロボット110)に与えられたとき、(3)予約された動作を開始するとき、(4)予め定められたタイミングでロボット110がウェブにアップ(例、「今、お母さんの指示で掃除しています。」)等を含む。
The notification timing is, for example, (1) when the
<動作概要>
図2を参照して、ロボット110の動作の概要について説明する。図2は、ロボット110が第1の命令に基づいて動作している場合に、第2の命令が与えられた場合の動作を表す図である。
<Overview of operation>
An outline of the operation of the
場面(A)に示されるように、ある局面において、ロボット110は、第1のユーザ(お母さん)から与えられた第1の命令に基づいて掃除している。そこに、第2のユーザ(子供200)が「しりとりしよう」と発話する。ロボット110は、その発話の内容を認識し、当該発話を与えたユーザ(第2のユーザ)の優先順位と、掃除の指示を与えたユーザ(第2のユーザ)の優先順位とを比較する。ロボット110の各ユーザの優先順位は、たとえば、ロボット110、サーバ120,130、携帯端末140のいずれかの機器に保存されている。当該優先順位がロボット110以外の他の機器に保存されている場合には、ロボット110は、当該他の機器と通信して、優先順位に基づく判断結果を当該他の機器から受信して、判断結果に基づいて応答する。
As shown in the scene (A), in one aspect, the
場面(A)の場合、お母さん(第1のユーザ)の優先順位は、子供200(第2のユーザ)の優先順位よりも高い。したがって、ロボット110は、子供200から与えられた音声から認識された指示(すなわち「しりとりしよう」という発話)に対して、当該指示に基づく動作を実行できない旨を回答する。たとえば、ロボット110は、「お母さんの指示で掃除しているのでできません。」と応答する。
In the case of the scene (A), the priority order of the mother (first user) is higher than the priority order of the child 200 (second user). Therefore, the
次に、場面(B)に示されるように、別の局面において、ロボット110がお母さん(第1のユーザ)の指示に基づいて掃除している場合に、子供200が、リモコン210を用いて、ロボット110の運転を停止させようとする場合がある。一例として、ロボット110の進行方向にジグソーパズルが展開されている場合において、ロボット200がジグソーパズルの上を走行する恐れがあるときである。このような場合、子供200は、ロボット110のリモコン210を用いて、ロボット110を緊急停止させることになる。子供200がリモコン210の停止スイッチ(図示しない)を押下すると、ロボット110は、掃除の指示(第1の命令)が与えられた後に停止の指示(第2の命令)をリモコン210から受信したことを検知する。仮に、第1の命令を与えたユーザ(お母さん)の優先順位が、第2の命令を与えたユーザ(子供200)の優先順位よりも高くても、ロボット110は、音声以外の命令(たとえば、リモコン210からの制御信号に基づく命令)を優先し、停止する。なお、ロボット110は、停止前に、リモコン210からの命令に応答することを明確にするために、音声で「お母さんの指示で掃除しているけど、停止。」と出力し得る。あるいは、ロボット110は、緊急停止を報知するための音(たとえばブザー)を鳴動してもよい。さらには別の局面において、ロボット110は、緊急停止を示すように、ライトを点灯させてもよい。
Next, as shown in the scene (B), in another aspect, when the
図3を参照して、音声認識ロボットシステム(以下、単に「システム300」ともいう。)の構成について説明する。図3は、システム300によって実現される機能の構成を表すブロック図である。システム300は、1つ以上の命令、たとえば、第1の命令321と第2の命令331の入力を受け付けて、各命令を与えたユーザの優先順位に基づいて動作し得る。
With reference to FIG. 3, the configuration of a voice recognition robot system (hereinafter also simply referred to as “
システム300は、指示入力部301と、音声入力部302と、音声出力部303と、記憶部304と、音声処理部305と、表示部306と、優先順位判断部307と、動作制御部308と、通信部309と、動作部310とを備える。
The
ある局面において、システム300は、ロボット110単体として実現され得る。別の局面において、システム300は、ロボット110と音声認識処理機能を有する他の情報処理通信装置(たとえば、サーバ120、サーバ130、携帯端末140の少なくとも一つ)とによって実現され得る。したがって、指示入力部301と、音声入力部302と、音声出力部303と、記憶部304と、音声処理部305と、表示部306と、優先順位判断部307と、動作制御部308と、通信部309と、動作部310とは、常に、一つの機器において実現される必要はなく、その一部が、通信ネットワークによって接続可能な他の装置において実現されてもよい。
In one aspect, the
指示入力部301は、システム300に対する信号の入力を受け付ける。たとえば、指示入力部301は、リモコン信号、パケット信号、赤外線信号その他の無線信号に基づく指示、あるいは、ハードウェアスイッチの操作に基づく指示の入力を受け付ける。ハードウェアスイッチは、トグルスイッチその他のボタンによって実現され得る。
The
音声入力部302は、音声の入力を受け付ける。音声入力部302は、音を集める集音器としても実現され得る。音声入力部302は、たとえば、内蔵マイク、あるいは、着脱可能なマイクによって実現される。
The
音声出力部303は、音声処理部305から出力される信号に基づいて、音声を出力する。たとえば、音声出力部303は、システム300の状態を表すメッセージを音声で出力する。当該メッセージは、たとえば、「掃除中」、「緊急停止します」、「しりとりします」、「タイマーによる予約設定を受け付けました」、「予約設定をキャンセルしました」、「予約を受け付けられません」等を含むが、メッセージはこれらに限られず、少なくともロボット110が備える機能を報知するメッセージが使用され得る。音声出力部303は、少なくとも一つ以上のスピーカによって実現される。
The
記憶部304は、システム300の登録された一人以上のユーザの各々のユーザに割り当てられる優先順位を保持する。記憶部304は、たとえば、フラッシュメモリ、ハードディスクその他の不揮発性のデータ記録媒体によって実現され得る。ある局面において、優先順位は、システム300の管理者またはユーザによって設定される。別の局面において、優先順位は、各ユーザの属性に応じて割り当てられ得る。たとえば、優先順位の高低は、各ユーザの年齢の高低に対応し得る。さらに別の局面において、優先順位は、ランダムに割り当てられてもよい。
The
音声処理部305は、システム300に入力された音声に対して予め規定された処理を実行する。処理後の信号は、動作制御部308に入力される。別の局面において、音声処理部305は、動作制御部308から送られる信号に基づいて、ユーザに対する応答として出力されるメッセージを生成し、音声出力部303に出力する。音声処理部305は、ある局面では、たとえば、プロセッサが音声処理プログラムを実行することにより実現され、別の局面では、専用の音声処理回路として実現され得る。
The
表示部306は、動作制御部308から送られるデータに基づいて、システム300の状態をユーザに表示する。たとえば、表示部306は、システム300の状態あるいはロボット110の状態を示すメッセージを表示する。たとえば、表示部306は、モニタやライトによって実現される。
The
優先順位判断部307は、音声処理部305の処理によって特定されたユーザに基づいて、記憶部304に保存されている優先順位を読み出し、各命令の優先順位を判断する。優先順位判断部307は、たとえば、プロセッサが優先順位を判断するためのプログラムを実行することにより実現される。
The priority
動作制御部308は、優先順位判断部307の結果に基づいて、動作部310による動作を制御する。別の局面において、動作制御部308は、優先順位判断部307の結果に基づく制御内容を音声処理部305に出力する。当該制御内容は、たとえば、第1の命令の後に与えられた第2の命令は実行されない旨、第1の命令を無効にして第2の命令に基づく動作が実行される旨等を含む。音声処理部305は、その制御内容を音声で出力するための信号を生成し、当該信号を音声出力部303に送出する。音声出力部303は、その信号に基づいて第2の命令に対する応答を音声で出力する。
The
別の局面において、音声認識ロボットシステム300への発話者が認識されない場合、動作制御部308は、当該発話に基づく処理を実行しない。
In another aspect, when a speaker to the speech
通信部309は、他の情報通信機器と通信する。通信部309は、たとえば、インターネット通信、LAN(Local Area Network)通信、赤外線通信、Bluetooth(登録商標)通信その他の通信のためのインターフェイスとして実現される。ある局面において、通信部309は、他の情報通信機器から送られた信号を、動作部310に対する命令として受信する。この場合、動作制御部308は、当該信号から命令を取り出し、優先順位判断部307に命令を送る。システム300が既に命令を受け付けている場合、優先順位判断部307は、当該命令の優先順位と当該他の命令の優先順位とを比較し、いずれの命令を実行するべきかを判断する。
The
[データ構造]
図4を参照して、システム300のデータ構造について説明する。図4は、記憶部304におけるデータの格納の一態様を概念的に表す図である。ある局面において、記憶部304は、登録ユーザ410と優先順位420とを保持している。登録ユーザ410と優先順位420とは互いに関連付けられている。
[data structure]
The data structure of the
図4に示される例では、4人のユーザがシステム300のユーザとして登録されている。なお、登録可能なユーザの数は、4人よりも多くても少なくてもよい。ユーザAの優先順位は「1」であるので、ユーザB,C,Dの優先順位を上回る。したがって、その他の条件が同じである場合、システム300に最初に与えられる命令(第1の命令)がユーザAからの命令であるとき、その後、第2の命令として、ユーザB〜Dのいずれかから命令が与えられても、当該命令は無視され、第1の命令に基づく動作が継続する。あるいは、第1の命令がユーザB〜Dのいずれかから与えられた後に、第2の命令がユーザAによって与えられると、第1の命令に基づく動作が停止(中止または中断)され、第2の命令に基づく動作が開始される。
In the example shown in FIG. 4, four users are registered as users of the
なお、優先順位は、たとえば、システム300のセットアップ時に、システム300のユーザ登録と共に設定され得る。
The priority order may be set together with user registration of the
[ロボットの構成]
図5を参照して、ロボット110の構成について説明する。図5は、本実施の形態に係るロボット110の構成を表すブロック図である。ある局面において、ロボット110は複数のモジュールによって構成される。各モジュールは、ハードウェア、ソフトウェアおよびこれらの組み合わせとして実現され得る。たとえば、ロボット110は、制御部510と、記憶部520と、動作部530と、リモコン信号受信部540と、モニタ541と、ライト542と、スイッチ543と、集音部544と、スピーカ545と、通信部546と、バッテリ547とを備える。制御部510は、入力受付部511と、音声認識部512と、応答処理部513と、動作モード切替部514とを含む。記憶部520は、発話内容データベース521を含む。動作部530は、掃除部531を含む。
[Robot configuration]
The configuration of the
制御部510は、ロボット110の動作を制御する。制御部510は、たとえば、プロセッサ、制御回路等によって実現される。
入力受付部511は、ロボット110に対して与えられた命令の入力を受け付ける。当該命令は、たとえば、リモコン信号受信部540によって受信される制御信号、スイッチ543への操作、集音部544への動作命令の発話等によって、ロボット110に与えられる。
The
音声認識部512は、集音部544から送られた音声信号を処理して、当該音声信号をもたらした発話を認識する。音声認識の処理は、周知の技術を用いて実現される。したがって、詳細な説明は繰り返さない。また、音声認識部512は、記憶部520に保存されているユーザデータに基づいて、当該発話を与えたユーザを特定する。当該ユーザデータは、たとえば、システム300のセットアップの際に行われるユーザ登録において、各ユーザが発話することにより入力され得る。あるいは、他の情報通信装置がロボット110にユーザデータを送信し、ロボット110が記憶部520に確保した領域に保存してもよい。
The
応答処理部513は、音声認識部512による認識の結果に基づいて、音声信号に応じた命令を実行する。ある局面において、応答処理部513は、動作部530に動作の命令を送る。別の局面において、応答処理部513は、スピーカ545を介して、音声信号に対する返答を音声で出力するための信号を生成し、生成した信号をスピーカ545に送出する。
The
動作モード切替部514は、応答処理部513からの出力に基づいて、ロボット110の動作モードを切り替える。たとえば、ロボット110の動作モードは、たとえば、お掃除モード、しりとりモード、癒しモード等を含み得る。お掃除モードでは、ロボット110は、モータ(図示しない)を駆動してブラシ(図示しない)を回転させて掃除を行なう。しりとりモードでは、ロボット110は、ユーザの発話に応答して、しりとりのために記憶部520に予め保存されている辞書を用いて、当該ユーザとしりとりを行なう。癒しモードでは、ロボット110は、発話内容データベース521に保存されている癒し対話のための応答を、ユーザからの発話に応じて音声で出力する。
The operation
記憶部520は、予め規定された動作をロボット110に実行させるためのプログラムやデータを保持している。当該プログラムは、お掃除モードにおいて掃除部531を運転させるための制御プログラム、他の情報通信機器と通信するためのプログラム、音声認識処理を実行するためのプログラム、ロボット110の状態を報知するためのプログラムなどを含み得る。当該データは、たとえば、発話内容データベース521、上記の各プログラムに用いられる設定データ等を含む。発話内容データベース521は、各動作モードに応じたプログラムの提供者によって、当該プログラムと共に与えられる。あるいは、ロボット110は、学習機能を有している場合には、ユーザとの対話を発話内容データベース521に蓄積してもよい。
The
動作部530は、ロボット110が備える動作機能を実現する。動作部530において、たとえば、掃除部531は、モータ、ブラシ等を含む。別の局面において、動作部530は、他の家電機器(たとえば、エアコン、給湯機、テレビ、冷蔵庫、電子レンジ、電磁調理器など)を実現するための構成であってもよい。
The
モニタ541は、ロボット110の状態を表示する。モニタ541は、液晶モニタ、有機EL(Electro-Luminescence)モニタ等によって実現される。
The
ライト542は、ロボット110の状態を示すために規定された色や点灯態様で光を出力する。ライト542は、たとえば、LED(Light Emitting Diode)、回転灯などによって実現される。
The light 542 outputs light in a color or lighting manner defined to indicate the state of the
スイッチ543は、ロボット110に対する命令の入力を受け付ける。スイッチ543は、たとえば、トグルスイッチその他のハードウェアキーとして実現される。
The
集音部544は、ロボット110の周囲の音声を取得する。ある局面において、集音部544は、指向性を有するマイクとして実現され得る。別の局面において、集音部544は、指向性を有さないマイクとしても実現され得る。また、複数の集音部544がロボット110に設けられてもよい。
The
スピーカ545は、制御部510から送られる信号に基づいて音声を出力する。出力される音声は、ロボット110の動作を表すために予め規定された音声、ロボット110のユーザの発話への応答等を含み得る。
The
通信部546は、他の情報通信機器(たとえば、サーバ120,130、携帯端末140等)と通信する。通信の態様は、特に限定されない。通信は無線通信によって行われるが、有線通信が用いられてもよい。
The
バッテリ547は、ロボット110に電力を供給する。バッテリ547は、たとえば、充電可能な二次電池、乾電池等を含み得る。
The
[サーバの構成]
図6を参照して、サーバ120,130の構成について説明する。図6は、サーバ120,130を実現するコンピュータ600のハードウェア構成を表すブロック図である。
[Server configuration]
The configuration of the
コンピュータ600は、主たる構成要素として、プログラムを実行するCPU(Central Processing Unit)1と、コンピュータ600のユーザによる指示の入力を受けるマウス2およびキーボード3と、CPU1によるプログラムの実行により生成されたデータ、又はマウス2若しくはキーボード3を介して入力されたデータを揮発的に格納するRAM(Random Access Memory)4と、データを不揮発的に格納するハードディスク5と、光ディスク駆動装置6と、通信I/F(Interface)7と、モニタ8とを備える。各構成要素は、相互にバスによって接続されている。光ディスク駆動装置6には、CD−ROM9その他の光ディスクが装着される。通信インターフェイス7は、USB(Universal Serial Bus)インターフェイス、有線LAN(Local Area Network)、無線LAN、Bluetooth(登録商標)インターフェイス等を含むが、これらに限られない。
The computer 600 includes, as main components, a CPU (Central Processing Unit) 1 that executes a program, a
コンピュータ600における処理は、コンピュータ600を構成するハードウェアおよびCPU1により実行されるソフトウェアによって実現される。このようなソフトウェアは、ハードディスク5に予め格納されている場合がある。また、ソフトウェアは、CD−ROM9その他のコンピュータ読み取り可能な不揮発性のデータ記録媒体に格納されて、プログラム製品として流通している場合もある。あるいは、当該ソフトウェアは、インターネットその他のネットワークに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。このようなソフトウェアは、光ディスク駆動装置6その他のデータ読取装置によってデータ記録媒体から読み取られて、あるいは、通信I/F7を介してダウンロードされた後、ハードディスク5に一旦格納される。そのソフトウェアは、CPU1によってハードディスク5から読み出され、RAM4に実行可能なプログラムの形式で格納される。CPU1は、そのプログラムを実行する。
Processing in the computer 600 is realized by hardware constituting the computer 600 and software executed by the
図6に示されるコンピュータ600を構成する各構成要素は、一般的なものである。したがって、本実施の形態に係るサーバ120,130における技術思想を実現する本質的な部分は、コンピュータ600に格納されたプログラムであるともいえる。コンピュータ600のハードウェアの動作は周知であるので、詳細な説明は繰り返さない。
Each component constituting the computer 600 shown in FIG. 6 is a general component. Accordingly, it can be said that an essential part of realizing the technical idea in the
なお、データ記録媒体としては、CD−ROM、FD(Flexible Disk)、ハードディスクに限られず、磁気テープ、カセットテープ、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、IC(Integrated Circuit)カード(メモリカードを含む)、光カード、マスクROM、EPROM(Electronically Programmable Read-Only Memory)、EEPROM(Electronically Erasable Programmable Read-Only Memory)、フラッシュROMなどの半導体メモリ等の固定的にプログラムを担持する不揮発性のデータ記録媒体でもよい。ここでいうプログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含み得る。 The data recording medium is not limited to a CD-ROM, FD (Flexible Disk), and hard disk, but is a magnetic tape, cassette tape, optical disk (MO (Magnetic Optical Disc) / MD (Mini Disc) / DVD (Digital Versatile Disc)). ), IC (Integrated Circuit) card (including memory card), optical card, mask ROM, EPROM (Electronically Programmable Read-Only Memory), EEPROM (Electronically Erasable Programmable Read-Only Memory), flash ROM, etc. It may be a non-volatile data recording medium that carries a fixed program. The program here may include not only a program directly executable by the CPU but also a program in a source program format, a compressed program, an encrypted program, and the like.
[端末の構成]
図7を参照して、本実施の形態に係る携帯端末140の構成について説明する。図7は、携帯端末140のハードウェア構成を表すブロック図である。
[Terminal configuration]
With reference to FIG. 7, a configuration of
携帯端末140は、CPU20と、アンテナ23と、通信装置24と、操作ボタン25と、カメラ26と、フラッシュメモリ27と、RAM28と、ROM29と、メモリカード駆動装置30と、マイク32と、スピーカ33と、音声信号処理回路34と、モニタ35と、LED36と、データ通信インターフェイス37と、バイブレータ38と、加速度センサ39とを備える。メモリカード駆動装置30には、メモリカード31が装着され得る。
The
アンテナ23は、基地局(図示しない)を介して、サーバ120,130によって発信される信号を受信し、または、サーバ120,130を介して他の通信装置と通信するための信号を送信する。アンテナ23によって受信された信号は、通信装置24によってフロントエンド処理が行なわれた後、処理後の信号は、CPU20に送られる。
The
操作ボタン25は、携帯端末140に対する操作を受け付ける。操作ボタン25は、たとえば、ハードウェアキーまたはソフトウェアキーとして実現される。操作ボタン25は、ユーザによる操作を受け付けると、その時の携帯端末140の動作モードに応じた信号をCPU20に送出する。
The
CPU20は、携帯端末140に対して与えられる命令に基づいて携帯端末140の動作を制御するための処理を実行する。携帯端末140が信号を受信すると、CPU20は、通信装置24から送られた信号に基づいて予め規定された処理を実行し、処理後の信号を音声信号処理回路34に送出する。音声信号処理回路34は、その信号に対して予め規定された信号処理を実行し、処理後の信号をスピーカ33に送出する。スピーカ33は、その信号に基づいて音声を出力する。
The
マイク32は、携帯端末140に対する発話を受け付けて、発話された音声に対応する信号を音声信号処理回路34に対して送出する。音声信号処理回路34は、予め規定された処理を当該信号に対して実行し、処理後の信号をCPU20に対して送出する。CPU20は、その信号を送信用のデータに変換し、変換後のデータを通信装置24に対して送出する。通信装置24は、そのデータを用いて送信用の信号を生成し、アンテナ23に向けてその信号を送出する。アンテナ23から発信される信号は、サーバ120,130に受信される。なお、他の局面において、アンテナ23の代わりに、有線によってサーバ120,130と携帯端末140とが接続されていてもよい。
The
フラッシュメモリ27は、CPU20から送られるデータを格納する。また、CPU20は、フラッシュメモリ27に格納されているデータを読み出し、そのデータを用いて予め規定された処理を実行する。
The
RAM28は、操作ボタン25に対して行なわれた操作に基づいてCPU20によって生成されるデータを一時的に保持する。ROM29は、携帯端末140に予め定められた動作を実行させるためのプログラムあるいはデータを格納している。CPU20は、ROM29から当該プログラムまたはデータを読み出し、携帯端末140の動作を制御する。
The
メモリカード駆動装置30は、メモリカード31に格納されているデータを読み出し、CPU20に送出する。メモリカード駆動装置30は、CPU20によって出力されるデータを、メモリカード31の空き領域に書き込む。
The memory
音声信号処理回路34は、上述のような通話のための信号処理を実行する。なお、図3に示される例では、CPU20と音声信号処理回路34とが別個の構成として示されてい
るが、他の局面において、CPU20と音声信号処理回路34とが一体として構成されていてもよい。
The audio
モニタ35は、CPU20から取得されるデータに基づいて画像を表示する。モニタ35は、たとえば、フラッシュメモリ27に格納されている静止画像(たとえば、会議資料、契約書その他の電子文書)、動画像、音楽ファイルの属性(当該ファイルの名前、演奏者、演奏時間など)を表示する。静止画像は、描画された画像、デフォルトで携帯端末140の製造事業者によって予め準備された画像を含み得る。
The
LED36は、CPU20からの信号に基づいて、予め定められた発光動作を実現する。データ通信インターフェイス37は、データ通信用のケーブルの装着を受け付ける。
The
データ通信インターフェイス37は、CPU20から出力される信号を当該ケーブルに対して送出する。あるいは、データ通信インターフェイス37は、当該ケーブルを介して受信されるデータを、CPU20に対して送出する。
The
バイブレータ38は、CPU20から出力される信号に基づいて、予め定められた周波数で発振動作を実行する。
加速度センサ39は、携帯端末140に作用する加速度の方向を検出する。検出結果は、CPU20に入力される。
The
なお、本実施の形態に係る携帯端末140は上述の構成要素を全て備える必要はなく、少なくとも、音声入出力機能と通信機能とを有する情報処理端末であればよい。
Note that the
[モニタ画面]
図8を参照して、本実施の形態に係る携帯端末140に表示される画面について説明する。図8は、モニタ35に表示されるモニタ画面の一例を表す図である。
[Monitor screen]
With reference to FIG. 8, a screen displayed on
ある局面において、モニタ35は、遠隔制御を見守る画面を表示する。より具体的には、モニタ35は、監視の対象となる機器のリストを表示する。当該リストは、たとえば、ユーザによって与えられた各機器の名前と、識別名と、ステータスと、操作履歴と、操作日時と、命令を与えた指示者と、命令が有効であるか無効であるかを表すステータスとを含み得る。
In one aspect, the
図8に示される例では、モニタ35は、お掃除ロボット(たとえば、ロボット110)と、癒しロボット(図示しない)とを監視している。お掃除ロボットは、現在、「掃除中」であり運転している。操作履歴によれば、第1の命令(たとえば、掃除して。)が第1のユーザ(お母さん)によって与えられ、その後、第2の命令(たとえば、「しりとりしよう」)が第2のユーザ(子供)によって与えられている。ユーザの優先順位を考慮した結果、第2の命令は無視されており、第1の命令に基づく動作(すなわち「掃除」)が継続して実行されている。
In the example shown in FIG. 8, the
このような画面は、たとえば、タブレット端末やスマートフォンのモニタにおける表示が最適となるように構成されている。また、このような画面が表示されている間に、新たな命令がロボット110に与えられた場合には、当該新たな命令を受け付けるか無視するかの判断が行なわれた後、更新された情報として、モニタ35に表示され得る。
Such a screen is configured, for example, such that the display on a monitor of a tablet terminal or a smartphone is optimal. Further, when a new command is given to the
また、このような画面は、たとえば、SNS(Social Network Service)のような態様で、特定の複数ユーザ間で情報を共有するための画面として構成されてもよい。 Moreover, such a screen may be configured as a screen for sharing information among a plurality of specific users, for example, in a manner such as SNS (Social Network Service).
[動作例]
図9を参照して、ロボット110の動作例について説明する。図9は、本実施の形態に係るロボット110に対して、二人のユーザ(お母さんと子ども)がそれぞれ命令を与えた場合におけるロボット110の動作の変化を表すタイミングチャートである。
[Operation example]
An example of the operation of the
場面(A)に示されるように、時刻t(1)において、第1の命令(たとえば「掃除して」)が第1のユーザ(他のユーザより高い優先順位を有するユーザ、たとえば、「お母さん」)によって、音声でロボット110に与えられる。ロボット110は、音声を受け付けて、第1の命令を認識すると、当該命令に応じた動作(掃除)を開始する。
As shown in scene (A), at time t (1), the first command (eg, “clean up”) is the first user (a user having a higher priority than other users, eg, “mom” ]) Is given to the
その後、時刻t(2)において、次の命令(第2の命令)が第2のユーザによって、音声でロボット110に与えられる。異なるユーザから命令が音声でロボット110に与えられると、各命令の優先順位の高低が判定される。第2のユーザ(たとえば「子供})の優先順位が、第1のユーザ(お母さん)の優先順位よりも低い場合には、ロボット110は、第2の命令を無視し、第1の命令に基づく動作を継続する。
Thereafter, at time t (2), the next command (second command) is given to the
このとき、ロボット110は、第2の命令に対する応答として、たとえば「お母さんの指示で掃除しているので待っててね。」と音声で出力してもよい。そして、第1の命令に基づく動作(掃除)が完了した後、第2の命令に基づく動作(しりとりゲーム)を開始してもよい。この場合、ロボット110は、第2の命令を保留にする。
At this time, as a response to the second command, the
あるいは、別の局面において、ロボット110は、「お母さんの指示で掃除しているので、しりとりはできません。」と音声で出力してもよい。この場合、第2の命令は無視され、あるいは、破棄され得る。
Alternatively, in another aspect, the
さらに別の局面において、ロボット110は、第2のユーザからの当該命令を記憶しておき、掃除していない場合にその命令を与えたユーザ(子供)の発話を認識した場合に、「しりとりする?」と発話してもよい。
In yet another aspect, the
場面(B)では、時刻t(3)において、第1の命令(=掃除して。)が第1のユーザ(子供)によって、音声でロボット110に与えられる。ロボット110は、第1の命令を認識すると、掃除部531を駆動して掃除を開始する。
In the scene (B), at time t (3), the first command (= clean) is given to the
その後、時刻t(4)において、第2の命令(=お掃除やめて)が第2のユーザ(お母さん)によって、音声でロボット110に与えられる。ロボット110は、第1の命令に基づく動作の実行中に第2の命令を受け付けると、各命令の優先順位の高低を判断する。より具体的には、たとえば、ロボット110は、各命令を与えたユーザに与えられている優先順位の高低を判断する。ある局面において、第2の命令を音声で与えたユーザの優先順位が第1の命令を与えたユーザの優先順位よりも高い場合には、ロボット110は、第2の命令を実行し得る。たとえば、ロボット110は、第2の命令を認識すると、「停止します。」と音声で応答する。あるいは、ロボット110は、「中断します。」と音声で出力し、現在の動作モードをスタンバイモードに切り替える。
Thereafter, at time t (4), the second command (= stop cleaning) is given to the
その後、第2の命令を与えたユーザの優先順位と同等かそれ以上の優先順位を有するユーザによる命令(第3の命令)が与えられると、ロボット110は、第3の命令に基づく動作を開始する。たとえば、「お母さん」がロボット110に対して「掃除して」と音声で命令を与えると、ロボット110は、掃除を再開し得る。
Thereafter, when a command (third command) by a user having a priority equal to or higher than the priority of the user who has given the second command is given, the
[制御構造]
図10を参照して、本実施の形態に係るシステム300の制御構造について説明する。図10は、システム300が実行する処理の一部を表すフローチャートである。ある局面において、当該処理は、各処理を実現する命令がプロセッサによって実行されることにより実現される。別の局面において、当該処理は、各処理を実現する回路素子その他のハードウェアによっても実現され得る。
[Control structure]
With reference to FIG. 10, a control structure of
ステップS1010にて、音声入力部302は、音声による動作命令(第1の命令:たとえば「掃除して」)の入力を受け付ける。音声処理部305は、当該音声に基づく信号を処理する。処理結果は、動作制御部308に入力される。
In step S1010,
ステップS1020にて、動作制御部308は、動作命令に基づいて動作を開始する。たとえば、動作制御部308は、動作部310に信号を送ることにより、動作部310に動作を開始させる。動作部310による動作は、たとえば、動作部310が含まれる筐体の物理的な位置が変わるような動作(移動、あるいは駆動に相当する)と、当該筐体の物理的な位置はそのままで姿勢が変わるような動作(たとえば、当該筐体がぬいぐるみである場合に、当該ぬいぐるみの手足が動くような動作)とのいずれであってもよい。
In step S1020,
ステップS1030にて、動作制御部308は、音声入力部302に対する発話に基づいて、音声による新たな動作命令(第2の命令:たとえば「しりとりしよう」)の入力を検出する。
In
ステップS1040にて、優先順位判断部307は、音声処理部305による処理の結果と、記憶部304に格納されている優先順位に基づいて、第1の命令の優先順位が第2の命令の優先順位よりも高いか否かを判断する。優先順位判断部307は、第1の命令の優先順位が第2の命令の優先順位よりも高いと判断すると(ステップS1040にてYES)、制御をステップS1050に切り替える。そうでない場合には(ステップS1040にてNO)、優先順位判断部307は、制御をステップS1060に切り替える。
In step S1040, the priority
ステップS1050にて、音声出力部303は、動作制御部308からの信号に基づいて、第2の命令に基づく動作(しりとり)を実行できない旨を音声で出力し、第1の命令に基づく動作(たとえば、掃除)を継続する。なお、動作制御部308は、第2の命令に基づく動作を受け付けた上で保留し、第1の命令に基づく動作を実行してから、第2の命令に基づく動作を実行してもよい。
In step S1050, the
ステップS1060にて、音声出力部303は、動作制御部308からの信号に基づいて、第1の命令に基づく動作を中止する旨を音声で出力し、当該動作を中止し、第2の命令に基づく動作を開始する。なお、動作制御部308は、第2の命令に基づく動作を実行してから、第1の命令に基づく動作を再開してもよい。
In step S1060, based on the signal from the
(ロボット110の制御構造)
なお、たとえば、システム300がロボット110によって実現される場合、制御構造は、以下のようになる。
(Control structure of robot 110)
For example, when the
ステップS1010にて、制御部510は、入力受付部511として、集音部544を介して、音声による動作命令(第1の命令:たとえば「掃除して」)の入力を受け付ける。音声認識部512は、当該音声に基づく信号を処理する。処理結果は、応答処理部513に入力される。
In step S1010,
ステップS1020にて、制御部510は、応答処理部513として、動作命令に基づいて作動を開始する。たとえば、応答処理部513は、動作部530に信号を送ることにより、掃除部531に掃除動作を開始させる。
In step S1020,
ステップS1030にて、制御部510は、入力受付部511として、集音部544に対する発話に基づいて、音声による新たな動作命令(第2の命令:たとえば「しりとりしよう」)の入力を検出する。
In
ステップS1040にて、制御部510は、応答処理部513として、音声認識部512による処理の結果と、記憶部520に格納されている優先順位に基づいて、第1の命令の優先順位が第2の命令の優先順位よりも高いか否かを判断する。応答処理部513は、第1の命令の優先順位が第2の命令の優先順位よりも高いと判断すると(ステップS1040にてYES)、制御をステップS1050に切り替える。そうでない場合には(ステップS1040にてNO)、応答処理部513は、制御をステップS1060に切り替える。
In step S1040,
ステップS1050にて、制御部510は、スピーカ545を介して、第2の命令に基づく動作(しりとり)を実行できない旨を音声で出力し、第1の命令に基づく動作(たとえば、掃除)を継続する。
At step S1050,
ステップS1060にて、制御部510は、第1の命令に基づく動作を中止する旨を音声で出力し、当該動作を中止し、第2の命令に基づく動作を開始する。
In step S1060,
このように、ユーザの優先順位に基づいてロボット110の動作が規定されるので、最も高い優先順位を持つユーザは、ロボット110の動作を完全に制御することができる。したがって、たとえば、ロボット110を緊急に停止させたい場合には、当該ユーザは、ロボット110に「停止」と発話を行なうことにより、ロボット110を停止させることができる。これにより、音声認識機能を備えるロボット110の安全性が担保され得る。
As described above, since the operation of the
<第2の実施の形態>
以下、本開示の第2の実施の形態について説明する。なお、本実施の形態に係る音声認識ロボットシステムは、第1の実施の形態に係る音声認識ロボットシステム10と同様の構成を用いて実現される。したがって、以下、適宜、第1の実施の形態における構成を用いて説明する。
<Second Embodiment>
Hereinafter, a second embodiment of the present disclosure will be described. Note that the speech recognition robot system according to the present embodiment is realized using the same configuration as the speech
[動作の概要]
まず、図11を参照して、第2の実施の形態について説明する。図11は、第2の実施の形態に係るロボット110の動作の変化を表すタイミングチャートである。
[Overview of operation]
First, a second embodiment will be described with reference to FIG. FIG. 11 is a timing chart showing changes in the operation of the
図11に示されるように、時刻t(1)において、第1の命令がユーザから音声によって与えられる。たとえば、「お掃除して」との動作命令がロボット110に与えられる。ロボット110は、その動作命令に応答して、掃除を開始する。
As shown in FIG. 11, at the time t (1), the first command is given by voice from the user. For example, an operation command “clean it” is given to the
その後、時刻t(2)において、第2の命令として、ロボット110の停止命令が、音声とは別の態様で与えられる。別の態様とは、ロボット110に対して命令を直接与える態様ともいえる。たとえば、ある局面において、ロボット110の停止ボタンが押下される。別の局面において、ユーザが、ロボット110のリモコン210の停止ボタンを押下して、制御信号がリモコン210からロボット110に送られる。このような場合、仮に、第1の命令を音声で与えたユーザの優先順位が最も高いものであっても、ロボット110は、第2の命令に基づいて運転を停止する。このとき、ロボット110は、「停止します。」とのメッセージを音声で出力し得る。
After that, at time t (2), a stop command for the
[制御構造]
図12を参照して、本実施の形態に係るシステム300の制御構造について説明する。図12は、システム300が実行する処理の一部を表すフローチャートである。
[Control structure]
With reference to FIG. 12, a control structure of
ステップS1210にて、動作制御部308は、音声入力部302に対して与えられた音声による動作命令(たとえば「掃除して」)の入力を受け付ける。
In step S <b> 1210,
ステップS1220にて、動作制御部308は、動作命令に基づいて動作を開始する。たとえば、ロボット110は、掃除を開始する。
In step S1220,
ステップS1230にて、動作制御部308は、ロボット110本体の停止スイッチの押下を検出する。あるいは、他の局面において、動作制御部308は、リモコン210から、ロボット110を停止させるためのリモコン信号の受信を検知する。
In step S1230,
ステップS1240にて、動作制御部308は、ステップS1230において検出された信号が他の命令よりも優先することを確認すると、停止スイッチの押下に基づいて停止する旨を表示部306に表示させる。あるいは、動作制御部308は、音声出力部303にその旨を音声で出力させる。
In step S1240, when the
ステップS1250にて、動作制御部308は、動作部310に出力されていた動作信号の出力を停止する。動作部310は、停止する。
In step S1250,
(ロボット110の制御構造)
なお、たとえば、システム300がロボット110によって実現される場合、制御構造は、以下のようになる。
(Control structure of robot 110)
For example, when the
ステップS1210にて、制御部510は、入力受付部511として、集音部544に対して与えられた音声による動作命令(たとえば「掃除して」)の入力を受け付ける。
In
ステップS1220にて、制御部510は、動作命令に基づいて作動を開始する。たとえば、掃除部531は、掃除のための動作(モータ回転、ブラシ回転等)を開始する。
In step S1220,
ステップS1230にて、制御部510は、入力受付部511として、スイッチ543の押下を検出する。あるいは、他の局面において、制御部510は、リモコン信号受信部540を介して、リモコン210から、ロボット110を停止させるためのリモコン信号の受信を検知する。
In step S1230,
ステップS1240にて、制御部510は、応答処理部513として、ステップS1230において検出された信号が他の命令よりも優先することを確認すると、スイッチ543の押下に基づいて停止する旨をモニタ541に表示させる。あるいは、制御部510は、スピーカ545にその旨を音声で出力させる。
In step S1240, when the
ステップS1250にて、制御部510は、掃除部531に出力されていた動作信号の出力を停止する。掃除部531は、動作を停止する。
In step S1250,
このように、本実施の形態によれば、音声による命令を与えたユーザの優先順位よりも低い優先順位のユーザが、ロボット110に命令を直接与えた場合には、ロボット110は、直接与えられた命令に従って作動し、あるいは、停止する。これにより、たとえば、緊急にロボット110を停止させたい場合などにおいて、安全性を担保することができる。
As described above, according to the present embodiment, when a user with a priority lower than the priority of a user who has given a voice command directly gives a command to the
<第3の実施の形態>
以下、第3の実施の形態について説明する。本実施の形態は、命令として将来の動作の命令(たとえば、タイマー予約)が適用できる点で、前述の各実施の形態と異なる。なお、本実施の形態に係る音声認識ロボットシステムは、第1の実施の形態に係る音声認識ロボットシステム10に含まれるハードウェアの構成を用いて実現される。したがって、以下、適宜、第1の実施の形態に係る構成を用いて本実施の形態を説明し、同じ説明は繰り返さない。
<Third Embodiment>
The third embodiment will be described below. This embodiment is different from the above-described embodiments in that an instruction for a future operation (for example, timer reservation) can be applied as an instruction. Note that the speech recognition robot system according to the present embodiment is realized using the hardware configuration included in the speech
[動作概要]
図13を参照して、本実施の形態に係る音声認識ロボットシステムの動作の概要について説明する。図13は、第3の実施の形態に係る音声認識ロボットシステムの動作の変化を表すタイミングチャートである。
[Operation overview]
With reference to FIG. 13, an outline of the operation of the speech recognition robot system according to the present embodiment will be described. FIG. 13 is a timing chart showing changes in the operation of the speech recognition robot system according to the third embodiment.
場面(A)に示されるように、ある局面の時刻t(1)において、第1の命令が、第1のユーザ(たとえば、お母さん)によってシステム300に入力される。第1の命令の入力は、たとえば、携帯端末140その他の情報処理端末に表示されるロボット110の動作の予約画面に対して行なわれる。あるいは、第1のユーザは、たとえばスイッチ543を操作することにより、直接、ロボット110に対して予約情報を入力してもよい。第1の命令は、動作の予約として、たとえば、時刻t(3)において、指定された動作(たとえば、掃除)をロボット110に実行させる、というものである。なお、予約の対象となる動作は「掃除」に限られない。
As shown in scene (A), a first command is input to
その後、時刻t(2)において、第2の命令が、第2のユーザ(子供)によってシステムに入力される。この入力は、第2のユーザが使用する携帯端末140に表示される上記予約画面に対して行われる。あるいは、第2のユーザがロボット110に対して予約情報を直接入力してもよい。第2の命令は、時刻t(3)よりも後の時刻t(4)に、第2のユーザによって指定された動作(たとえば、しりとり)を実行させるというものである。
Thereafter, at time t (2), the second command is input to the system by the second user (child). This input is performed on the reservation screen displayed on the
動作制御部308は、二つの命令(動作の予約)が入力されたことを検知すると、優先順位判断部307に、各命令を与えたユーザの優先順位を判断させる。優先順位の判断の結果、動作制御部308は、第1のユーザ(お母さん)の命令(動作の予約)を優先させることを決定し、時刻t(4)における動作の予約を受け付けない。システム300は、その旨を出力する。たとえば、音声出力部303は、「お母さんの予約があるので受け付けません」とのメッセージを音声で出力する。別の局面において、表示部306は、その旨を表示してもよい。あるいは、システム300は、命令が受けつけられなかったことを示す態様として予め規定された態様で、ライトを点灯させ、あるいは、ブザーを鳴動させてもよい。
When the
場面(B)は、あとに入力される命令を与えたユーザの優先順位が先に命令を与えたユーザの優先順位よりも高い場合の動作の概要を表す。より具体的には、時刻t(5)において、第1の命令が、第1のユーザ(子供)によって入力される。第1の命令は、時刻t(7)に、第1のユーザによって指定された動作(たとえば、しりとり)を実行させる、というものである。動作制御部308は、そのような命令の入力を検知すると、その命令を304に格納する。さらに、動作制御部308は、動作の予約を受け付けたことを示すメッセージを音声出力部303に音声で出力させる。
The scene (B) represents an outline of the operation in the case where the priority of the user who gave the command to be input later is higher than the priority of the user who gave the command first. More specifically, at time t (5), the first command is input by the first user (child). The first command is to execute an operation (for example, shiritori) designated by the first user at time t (7). When the
その後、時刻t(7)が到来する前の時刻t(6)において、第2の命令が第2のユーザ(お母さん)によって入力される。第2の命令は、時刻t(8)に、第2のユーザによって指定された動作(たとえば、掃除)を実行する、というものである。なお、予約によって指定される時刻t(8)は、時刻t(7)の前でも後でもよい。 Thereafter, at time t (6) before time t (7) arrives, the second command is input by the second user (mother). The second command is to execute an action (for example, cleaning) designated by the second user at time t (8). The time t (8) designated by the reservation may be before or after the time t (7).
動作制御部308は、第2の命令が入力されたことを検知すると、第2の命令を与えた第2のユーザの優先順位と、第1の命令を与えた第1のユーザの優先順位との高低を優先順位判断部307に判断させる。この場合、第2のユーザの優先順位が第1のユーザの優先順位よりも高いので、動作制御部308は、第1のユーザによって与えられた第1の命令に基づく予約をキャンセルし、第2のユーザによって与えられた第2の命令に基づく予約を設定する。動作制御部308は、さらに、その旨を報知するために、たとえば、「お母さんの予約が入ったので、あなたの予約をキャンセルします。」とのメッセージを音声出力部303に音声で出力させる。その結果、時刻t(7)が到来しても、ロボット110は、第1の命令に基づく動作(しりとり)を実行せず、時刻t(8)が到来すると、ロボット110は、第2の命令に基づく動作(掃除)を開始する。
When the
[制御構造]
図14を参照して、本実施の形態に係るシステム300の制御構造について説明する。図14は、動作制御部308が実行する処理の一部を表すフローチャートである。
[Control structure]
With reference to FIG. 14, a control structure of
ステップS1410にて、動作制御部308は、第1のユーザによる動作の予約の入力を受け付ける。
In step S1410,
ステップS1420にて、動作制御部308は、第2のユーザによる動作の予約の入力を検出する。
In step S1420,
ステップS1430にて、優先順位判断部307は、第2のユーザの優先順位は第1のユーザの優先順位よりも高いか否かを判断する。この判断は、記憶部304に保存されている優先順位に基づいて行なわれる。優先順位判断部307は、第2のユーザの優先順位が第1のユーザの優先順位よりも高いと判断すると(ステップS1430にてYES)、制御をステップS1440に切り替える。そうでない場合には(ステップS1430にてNO)、優先順位判断部307は、制御をステップS1450に切り替える。
In step S1430,
ステップS1440にて、動作制御部308は、第1のユーザによる予約をキャンセルする旨を音声出力部303に音声で出力させ、当該予約をキャンセルし、第2のユーザによる予約を設定する。なお、キャンセルする旨の通知の態様は、音声に限られず、メッセージの表示、ライトの点灯、ブザーの鳴動等が用いられてもよい。なお、動作制御部308は、第1のユーザによる予約をキャンセルせずに、第2のユーザによる予約の動作が実行されるまで、動作を保留してもよい。
In step S1440, the
ステップS1450にて、動作制御部308は、第2のユーザによる予約を受け付けない旨を音声出力部303に音声で出力させ、第1のユーザによる予約を維持する。予約を受け付けない旨の通知の態様は、音声に限られず、ステップS1440の場合と同様に、他の態様が用いられてもよい。なお、動作制御部308は、第2のユーザによる予約を受け付けた上で、第1のユーザによる予約の動作が実行されるまで、動作を保留してもよい。
In step S1450,
(ロボット110の制御構造)
なお、たとえば、システム300がロボット110によって実現される場合、制御構造は、以下のようになる。
(Control structure of robot 110)
For example, when the
ステップS1410にて、制御部510は、入力受付部511として、スイッチ543、リモコン信号受信部540あるいは通信部546を介して、第1のユーザによる動作の予約の入力を受け付ける。
In step S1410,
ステップS1420にて、制御部510は、入力受付部511として、スイッチ543、リモコン信号受信部540あるいは通信部546を介して、第2のユーザによる別の予約の入力を検出する。
In step S1420,
ステップS1430にて、制御部510は、応答処理部513として、第2のユーザの優先順位が第1のユーザの優先順位よりも高いか否かを判断する。この判断は、記憶部520に保存されている優先順位に基づいて行なわれる。制御部510は、第2のユーザの優先順位が第1のユーザの優先順位よりも高いと判断すると(ステップS1430にてYES)、制御をステップS1440に切り替える。そうでない場合には(ステップS1430にてNO)、制御部510は、制御をステップS1450に切り替える。
In step S1430,
ステップS1440にて、制御部510は、応答処理部513として第1のユーザによる予約をキャンセルする旨をスピーカ545に音声で出力させ、当該予約をキャンセルし、第2のユーザによる予約を設定する。なお、キャンセルする旨の通知の態様は、音声に限られず、メッセージの表示、ライトの点灯、ブザーの鳴動等が用いられてもよい。
In step S1440,
ステップS1450にて、制御部510は、第2のユーザによる予約を受け付けない旨をスピーカ545に音声で出力させ、第1のユーザによる予約を維持する。予約を受け付けない旨の通知の態様は、音声に限られず、ステップS1440の場合と同様に、他の態様が用いられてもよい。
In step S1450,
以上のようにして、本実施の形態によれば、将来の動作を規定する予約について、予約情報を入力したユーザに割り当てられている優先順位が考慮される。これにより、優先順位の高いユーザによる予約が優先されることになるので、システム300の将来の動作を安全側に維持することが可能となる。
As described above, according to the present embodiment, the priority assigned to the user who has input the reservation information is considered for the reservation that defines the future operation. As a result, since reservations by users with higher priorities are prioritized, the future operation of the
<第4の実施の形態>
以下、第4の実施の形態について説明する。第1の実施の形態の別の局面として、ロボット110と他の装置とが協働する場合があり得る。この場合、ロボット110において行なわれる処理の一部は、ロボット110と通信可能な他の装置において実行されてもよい。たとえば、音声認識、ユーザ特定、優先順位の高低の判定等は、他の装置(たとえば、サーバ120、サーバ130、携帯端末140等)によって実行されてもよい。ユーザの発話を受け付けたロボット110は、その発話に基づく音声信号を当該他の装置に送信し、当該他の装置が音声認識、ユーザ特定、優先順位の高低の判定等を実行する。なお、これらの処理に必要なデータ(たとえば、ユーザ毎の優先順位)およびプログラム(音声認識、ロボット110に発話させるメッセージを作成するためのプログラム等)は、当該他の装置に予め保存されている。
<Fourth embodiment>
Hereinafter, a fourth embodiment will be described. As another aspect of the first embodiment, the
このようにしても、ロボット110の安全性を担保することができる。
<第5の実施の形態>
第2の実施の形態の処理を実現するための別の局面として、ロボット110と他の装置とが協働する場合があり得る。この場合、第5の実施の形態として、第4の実施の形態と同様に、ロボット110において行なわれる処理の一部は、ロボット110と通信可能な他の装置において実行されてもよい。なお、本実施の形態は、第1の実施の形態に示された各構成を用いて実現される。したがって、当該構成の説明は繰り返さない。
Even in this case, the safety of the
<Fifth embodiment>
As another aspect for realizing the processing of the second embodiment, the
<第6の実施の形態>
第3の実施の形態の処理を実現するための別の局面として、ロボット110と他の装置とが協働する場合があり得る。この場合、第6の実施の形態として、第4の実施の形態と同様に、ロボット110において行なわれる処理の一部は、ロボット110と通信可能な他の装置において実行されてもよい。なお、本実施の形態は、第1の実施の形態に示された各構成を用いて実現される。したがって、当該構成の説明は繰り返さない。
<Sixth Embodiment>
As another aspect for realizing the processing of the third embodiment, the
<第7の実施の形態>
第7の実施の形態について説明する。第7の実施の形態に係る音声認識ロボットシステムは、安全性を担保するために優先順位の代わりに予め規定された言葉を用いる点で、前述の各実施の形態と異なる。なお、本実施の形態は、第1の実施の形態に示された各構成を用いて実現される。したがって、当該構成の説明は繰り返さない。
<Seventh embodiment>
A seventh embodiment will be described. The speech recognition robot system according to the seventh embodiment is different from the above-described embodiments in that words defined in advance are used instead of priorities in order to ensure safety. Note that this embodiment is realized by using each configuration shown in the first embodiment. Therefore, description of the configuration will not be repeated.
ある局面において、音声認識ロボットシステム300は、ユーザによって予め入力された言葉を記憶している。たとえば、ユーザが、音声認識ロボットシステム300の動作を緊急停止させるための言葉として「ストップ」を音声あるいは文字で登録すると、その音声あるいは文字は、記憶部304に格納される。当該予め入力された言葉は、たとえば、音声認識ロボットシステム300の複数のユーザにのみ共有される言葉である。
In one aspect, the speech
登録されたユーザが、音声認識ロボットシステム300の動作中に発話し、その発話の内容が予め規定された内容(たとえば、「ストップ」)である場合に、動作制御部308は、当該発話の内容に基づいて動作部310の動作を制御する。これにより、音声認識ロボットシステム300に対して操作できない場合、リモコンが故障した場合であっても、音声認識ロボットシステム300を停止させることができる。これにより、音声認識ロボットシステム300の安全性を担保することができる。
When the registered user speaks during the operation of the speech
<構成>
一実施の形態に従う本開示に基づく構成は、以下のように、要約され得る。ある局面において、各構成は、複数のモジュールの組み合わせとして実現される。各モジュールは、ハードウェアおよびソフトウェアおよびこれらの組み合わせとして実現され得る。
<Configuration>
A configuration based on the present disclosure according to an embodiment may be summarized as follows. In one aspect, each configuration is realized as a combination of a plurality of modules. Each module may be implemented as hardware and software and combinations thereof.
[構成1]
音声認識ロボットシステム(300)であって、
音声の入力を受け付けるように構成された音声入力部(302)と、
入力された音声を処理するように構成された音声認識部(305)と、
命令の入力を受け付けるように構成された入力部(301)と、
予め規定された動作を行なうように構成された動作部(310)と、
上記音声入力部に入力された音声による命令または上記入力部によって受け付けられた命令に応じて、上記動作部の動作を制御するように構成された制御部(308)とを備え、
上記制御部は、
第1の命令が音声で与えられた場合に上記動作部を作動させ、
上記第1の命令の後に第2の命令が上記入力部を介して与えられた場合に、上記動作部に、上記第1の命令に基づく動作を停止させ、上記第2の命令に基づく動作を行なわせるように構成されている。
[Configuration 1]
A speech recognition robot system (300),
A voice input unit (302) configured to accept voice input;
A speech recognition unit (305) configured to process input speech;
An input unit (301) configured to accept an input of an instruction;
An operation unit (310) configured to perform a predefined operation;
A control unit (308) configured to control the operation of the operation unit in accordance with a voice command input to the voice input unit or a command received by the input unit;
The control unit
When the first command is given by voice, the operation unit is activated,
When a second command is given via the input unit after the first command, the operation unit stops the operation based on the first command and performs an operation based on the second command. It is configured to be performed.
[構成2]
音声認識ロボット(110)であって、
集音部(544)と、
命令の入力を受け付けるように構成されたスイッチ543のような入力部と、
予め規定された動作を行なうように構成された動作部(530)と、
上記集音部によって取得された音声による命令または上記入力部によって受け付けられた命令に応じて、上記動作部の動作を制御するように構成された制御部(510)とを備え、
上記制御部は、
第1の命令が音声で与えられた場合に上記動作部を作動させ、
上記第1の命令の後に第2の命令が上記入力部を介して与えられた場合に、上記動作部に、上記第1の命令に基づく動作を停止させ、上記第2の命令に基づく動作を行なわせるように構成されている。
[Configuration 2]
A speech recognition robot (110),
A sound collection unit (544);
An input unit such as a
An operation unit (530) configured to perform a predefined operation;
A control unit (510) configured to control the operation of the operation unit in response to a voice command acquired by the sound collection unit or a command received by the input unit;
The control unit
When the first command is given by voice, the operation unit is activated,
When a second command is given via the input unit after the first command, the operation unit stops the operation based on the first command and performs an operation based on the second command. It is configured to be performed.
[構成3]
上記動作部を作動させる命令を与えるユーザ毎に設定された優先順位をそれぞれ保存するように構成された記憶部(520)をさらに備え、
上記制御部は、
上記第2の命令が音声で与えられた場合に、上記第2の命令を与えたユーザの優先順位が上記第1の命令を与えたユーザの優先順位よりも高い場合に、上記第1の命令に基づく動作を停止させ、上記第2の命令に基づく動作を行なわせるようにさらに構成されている、構成2に記載の音声認識ロボット。
[Configuration 3]
A storage unit (520) configured to store a priority set for each user who gives a command to operate the operation unit;
The control unit
When the second command is given by voice, the first command is given when the priority of the user who gives the second command is higher than the priority of the user who gives the first command. The voice recognition robot according to
[構成4]
上記音声認識ロボットの動作の予約情報を格納するための記憶部(520)をさらに備え、
第1の予約を与えたユーザの優先順位が、上記第1の予約で指定される時刻の後に指定される第2の予約を与えたユーザの優先順位よりも低い場合に、上記制御部は、第1の予約をキャンセルするように構成されている、構成2に記載の音声認識ロボット。
[Configuration 4]
A storage unit (520) for storing reservation information of operation of the voice recognition robot;
When the priority of the user who gave the first reservation is lower than the priority of the user who gave the second reservation specified after the time specified in the first reservation, the control unit The speech recognition robot according to
[構成5]
上記音声認識ロボットの動作の予約情報を格納するための記憶部(520)をさらに備え、
第1の予約を与えたユーザの優先順位が、上記第1の予約で指定される時刻の後に指定される第2の予約を与えたユーザの優先順位よりも高い場合に、上記制御部は、上記第2の予約を受け付けないように構成されている、構成2に記載の音声認識ロボット。
[Configuration 5]
A storage unit (520) for storing reservation information of operation of the voice recognition robot;
When the priority of the user who gave the first reservation is higher than the priority of the user who gave the second reservation specified after the time specified in the first reservation, the control unit The speech recognition robot according to
[構成6]
上記音声認識ロボットの動作の予約情報を格納するための記憶部(520)をさらに備え、
上記制御部は、優先順位が高い第1の予約が実行されるまで、上記第1の予約の優先順位よりも低い第2の予約の実行を保留するように構成されている、構成2に記載の音声認識ロボット。
[Configuration 6]
A storage unit (520) for storing reservation information of operation of the voice recognition robot;
The configuration according to
[構成7]
情報通信端末と通信するように構成された通信部をさらに備え、
上記入力部は、上記情報通信端末によって送信された指示信号の入力を受け付けるように構成されている、構成2〜6のいずれかに記載の音声認識ロボット。
[Configuration 7]
A communication unit configured to communicate with the information communication terminal;
The voice recognition robot according to any one of
[構成8]
上記音声認識ロボットに登録されたユーザによる発話の内容が予め規定された内容である場合に、上記制御部は、上記発話の内容に基づいて上記動作部の動作を制御するようにさらに構成されている、構成2〜7のいずれかに記載の音声認識ロボット。
[Configuration 8]
The control unit is further configured to control the operation of the operation unit based on the content of the utterance when the content of the utterance by the user registered in the voice recognition robot is a predetermined content. The speech recognition robot according to any one of
[構成9]
命令を含む音声の発話者が認識された場合に、上記制御部は、当該命令に基づく動作を上記動作部に実行させるように構成されている、構成8に記載の音声認識ロボット。
[Configuration 9]
The speech recognition robot according to
[構成10]
上記音声認識ロボットに命令が与えられたことを報知するように構成された報知部をさらに備える、構成2〜9のいずれかに記載の音声認識ロボット。
[Configuration 10]
The speech recognition robot according to any one of
[構成11]
音声認識処理機能を備えるサーバと通信するように構成された通信部をさらに備え、
上記制御部は、上記サーバによる音声認識処理の結果に基づいて、上記動作部の動作を制御するように構成されている、構成2〜10のいずれかに記載の音声認識ロボット。
[Configuration 11]
A communication unit configured to communicate with a server having a voice recognition processing function;
The speech recognition robot according to any one of
[構成12]
音声認識ロボットの制御装置であって、
上記音声認識ロボットから音声信号を受信するように構成された受信部と、
上記音声信号に基づいて、上記音声認識ロボットの動作を制御するための処理を実行するように構成された制御部とを備え、
上記制御部は、
上記受信部によって受信された第1の音声信号から取得される第1の命令に基づいて動作するように、上記音声認識ロボットに命令を送信し、
上記第1の音声信号の後に受信される第2の音声信号から取得される第2の命令が上記入力部を介して与えられた場合に、上記音声認識ロボットが有する動作部に対し、上記第1の命令に基づく動作を停止させ、上記第2の命令に基づく動作を行なわせるように構成されている。
[Configuration 12]
A control device for a voice recognition robot,
A receiver configured to receive a voice signal from the voice recognition robot;
A control unit configured to execute processing for controlling the operation of the voice recognition robot based on the voice signal;
The control unit
Transmitting a command to the voice recognition robot to operate based on a first command acquired from the first voice signal received by the receiving unit;
When the second command acquired from the second voice signal received after the first voice signal is given through the input unit, the operation unit of the voice recognition robot has the second command. The operation based on the first instruction is stopped, and the operation based on the second instruction is performed.
[構成13]
音声認識ロボットを制御するための通信端末であって、
上記音声認識ロボットは、
集音部と、
上記通信端末から信号を受信するように構成された受信部と、
予め規定された動作を行なうように構成された動作部と、
命令に応じて上記動作部の動作を制御するように構成された制御部とを備えており、
上記通信端末は、
上記通信端末に対する命令の入力を受け付けるように構成された入力部と、
上記音声認識ロボットが音声による第1の命令で動作している場合に、上記音声認識ロボットに対する第2の命令が上記入力部に与えられたとき、上記第2の命令に基づいて上記音声認識ロボットを制御するための制御信号を生成するように構成された制御部と、
上記制御信号を上記音声認識ロボットに送信するように構成された送信部とを備える。
[Configuration 13]
A communication terminal for controlling a voice recognition robot,
The above speech recognition robot
The sound collection section;
A receiver configured to receive a signal from the communication terminal;
An operating unit configured to perform a predefined operation;
A control unit configured to control the operation of the operation unit according to a command,
The communication terminal
An input unit configured to receive an instruction input to the communication terminal;
When the voice recognition robot is operating with the first command by voice and the second command for the voice recognition robot is given to the input unit, the voice recognition robot is based on the second command. A control unit configured to generate a control signal for controlling
A transmission unit configured to transmit the control signal to the voice recognition robot.
[構成14]
音声認識ロボットシステムを制御するためのプログラムであって、上記音声認識ロボットシステムは、予め規定された動作を行なうように構成された動作部を有しており、
上記プログラムは、上記音声認識ロボットシステムに、
音声による第1の命令の入力を受けるステップと、
上記第1の命令の入力に応答して上記動作部を作動させるステップと、
上記第1の命令の後に、音声と異なる態様で第2の命令の入力を受けるステップと、
上記第2の命令の入力に応答して、上記動作部に、上記第1の命令に基づく動作を停止させ、上記第2の命令に基づく動作を行なわせるステップとを実行させる。
[Configuration 14]
A program for controlling a speech recognition robot system, wherein the speech recognition robot system has an operation unit configured to perform a predetermined operation,
The above program is added to the above voice recognition robot system.
Receiving a first command input by voice;
Activating the operating unit in response to an input of the first command;
Receiving the input of the second command in a manner different from the voice after the first command;
In response to the input of the second command, the operation unit is caused to stop the operation based on the first command and perform the operation based on the second command.
[構成15]
音声認識ロボットを制御するためのプログラムであって、
上記プログラムは、上記音声認識ロボットのプロセッサに、
音声による第1の命令の入力を受け付けるステップと、
上記第1の命令に基づいて、上記音声認識ロボットが有する動作部を作動させるステップと、
上記第1の命令の入力の後に、音声と異なる態様で第2の命令の入力を受け付けるステップと、
上記第2の命令に基づいて、上記動作部に、上記第1の命令に基づく動作を停止させ、上記第2の命令に基づく動作を行なわせるステップとを実行させる。
[Configuration 15]
A program for controlling a speech recognition robot,
The program is stored in the processor of the voice recognition robot.
Receiving a first command input by voice;
Activating the operation unit of the voice recognition robot based on the first command;
Receiving the input of the second command in a manner different from the voice after the input of the first command;
Based on the second command, the operation unit is caused to stop the operation based on the first command and perform the operation based on the second command.
[構成16]
通信端末に音声認識ロボットを制御させるためのプログラムであって、
上記音声認識ロボットは、
集音部と、
上記通信端末から信号を受信するように構成された受信部と、
予め規定された動作を行なうように構成された動作部と、
命令に応じて上記動作部の動作を制御するように構成された制御部とを備えており、
上記プログラムは、上記通信端末に、
上記音声認識ロボットが音声による第1の命令で動作している場合に、上記音声認識ロボットに対する第2の命令を受け付けるステップと、
上記第2の命令に基づいて上記音声認識ロボットを制御するための制御信号を生成するステップと、
上記制御信号を上記音声認識ロボットに送信するステップとを実行させる。
[Configuration 16]
A program for causing a communication terminal to control a voice recognition robot,
The above speech recognition robot
The sound collection section;
A receiver configured to receive a signal from the communication terminal;
An operating unit configured to perform a predefined operation;
A control unit configured to control the operation of the operation unit according to a command,
The program is stored in the communication terminal.
Receiving a second command for the voice recognition robot when the voice recognition robot is operating with a first command by voice;
Generating a control signal for controlling the voice recognition robot based on the second command;
Transmitting the control signal to the voice recognition robot.
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
10,300 音声認識ロボットシステム、150 インターネット、200 子供。 10,300 Voice recognition robot system, 150 Internet, 200 children.
Claims (16)
音声の入力を受け付けるように構成された音声入力部と、
入力された音声を処理するように構成された音声認識部と、
命令の入力を受け付けるように構成された入力部と、
予め規定された動作を行なうように構成された動作部と、
前記音声入力部に入力された音声による命令または前記入力部によって受け付けられた命令に応じて、前記動作部の動作を制御するように構成された制御部とを備え、
前記制御部は、
第1の命令が音声で与えられた場合に前記動作部を作動させ、
前記第1の命令の後に第2の命令が前記入力部を介して与えられた場合に、前記動作部に、前記第1の命令に基づく動作を停止させ、前記第2の命令に基づく動作を行なわせるように構成されている、音声認識ロボットシステム。 A speech recognition robot system,
A voice input unit configured to accept voice input;
A speech recognizer configured to process input speech;
An input unit configured to accept input of instructions;
An operating unit configured to perform a predefined operation;
A control unit configured to control the operation of the operation unit in response to a command by voice input to the voice input unit or a command received by the input unit;
The controller is
Actuating the operating unit when the first command is given by voice;
When a second command is given via the input unit after the first command, the operation unit stops the operation based on the first command, and performs an operation based on the second command. A speech recognition robot system configured to be performed.
集音部と、
命令の入力を受け付けるように構成された入力部と、
予め規定された動作を行なうように構成された動作部と、
前記集音部によって取得された音声による命令または前記入力部によって受け付けられた命令に応じて、前記動作部の動作を制御するように構成された制御部とを備え、
前記制御部は、
第1の命令が音声で与えられた場合に前記動作部を作動させ、
前記第1の命令の後に第2の命令が前記入力部を介して与えられた場合に、前記動作部に、前記第1の命令に基づく動作を停止させ、前記第2の命令に基づく動作を行なわせるように構成されている、音声認識ロボット。 A speech recognition robot,
The sound collection section;
An input unit configured to accept input of instructions;
An operating unit configured to perform a predefined operation;
A control unit configured to control the operation of the operation unit in response to a voice command acquired by the sound collection unit or a command received by the input unit;
The controller is
Actuating the operating unit when the first command is given by voice;
When a second command is given via the input unit after the first command, the operation unit stops the operation based on the first command, and performs an operation based on the second command. A speech recognition robot that is configured to perform.
前記制御部は、
前記第2の命令が音声で与えられた場合に、前記第2の命令を与えたユーザの優先順位が前記第1の命令を与えたユーザの優先順位よりも高い場合に、前記第1の命令に基づく動作を停止させ、前記第2の命令に基づく動作を行なわせるようにさらに構成されている、請求項2に記載の音声認識ロボット。 A storage unit configured to store a priority set for each user who gives a command to operate the operation unit;
The controller is
When the second command is given by voice, if the priority of the user who gave the second command is higher than the priority of the user who gave the first command, the first command The voice recognition robot according to claim 2, further configured to stop an operation based on the second command and to perform an operation based on the second command.
第1の予約を与えたユーザの優先順位が、前記第1の予約で指定される時刻の後に指定される第2の予約を与えたユーザの優先順位よりも低い場合に、前記制御部は、第1の予約をキャンセルするように構成されている、請求項2に記載の音声認識ロボット。 A storage unit for storing reservation information of operation of the voice recognition robot;
When the priority of the user who gave the first reservation is lower than the priority of the user who gave the second reservation specified after the time specified in the first reservation, the control unit The speech recognition robot according to claim 2, wherein the speech recognition robot is configured to cancel the first reservation.
第1の予約を与えたユーザの優先順位が、前記第1の予約で指定される時刻の後に指定される第2の予約を与えたユーザの優先順位よりも高い場合に、前記制御部は、前記第2の予約を受け付けないように構成されている、請求項2に記載の音声認識ロボット。 A storage unit for storing reservation information of operation of the voice recognition robot;
When the priority of the user who gave the first reservation is higher than the priority of the user who gave the second reservation specified after the time specified in the first reservation, the control unit The voice recognition robot according to claim 2, wherein the robot is configured not to accept the second reservation.
前記制御部は、優先順位が高い第1の予約が実行されるまで、前記第1の予約の優先順位よりも低い第2の予約の実行を保留するように構成されている、請求項2に記載の音声認識ロボット。 A storage unit for storing reservation information of operation of the voice recognition robot;
The control unit is configured to suspend execution of a second reservation lower than the priority of the first reservation until a first reservation having a higher priority is executed. The voice recognition robot described.
前記入力部は、前記情報通信端末によって送信された指示信号の入力を受け付けるように構成されている、請求項2〜6のいずれかに記載の音声認識ロボット。 A communication unit configured to communicate with the information communication terminal;
The voice recognition robot according to claim 2, wherein the input unit is configured to receive an input of an instruction signal transmitted by the information communication terminal.
前記制御部は、前記サーバによる音声認識処理の結果に基づいて、前記動作部の動作を制御するように構成されている、請求項2〜10のいずれかに記載の音声認識ロボット。 A communication unit configured to communicate with a server having a voice recognition processing function;
The voice recognition robot according to claim 2, wherein the control unit is configured to control an operation of the operation unit based on a result of a voice recognition process performed by the server.
前記音声認識ロボットから音声信号を受信するように構成された受信部と、
前記音声信号に基づいて、前記音声認識ロボットの動作を制御するための処理を実行するように構成された制御部とを備え、
前記制御部は、
前記受信部によって受信された第1の音声信号から取得される第1の命令に基づいて動作するように、前記音声認識ロボットに命令を送信し、
前記第1の音声信号の後に受信される第2の音声信号から取得される第2の命令が前記入力部を介して与えられた場合に、前記音声認識ロボットが有する動作部に対し、前記第1の命令に基づく動作を停止させ、前記第2の命令に基づく動作を行なわせるように構成されている、制御装置。 A control device for a voice recognition robot,
A receiver configured to receive a voice signal from the voice recognition robot;
A control unit configured to execute processing for controlling the operation of the voice recognition robot based on the voice signal;
The controller is
Transmitting a command to the voice recognition robot to operate based on a first command acquired from the first voice signal received by the receiving unit;
When the second command acquired from the second voice signal received after the first voice signal is given through the input unit, the operation unit of the voice recognition robot has the second command. A control device configured to stop an operation based on an instruction of 1 and to perform an operation based on the second instruction.
前記音声認識ロボットは、
集音部と、
前記通信端末から信号を受信するように構成された受信部と、
予め規定された動作を行なうように構成された動作部と、
命令に応じて前記動作部の動作を制御するように構成された制御部とを備えており、 前記通信端末は、
前記通信端末に対する命令の入力を受け付けるように構成された入力部と、
前記音声認識ロボットが音声による第1の命令で動作している場合に、前記音声認識ロボットに対する第2の命令が前記入力部に与えられたとき、前記第2の命令に基づいて前記音声認識ロボットを制御するための制御信号を生成するように構成された制御部と、
前記制御信号を前記音声認識ロボットに送信するように構成された送信部とを備える、通信端末。 A communication terminal for controlling a voice recognition robot,
The voice recognition robot is
The sound collection section;
A receiver configured to receive a signal from the communication terminal;
An operating unit configured to perform a predefined operation;
A control unit configured to control the operation of the operation unit according to a command, the communication terminal,
An input unit configured to receive an instruction input to the communication terminal;
When the voice recognition robot is operating with a first command by voice and the second command for the voice recognition robot is given to the input unit, the voice recognition robot is based on the second command. A control unit configured to generate a control signal for controlling
A communication terminal comprising: a transmission unit configured to transmit the control signal to the voice recognition robot.
前記プログラムは、前記音声認識ロボットシステムに、
音声による第1の命令の入力を受けるステップと、
前記第1の命令の入力に応答して前記動作部を作動させるステップと、
前記第1の命令の後に、音声と異なる態様で第2の命令の入力を受けるステップと、
前記第2の命令の入力に応答して、前記動作部に、前記第1の命令に基づく動作を停止させ、前記第2の命令に基づく動作を行なわせるステップとを実行させる、プログラム。 A program for controlling a speech recognition robot system, wherein the speech recognition robot system has an operation unit configured to perform a predetermined operation,
The program is stored in the voice recognition robot system.
Receiving a first command input by voice;
Activating the operating unit in response to an input of the first command;
Receiving an input of a second command after the first command in a manner different from voice;
In response to the input of the second command, the program causes the operating unit to stop the operation based on the first command and to perform the operation based on the second command.
前記プログラムは、前記音声認識ロボットのプロセッサに、
音声による第1の命令の入力を受け付けるステップと、
前記第1の命令に基づいて、前記音声認識ロボットが有する動作部を作動させるステップと、
前記第1の命令の入力の後に、音声と異なる態様で第2の命令の入力を受け付けるステップと、
前記第2の命令に基づいて、前記動作部に、前記第1の命令に基づく動作を停止させ、前記第2の命令に基づく動作を行なわせるステップとを実行させる、プログラム。 A program for controlling a speech recognition robot,
The program is stored in the processor of the voice recognition robot.
Receiving a first command input by voice;
Activating an operation unit of the voice recognition robot based on the first command;
Receiving the input of the second command in a manner different from voice after the input of the first command;
A program for causing the operation unit to stop an operation based on the first instruction and to perform an operation based on the second instruction based on the second instruction.
前記音声認識ロボットは、
集音部と、
前記通信端末から信号を受信するように構成された受信部と、
予め規定された動作を行なうように構成された動作部と、
命令に応じて前記動作部の動作を制御するように構成された制御部とを備えており、
前記プログラムは、前記通信端末に、
前記音声認識ロボットが音声による第1の命令で動作している場合に、前記音声認識ロボットに対する第2の命令を受け付けるステップと、
前記第2の命令に基づいて前記音声認識ロボットを制御するための制御信号を生成するステップと、
前記制御信号を前記音声認識ロボットに送信するステップとを実行させる、プログラム。 A program for causing a communication terminal to control a voice recognition robot,
The voice recognition robot is
The sound collection section;
A receiver configured to receive a signal from the communication terminal;
An operating unit configured to perform a predefined operation;
A control unit configured to control the operation of the operation unit according to a command,
The program is stored in the communication terminal.
Receiving a second command for the voice recognition robot when the voice recognition robot is operating with a first command by voice;
Generating a control signal for controlling the voice recognition robot based on the second command;
Transmitting the control signal to the voice recognition robot.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014221580A JP2016090655A (en) | 2014-10-30 | 2014-10-30 | Voice recognition robot system, voice recognition robot, controller for voice recognition robot, communication terminal for controlling voice recognition robot, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014221580A JP2016090655A (en) | 2014-10-30 | 2014-10-30 | Voice recognition robot system, voice recognition robot, controller for voice recognition robot, communication terminal for controlling voice recognition robot, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016090655A true JP2016090655A (en) | 2016-05-23 |
Family
ID=56018502
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014221580A Pending JP2016090655A (en) | 2014-10-30 | 2014-10-30 | Voice recognition robot system, voice recognition robot, controller for voice recognition robot, communication terminal for controlling voice recognition robot, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016090655A (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106887228A (en) * | 2016-12-27 | 2017-06-23 | 深圳市优必选科技有限公司 | Robot voice control method and device and robot |
JP2017133822A (en) * | 2016-10-31 | 2017-08-03 | 真理 井上 | Air conditioner and air conditioning system |
CN109599101A (en) * | 2017-10-02 | 2019-04-09 | 福特全球技术公司 | The external voice monitoring based on accelerometer independently stopped for voice control |
WO2019069731A1 (en) * | 2017-10-06 | 2019-04-11 | ソニー株式会社 | Information processing device, information processing method, program, and moving body |
CN109658922A (en) * | 2017-10-12 | 2019-04-19 | 现代自动车株式会社 | The device and method for handling user's input of vehicle |
KR20190064613A (en) * | 2016-10-03 | 2019-06-10 | 구글 엘엘씨 | Multi-user personalization on voice interface devices |
CN110103236A (en) * | 2019-05-13 | 2019-08-09 | 佛山科学技术学院 | The small-sized house keeper robot of intelligent security guard and control method |
WO2019223064A1 (en) * | 2018-05-21 | 2019-11-28 | 深圳市沃特沃德股份有限公司 | Voice control method for sweeping robot and sweeping robot |
CN111283679A (en) * | 2020-01-19 | 2020-06-16 | 路邦科技授权有限公司 | Multi-connected voice control automatic guide transportation system and control method thereof |
KR20210007360A (en) * | 2019-07-11 | 2021-01-20 | 엘지전자 주식회사 | Moving Robot and controlling method |
JP2021506187A (en) * | 2017-12-12 | 2021-02-18 | ロヴィ ガイズ, インコーポレイテッド | Systems and methods for modifying media asset playback in response to verbal commands that are unrelated to media asset playback |
CN112703516A (en) * | 2018-09-18 | 2021-04-23 | 远程连接株式会社 | Reservation device, reservation method, and reservation system |
CN113892859A (en) * | 2020-06-22 | 2022-01-07 | 珠海格力电器股份有限公司 | Control method of sweeping robot and sweeping robot |
JP2022043156A (en) * | 2016-06-15 | 2022-03-15 | アイロボット・コーポレーション | System and method for controlling autonomous mobile robot |
CN114326495A (en) * | 2021-12-24 | 2022-04-12 | 中电海康集团有限公司 | Robot control system architecture and voice instruction processing method |
US11563597B2 (en) | 2017-12-12 | 2023-01-24 | ROVl GUIDES, INC. | Systems and methods for modifying playback of a media asset in response to a verbal command unrelated to playback of the media asset |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07104677A (en) * | 1993-10-08 | 1995-04-21 | Honda Motor Co Ltd | On-vehicle information display device |
JP2000231142A (en) * | 1999-02-12 | 2000-08-22 | Olympus Optical Co Ltd | Camera |
JP2004033624A (en) * | 2002-07-05 | 2004-02-05 | Nti:Kk | Remote controller by pet type robot |
JP2004268151A (en) * | 2003-03-05 | 2004-09-30 | Yaskawa Electric Corp | Robot control device and control method |
JP2005186234A (en) * | 2003-12-26 | 2005-07-14 | Victor Co Of Japan Ltd | Network robot and its control method |
-
2014
- 2014-10-30 JP JP2014221580A patent/JP2016090655A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07104677A (en) * | 1993-10-08 | 1995-04-21 | Honda Motor Co Ltd | On-vehicle information display device |
JP2000231142A (en) * | 1999-02-12 | 2000-08-22 | Olympus Optical Co Ltd | Camera |
JP2004033624A (en) * | 2002-07-05 | 2004-02-05 | Nti:Kk | Remote controller by pet type robot |
JP2004268151A (en) * | 2003-03-05 | 2004-09-30 | Yaskawa Electric Corp | Robot control device and control method |
JP2005186234A (en) * | 2003-12-26 | 2005-07-14 | Victor Co Of Japan Ltd | Network robot and its control method |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022043156A (en) * | 2016-06-15 | 2022-03-15 | アイロボット・コーポレーション | System and method for controlling autonomous mobile robot |
KR20190064613A (en) * | 2016-10-03 | 2019-06-10 | 구글 엘엘씨 | Multi-user personalization on voice interface devices |
KR102311684B1 (en) * | 2016-10-03 | 2021-10-08 | 구글 엘엘씨 | Multi-User Personalization on Voice Interface Devices |
US11527249B2 (en) | 2016-10-03 | 2022-12-13 | Google Llc | Multi-user personalization at a voice interface device |
JP2019535035A (en) * | 2016-10-03 | 2019-12-05 | グーグル エルエルシー | Multi-user personalization in voice interface devices |
JP2021119403A (en) * | 2016-10-03 | 2021-08-12 | グーグル エルエルシーGoogle LLC | Multi-user personalization at voice interface device |
JP7225301B2 (en) | 2016-10-03 | 2023-02-20 | グーグル エルエルシー | Multi-user personalization in voice interface devices |
JP2017133822A (en) * | 2016-10-31 | 2017-08-03 | 真理 井上 | Air conditioner and air conditioning system |
CN106887228A (en) * | 2016-12-27 | 2017-06-23 | 深圳市优必选科技有限公司 | Robot voice control method and device and robot |
CN106887228B (en) * | 2016-12-27 | 2020-06-05 | 深圳市优必选科技有限公司 | Robot voice control method and device and robot |
CN109599101A (en) * | 2017-10-02 | 2019-04-09 | 福特全球技术公司 | The external voice monitoring based on accelerometer independently stopped for voice control |
WO2019069731A1 (en) * | 2017-10-06 | 2019-04-11 | ソニー株式会社 | Information processing device, information processing method, program, and moving body |
CN109658922A (en) * | 2017-10-12 | 2019-04-19 | 现代自动车株式会社 | The device and method for handling user's input of vehicle |
CN109658922B (en) * | 2017-10-12 | 2023-10-10 | 现代自动车株式会社 | Apparatus and method for processing user input for vehicle |
US11563597B2 (en) | 2017-12-12 | 2023-01-24 | ROVl GUIDES, INC. | Systems and methods for modifying playback of a media asset in response to a verbal command unrelated to playback of the media asset |
JP2021506187A (en) * | 2017-12-12 | 2021-02-18 | ロヴィ ガイズ, インコーポレイテッド | Systems and methods for modifying media asset playback in response to verbal commands that are unrelated to media asset playback |
JP7275134B2 (en) | 2017-12-12 | 2023-05-17 | ロヴィ ガイズ, インコーポレイテッド | Systems and methods for modifying playback of media assets in response to verbal commands unrelated to playback of media assets |
WO2019223064A1 (en) * | 2018-05-21 | 2019-11-28 | 深圳市沃特沃德股份有限公司 | Voice control method for sweeping robot and sweeping robot |
CN112703516A (en) * | 2018-09-18 | 2021-04-23 | 远程连接株式会社 | Reservation device, reservation method, and reservation system |
CN110103236A (en) * | 2019-05-13 | 2019-08-09 | 佛山科学技术学院 | The small-sized house keeper robot of intelligent security guard and control method |
US20220280007A1 (en) * | 2019-07-11 | 2022-09-08 | Lg Electronics Inc. | Mobile robot and method of controlling the same |
KR102306436B1 (en) * | 2019-07-11 | 2021-09-28 | 엘지전자 주식회사 | Moving Robot and controlling method |
WO2021006674A3 (en) * | 2019-07-11 | 2021-02-25 | 엘지전자 주식회사 | Mobile robot and control method therefor |
KR20210007360A (en) * | 2019-07-11 | 2021-01-20 | 엘지전자 주식회사 | Moving Robot and controlling method |
CN111283679A (en) * | 2020-01-19 | 2020-06-16 | 路邦科技授权有限公司 | Multi-connected voice control automatic guide transportation system and control method thereof |
CN113892859A (en) * | 2020-06-22 | 2022-01-07 | 珠海格力电器股份有限公司 | Control method of sweeping robot and sweeping robot |
CN114326495A (en) * | 2021-12-24 | 2022-04-12 | 中电海康集团有限公司 | Robot control system architecture and voice instruction processing method |
CN114326495B (en) * | 2021-12-24 | 2024-02-09 | 中电海康集团有限公司 | Robot control system architecture and voice instruction processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016090655A (en) | Voice recognition robot system, voice recognition robot, controller for voice recognition robot, communication terminal for controlling voice recognition robot, and program | |
JP6739907B2 (en) | Device specifying method, device specifying device and program | |
JP6516585B2 (en) | Control device, method thereof and program | |
CN204695548U (en) | Take portable intelligent device as intelligent interactive system and the house robot system of control axis | |
JP2016522465A (en) | Apparatus and method for providing a persistent companion device | |
JP2015184563A (en) | Interactive household electrical system, server device, interactive household electrical appliance, method for household electrical system to interact, and program for realizing the same by computer | |
CN104813642A (en) | Methods, apparatuses and computer readable medium for triggering a gesture recognition mode and device pairing and sharing via non-touch gestures | |
KR102421824B1 (en) | Electronic device for providing voice based service using external device and operating method thereof, the external device and operating method thereof | |
JP6316214B2 (en) | SYSTEM, SERVER, ELECTRONIC DEVICE, SERVER CONTROL METHOD, AND PROGRAM | |
US20210383806A1 (en) | User input processing method and electronic device supporting same | |
WO2017141530A1 (en) | Information processing device, information processing method and program | |
CN109804407B (en) | Care maintenance system and server | |
KR102629796B1 (en) | An electronic device supporting improved speech recognition | |
KR20190095193A (en) | An artificial intelligence apparatus for managing operation of artificial intelligence system and method for the same | |
JP2018176386A (en) | Information processing device and program | |
JP7439826B2 (en) | Information processing device, information processing method, and program | |
JP2016099469A (en) | Voice recognition operation device, control device of voice recognition operation device, method for operating voice recognition operation device, program, and control system of voice recognition operation device | |
JP2016091456A (en) | Voice recognition robot and program for controlling voice recognition robot | |
JP6489793B2 (en) | Electronic device, control system, control method, and control program | |
CN111352501A (en) | Service interaction method and device | |
JP6864831B2 (en) | Robot devices and programs | |
WO2015179466A1 (en) | Remote interactive media | |
TW201918889A (en) | Boot system and boot method applied to intelligent robot | |
US10551871B2 (en) | Interactive multimedia assistant device with a swappable personality customizable skin | |
JP6257040B2 (en) | Karaoke system, portable information processing apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170925 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180907 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180918 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190122 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190806 |