JP2004184788A - 音声対話システムおよびプログラム - Google Patents
音声対話システムおよびプログラム Download PDFInfo
- Publication number
- JP2004184788A JP2004184788A JP2002353266A JP2002353266A JP2004184788A JP 2004184788 A JP2004184788 A JP 2004184788A JP 2002353266 A JP2002353266 A JP 2002353266A JP 2002353266 A JP2002353266 A JP 2002353266A JP 2004184788 A JP2004184788 A JP 2004184788A
- Authority
- JP
- Japan
- Prior art keywords
- response
- voice
- language
- recording information
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Images
Landscapes
- Toys (AREA)
Abstract
【解決手段】音声応答ファイル12−6には、「認識言語」に対応してその応答情報として、「応答言語」の他に複数種の録音情報が記憶されている。CPU11は、対話相手からの入力音声を認識した認識結果に該当する内容の応答音声を出力する場合に、現在の対話相手を認識し、その相手対応の「会話回数」を会話話者ファイル12−7から読み出し、この「会話回数」に応じて音声応答ファイル12−6から読み出す応答情報を選択して応答出力する。
【選択図】 図1
Description
【発明の属する技術分野】
この発明は、対話相手からの入力音声を認識した認識結果に該当する内容の応答音声を出力する音声対話システムおよびプログラムに関する。
【0002】
【従来の技術】
従来、この種の音声対話システムとしては、例えば、電子玩具や音声応答ロボットあるいは音声応答を行う対話ソフトのように、人間からの話し掛けに応答して予め決められている応答音声を出力するようにしているが、対話相手からの話し掛けが同一内容であれば、常に、同様の音声応答を行うようにしている為に、直ぐに飽きられてしまうという問題があった。
そこで、従来においては、例えば、利用者の会話の特性(話題内容、対話時間等)を把握し、その会話特性に応じて発話する単語を適宜変化させるようにした対話システムが知られている(特許文献1参照)。
【0003】
【特許文献1】
特開2001−125900号公報
【0004】
【発明が解決しようとする課題】
しかしながら、会話特性に応じて発話する単語を変化させるものにおいても、話題内容、対話時間等の会話特性が同じであれば、同様の音声応答を行う為に、単調さを改善するまでには至らず、直ぐにマンネリ化してしまうと共に、テキスト言語を単に読み上げるという機械的な音声応答では、会話する魅力も次第になくなってしまう。
【0005】
第1の発明の課題は、対話相手からの入力音声を認識した認識結果に該当する内容の応答音声を出力する場合に、現時点までの対話履歴状況に基づいて応答音声を変更して出力できるようにすることである。
第2の発明の課題は、対話相手からの入力音声を認識した認識結果に該当する内容の応答音声を出力する場合に、録音者毎に応答情報として任意に録音された録音情報の中から選択された録音者対応の録音情報を出力できるようにすることである。
【0006】
【課題を解決するための手段】
請求項1記載の発明(第1の発明)は、対話相手からの入力音声を認識した認識結果に該当する内容の応答音声を出力する音声対話システムであって、対話相手との対話に応じて更新される現時点までの対話履歴状況を記憶管理する対話履歴記憶手段と、対話相手からの入力音声を認識した認識結果に該当する内容の応答音声を出力する場合に、前記対話履歴状況に応じて当該応答音声を変更して出力する出力制御手段とを具備するものである。
更に、コンピュータに対して、上述した請求項1記載の発明に示した主要機能を実現させるためのプログラムを提供する(請求項12記載の発明)。
【0007】
したがって、請求項1、12記載の発明は、対話相手からの入力音声を認識した認識結果に該当する内容の応答音声を出力する場合に、現時点までの対話履歴状況(会話回数、会話頻度等)に応じて当該応答音声を変更して出力するようにしたから、対話相手からの話し掛けが同一内容であっても、異なる音声応答を行うことができ、たとえ、長期間使用したとしても、マンネリ化を防止して常に新鮮味を与えることができると共に、表現豊な音声対話システムを提供することができる。
【0008】
なお、請求項1記載の発明は次のようなものであってもよい。
現在の対話相手を認識する話者認識手段を設け、前記対話履歴記憶手段は、この話者認識手段によって認識された対話相手別にその対話履歴状況を記憶管理し、前記出力制御手段は、前記話者認識手段によって認識された現在の対話相手に対応付けられている前記対話履歴状況に応じて応答音声を変更して出力する(請求項2記載の発明)。
したがって、請求項2記載の発明によれば、請求項1記載の発明と同様の効果を有する他に、現在の対話相手を認識すると共に、認識された現在の対話相手に対応付けられている対話履歴状況に応じて応答音声を変更して出力するようにしたから、例えば、複数の者が共有使用する場合でも、各人の対話履歴状況に基づいて各人別に応答音声を変更することができる。
【0009】
対話相手からの入力音声を認識した認識結果に該当する応答情報として、予め録音された複数の録音情報を記憶管理する応答情報記憶手段を設け、前記出力制御手段は、前記複数の録音情報の中から前記対話履歴状況に応じて選択指定された録音情報を出力する(請求項3記載の発明)。
したがって、請求項3記載の発明によれば、請求項1記載の発明と同様の効果を有する他に、対話相手からの入力音声を認識した認識結果に該当する応答情報として予め録音された複数の録音情報の中から対話履歴状況に応じて選択指定した録音情報を出力するようにしたから、機械的な合成音による音声応答ではなく、人間が実際に録音した内容の音声応答が可能となる他、対話履歴状況に応じて応答音声を適宜変更することができる。
【0010】
この場合、前記応答情報記憶手段は、予め固定的に用意されている固定型の録音情報の他に、任意に録音された任意型の録音情報を記憶管理するようにすれば(請求項4記載の発明)、例えば、製品購入時に添付されている固定型の録音情報の他に、ユーザ自身あるいは身近な者が録音した内容を聞くことが可能となる他、対話履歴状況に応じて例えば、父親、母親、兄、妹、末っ子の順にその録音内容を出力させることができる等、楽しさや面白みを増すことも可能となる。
【0011】
前記出力制御手段は、対話相手からの入力音声を認識した認識結果に該当する応答音声を前記対話履歴状況に応じて加工することによってその音質、口調のうち、少なくともその何れかを変更して出力する(請求項5記載の発明)。
したがって、請求項5記載の発明によれば、請求項1記載の発明と同様の効果を有する他に、応答音声の音質、口調を加工して出力するようにしたから、同一内容の応答音声であっても、その音質、口調が異なる為、常に新鮮味のある応答が可能となる。
【0012】
請求項6記載の発明(第2の発明)は、対話相手からの入力音声を認識した認識結果に該当する内容の応答音声を出力する音声対話システムであって、対話相手からの入力音声を認識した認識結果に該当する応答情報として、任意に録音された録音情報をその録音者に対応付けて記憶管理する応答情報記憶手段と、前記録音情報を録音した録音者のうち、その何れかを選択する選択手段と、この選択手段によって選択された録音者に対応付けられている録音情報を音声出力する音声応答手段とを具備するものである。
更に、コンピュータに対して、上述した請求項6記載の発明に示した主要機能を実現させるためのプログラムを提供する(請求項13記載の発明)。
【0013】
したがって、請求項6、13記載の発明は、対話相手からの入力音声を認識した認識結果に該当する応答情報として、任意に録音された録音情報をその録音者に対応付けて記憶管理しておき、この録音者の中から選択された録音者対応の録音情報を音声出力するようにしたから、機械的な合成音による音声応答ではなく、人間が実際に録音した内容の音声応答が可能となる他に、ユーザ自身あるいは身近な者等、様々な人が録音した内容を応答音声として聞くことができ、たとえ、長期間使用したとしても、マンネリ化を防止して常に新鮮味を与えることができると共に、表現豊な音声対話システムを提供することができる。
【0014】
なお、請求項6記載の発明は次のようなものであってもよい。
現在の対話相手を認識する話者認識手段を設け、前記選択手段は、この話者認識手段によって認識された現在の対話相手以外の者が録音した録音情報を選択する(請求項7記載の発明)。
したがって、請求項7記載の発明によれば、請求項6記載の発明と同様の効果を有する他に、現在の対話相手を認識すると共に、現在の対話相手以外の者が録音した録音情報を選択して応答出力するようにしたから、自己が録音した内容を除き、身近な者が録音した内容を応答音声として聞くことができる。
この場合、前記選択手段は、前記録音情報を録音した録音者のうち、任意に指定された録音者を選択するようにすれば(請求項8記載の発明)、ユーザの希望する人が録音した内容を応答音声として聞くことができる。
【0015】
現在の対話相手との一連の対話が終了するまで前記音声応答手段は、前記選択された録音者対応の録音情報が存在していれば、その録音情報に基づいて音声応答を行う(請求項9記載の発明)。
したがって、請求項9記載の発明によれば、請求項6記載の発明と同様の効果を有する他に、現在の対話相手との一連の対話が終了するまでは、同一の録音者によって録音された内容を聞くことができ、不用意に異なる録音者による応答に切り替わることを防止することが可能となる。
【0016】
予め対話相手別にその音声特徴を解析する音声解析手段と、この音声解析手段によって解析された音声特徴情報を対話相手別に記憶管理する特徴情報記憶手段とを設け、前記応答情報記憶手段は、認識言語に対応してその応答言語を記憶管理し、前記音声応答手段は、前記選択された録音者対応の録音情報が存在していなければ、前記応答情報記憶手段から認識言語に対応する応答言語を読み出して音声変換すると共に、この変換された音声情報に前記特徴情報記憶手段から読み出した当該録音者対応の音声特徴情報を音声合成して応答出力する(請求項10記載の発明)。
したがって、請求項10記載の発明によれば、請求項6、9記載の発明と同様の効果を有する他に、選択された録音者対応の録音情報が存在していなければ、認識言語に対応する応答言語を音声変換すると共に、この変換された音声情報に当該録音者対応の音声特徴情報を音声合成して応答出力するようにしたから、録音者の音質、口調で音声応答することができ、違和感の防止が可能となる。
【0017】
ここで、前記認識言語に対応する応答言語の他に、任意に録音された録音情報を応答情報として登録可能な場合に、入力音声を認識した認識言語の中に何れかの応答言語に該当する言語が含まれていれば、この入力音声の中から当該言語に相当する入力音声を抽出すると共に、抽出された入力音声を当該応答言語対応の録音情報として登録する(請求項11記載の発明)。
したがって、請求項11記載の発明によれば、請求項6記載の発明と同様の効果を有する他に、入力音声を認識した認識言語の中に何れかの応答言語に該当する言語が含まれている場合に、この入力音声の中から抽出した当該言語に相当する入力音声をその応答言語対応の録音情報として登録するようにしたから、対話相手からの入力音声をそのまま応答言語対応の録音情報として登録することができ、特別な録音作業を行うことなく、自動録音が可能となる。言換えれば、ユーザにあっては、録音を意識しなくても対話を行うだけで、応答言語対応の録音情報が自然に蓄積され、利用回数が多くなればなる程、録音情報を充実させることが可能となる。
【0018】
【発明の実施の形態】
以下、図1〜図5を参照してこの発明の一実施形態を説明する。
図1は、この実施形態における人間型ロボットの外観を概念的に示した正面図である。
この人間型ロボットには、外界感覚機能として聴覚系の音声入力部を有し、人間からの話し掛けに応じた対応動作(会話および行動)を実行可能なものであり、また、話し掛けに応じた応答動作以外では、予め設定されている設定動作を自律的に行う自律行動を行うようにしたロボットである。
【0019】
この人間型ロボットの頭部には、その眼の位置に視覚系感覚機能を構成するレンズ・CCD(撮像素子)を備えたデジタルカメラ1と、耳の位置に聴覚系感覚機能を構成するマイクロフォーン2の他に、口の位置に音声応答用のスピーカ3を備えている。また、胴体部には、液晶表示式タッチパネル4が備えられている。なお、カメラ1は、対話相手の顔を撮影するデジタルスチールカメラであり、対話者の顔画像を撮影する。液晶表示式タッチパネル4は、対話相手からの入力指示等を受け付けたり、各種のメッセージを表示するタッチスクリーンである。
【0020】
図2は、人間型ロボットの全体構成を示したブロック図である。
CPU11は、記憶部12内のオペレーティングシステムや各種アプリケーションソフトにしたがってこの人間型ロボットの全体動作を制御する中央演算処理装置である。記憶部12は、オペレーティングシステムや各種アプリケーションソフト等が格納され、磁気的、光学的、半導体メモリ等によって構成されている記録媒体やその駆動系を有している。この記録媒体はハードディスク等の固定的な媒体若しくは着脱自在に装着可能なCD−ROM、フロッピィデスク、RAMカード、磁気カード等の可搬型の媒体である。また、CPU11は記録媒体内に格納されるその一部あるいは全部を他の機器側から取り込み、記録媒体に新規登録あるいは追加登録することもできる。
【0021】
一方、この人間型ロボットには、音声入力部13、音声応答部14、可動動作部15、駆動機構部16を有し、それらは入出周辺デバイスとしてCPU11に接続されている。
音声入力部13は、A/D変換器、マイクロフォーン、エコーキャンセラ回路からなり、外界音声を入力し、その音声波形をA/D変換するもので、人間からの話し掛けを外界情報として検出する聴覚系感覚機能を構成する。この音声入力部13からの入力音声は、CPU11に取り込まれて音声認識されると共に、その認識結果に基づいて言語処理される。ここで、CPU11は、音声認識の結果、それに該当する内容の応答音声を出力させる。音声応答部14は、会話応答を行う場合に、スピーカ3から音声を発声出力させるものである。
可動動作部15は、ロボット本体の可動部(手足、首、目、口等)を動作させる機構部であり、駆動機構部16は、モータ、電源、駆動機構を備え、可動動作部5に対する駆動源である。
【0022】
この人間型ロボットの記憶部12内には、全体動作を制御する基本的なシステムプログラム12−1と、ロボットの自律行動を制御する動作プログラム12−2と、入力音声を認識して言語処理を行う言語認識プログラム12−3と、入力音声を認識した認識結果に該当する内容の音声を応答出力する音声応答プログラム12−4と、一時的に各種のデータを記憶するワークエリア12−5と、後述する音声応答ファイル12−6および会話話者ファイル12−7等が設けられている。この場合、言語認識プログラム12−3は、不特定話者の入力音声を認識すると共に、その認識結果に基づいて構文解析、意味解析等の言語的処理を行う。音声応答プログラム12−4は、録音内容を音声応答する場合には、その録音内容を再生出力するが、テキスト情報を読み上げる場合には、テキスト情報を音声変換して音声応答を行う。
【0023】
図3(A)は、音声応答ファイル12−6の内容を示した図である。
この音声応答ファイル12−6は、対話相手からの入力音声を認識した認識結果に該当する内容の応答音声を出力する為の応答情報を記憶管理するもので、対話相手からの入力音声を認識した「認識言語」とその「応答言語」とを対応付けて記憶する他に、各「応答言語」に対応して複数の「録音情報」を記憶可能な構成となっている。
ここで、「認識言語」は、対話相手から話し掛けられた内容、例えば、“こんにちは”、“さよなら”、“かわいい”等、様々な内容を認識する為のテキスト情報である。「応答言語」は、この「認識言語」に対応する応答情報を示すテキスト情報であり、例えば、「認識言語」“こんにちは”に対応する「応答言語」として“お元気ですか”、また、「認識言語」“さよなら”に対応する「応答言語」として“また遊んでね”、「認識言語」“かわいい”に対応する「応答言語」として“ありがとう”等である。
【0024】
これらの「認識言語」、「応答言語」は、予めメーカ等によって固定的に設定された固定情報であり、CPU11は、対話相手からの入力音声を認識した結果、その認識結果が「認識言語」に該当する場合には、それに対応する「応答言語」を音声情報に変換して応答出力させる。その際、対話相手から話し掛けられた内容の中に「認識言語」の一部が含まれている場合でも、それに対応する「応答言語」にしたがった音声応答を行うようにしている。例えば、話し掛けられた内容が“〇〇ちゃん、こんにちは”の場合でも、「認識言語」“こんにちは”に対応する「応答言語」として“お元気ですか”を音声応答するようにしている。
【0025】
音声応答ファイル12−6内に登録されている複数の「録音情報」は、対応する「応答言語」に代えて応答出力されるデジタル音声の録音情報であり、複数の応答話者種(この例では5種類の話者種)別にその録音情報が「応答言語」に対応付けて音声応答ファイル12−6に登録されている。すなわち、この複数の「録音情報」は、予めメーカ等によって固定的に録音されている録音情報を示すロボット話者(1)、(2)と、ユーザ自身あるいは身近な者が任意に録音した録音情報を示す録音話者(A)、(B)、(C)とから構成されている。
【0026】
この複数の応答話者種対応の録音情報として、例えば、「認識言語」が“こんにちは”であれば、“お元気ですか”が録音され、また、「認識言語」が“さよなら”であれば、“また遊んでね”、「認識言語」が録音され、「認識言語」が“かわいい”であれば、“ありがとう”が録音されている。この場合、録音内容は、「認識言語」対応の「応答言語」に一致する内容に限らず、「応答言語」とは異なる録音内容であってもよい。つまり、「認識言語」が“さよなら”、それに対応する「応答言語」が“また遊んでね”の場合、この「応答言語」対応の録音情報としては、“お元気でね”、“直ぐ来てね”等であってもよい。
なお、録音情報を別ファイルに録音しておき、この録音ファイルをアクセスする為の「ファイルNo」を応答話者種に対応して音声応答ファイル12−6内に記憶するようにしてもよい。
【0027】
この場合、CPU11は、対話相手からの入力音声を認識した認識結果(認識言語)に該当する内容の応答音声を出力する場合に、音声応答ファイル12−6をアクセスし、「認識言語」に対応付けられている複数の「録音情報」の中から選択した録音情報を音声応答するようにしているが、「認識言語」に対応の「録音情報」が存在していない場合には、テキスト情報としての「応答言語」を音声合成して出力するようにしている。なお、「認識言語」に対応付けられている複数の「録音情報」の中からどの録音情報を選択するかは、現在の対話相手を認識し、この対話相手対応の対話履歴状況を参照して行うようにしている。
【0028】
図3(B)は、会話話者ファイル12−7の内容を示した図である。
この会話話者ファイル12−7は、現時点までに対話したことがある対話相手を管理する為のファイルであり、その対話相手毎に、その相手先を示す「会話話者」と、その相手の音声特徴を示す「音声特徴パターン」と、その相手先を撮影した「顔画像」と、現時点までの対話履歴状況を示す「会話回数」とを記憶する構成となっている。
【0029】
「音声特徴パターン」および「顔画像」は、現在の対話相手を照合認識する為の情報であるが、更に、「音声特徴パターン」は、上述の「応答言語」を音声変換した後に、この変換音声に「音声特徴パターン」を合成することによって音質、口調を変更する際にも使用される。「会話回数」は、一連の会話が行われる毎にその対話者別に更新される対話履歴状況であり、CPU11は、音声応答ファイル12−6内に「応答言語」に対応して応答話者種別に登録されている複数の録音情報の中から「会話回数」に応じた「録音情報」を選択して音声応答を行うようにしている。
【0030】
次に、この実施形態における人間型ロボットにおける音声応答動作を図4および図5に示すフローチャートを参照して説明する。ここで、これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作を逐次実行する。また、伝送媒体を介して伝送されてきた上述のプログラムコードにしたがった動作を逐次実行することもできる。すなわち、記録媒体の他、伝送媒体を介して外部供給されたプログラム/データを利用してこの実施形態特有の動作を実行することもできる。
【0031】
図4および図5は、人間型ロボットにおける音声応答動作を示したフローチャートであり、この音声応答動作は、電源投入に伴って実行開始される。
先ず、CPU11は、音声入力部13からの入力音声の有無を常時監視しており(ステップS1)、音声入力を検知すると、その入力音声を取得してワークエリア12−5に記憶保持すると共に(ステップS2)、カメラ1を作動させて現在の対話相手を撮影した顔画像を取得してワークエリア12−5に記憶保持する(ステップS3)。そして、ワークエリア12−5内の入力音声を音声認識した後に(ステップS4)、この認識音声に基づいて言語認識を行ってテキスト情報(認識言語)に変換する(ステップS5)。
【0032】
これによって変換されたテキスト情報(認識言語)に基づいて音声応答ファイル12−6をアクセスし、該当する「応答言語」を検索して応答対象を選択する(ステップS6)。そして、ワークエリア12−5内の入力音声を解析し、その周波数スペクトル等の音声特徴パターン(音質、口調等)を取得すると共に、この解析結果(音声特徴パターン)およびワークエリア12−5内の顔画像に基づいて会話話者ファイル12−7を検索し、該当する「音声特徴パターン」および「顔画像」が一致/近似する「会話話者」を特定することによって現在の話者相手を認識する(ステップS7、S8)。
【0033】
この結果、現在の話者相手に該当する者が会話話者ファイル12−7内に登録されていない場合には(ステップS9でNO)、上述した入力音声の解析結果「音声特徴パターン」とワークエリア12−5内の「顔画像」を含む新規レコードを作成して会話話者ファイル12−7内に追加登録する(ステップS10)。
このように話者相手を新規登録した場合には、今回の認識言語に基づいて音声応答ファイル12−6をアクセスし、この認識言語に対応付けられている複数の録音情報のうち、応答話者種として、「ロボット話者(1)」の録音情報を選択指定した後(ステップS11)、応答言語に代えてこの選択話者種の録音情報にしたがって音声応答を行う(ステップS19)。
【0034】
一方、現在の話者相手に該当する者が会話話者ファイル12−7内に登録されている場合には(ステップS9でYES)、会話話者ファイル12−7から当該登録者対応の「会話回数」を読み出し、この「会話回数」と予め設定されている設定値“100”とを比較し、「会話回数」が設定値“100”を越えているかを判別する(ステップS12)。この結果、「会話回数」が“100”以下であれば、上述の新規登録時の場合と同様に、応答話者種として、「ロボット話者(1)」の録音情報を選択指定した後に(ステップS13)、応答言語に代えてこの選択話者種の録音情報にしたがって音声応答を行う(ステップS19)。
【0035】
また、現在の話者相手の「会話回数」が設定値“100”を越えていれば(ステップS12でYES)、更に、「会話回数」が設定値“200” を越えているかを判別する(ステップS14)。ここで、「会話回数」が“101”〜“200以下”であれば、応答話者種として、「ロボット話者(2)」の録音情報を選択指定した後(ステップS15)、応答言語に代えてこの選択話者種のる録音情報にしたがって音声応答を行う(ステップS19)。
【0036】
更に、「会話回数」が設定値“200”を越えている場合には(ステップS14でYES)、音声応答ファイル12−6内の録音話者(A)、(B)、(C)を対象としてそのファイル全体を検索し、録音話者別の録音言語数が“50”を越えている録音話者を抽出特定する(ステップS16)。つまり、録音話者(A)、(B)、(C)のうち、「認識言語」、「応答言語」対応の録音情報が“50”を越える程、録音数の多い録音話者を抽出特定する。そして、特定した録音話者の中から現認識話者(現在の話者相手)を除いた場合に、他の特定録音話者が1人でも存在しているかをチェックし(ステップS17)、該当者が居なければ、ステップS15に移り、応答話者種として、「ロボット話者(2)」の録音情報を選択指定した後に、応答言語に代えてこの応答話者種の録音情報にしたがって音声応答を行う(ステップS19)。
【0037】
一方、録音情報が“50”を越える程、録音数の多い録音話者の中から現認識話者を除いた場合に、他の録音話者が1人でも存在していれば、ステップS18に移り、現認識話者を除いた他の特定話者が複数存在する場合には、上述のステップS6で選択された応答言語対応の録音情報が有る録音話者を応答話者種として選択する。つまり、該当者が複数存在している場合にはその中の1人を応答話者種として選択するが、その際、選択応答言語対応の録音情報が登録されていることを条件として選択する。このようにして応答話者種の絞り込みを行った後に、応答言語に代えてこの応答話者種の録音情報にしたがって音声応答を行う(ステップS19)。
【0038】
このようにして最初の対話に対して音声応答を行った後は、図5のステップS20に移り、以下、現在の話者相手からの入力音声に基づいて音声応答ファイル12−6内に録音情報を自動登録する処理が実行される(ステップS20〜S23)。すなわち、現在の対話相手からの入力音声を認識した認識言語の中に何れかの応答言語に該当する言語が含まれていれば、この入力音声の中から当該言語に相当する入力音声を抽出すると共に、抽出した入力音声を当該応答言語対応の録音情報として音声応答ファイル12−6内に登録する自動録音処理が実行される。
【0039】
先ず、CPU11は、現在の対話相手からの入力音声を認識した認識言語に基づいて音声応答ファイル12−6内の各「応答言語」を検索し(ステップS20)、この認識言語の中に何れかの応答言語に該当する言語が含まれているか否かをチェックする(ステップS21)。ここで、該当言語が含まれている応答言語が有れば、この入力音声の中から当該言語に相当する入力音声を抽出すると共に(ステップS22)、抽出した入力音声を当該応答話者種および当該応答言語対応の録音情報として音声応答ファイル12−6内に自動録音する(ステップS23)。
【0040】
例えば、音声応答ファイル12−6内に認識言語“さよなら”に対応して応答言語“お元気でね”が登録され、また、他の認識言語“出かけます”に対応して応答言語“さよなら”が登録されている状態において、今回の入力音声を認識した認識言語が“さよなら”であれば、他の認識言語“出かけます”の応答言語対応の録音情報として、今回の入力音声“さよなら”がそのまま自動登録される。この場合、入力音声が一連の文章形式であり、その一部に該当言語が含まれている場合にも、その一部の言語が自動録音される。
【0041】
その後、ステップS24に移り、次に話し掛けられた入力音声の有無をチェックし、入力音声が無ければ、一定時間(例えば、10秒間)経過するまで入力待ちとなる(ステップS24、S25)。ここで、一定時間の経過が検出されてタイムアップとなった場合には、対話相手が立ち去ったものと判断して、図4の最初のステップS1に戻るが、タイムアップとなる前に音声入力を検出した場合には、その入力音声を取得してワークエリア12−5に記憶保持すると共に(ステップS26)、カメラ1を作動させて現在の対話相手を撮影した顔画像を取得してワークエリア12−5に記憶保持する(ステップS27)。そして、ワークエリア12−5内の入力音声を解析してその特徴パターン(音質、口調等)およびワークエリア12−5内の顔画像に基づいて会話話者ファイル12−7を検索し、該当する「音声特徴パターン」および「顔画像」が一致/近似する「会話話者」を特定し、前回の話者相手と同一人物か否かをチェックする(ステップS28)。
【0042】
この結果、同一人物でなければ、前回の対話相手に該当する会話話者ファイル12−7内の「対話回数」をプラス1する更新処理を行った後に(ステップS29)、今回の新たな話者相手に対する最初の応答を行う為に、図4のステップS4に戻って、以下、上述の動作が実行されるが、前回の話者相手と同一人物であれば、その相手から話し掛けられた2回目以降の入力音声に対して応答を行う為に、ワークエリア12−5内の入力音声を音声認識した後に(ステップS30)、この認識音声に基づいて言語認識を行ってテキスト情報(認識言語)に変換する(ステップS31)。そして、この認識言語に基づいて音声応答ファイル12−6を検索し、対応する「応答言語」を選択した後(ステップS32)、この「応答言語」に対応付けられている各録音情報のうち、選択話者種対応の録音情報が存在するか否かをチェックする(ステップS33)。
【0043】
いま、最初の話し掛け時に選択した応答話者種に対応する録音情報が音声応答ファイル12−6内に登録されていれば、この応答言語に代えてこの応答話者種対応の録音情報にしたがって音声応答を行う(ステップS34)。また、選択話者種対応の録音情報が登録されていなければ、この応答言語を音声情報に変換すると共に、会話話者ファイル12−7から読み出した選択話者種対応の「音声特徴パターン」を応答言語の音声情報に合成して応答出力する(ステップS35)。つまり、選択話者種対応の録音情報が登録されていなければ、その選択話者種の音声特徴を反映させた応答言語を読み上げる。
以下、ステップS20に戻って、今回の入力音声に応じた自動録音処理を行った後、次の入力音声待ちとなる。
【0044】
以上のように、この実施形態においてCPU1は、対話相手からの入力音声を認識した認識結果に該当する内容の応答音声を出力する場合に、会話話者ファイル12−7から現時点までの「会話回数」を読み出し、この「会話回数」に応じて音声応答ファイル12−6から読み出す応答情報を変更して出力するようにしたから、対話相手からの話し掛けが同一内容であっても、異なる音声応答を行うことができ、たとえ、長期間使用したとしても、マンネリ化を防止して常に新鮮味を与えることができると共に、表現豊な人間型ロボットを提供することができる。この場合、現在の対話相手を認識すると共に、認識された現在の対話相手に対応付けられている「会話回数」に基づいて応答音声を変更して出力するようにしたから、例えば、複数の者が共有使用する場合でも、各人の対話履歴に基づいて応答音声を各人別に変更することができる。
【0045】
一方、音声応答ファイル12−6には、対話相手からの入力音声を認識した認識結果に該当する応答情報として、任意に録音された録音情報をその録音者に対応付けて記憶管理しておき、この録音者の中から選択された録音者対応の録音情報を音声出力するようにしたから、機械的な合成音による音声応答ではなく、人間が実際に録音した内容の音声応答が可能となる他に、ユーザ自身あるいは身近な者等、様々な人が録音した内容を応答音声として聞くことができ、たとえ、長期間使用したとしても、マンネリ化を防止して常に新鮮味を与えることができると共に、表現豊な音声対話システムを提供することができる。
【0046】
この場合、例えば、製品購入時に添付されている固定型のロボット話者(1)、(2)の他に、ユーザが任意に録音した任意型の録音話者(A)、(B)、(C)を音声応答することができ、ユーザ自身あるいは身近な者が録音した内容を応答音声として聞くことができる。また、現在の対話相手の「会話回数」に基づいて複数の録音情報の中から何れかの録音情報を選択するようにしたから、「会話回数」が増えるにしたがって例えば、家族において、父親、母親、兄、妹、末っ子の順にその録音内容を出力させることができる等、楽しさや面白みを増すことも可能となる。更に、現在の対話相手を認識すると共に、現在の対話相手以外の者が録音した録音情報を選択して応答出力するようにしたから、自己が録音した内容を除き、身近な者が録音した内容を応答音声として聞くことができる。
【0047】
また、現在の対話相手との一連の対話が終了するまでは、同一の録音者によって録音された内容を聞くことができ、不用意に異なる録音者による応答に切り替わることを防止することが可能となる。この場合、音声応答ファイル12−6内に選択話者の録音情報が存在していなければ、その「認識言語」に対応する「応答言語」読み出して音声変換すると共に、この変換された音声情報に当該者対応の「音声特徴パターン」を会話話者ファイル12−7から読み出して音声合成して出力するようにしたから、選択話者の録音情報が登録されていなくても、その者の音質、口調で音声応答することができ、違和感を防止することが可能となる。
【0048】
また、入力音声を認識した認識言語に基づいて音声応答ファイル12−6を検索した結果、この認識言語の中に何れかの「応答言語」に該当する言語が含まれている場合に、この入力音声の中から抽出した当該言語に相当する入力音声をその応答言語対応の録音情報として登録するようにしたから、対話相手からの入力音声をそのまま応答言語対応の録音情報として登録することができ、特別な録音作業を行うことなく、自動録音が可能となり、ユーザにあっては、録音を意識しなくても対話を行うだけで、応答言語対応の録音情報が自然に蓄積され、利用回数が多くなればなる程、録音情報を充実させることが可能となる。
【0049】
なお、上述した実施形態においては、音声応答ファイル12−6内に「応答言語」に対応して登録されている複数の録音情報の中からその何れかを現在の対話相手の「会話回数」に応じて選択して音声応答するようにしたが、例えば、音声応答ファイル12−6内に各「応答言語」に対応して、1種類の基本的な録音情報を用意しておき、この基本録音情報を適宜加工することによって音声応答を行うようにしてもよい。
【0050】
例えば、会話話者ファイル12−7から「会話回数」に応じた話者種対応の「音声特徴パターン」を選択し、この「音声特徴パターン」を当該基本録音情報に合成して出力するようにしてもよい。また、音質、口調が異なる加工パターンを複数用意しておき、この複数の加工パターンの中から「会話回数」応じて選択された加工パターンを基本録音情報に合成して出力するようにしてもよい。この場合、「会話回数」が増えるにしたがって応答音声を丁寧な表現から親しみのある表現に加工するようにしてもよく、その加工方法は任意であり、更に無段階的に加工するようにしてもよい。
このように応答音声の音質、口調を加工するようにすれば、同一内容の応答音声であっても、その音質、口調が異なる為に新鮮味のある応答が可能となる。
【0051】
上述した実施形態においては、現在の対話相手の「会話回数」に応じた応答話者種を選択してその録音情報を音声応答するようにしたが、ユーザが希望する応答話者種を任意に選択可能としてもよい。この場合、上述した図4のステップS9において、登録済みの話者であると判別された場合に、応答話者種の一覧を表示する為の処理ステップと、この一覧表示の中から希望する応答話者種の選択を受け付ける為の処理ステップとを設けるだけで用意に実現することが可能となる。このように任意に指定された録音者を選択するようにすれば、ユーザの希望する人が録音した内容を応答音声として聞くことができる。
【0052】
上述した実施形態においては、現在の話者相手からの入力音声に基づいて音声応答ファイル12−6内に録音情報を自動登録するようにしたが、例えば、音声応答ファイル12−6内の「認識言語」、「応答言語」が表示されている状態において、この「応答言語」に適した内容の音声を当該「応答言語」に対応付けて録音したり、頻繁に使用する応答言語の一覧を表示し、その応答言語対応の録音を一括して行うようにしてもよい。この場合、どのような順番で音声入力されたかに拘らず、入力音声に適した「応答言語」を検索し、それに対応付けて録音するようにしてもよい。
【0053】
また、上述した実施形態においては、現在の対話相手の「会話回数」に応じた応答話者種を規則的に順次選択するようにしたが、どのような順序で選択するかは任意であり、例えば、「会話回数」が所定値になる毎にランダムに応答話者種を選択するようにしてもよく、しかも、選択順を任意に設定可能としてもよい。
また、「会話回数」に限らず、一定時間当たりの会話回数である「頻度」を対話履歴状況としてもよい。また、対話履歴状況の他に、時間的要素を含めて応答話者種を選択するようにしてもよい。
【0054】
また、固定型のロボット話者(1)、(2)、ユーザが任意に録音した任意型の録音話者(A)、(B)、(C)の中から何れかの録音情報を選択する場合に、現在の対話相手に相応しい録音情報を選択して音声応答を行ったり、応答言語の内容に相応しい録音情報を選択して音声応答を行うようにしてもよい。例えば、ロボット話者(1)で応答している際に、突然に他の録音情報(例えば、父親の録音情報)で応答するようにしてもよい。
【0055】
その他、上述した実施形態においては、選択話者種対応の録音情報をそのまま応答出力するようにしたが、予め用意されている複数の加工パターンを適宜選択し、選択した加工パターンと録音情報とを音声合成して音質、口調を変更するようにしてもよい。
また、上述した上述の実施形態においては、対話相手が替わった場合、つまり、話者認識処理によって同一人物ではないことが検出された場合に、前回の対話相手に該当する会話話者ファイル12−7内の「対話回数」をプラス1するようにしたが、一連の会話が長い人と短い人が居る為、1会話(1応答)毎にその「対話回数」をプラス1するようにしてもよい。
また、上述の実施形態においては、人間型ロボットに適用した場合を示したが、例えば、ソフトウェア制御によって表示画面上で動作する仮想動物やペット等との間で対話を行う対話ソフトに適用するようにしてもよい。
【0056】
一方、コンピュータに対して、上述した各手段を実行させるためのプログラムコードをそれぞれ記録した記録媒体(例えば、CD−ROM、フロッピィデスク、RAMカード等)を提供するようにしてもよい。
すなわち、コンピュータが読み取り可能なプログラムコードを有する記録媒体であって、現時点までの対話履歴状況を記憶管理する機能と、対話相手からの入力音声を認識した認識結果に該当する内容の応答音声を出力する場合に、前記対話履歴状況に応じて当該応答音声を変更して出力する機能を実現させるためのプログラムを記録したコンピュータが読み取り可能な記録媒体を提供するようにしてもよい。
【0057】
また、コンピュータが読み取り可能なプログラムコードを有する記録媒体であって、対話相手からの入力音声を認識した認識結果に該当する応答情報として、任意に録音された録音情報をその録音者に対応付けて記憶管理する機能と、前記録音情報を録音した録音者のうち、その何れかを選択する機能と、選択された録音者に対応付けられている録音情報を音声出力する機能とを実現させるためのプログラムを記録したコンピュータが読み取り可能な記録媒体を提供するようにしてもよい。
【0058】
【発明の効果】
第1の発明(請求項1記載の発明)によれば、対話相手からの入力音声を認識した認識結果に該当する内容の応答音声を出力する場合に、現時点までの対話履歴状況(会話回数、会話頻度等)に応じて応答音声を変更して出力するようにしたから、対話相手からの話し掛けが同一内容であっても、異なる音声応答を行うことができ、たとえ、長期間使用したとしても、マンネリ化を防止して常に新鮮味を与えることができると共に、表現豊な音声対話システムを提供することができる。
第2の発明(請求項 記載の発明)によれば、対話相手からの入力音声を認識した認識結果に該当する応答情報として、任意に録音された録音情報をその録音者に対応付けて記憶管理しておき、この録音者の中から選択された録音者対応の録音情報を音声出力するようにしたから、機械的な合成音による音声応答ではなく、人間が実際に録音した内容の音声応答が可能となる他に、ユーザ自身あるいは身近な者等、様々な人が録音した内容を応答音声として聞くことができ、たとえ、長期間使用したとしても、マンネリ化を防止して常に新鮮味を与えることができると共に、表現豊な音声対話システムを提供することができる。
【図面の簡単な説明】
【図1】人間型ロボットの外観を概念的に示した正面図。
【図2】人間型ロボットの全体構成を示したブロック図。
【図3】(A)は、音声応答ファイル12−6の内容を示した図、(B)は、会話話者ファイル12−7の内容を示した図。
【図4】電源投入に伴って実行開始される人間型ロボットの音声応答動作を示したフローチャート。
【図5】図4に続く、人間型ロボットの音声応答動作を示したフローチャート。
【符号の説明】
1 カメラ
2 マイクロフォーン
3 スピーカ
11 CPU
12 記憶部
13 音声入力部
14 音声応答部
12−1 システムプログラム
12−3 言語認識プログラム
12−4 音声応答プログラム
12−6 音声応答ファイル
12−7 会話話者ファイル
Claims (13)
- 対話相手からの入力音声を認識した認識結果に該当する内容の応答音声を出力する音声対話システムであって、
対話相手との対話に応じて更新される現時点までの対話履歴状況を記憶管理する対話履歴記憶手段と、
対話相手からの入力音声を認識した認識結果に該当する内容の応答音声を出力する場合に、前記対話履歴状況に応じて当該応答音声を変更して出力する出力制御手段と、
を具備したことを特徴とする音声対話システム。 - 現在の対話相手を認識する話者認識手段を設け、
前記対話履歴記憶手段は、この話者認識手段によって認識された対話相手別にその対話履歴状況を記憶管理し、
前記出力制御手段は、前記話者認識手段によって認識された現在の対話相手に対応付けられている前記対話履歴状況に応じて応答音声を変更して出力する、
ようにしたことを特徴とする請求項1記載の音声対話システム。 - 対話相手からの入力音声を認識した認識結果に該当する応答情報として、予め録音された複数の録音情報を記憶管理する応答情報記憶手段を設け、
前記出力制御手段は、前記複数の録音情報の中から前記対話履歴状況に応じて選択指定された録音情報を応答出力する、
ようにしたことを特徴とする請求項1記載の音声対話システム。 - 前記応答情報記憶手段は、予め固定的に用意されている固定型の録音情報の他に、任意に録音された任意型の録音情報を記憶管理する、
ようにしたことを特徴とする請求項3記載の音声対話システム。 - 前記出力制御手段は、対話相手からの入力音声を認識した認識結果に該当する応答音声を前記対話履歴状況に応じて加工することによってその音質、口調のうち、少なくともその何れかを変更して出力する、
ようにしたことを特徴とする請求項1記載の音声対話システム。 - 対話相手からの入力音声を認識した認識結果に該当する内容の応答音声を出力する音声対話システムであって、
対話相手からの入力音声を認識した認識結果に該当する応答情報として、任意に録音された録音情報をその録音者に対応付けて記憶管理する応答情報記憶手段と、
前記録音情報を録音した録音者のうち、その何れかを選択する選択手段と、
この選択手段によって選択された録音者に対応付けられている録音情報を音声出力する音声応答手段と、
を具備したことを特徴とする音声対話システム。 - 現在の対話相手を認識する話者認識手段を設け、
前記選択手段は、この話者認識手段によって認識された現在の対話相手以外の者が録音した録音情報を選択する、
ようにしたことを特徴とする請求項6記載の音声対話システム。 - 前記選択手段は、前記録音情報を録音した録音者のうち、任意に指定された録音者を選択する、
ようにしたことを特徴とする請求項6あるいは7記載の音声対話システム。 - 現在の対話相手との一連の対話が終了するまで前記音声応答手段は、前記選択された録音者対応の録音情報が存在していれば、その録音情報に基づいて音声応答を行う、
ようにしたことを特徴とする請求項6記載の音声対話システム。 - 予め対話相手別にその音声特徴を解析する音声解析手段と、
この音声解析手段によって解析された音声特徴情報を対話相手別に記憶管理する特徴情報記憶手段と、
を設け、前記応答情報記憶手段は、認識言語に対応してその応答言語を記憶管理し、前記音声応答手段は、前記選択された録音者対応の録音情報が存在していなければ、前記応答情報記憶手段から認識言語に対応する応答言語を読み出して音声変換すると共に、この変換された音声情報に前記特徴情報記憶手段から読み出した当該録音者対応の音声特徴情報を音声合成して応答出力する、
ようにしたことを特徴とする請求項9記載の音声対話システム。 - 前記認識言語に対応する応答言語の他に、任意に録音された録音情報を応答情報として登録可能な場合に、入力音声を認識した認識言語の中に何れかの応答言語に該当する言語が含まれていれば、この入力音声の中から当該言語に相当する入力音声を抽出すると共に、抽出された入力音声を当該応答言語対応の録音情報として登録する、
ようにしたことを特徴とする請求項6記載の音声対話システム。 - コンピュータに対して、
対話相手との対話に応じて更新される現時点までの対話履歴状況を記憶管理する機能と、
対話相手からの入力音声を認識した認識結果に該当する内容の応答音声を出力する場合に、前記対話履歴状況に応じて当該応答音声を変更して出力する機能と、
を実現させるためのプログラム。 - コンピュータに対して、
対話相手からの入力音声を認識した認識結果に該当する応答情報として、任意に録音された録音情報をその録音者に対応付けて記憶管理する機能と、
前記録音情報を録音した録音者のうち、その何れかを選択する機能と、
選択された録音者に対応付けられている録音情報を音声出力する機能と、
を実現させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002353266A JP2004184788A (ja) | 2002-12-05 | 2002-12-05 | 音声対話システムおよびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002353266A JP2004184788A (ja) | 2002-12-05 | 2002-12-05 | 音声対話システムおよびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004184788A true JP2004184788A (ja) | 2004-07-02 |
Family
ID=32754592
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002353266A Abandoned JP2004184788A (ja) | 2002-12-05 | 2002-12-05 | 音声対話システムおよびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004184788A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010282404A (ja) * | 2009-06-04 | 2010-12-16 | Toyota Motor Corp | 対話処理装置、対話処理方法、及び対話処理プログラム |
JP2011253389A (ja) * | 2010-06-02 | 2011-12-15 | Fujitsu Ltd | 端末および擬似会話用返答情報作成プログラム |
WO2016194740A1 (ja) * | 2015-06-04 | 2016-12-08 | シャープ株式会社 | 音声認識装置、音声認識システム、当該音声認識システムで使用される端末、および、話者識別モデルを生成するための方法 |
CN108942960A (zh) * | 2017-09-29 | 2018-12-07 | 株式会社万代 | 机器人装置 |
JP2019061050A (ja) * | 2017-09-26 | 2019-04-18 | カシオ計算機株式会社 | 対話装置、対話方法及びプログラム |
JP2019128654A (ja) * | 2018-01-22 | 2019-08-01 | ヤフー株式会社 | 情報処理システム、情報処理方法、およびプログラム |
CN115578995A (zh) * | 2022-12-07 | 2023-01-06 | 北京邮电大学 | 面向语音对话场景的语音合成方法、系统及存储介质 |
-
2002
- 2002-12-05 JP JP2002353266A patent/JP2004184788A/ja not_active Abandoned
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010282404A (ja) * | 2009-06-04 | 2010-12-16 | Toyota Motor Corp | 対話処理装置、対話処理方法、及び対話処理プログラム |
JP2011253389A (ja) * | 2010-06-02 | 2011-12-15 | Fujitsu Ltd | 端末および擬似会話用返答情報作成プログラム |
WO2016194740A1 (ja) * | 2015-06-04 | 2016-12-08 | シャープ株式会社 | 音声認識装置、音声認識システム、当該音声認識システムで使用される端末、および、話者識別モデルを生成するための方法 |
JP2017003611A (ja) * | 2015-06-04 | 2017-01-05 | シャープ株式会社 | 音声認識装置、音声認識システム、当該音声認識システムで使用される端末、および、話者識別モデルを生成するための方法 |
JP2019061050A (ja) * | 2017-09-26 | 2019-04-18 | カシオ計算機株式会社 | 対話装置、対話方法及びプログラム |
CN108942960A (zh) * | 2017-09-29 | 2018-12-07 | 株式会社万代 | 机器人装置 |
WO2019064776A1 (ja) * | 2017-09-29 | 2019-04-04 | 株式会社バンダイ | ロボット装置 |
JP2019063266A (ja) * | 2017-09-29 | 2019-04-25 | 株式会社バンダイ | ロボット装置 |
JP2019128654A (ja) * | 2018-01-22 | 2019-08-01 | ヤフー株式会社 | 情報処理システム、情報処理方法、およびプログラム |
CN115578995A (zh) * | 2022-12-07 | 2023-01-06 | 北京邮电大学 | 面向语音对话场景的语音合成方法、系统及存储介质 |
CN115578995B (zh) * | 2022-12-07 | 2023-03-24 | 北京邮电大学 | 面向语音对话场景的语音合成方法、系统及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2016063879A1 (ja) | 音声合成装置および方法 | |
JPH0670981A (ja) | 模擬存在 | |
US11252497B2 (en) | Headphones providing fully natural interfaces | |
Cuddy‐Keane | Modernist soundscapes and the intelligent ear: An approach to narrative through auditory perception | |
CN1372660A (zh) | 与消费电子系统进行交互的方法 | |
JPWO2018030149A1 (ja) | 情報処理装置及び情報処理方法 | |
CN111601215A (zh) | 一种基于场景的关键信息提醒方法、系统及装置 | |
JP2004184788A (ja) | 音声対話システムおよびプログラム | |
JP2005313308A (ja) | ロボット、ロボット制御方法、ロボット制御プログラム、ならびに思考装置 | |
JP2003108362A (ja) | コミュニケーション支援装置およびコミュニケーション支援システム | |
JP5254487B1 (ja) | 携帯情報端末、シャドー音声管理方法及びコンピュータプログラム | |
CN212588503U (zh) | 一种嵌入式音频播放装置 | |
US11386920B2 (en) | Interactive group session computing systems and related methods | |
JP4772315B2 (ja) | 情報変換装置及び情報変換方法、並びに通信装置及び通信方法 | |
Hanich | Mise En Esprit: One-Character Films and the Evocation of Sensory Imagination | |
WO2021200307A1 (ja) | 情報処理装置、対話型ロボット、制御方法 | |
JP2005252595A (ja) | 会話支援システム | |
JP2020014716A (ja) | 音楽療法のための歌唱補助装置 | |
CN115396776A (zh) | 耳机的控制方法、装置、耳机及计算机可读存储介质 | |
KR102179220B1 (ko) | 음성인식을 이용한 전자성경 시스템 | |
JP2007259427A (ja) | 携帯端末装置 | |
JP7142403B1 (ja) | 会話処理プログラム、会話処理システムおよび会話型ロボット | |
US12032807B1 (en) | Assistive communication method and apparatus | |
CN115514843B (zh) | 一种报警方法及装置、设备、存储介质 | |
Husel | Immersive art–immersive research? |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050520 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20060208 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060406 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071001 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071016 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20071211 |