JP4015424B2 - Voice robot system - Google Patents
Voice robot system Download PDFInfo
- Publication number
- JP4015424B2 JP4015424B2 JP2002002499A JP2002002499A JP4015424B2 JP 4015424 B2 JP4015424 B2 JP 4015424B2 JP 2002002499 A JP2002002499 A JP 2002002499A JP 2002002499 A JP2002002499 A JP 2002002499A JP 4015424 B2 JP4015424 B2 JP 4015424B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- emotion
- voice
- user
- keyword
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Toys (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、音声ロボットシステムに関する。
【0002】
【従来の技術】
従来から、ユーザから発せられた音声に反応する音声ロボットがある。この音声ロボットは、パチンコ遊技場等の人が多く出入りするような場所に設置すれば、一種の広告人形としての機能を果たすことができる。また、特に一人暮らしの者が、自宅に音声ロボットを設置し、この音声ロボットに向かって発話すれば、音声ロボットはその発話に反応して可動するので、かかる者は、所定の動作をする音声ロボットを見て楽しむことができ、少しでも一人暮らしの寂しさを紛らわすことができる。
【0003】
【発明が解決しようとする課題】
しかしながら、上記音声ロボットは、ユーザから発せられた音声に反応してある一の動作(例えば、首だけの動作)しか行わず、ユーザは音声ロボットに対して何か物足りなさを感じていた。一方、現在では、ユーザから発せられた音声に反応して複数の一連動作を行う音声ロボットもあるが、この音声ロボットは、単にユーザから音声が発生されている間に、予め定められた複数の動作パターン(例えば、首→腕→腰の順番に動作するなど)を連続して実行するだけのものに過ぎす、ユーザの心を満足させるものではなかった。
【0004】
そこで、本発明は以上の点に鑑みてなされたものであり、利用者が発話した内容に基づいて、利用者の感情度を推論し、推論した感情度に応じてロボットを可動させるための複雑な動作パターンを決定し、この決定した動作パターンを用いてロボットを可動させることのできる音声ロボットシステムについて提供する。
【0005】
【課題を解決するための手段】
本願に係る発明は、上記課題を解決すべくなされたものであり、利用者から発せられた音声に反応してロボットの可動部分が可動する音声ロボットシステムであって、利用者の音声を取得する取得手段と、取得手段で取得された音声に基づいて、該音声に対応する文字列を特定する音声認識手段と、所定のキーワード群を列記した検索テーブルを記憶する記憶手段と、音声認識手段で特定した文字列に基づいて利用者が抱く感情の度合いを推論し、利用者に質問する内容である質問内容を作成するとともに、記憶手段に前記質問内容を蓄積させ、かつ、解読した言葉の意味内容が曖昧な表現であると判断した場合は、ファジー機能を用いる推論エンジンと、推論エンジンで作成された質問内容を音声として出力する音声出力手段と、推論エンジンで推論された感情度に応じて前記ロボットの可動部分を可動させる可動手段とを有し、推論エンジンは、文字認識手段で認識された文字列と検索テーブルとを照合し、文字列の中から所定のキーワードを抽出するキーワード抽出手段と、キーワード抽出手段で抽出されたキーワードを含む文字列に基づいて、該キーワードに対して感情度を認識する感情認識手段と、キーワード抽出手段で抽出された所定のキーワード、及び、感情認識手段で認識した感情度に基づいて、所定のキーワード及び感情度に関係する質問内容を決定するとともに、記憶手段に質問内容を蓄積させるAI推論部と、感情認識手段で認識した感情度に応じてロボットの可動部分を可動させるための可動パターンを決定する動作決定部とを有することを特徴とするものである。
【0006】
このような本願に係る発明によれば、ロボットは、利用者から発せられた文字列に含まれるキーワードに基づいて、該キーワードに対して前記利用者が抱く感情の度合いを示す感情度を認識し、認識した前記感情度に応じて可動部分を可動させるので、単一の動作パターンではなく、感情度に応じた複雑な動作パターンにより可動部分を可動させることができる。
【0007】
また、ロボットが複雑なパターンをもって動作するので、利用者は、ロボットの次なる動作を予測することが困難となり、ロボットが複雑に動作する様子を飽きることなく見て楽しむことができる。
【0008】
尚、前記感情度は、前記文字列に含まれる強調語に基づいて定めるものであってもよい。これにより、ロボットは、文字列に含まれる強調語に基づいて利用者の感情度を定めることができるので、所定のキーワードに対して利用者が抱く感情度を的確に把握することができ、利用者が抱いている感情度にマッチした動作(例えば、利用者が興奮状態にあればロボットが激しく動作するなど)をすることができる。
【0009】
更に、本願に係る発明は、各キーワードを会話のフレーズ毎に対応付ける会話テーブルを予め複数蓄積し、抽出された前記キーワードと前記会話テーブルとを照合し、該キーワードと一致する前記会話のフレーズを検出し、検出された前記会話のフレーズに基づいて該会話のフレーズに対応する音声を出力することを特徴とするものである。
【0010】
このような本願に係る発明によれば、ロボットが、利用者から発話された文字列に含まれるキーワードに基づいてそのキーワードに関係する会話内容を音声をもって出力するので、利用者は、あたかもロボットと会話しているような感覚を味わうことができる。
【0011】
【発明の実施の形態】
[音声ロボットシステムの基本構成]
本発明に係る音声ロボットシステムについて図面を参照しながら説明する。図1は、本実施形態に係る音声ロボットシステムの概略構成図である。同図に示すように、音声ロボットシステムは、判断部100と、稼動部200とを有するロボット1を備える。尚、ロボット1は、宣伝広告、テレビゲームなどに用いられるキャラクターの外形を有するものであってもよい。
【0012】
判断部100は、利用者が発話した内容から利用者の感情度を推論し、推論した感情度に基づいて可動部200にある各部(本実施形態では、腕可動部202、膝可動部203、首可動部204、腰可動部205;以下これらの各部を単に”各部”と略す)を可動させるための命令を生成するものであり、本実施形態では、入力部101と、音声認識部102と、音声認識辞書記憶部103と、推論エンジン104と、感情情報データベース105と、出力部106とを有している。
【0013】
入力部101は、利用者の音声を取得する取得手段である。具体的に入力部101は、利用者の音声を取得し、取得した音声を音声信号として音声認識部102に出力する。音声認識部102は、入力部101で取得した音声に基づいて、その音声に対応する文字列を特定する音声認識手段である。
【0014】
具体的には、音声信号が入力された音声認識部102は、入力された音声信号を解析し、解析した音声信号に対応する文字列を、音声認識辞書記憶部103に格納されている辞書を用いて特定し、特定した文字列を文字列信号として推論エンジン104に出力する。
【0015】
音声認識辞書記憶部103は、標準的な音声信号に対応する辞書を格納しているものである。出力部106は、推論エンジン104からの命令に基づいて、音声などを出力するものである。
【0016】
尚、音声認識部102は、利用者が操作部(例えば、キーボード)を通じて入力した文字列を特定する文字認識手段でもある。更に、音声認識辞書記憶部103は、利用者が操作部を通じて入力した文字列に対応する辞書を格納するものでもある。
【0017】
これにより、利用者は、入力部101に対して発話するだけでなく、操作部から文字を入力することによっても、推論エンジン104は、利用者から入力された文字列に基づいて利用者の感情度を推論し、推論した感情度に基づいて可動部200の各部を可動させるための命令を生成することができる。
【0018】
感情情報データベース105は、所定のキーワード群を列記した検索テーブルを記憶する記憶手段である。ここで、キーワード群には、例えば、スポーツに関係するキーワード(サッカー、バスケットボール、卓球、テニス、バドミントンなど)、読書に関するキーワード(推理小説、ノンフィクションなど)、時事に関するキーワード(政治、経済など)が挙げられる。
【0019】
前記推論エンジン104は、出力部106を通じて利用者に対し所定の質問を行い、更に音声認識部102で特定した文字列に基づいて利用者が抱く感情度を推論し、推論した感情度に基づいて可動部200を可動させるための命令を生成するものである。
【0020】
この推論エンジン104は、本実施形態では、文脈を解読するための文脈辞書、言語の類似関係を調べるための類似関係辞書、言葉文節解析に関する辞書、言葉の形態素解析(各品詞、活用形、分類、連接)に関わる辞書を有しており、これらの辞書を基に、利用者が発話した言葉の意味内容を解読し、解読した意味内容から利用者が抱く感情度を推論することができる。
【0021】
即ち、言葉の意味内容を解読した推論エンジン104は、解読した意味内容に基づいて、解読された意味の結束性、話題の変化、利用者の感情を形成する言語、今までの会話の統計などにより、利用者が抱く感情を推論することができ、更に利用者に質問するのに適した文を作成することもできる。
【0022】
また、推論エンジン104は、人工知能、ニューラルネットワークによって構成されているものでもあり、利用者との間で交わされた言語(単語、文など)をニューラルネットに学習させ、その学習された言語に基づいて利用者に質問をする内容を作成することができる。
【0023】
更に、推論エンジン104は、解読した言葉の意味内容が曖昧な表現であると判断した場合は、ファジー機能を用いて、曖昧な表現に対応した質問内容をも作成することもできる。尚、推論エンジン104に有する上記機能の実行は、後述するAI推論部104e、動作決定部104fが主に担っている。
【0024】
具体的には、音声認識部102から文字列信号が入力された推論エンジン104は、入力された文字列信号に対応する文字列を構成する要素に基づいて、利用者の感情、文字列に含まれるキーワードを分別する。これらの”利用者の感情”、”文字列に含まれるキーワード”は、本実施形態では、感情情報を意味するものとする。
【0025】
ここで、「利用者の感情(感情の種類)」には、図3に示すように、例えば、いいね/だめ、良い/悪い等が挙げられる。また、「利用者の感情」には、利用者が抱く感情の程度(感情度)も含まれているものであり、図5に示すように、例えば、すごく関心がある/関心がある/関心がない/全く関心がない等が含まれている。
【0026】
この「感情の程度」は、本実施形態では、利用者がプラス的な感情を強く持っている場合をP1(P;Positive/プラス要素)〔例えば、すごく関心がある〕、利用者がプラス的な感情を単に持っている場合をP2〔例えば、関心がある]、利用者がマイナス的な感情を単に持っている場合をN1(N;Negative/マイナス要素)〔例えば、関心がない〕、利用者がマイナス的な感情を強く持っている場合をN2〔例えば、全く関心がない〕と表現することにする。尚、「感情の程度」は、上記例示に限定されるものではない。
【0027】
文字列を構成する要素から、利用者の感情に関する情報を分別した推論エンジン104は、利用者の感情情報に基づいて、利用者が抱いている感情度を推論する。
【0028】
例えば、推論エンジン104が出力部106を通じて利用者に対し、”サッカーで遊ぶのは楽しい?”と質問した場合に、利用者が”サッカーで遊ぶのはすごくつまらないね”と返事をした場合は、推論エンジン104は、”サッカー”(キーワード)、”すごくつまらない”(感情度N2)から、利用者はサッカーについてマイナス的な感情度をもっているな、と判断する。即ち、推論エンジン104は、キーワードに対して利用者が抱いている感情度を判断する。
【0029】
推論エンジン104は、上記判断した感情度に基づいて、可動部200を可動させるための各種命令を生成する。感情度の判断、各種命令の生成は、後述するAI推論部104e、動作決定部104fで詳述する。これにより、推論エンジン104は、入力部101を通じて特定された文字列に基づいて、文字列に含まれる利用者の感情度を推論し、推論した感情度に応じて可動部200を可動させるための各種命令を生成することができる。
【0030】
上記推論エンジン104は、本実施形態では、図2に示すように、文節認識部104aと、類別部104bと、強調語検出部104cと、感情判定部104dと、AI推論部104eと、動作決定部104fとを有している。
【0031】
文節認識部104aは、文を解析し、解析した文に基づいて、文から把握される言葉の意味空間を認識するものである。ここで、文の解析とは、文の形態要素、例えば品詞、活用形、分類、連接関係を解析することを意味する。言葉の意味空間は、文脈、文の類似関係、文の学習パターンから把握するものである。
【0032】
更に、文節認識部104aは、上記認識により、文と文との間を認識するものである。具体的には、文から把握される言葉の意味空間を認識した音声認識部102から文字列信号が入力された文節認識部104aは、入力された文字列信号に基づいて、文字列信号に対応する文と文との間を認識する。
【0033】
この認識は、本実施形態では、例えば文と文との間にはある程度の時間間隔があるので、その時間間隔に基づいて文と文との間を区別するものである。例えば、文字信号に対応する文が、”今日は暑いな・・・アイスを食べよう”というものである場合は、文節認識部104aは、上記文の中で時間間隔がある部分”・・・”を文の区切りと認識し、”今日は暑いな”と”アイスを食べよう”との文に分けることを行う。
【0034】
文と文との間を認識した文節認識部104aは、文を1文毎に区分けして、1文毎に区分けした文を文体信号として類別部104b、強調語検出部104c、感情判定部104dに出力する。
【0035】
類別部104bは、文字列から利用者の感情の種類を判別するものである。具体的には、文節認識部104aから文体信号が入力された類別部104bは、図3に示す「感情類別テーブル」に基づいて文字列に含まれる感情の種類を類別する。
【0036】
この感情の種類は、上述の如く、図3に示すように、利用者がプラス的な思考を感じている場合は「プラス要素P」、利用者がマイナス的な思考を感じている場合は「マイナス要素N」としたものから構成される。類別部104bは、上記の「感情類別テーブル」に基づいて、1文の中からどのような感情の種類が含まれているのかを類別し、この類別した結果を類別信号として感情判定部104dに出力する。
【0037】
強調語検出部104cは、文字列から感情の強弱を特徴付ける要素を抽出するものである。具体的には、文節認識部104aから文体信号が入力された強調語検出部104cは、入力された文体信号に対応する文に基づいて、その文を構成する要素の中に、強調語があるか否かを検出する。
【0038】
この強調語の検出は、本実施形態では、例えば図4に示す「強調語テーブル」に従って行うことができる。この「強調語テーブル」には、同図に示すように、例えば、すげー、ちょー、うひょー、わおー、ひえー、めっちゃ、すごく、とても、かなり等の副詞、感嘆詞が含まれる。強調語検出部104cは、上記の「強調語テーブル」に基づいて、1文の中にある強調語を検出し、検出した強調語を強調語検出信号として感情判定部104dに出力する。
【0039】
感情判定部104dは、音声認識部102で認識された文字列と感情情報データベース105に蓄積されている検索テーブルとを照合し、文字列の中から所定のキーワードを抽出するキーワード抽出手段である。また、感情判定部104dは、抽出したキーワードを含む前記文字列に基づいて、そのキーワードに対して利用者が抱いている感情の度合いを示す感情度を認識する感情認識手段でもある。
【0040】
具体的には、文節認識部104aから文体信号が入力された感情判定部104dは、入力された文体信号に対応する文字列と検索テーブルとを照合し、文字列の中から検索テーブルに含まれるキーワードと一致するキーワードを抽出する。
【0041】
また、類別部104b、強調語検出部104cから類別信号、又は強調語検出信号が入力された感情判定部104dは、入力された類別信号、又は強調語検出信号に基づいて、抽出されたキーワードに対して利用者が抱く感情の程度(感情度)を判定(判断)する。
【0042】
この感情の程度の判定は、本実施形態では、例えば図5に示す「感情度テーブル」に従って行うことができる。この「感情度テーブル」には、例えば、同図に示すように、判定要素(利用者の感情)と、「感情の度合い(感情度)」とを有している。
【0043】
判定要素は、利用者の感情を左右するフレーズを意味するものであり、例えば、図3に示すように、いいね/だめ、良い/悪い等が挙げられる。この判定要素は、上述した「利用者の感情」と同義の意味である。
【0044】
また「感情の程度」は、上述の如く、図4に示すように、例えば、判定要素が「関心/無関心」である場合は、感情の程度(感情度)は、すごく関心がある(P1)、関心がある(P2)、関心がない(N1)、全く関心がない(N2)と類別することができる。尚、この感情度は、4つに類別されるものに限定されるものではない。
【0045】
感情判定部104dは、類別信号に対応する「感情の類別」、強調語検出信号に対応する強調語、所定のキーワードに基づいて、上記「感情度テーブル」を参照し、文から把握される利用者の感情度がどの程度なのかを判定し、判定した結果(P1、P2、N1、N2)を感情判定信号としてAI推論部104eに出力する。
【0046】
例えば、文体信号に対応する文字列が”サッカーで遊ぶのはすごくつまらないね”である場合は、類別部104bは、”つまらない”という文字列を検出し、強調語検出部104cは、”すごく”という文字列を検出し、感情判定部104dは、”サッカー”という文字列を検出する。
【0047】
感情判定部104dは、類別部104bで検出された”つまらない”と、強調語検出部104cで検出した”すごく”とに基づいて、図5のテーブルを参照し、”サッカー”(キーワード)に対して利用者が抱く感情の度合い(感情度)をN2であると判断する。感情度を判断した感情判定部104dは、判断した感情度を感情度信号としてAI推論部104eに出力する。
【0048】
AI推論部104eは、出力部106を通じて、利用者に対し種々の質問を行うものである。具体的には、感情判定部104dから感情度信号が入力されたAI推論部104eは、入力された感情度信号に対応するキーワード及びそのキーワードに対して利用者が抱く感情度に基づいて、キーワード及びそのキーワードについての感情度に関係する内容を質問する。
【0049】
例えば、感情判定部104dから感情度信号が入力されたAI推論部104eは、入力された感情度信号に対応するキーワード及びそのキーワードに対する利用者の感情度が、上記例よりサッカー(キーワード)、感情度N2(すごくつまらない)である場合は、サッカーには興味がないな、と推論(判断)し、サッカー以外についての質問を行う。
【0050】
上記感情判定部104dから感情度信号が入力されたAI推論部104eは、入力された感情度信号に関連する質問を行うと共に、入力された感情度信号を動作決定部104fに出力する。
【0051】
尚、AI推論部104eが行う質問内容は、各キーワードを会話のフレーズ毎に対応付ける会話テーブルを感情情報データベース105に予め複数蓄積させておいても良い。また、AI推論部104eは、抽出したキーワードと会話テーブルとを照合し、該キーワードと対応付けられている会話のフレーズを検出するフレーズ検出手段を備えてもよく、更に、出力部106は、AI推論部104eで検出された会話フレーズに基づいて会話フレーズに対応する音声を出力するものであってもよい。
【0052】
これにより、AI推論部104eは、感情判定部104dから感情度信号が入力された場合は、入力された感情度信号に含まれるキーワードに基づいて、そのキーワードと会話テーブルとを照合し、キーワードと対応付けられている会話のフレーズを検出し、出力部106は、AI推論部104eで検出した会話のフレーズに基づいて所定の音声(質問内容)を出力することにより、AI推論部104eは、出力部106を通じて利用者に対してある事柄についての質問をすることができる。
【0053】
また、AI推論部104eは、利用者から発話された内容に基づいて、所定の質問を出力部106を通じて利用者にすることができるので、利用者は、あたかも人間と話しているような感覚を味わうことができる。
【0054】
尚、AI推論部104eは、利用者の感情度に応じて利用者に対して行う質問内容を決定することができ、例えば、利用者の感情度が高い場合は、利用者を落ち着かせるような内容、利用者の感情度が低い場合は、利用者を応援するような内容、又は利用者を元気付けさせるような内容等に質問内容を決定することができる。これらの質問内容は、感情情報データベース105に蓄積させておくことができる。
【0055】
これにより、ロボット1は、例えば利用者の感情度が低い(気持ちが沈んでいるような状態など)場合は、利用者を勇気付けるような内容を発することができるので、利用者は、ロボット1から発せられた内容により勇気が沸き、日常生活を少しでも楽しく過ごすことができる。
【0056】
動作決定部104fは、感情判定部104dで判定された感情度に応じてロボット1の可動部分を可動させるための可動パターンを決定するものである。具体的には、AI推論部104eから感情度信号が入力された動作決定部104fは、入力された感情度信号に含まれる感情度に応じて、可動部200にある各部を可動させるための各種命令を生成する。
【0057】
例えば、動作決定部104fは、入力された感情度信号に含まれる感情度が”P1”である場合は、図6に示すテーブルにより、腕可動部202、膝可動部203、首可動部204、腰可動部205を可動させるための可動命令信号を可動部200に出力する。
【0058】
また、動作決定部104fは、入力された感情度信号に含まれる感情度が”P2”である場合は、同図に示すテーブルにより、例えば、腕可動部202、膝可動部203、腰可動部205を可動させるための可動命令信号を可動部200に出力する。また、動作決定部104fは、入力された感情度信号に含まれる感情度が”N1”である場合は、同図に示すテーブルにより、例えば、膝可動部203、首可動部204を可動させるための可動命令信号を可動部200に出力する。
【0059】
更に、動作決定部104fは、入力された感情度信号に含まれる感情度が”N2”である場合は、同図に示すテーブルにより、例えば、首可動部204を可動させるための可動命令信号を可動部200に出力する。尚、動作決定部104fが決定する可動パターンは、上記4通りに限定されるものではなく、幾通りもの組み合わせで実現することができる。
【0060】
これにより、動作決定部104fは、感情度信号に含まれる感情度に応じて可動部200にある各部を可動させるための命令を生成するので、例えば、感情度信号に含まれる感情度が高い(興奮状態など)場合は、利用者の感情度が高いことを表現するため、可動部200にある各部の全部が可動できるような命令を生成することができる。
【0061】
また、動作決定部200は、利用者が発話した音声に反応して一定の動作をさせるための命令を生成するだけではなく、上記より利用者が抱いている感情度に応じて可動部分を動作させるための種々の命令を生成することができるので、ロボット1は、利用者の感情に応じて種々の動作を行うことができ、利用者は、自己の感情が変化する毎にロボット1の動作が変化する様子を見て楽しむことができる。
【0062】
前記可動部200は、判断部100からの命令により、ロボット1の各部位を可動させるものであり、本実施形態では、動作制御部201と、腕可動部202と、膝可動部203と、首可動部204と、腰可動部205とを有している。
【0063】
腕可動部202は、ロボット1の腕部分を可動させるものである。膝可動部203は、ロボット1の膝部分を可動させるものである。首可動部204は、ロボット1の首部分を可動させるものである。腰可動部205は、ロボット1の腰部分を可動させるものである。動作制御部201は、動作決定部104fからの可動命令信号に基づいて、各部を可動させるものである。
【0064】
尚、本発明は、ロボット1にある判断部100を、ロボット1とは別の容体に配置し、容体に配置されている判断部100とロボット1にある可動部200との中に通信部を設けてもよい。これにより、ロボット1には判断部100を設けなくてもよいので、この判断部100を有しない分、ロボット1の重量が軽くなり、ロボット1は安定した重心を保ちつつ、各部位をスムーズに可動させることができる。
【0065】
尚、本発明は、ロボット1の底部(足など)を固定させてもよい。これにより、ロボット1の各部位が激しく可動しても、ロボット1を横転させないようにすることができる。
【0066】
[音声ロボットシステムを用いた音声ロボット動作方法]
上記構成を有する音声ロボットシステムによる音声ロボット動作方法は、以下の手順により実施することができる。図7は、本実施形態に係る音声ロボット動作方法の手順を示すフロー図である。先ず、入力部101が利用者から発話された音声を取得するステップを行う(S101)。具体的に入力部101は、利用者から発話された音声を取得し、取得した音声を音声信号として音声認識部102に出力する。
【0067】
次いで、音声認識部102が入力部101で取得された音声に基づいて、その音声情報に対応する文字列を特定するステップを行う(S102)。具体的には、音声信号が入力された音声認識部102は、入力された音声信号を解析し、解析した音声信号に対応する文字列を、音声認識辞書記憶部103に格納されている辞書を用いて特定し、特定した文字列を文字列信号として推論エンジン104に出力する。
【0068】
次いで、推論エンジン104が、音声認識部102で特定された文字列に含まれるキーワードに基づいて、そのキーワードに対して利用者が抱く感情度を推論し、推論した感情度に応じてロボットの可動部200を可動させるステップを行う(S103)。ここで行う処理は、図8に基づいて説明する。
【0069】
推論エンジン104では、先ず、図8に示すように、文節認識部104aが、文を解析し、解析した文に基づいて、文から把握される言葉の意味空間を認識するステップを行う(S200)。次いで、文節認識部104aが上記認識により文と文との間を認識するステップを行う(S201)。具体的には、文から把握される言葉の意味空間を把握した文節認識部104aは、入力された文字信号に基づいて、文字信号に対応する文と文との間を認識する。
【0070】
この認識は、本実施形態では、例えば文と文との間にはある程度の時間間隔があるので、その時間間隔に基づいて文と文との間を区別するものである。例えば、文字信号に対応する文が、”今日は暑いな・・・アイスを食べよう”というものである場合は、文節認識部104aは、上記文の中で時間間隔がある部分”・・・”を文の区切りと認識し、”今日は暑いな”と”アイスを食べよう”との文に分けることを行う。
【0071】
そして、文と文との間を認識した文節認識部104aは、文を1文毎に区分けして、1文毎に区分けした文を文体信号として類別部104b、強調語検出部104c、感情判定部104dに出力する。
【0072】
次いで、類別部104bが、文字列から利用者の感情の種類を判別するステップを行う(S202)。具体的には、文節認識部104aから文体信号が入力された類別部104bは、図3に示す「感情類別テーブル」に基づいて利用者が抱いている感情の種類を類別する。
【0073】
類別部104bは、上記の「感情類別テーブル」に基づいて、1文の中からどのような感情が含まれているのかを類別し、この類別した結果を類別信号として感情判定部104dに出力する。
【0074】
次いで、強調語検出部104cが、文字列から感情の強弱を特徴付ける要素を抽出するステップを行う(S203)。具体的には、文節認識部104aから文体信号が入力された強調語検出部104cは、入力された文体信号に対応する文に基づいて、その文を構成する要素の中に、強調語があるか否かを検出する。
【0075】
この強調語の検出は、本実施形態では、例えば図4に示す「強調語テーブル」に従って行うことができる。この「強調語テーブル」には、同図に示すように、例えば、すげー、ちょー、うひょー、わおー、ひえー、めっちゃ、すごく、とても、かなり等の副詞、感嘆詞が含まれる。強調語検出部104cは、上記の「強調語テーブル」に基づいて、1文の中にある強調語を検出し、検出した強調語を強調語検出信号として感情判定部104dに出力する。
【0076】
次いで、感情判定部104dが、文字列に含まれるキーワードに対して利用者が抱く感情の程度を判定するステップを行う(S204)。具体的には、文節認識部104aから文体信号が入力された感情判定部104dは、入力された文体信号に対応する文字列と検索テーブルとを照合し、文字列の中から検索テーブルに含まれるキーワードと一致するキーワードを抽出する。
【0077】
その後、類別部104b、強調語検出部104cから類別信号、又は強調語検出信号が入力された感情判定部104dは、入力された類別信号、又は強調語検出信号に基づいて、抽出されたキーワードに対して利用者が抱く感情の程度(感情度)を判定する。
【0078】
感情判定部104dは、類別信号に対応する「感情の類別」、強調語検出信号に対応する強調語、所定のキーワードに基づいて、上記「感情度テーブル」を参照し、文から把握される利用者の感情度がどの程度なのかを判定し、判定した結果(P1、P2、N1、N2)を感情判定信号としてAI推論部104eに出力する。
【0079】
例えば、文体信号に対応する文字列が”サッカーで遊ぶのはすごくつまらないね”である場合は、類別部104bは、”つまらない”という文字列を検出し、強調語検出部104cは、”すごく”という文字列を検出し、感情判定部104dは、”サッカー”という文字列を検出する。
【0080】
感情判断部104eは、類別部104bで検出された”つまらない”と、強調語検出部104cで検出した”すごく”とに基づいて、図5のテーブルを参照し、”サッカー”(キーワード)に対する感情の度合い(感情度)をN2であると判断する。感情度を判断した感情判定部104dは、上記判断した感情度を感情度信号としてAI推論部104eに出力する。
【0081】
次いで、AI推論部104eが、様々な質問を利用者に対してするステップを行う(S205)。具体的には、感情判定部104dから感情度信号が入力されたAI推論部104eは、入力された感情度信号に対応するキーワード、そのキーワードに対する利用者の感情度に基づいて、キーワードとそのキーワードに関連付けられた感情度とに関係する内容を質問するとともに、この質問を感情情報データベース105に蓄積する。
【0082】
例えば、感情判定部104dから感情度信号が入力されたAI推論部104eは、入力された感情度信号に対応するキーワードとそのキーワードに対する利用者の感情度が、上記例よりサッカー(キーワード)、感情度N2(すごくつまらない)である場合は、サッカーには興味がないな、と推論(判断)し、サッカー以外についての質問を行う。
【0083】
上記感情判定部104dから感情度信号が入力されたAI推論部104eは、入力された感情度信号に関連付けられた質問を行うと共に、入力された感情度信号を動作決定部104fに出力する。
【0084】
次いで、動作決定部104fが感情判定部104dで判定された感情度に応じて可動部200にある各部を可動させるステップを行う(S206)。具体的には、AI推論部104eから感情度信号が入力された動作決定部104fは、入力された感情度信号に含まれる感情度に応じて、可動部200にある各部を可動させるための可動命令信号を生成し、生成した可動命令信号を可動部200に出力する。
【0085】
例えば、動作決定部104fは、入力された感情度信号に含まれる感情度が”P1”である場合は、図6に示すテーブルにより、腕可動部202、膝可動部203、首可動部204、腰可動部205を可動させるための可動命令信号を可動部200に出力する。
【0086】
その後、動作決定部104fから可動命令信号が入力された動作制御部201は、入力された動作命令信号に基づいて、各部(腕可動部202、膝可動部203、首可動部204、腰可動部205)のいずれかを可動させる。
【0087】
[音声ロボットシステム及び音声ロボット動作方法による作用及び効果]
このような本実施形態に係る発明によれば、動作決定部104fが、感情度信号に含まれる感情度に応じて可動部200にある各部を可動させるための命令を生成するので、例えば、感情度信号に含まれる感情度が高い(興奮状態など)場合は、利用者の感情度が高いことを表現するため、可動部200にある各部の全部が可動できるような命令を生成することができる。
【0088】
また、動作決定部200は、利用者が発話した音声に反応して一定の動作をさせるための命令を生成するだけではなく、上記より利用者が抱いている感情度に応じて可動部分を動作をさせるための種々の命令を生成することができるので、ロボット1は、動作決定部200で生成された命令により利用者の感情に応じた種々の動作を行うことができ、利用者は、自己の感情が変化する毎にロボット1の動作が変化する様子を見て楽しむことができる。
【0089】
更に、感情判定部104dは、文字列に含まれる強調語に基づいて利用者の感情度を定めることができるので、所定のキーワードに対して利用者が抱く感情度を的確に把握することができることとなり、結果的に、動作決定部104fは、利用者が抱いている感情度にマッチした動作(例えば、利用者が興奮状態にあればロボットが激しく動作するなど)を可動部200にさせることができる。
【0090】
最後に、ロボット1が動作決定部200からの種々の命令により複雑なパターンをもって動作するので、利用者は、ロボット1の次なる動作を予測することが困難となり、ロボット1が複雑に動作する様子を飽きることなく見て楽しむことができる。
【0091】
【発明の効果】
以上説明したように、本発明によれば、利用者が発話した内容に基づいて、利用者の感情度を推論し、推論した感情度に応じてロボットを可動させるための複雑な動作パターンを決定し、この決定した動作パターンを用いてロボットを可動させることができる。
【図面の簡単な説明】
【図1】本実施形態に係る音声ロボットシステムの概略構成を示すブロック図である。
【図2】本実施形態における推論エンジンの内部構造を示すブロック図である。
【図3】本実施形態における類別部で格納している感情類別テーブルの内容を示した図である。
【図4】本実施形態における強調語検出部で格納している強調語テーブルの内容を示した図である。
【図5】本実施形態における感情判定部で格納している感情度テーブルの内容を示した図である。
【図6】本実施形態における動作決定部でロボットの動作を決定するための動作テーブルの内容を示した図である。
【図7】本実施形態に係る音声ロボット動作方法の手順を示したフロー図である。
【図8】本実施形態における推論エンジンの内部で処理されている手順を示したフロー図である。
【符号の説明】
1…ロボット、100…判断部、101…入力部、102…音声認識部、103…音声認識辞書記憶部、104…推論エンジン、104a…文節認識部、104b…類別部、104c…強調語検出部、104d…感情判定部、104e…AI推論部、104f…動作決定部、105…感情情報データベース、106…出力部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a voice robot system.
[0002]
[Prior art]
Conventionally, there are voice robots that react to voices uttered by users. This voice robot can function as a kind of advertising doll if it is installed in a place where many people come and go, such as a pachinko game hall. Also, if a person living alone installs a voice robot at home and speaks toward the voice robot, the voice robot moves in response to the utterance, so that the person can perform a predetermined operation. You can enjoy watching and enjoy the loneliness of living alone.
[0003]
[Problems to be solved by the invention]
However, the voice robot performs only one action (for example, the action of only the neck) in response to the voice emitted from the user, and the user feels something unsatisfactory with respect to the voice robot. On the other hand, at present, there is a voice robot that performs a plurality of series of operations in response to a voice uttered by a user. However, the voice robot simply has a plurality of predetermined voices while a voice is generated from the user. The movement pattern (for example, movement in the order of neck → arm → waist) is merely performed continuously, and does not satisfy the user's heart.
[0004]
Therefore, the present invention has been made in view of the above points, and infers the emotion level of the user based on the content spoken by the user, and is a complex for moving the robot in accordance with the inferred emotion level. Provided is a voice robot system capable of determining a simple motion pattern and moving the robot using the determined motion pattern.
[0005]
[Means for Solving the Problems]
The invention according to the present application has been made to solve the above-described problem, and is a voice robot system in which a movable part of a robot moves in response to voice uttered by a user, and acquires the voice of the user. An acquisition unit; a voice recognition unit that identifies a character string corresponding to the voice based on the voice acquired by the acquisition unit; a storage unit that stores a search table that lists predetermined keyword groups; and a voice recognition unit Inferring the degree of emotion a user has based on the specified character string, creating a question content that is a question to the user, and storing the question content in a storage means And if it is judged that the meaning of the decoded word is ambiguous, use the fuzzy function. An inference engine, comprising: an inference engine; an audio output means for outputting the content of a question created by the inference engine as a voice; and a movable means for moving a movable part of the robot in accordance with an emotion level inferred by the inference engine. Is based on the character string including the keyword extracted by the keyword extraction means, the keyword extraction means that collates the character string recognized by the character recognition means and the search table, and extracts a predetermined keyword from the character string. The emotion recognition means for recognizing the emotion level for the keyword, the predetermined keyword extracted by the keyword extraction means, and the emotion level recognized by the emotion recognition means are related to the predetermined keyword and the emotion level. The AI inference unit that determines the question contents and accumulates the question contents in the storage means, and the robot according to the emotion level recognized by the emotion recognition means It is characterized in that it has an operation determination unit that determines a moving pattern for moving the movable portion of the bets.
[0006]
According to the invention according to the present application, the robot recognizes the emotion level indicating the degree of emotion the user has with respect to the keyword based on the keyword included in the character string issued from the user. Since the movable part is moved according to the recognized emotion level, the movable part can be moved not by a single motion pattern but by a complex motion pattern according to the emotion level.
[0007]
Further, since the robot operates with a complicated pattern, it becomes difficult for the user to predict the next operation of the robot, and the user can enjoy watching the robot without getting tired.
[0008]
The emotion level may be determined based on an emphasized word included in the character string. As a result, the robot can determine the emotion level of the user based on the emphasis word included in the character string, and thus can accurately grasp the emotion level the user has for the predetermined keyword. It is possible to perform an action that matches the emotion level held by the person (for example, if the user is in an excited state, the robot moves violently).
[0009]
Furthermore, the invention according to the present application accumulates a plurality of conversation tables that associate each keyword with each conversation phrase, collates the extracted keyword with the conversation table, and detects the conversation phrase that matches the keyword. And outputting a voice corresponding to the phrase of the conversation based on the detected phrase of the conversation.
[0010]
According to the invention according to the present application, since the robot outputs the conversation contents related to the keyword based on the keyword included in the character string uttered by the user, the user is as if with the robot. You can enjoy the feeling of having a conversation.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
[Basic configuration of voice robot system]
A voice robot system according to the present invention will be described with reference to the drawings. FIG. 1 is a schematic configuration diagram of a voice robot system according to the present embodiment. As shown in the figure, the voice robot system includes a robot 1 having a
[0012]
The
[0013]
The
[0014]
Specifically, the
[0015]
The voice recognition dictionary storage unit 103 stores a dictionary corresponding to standard voice signals. The
[0016]
The
[0017]
As a result, the
[0018]
The
[0019]
The
[0020]
In this embodiment, the
[0021]
In other words, the
[0022]
The
[0023]
Further, when the
[0024]
Specifically, the
[0025]
Here, “user's emotion (type of emotion)” includes, for example, “Like / No”, “Good” / “Bad”, etc., as shown in FIG. The “user's emotion” also includes the degree of emotion (feeling level) that the user has. As shown in FIG. 5, for example, the user is very interested / interested / interested. There is no / not interested at all.
[0026]
In the present embodiment, this “degree of emotion” is P1 (P: Positive / plus element) (for example, very interested) when the user has a strong positive emotion, and the user is positive. P2 [for example, interested] when the user simply has a negative emotion, N1 (N; negative / negative element) [for example, not interested] when the user simply has a negative emotion A person who has a strong negative feeling will be expressed as N2 [for example, no interest at all]. The “degree of emotion” is not limited to the above example.
[0027]
The
[0028]
For example, when the
[0029]
The
[0030]
In the present embodiment, the
[0031]
The
[0032]
Furthermore, the
[0033]
In this embodiment, since there is a certain time interval between sentences in the present embodiment, for example, the sentence is distinguished from the sentence based on the time interval. For example, when the sentence corresponding to the character signal is “It is hot today ... Let's eat ice cream”, the
[0034]
The
[0035]
The
[0036]
As described above, as shown in FIG. 3, this emotion type is “plus element P” when the user feels positive thinking, and “when the user feels negative thought”. It consists of what is designated as “minus element N”. The
[0037]
The emphasized
[0038]
In this embodiment, this emphasis word can be detected according to, for example, an “emphasis word table” shown in FIG. In this "emphasis word table", as shown in the figure, for example, there are adverb and exclamation of suge, choo, uhyo, wow, hie, super, very, quite etc. included. The emphasized
[0039]
The
[0040]
Specifically, the
[0041]
In addition, the
[0042]
In this embodiment, the determination of the degree of emotion can be performed according to, for example, an “emotion level table” shown in FIG. This “emotion level table” has, for example, a determination element (user's emotion) and an “emotion level (emotion level)” as shown in FIG.
[0043]
The determination element means a phrase that influences the user's emotion. For example, as shown in FIG. This determination element has the same meaning as “user's emotion” described above.
[0044]
As shown in FIG. 4, the “degree of emotion” is very interested in the degree of emotion (degree of emotion) when the determination element is “interested / not interested”, for example (P1). , Interested (P2), not interested (N1), and not interested at all (N2). In addition, this emotion level is not limited to what is classified into four.
[0045]
The
[0046]
For example, if the character string corresponding to the style signal is “It is very boring to play soccer”, the
[0047]
The
[0048]
The
[0049]
For example, the
[0050]
The
[0051]
Note that the content of the question performed by the
[0052]
As a result, when an emotion level signal is input from the
[0053]
Further, the
[0054]
Note that the
[0055]
As a result, the robot 1 can emit content that encourages the user when, for example, the emotion level of the user is low (such as a state in which the user feels depressed). Courage is courageous by the content emanating from and you can spend a little fun in your daily life.
[0056]
The
[0057]
For example, when the emotion level included in the input emotion level signal is “P1”, the
[0058]
Further, when the emotion level included in the input emotion level signal is “P2”, the
[0059]
Furthermore, when the emotion level included in the input emotion level signal is “N2”, the
[0060]
Thereby, since the
[0061]
In addition, the
[0062]
The
[0063]
The arm
[0064]
In the present invention, the
[0065]
In the present invention, the bottom portion (such as a foot) of the robot 1 may be fixed. Thereby, even if each part of the robot 1 moves violently, the robot 1 can be prevented from rolling over.
[0066]
[Voice Robot Operation Method Using Voice Robot System]
The voice robot operation method by the voice robot system having the above-described configuration can be implemented by the following procedure. FIG. 7 is a flowchart showing the procedure of the voice robot operation method according to the present embodiment. First, the
[0067]
Next, the
[0068]
Next, the
[0069]
In the
[0070]
In this embodiment, since there is a certain time interval between sentences in the present embodiment, for example, the sentence is distinguished from the sentence based on the time interval. For example, when the sentence corresponding to the character signal is “It is hot today ... Let's eat ice cream”, the
[0071]
Then, the
[0072]
Next, the
[0073]
The
[0074]
Next, the emphasized
[0075]
In this embodiment, this emphasis word can be detected according to, for example, an “emphasis word table” shown in FIG. In this "emphasis word table", as shown in the figure, for example, there are adverb and exclamation of suge, choo, uhyo, wow, hie, super, very, quite etc. included. The emphasized
[0076]
Next, the
[0077]
Thereafter, the
[0078]
The
[0079]
For example, if the character string corresponding to the style signal is “It is very boring to play soccer”, the
[0080]
The
[0081]
Next, the
[0082]
For example, the
[0083]
The
[0084]
Next, the
[0085]
For example, when the emotion level included in the input emotion level signal is “P1”, the
[0086]
After that, the
[0087]
[Actions and effects of voice robot system and voice robot operation method]
According to the invention according to the present embodiment as described above, the
[0088]
In addition, the
[0089]
Furthermore, since the
[0090]
Finally, since the robot 1 operates in a complicated pattern according to various commands from the
[0091]
【The invention's effect】
As described above, according to the present invention, the emotion level of the user is inferred based on the content uttered by the user, and a complex motion pattern for moving the robot is determined according to the inferred emotion level. The robot can be moved using the determined motion pattern.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of a voice robot system according to an embodiment.
FIG. 2 is a block diagram showing an internal structure of the inference engine in the present embodiment.
FIG. 3 is a diagram showing the contents of an emotion classification table stored in a classification section in the present embodiment.
FIG. 4 is a diagram showing the contents of an emphasized word table stored in an emphasized word detection unit in the present embodiment.
FIG. 5 is a diagram showing the contents of an emotion level table stored in an emotion determination unit in the present embodiment.
FIG. 6 is a diagram showing the contents of an operation table for determining the operation of the robot by the operation determining unit in the present embodiment.
FIG. 7 is a flowchart showing a procedure of the voice robot operation method according to the present embodiment.
FIG. 8 is a flowchart showing a procedure processed in the inference engine in the present embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Robot, 100 ... Judgment part, 101 ... Input part, 102 ... Speech recognition part, 103 ... Speech recognition dictionary memory | storage part, 104 ... Inference engine, 104a ... Phrase recognition part, 104b ... Classification part, 104c ... Emphasis
Claims (5)
前記利用者の音声を取得する取得手段と、
前記取得手段で取得された音声に基づいて、該音声に対応する文字列を特定する音声認識手段と、
所定のキーワード群を列記した検索テーブルを記憶する記憶手段と、
前記音声認識手段で特定した文字列に基づいて前記利用者が抱く感情の度合いを推論し、前記利用者に質問する内容である質問内容を作成するとともに、前記記憶手段に前記質問内容を蓄積させ、かつ、解読した言葉の意味内容が曖昧な表現であると判断した場合は、ファジー機能を用いる推論エンジンと、
前記推論エンジンで作成された前記質問内容を音声として出力する音声出力手段と、
前記推論エンジンで推論された前記感情度に応じて前記ロボットの可動部分を可動させる可動手段とを有し、
前記推論エンジンは、
前記音声認識手段で認識された前記文字列と前記検索テーブルとを照合し、前記文字列の中から所定のキーワードを抽出するキーワード抽出手段と、
前記キーワード抽出手段で抽出された前記キーワードを含む前記文字列に基づいて、該キーワードに対して前記感情度を認識する感情認識手段と、
前記キーワード抽出手段で抽出された前記所定のキーワード、及び、前記感情認識手段で認識した感情度に基づいて、前記所定のキーワード及び前記感情度に関係する前記質問内容を決定するとともに、前記記憶手段に前記質問内容を蓄積させるAI推論部と、
前記感情認識手段で認識した感情度に応じて前記ロボットの可動部分を可動させるための可動パターンを決定する動作決定部とを有することを特徴とする音声ロボットシステム。A voice robot system in which a movable part of a robot moves in response to voice emitted from a user,
Acquisition means for acquiring the user's voice;
Voice recognition means for identifying a character string corresponding to the voice based on the voice acquired by the acquisition means;
Storage means for storing a search table listing predetermined keyword groups;
Inferring the degree of emotion that the user has based on the character string specified by the voice recognition means, creating a question content that is a question to the user, and storing the question content in the storage means And if the semantic content of the decoded word is an ambiguous expression, an inference engine that uses a fuzzy function,
Voice output means for outputting the question content created by the inference engine as voice;
Movable means for moving a movable part of the robot in accordance with the emotion level inferred by the inference engine,
The inference engine is
Keyword extraction means for comparing the character string recognized by the voice recognition means with the search table and extracting a predetermined keyword from the character string;
Emotion recognition means for recognizing the emotion level for the keyword based on the character string including the keyword extracted by the keyword extraction means;
Based on the predetermined keyword extracted by the keyword extraction unit and the emotion level recognized by the emotion recognition unit, the question content related to the predetermined keyword and the emotion level is determined, and the storage unit AI inference unit for storing the question content in
A voice robot system comprising: an operation determining unit that determines a movable pattern for moving a movable part of the robot according to the emotion level recognized by the emotion recognition unit.
前記可動手段は、前記感情認識手段で認識された前記感情度と、前記キーワード抽出手段で抽出された前記キーワードとを含む認識情報に基づいて、前記可動部分を可動させることを特徴とする音声ロボットシステム。The voice robot system according to claim 1,
The voice robot characterized in that the movable means moves the movable part based on recognition information including the emotion level recognized by the emotion recognition means and the keyword extracted by the keyword extraction means. system.
前記記憶手段は、各キーワードを会話のフレーズ毎に対応付ける会話テーブルを予め複数蓄積し、
前記推論エンジンは、前記キーワード抽出手段で抽出された前記キーワードと前記会話テーブルとを照合し、該キーワードと対応付けられている前記会話のフレーズを検出するフレーズ検出手段を有し、
前記音声出力手段は、前記フレーズ検出手段で検出された前記会話のフレーズに基づいて該会話のフレーズに対応する音声を出力することを特徴とする音声ロボットシステム。The voice robot system according to claim 1 or 2,
The storage means stores in advance a plurality of conversation tables that associate each keyword with each conversation phrase,
The inference engine includes a phrase detection unit that compares the keyword extracted by the keyword extraction unit with the conversation table and detects a phrase of the conversation associated with the keyword,
The voice output system, wherein the voice output unit outputs a voice corresponding to the phrase of the conversation based on the phrase of the conversation detected by the phrase detection unit.
前記感情度は、前記文字列に含まれる副詞又は感嘆詞からなる強調語に基づいて定めることを特徴とする音声ロボットシステム。A voice robot system according to any one of claims 1 to 3,
The voice robot system, wherein the emotion level is determined based on an emphasis word composed of an adverb or exclamation included in the character string.
前記推論エンジンは、文脈を解読するための文脈辞書、言語の類似関係を調べるための類似関係辞書、言葉文節解析に関する辞書、言葉の形態素解析に関わる辞書を有しており、これらの辞書を基に、前記利用者が発話した言葉の意味内容を解読し、解読した意味内容から利用者が抱く感情度を推論することを特徴とする音声ロボットシステム。A voice robot system according to any one of claims 1 to 4,
The inference engine includes a context dictionary for deciphering a context, a similarity dictionary for examining language similarity, a dictionary for word phrase analysis, and a dictionary for word morphological analysis. In addition, the speech robot system is characterized by deciphering the semantic content of the words spoken by the user and inferring the emotion level held by the user from the decoded semantic content.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002002499A JP4015424B2 (en) | 2002-01-09 | 2002-01-09 | Voice robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002002499A JP4015424B2 (en) | 2002-01-09 | 2002-01-09 | Voice robot system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003202892A JP2003202892A (en) | 2003-07-18 |
JP4015424B2 true JP4015424B2 (en) | 2007-11-28 |
Family
ID=27642338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002002499A Expired - Fee Related JP4015424B2 (en) | 2002-01-09 | 2002-01-09 | Voice robot system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4015424B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101048619B1 (en) * | 2008-12-19 | 2011-07-13 | 재단법인대구경북과학기술원 | Fuzzy Controller and Control Method for Obstacle Avoidance with Table-based Fuzzy Single Positive and Double Negative Rules |
CN102671381A (en) * | 2011-03-08 | 2012-09-19 | 德信互动科技(北京)有限公司 | Acoustic control-based game implementation device and method |
CN102698434A (en) * | 2011-03-28 | 2012-10-03 | 德信互动科技(北京)有限公司 | Device and method for implementing game based on conversation |
EP3373301A1 (en) | 2017-03-08 | 2018-09-12 | Panasonic Intellectual Property Management Co., Ltd. | Apparatus, robot, method and recording medium having program recorded thereon |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100877476B1 (en) | 2007-06-26 | 2009-01-07 | 주식회사 케이티 | Intelligent robot service apparatus and method on PSTN |
JP5172049B2 (en) | 2011-06-14 | 2013-03-27 | パナソニック株式会社 | Robot apparatus, robot control method, and robot control program |
JP6199927B2 (en) * | 2015-06-17 | 2017-09-20 | Cocoro Sb株式会社 | Control system, system and program |
KR102319013B1 (en) * | 2020-01-31 | 2021-10-29 | 한국과학기술원 | Method and system for personality recognition from dialogues |
-
2002
- 2002-01-09 JP JP2002002499A patent/JP4015424B2/en not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101048619B1 (en) * | 2008-12-19 | 2011-07-13 | 재단법인대구경북과학기술원 | Fuzzy Controller and Control Method for Obstacle Avoidance with Table-based Fuzzy Single Positive and Double Negative Rules |
CN102671381A (en) * | 2011-03-08 | 2012-09-19 | 德信互动科技(北京)有限公司 | Acoustic control-based game implementation device and method |
CN102698434A (en) * | 2011-03-28 | 2012-10-03 | 德信互动科技(北京)有限公司 | Device and method for implementing game based on conversation |
EP3373301A1 (en) | 2017-03-08 | 2018-09-12 | Panasonic Intellectual Property Management Co., Ltd. | Apparatus, robot, method and recording medium having program recorded thereon |
Also Published As
Publication number | Publication date |
---|---|
JP2003202892A (en) | 2003-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Finch | Key concepts in language and linguistics | |
Wilks et al. | An artificial intelligence approach to machine translation | |
KR100746526B1 (en) | Conversation processing apparatus and method, and recording medium therefor | |
CN110827821B (en) | Voice interaction device and method and computer readable storage medium | |
WO2002023524A1 (en) | Emotion recognizing method, sensibility creating method, device, and software | |
CN108874972A (en) | A kind of more wheel emotion dialogue methods based on deep learning | |
Augello et al. | Humorist bot: Bringing computational humour in a chat-bot system | |
KR20020067590A (en) | Environment-responsive user interface/entertainment device that simulates personal interaction | |
KR20020067592A (en) | User interface/entertainment device that simulates personal interaction and responds to user's mental state and/or personality | |
JP2004527808A (en) | Self-updating user interface / entertainment device that simulates personal interaction | |
Marchi et al. | Typicality and emotion in the voice of children with autism spectrum condition: Evidence across three languages | |
JP2004513444A (en) | User interface / entertainment device that simulates personal interactions and augments external databases with relevant data | |
JP3857922B2 (en) | Interactive game system, interactive game method, and program | |
JP4015424B2 (en) | Voice robot system | |
JP3676981B2 (en) | KANSEI GENERATION METHOD, KANSEI GENERATION DEVICE, AND SOFTWARE | |
Clifton Jr et al. | Language comprehension and production | |
JP4451038B2 (en) | Advice system and advice method | |
JP2003210835A (en) | Character-selecting system, character-selecting device, character-selecting method, program, and recording medium | |
Sing et al. | Towards a more natural and intelligent interface with embodied conversation agent | |
US20240095987A1 (en) | Content generation | |
JP4451037B2 (en) | Information search system and information search method | |
JP3848154B2 (en) | Compatibility diagnosis system and compatibility diagnosis method | |
Pilato et al. | EHeBby: An Evocative Humorist Chat‐Bot | |
Ahmed et al. | Generation and classification of motivational-interviewing-style reflections for smoking behaviour change using few-shot learning with transformers. TechRxiv | |
Gaskell et al. | Language processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041014 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060627 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060822 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070327 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070731 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070820 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070911 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070913 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100921 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4015424 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100921 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100921 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100921 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110921 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110921 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120921 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120921 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130921 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |