[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4015424B2 - Voice robot system - Google Patents

Voice robot system Download PDF

Info

Publication number
JP4015424B2
JP4015424B2 JP2002002499A JP2002002499A JP4015424B2 JP 4015424 B2 JP4015424 B2 JP 4015424B2 JP 2002002499 A JP2002002499 A JP 2002002499A JP 2002002499 A JP2002002499 A JP 2002002499A JP 4015424 B2 JP4015424 B2 JP 4015424B2
Authority
JP
Japan
Prior art keywords
unit
emotion
voice
user
keyword
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002002499A
Other languages
Japanese (ja)
Other versions
JP2003202892A (en
Inventor
和生 岡田
淳 富士本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universal Entertainment Corp
Original Assignee
Aruze Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aruze Corp filed Critical Aruze Corp
Priority to JP2002002499A priority Critical patent/JP4015424B2/en
Publication of JP2003202892A publication Critical patent/JP2003202892A/en
Application granted granted Critical
Publication of JP4015424B2 publication Critical patent/JP4015424B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、音声ロボットシステムに関する。
【0002】
【従来の技術】
従来から、ユーザから発せられた音声に反応する音声ロボットがある。この音声ロボットは、パチンコ遊技場等の人が多く出入りするような場所に設置すれば、一種の広告人形としての機能を果たすことができる。また、特に一人暮らしの者が、自宅に音声ロボットを設置し、この音声ロボットに向かって発話すれば、音声ロボットはその発話に反応して可動するので、かかる者は、所定の動作をする音声ロボットを見て楽しむことができ、少しでも一人暮らしの寂しさを紛らわすことができる。
【0003】
【発明が解決しようとする課題】
しかしながら、上記音声ロボットは、ユーザから発せられた音声に反応してある一の動作(例えば、首だけの動作)しか行わず、ユーザは音声ロボットに対して何か物足りなさを感じていた。一方、現在では、ユーザから発せられた音声に反応して複数の一連動作を行う音声ロボットもあるが、この音声ロボットは、単にユーザから音声が発生されている間に、予め定められた複数の動作パターン(例えば、首→腕→腰の順番に動作するなど)を連続して実行するだけのものに過ぎす、ユーザの心を満足させるものではなかった。
【0004】
そこで、本発明は以上の点に鑑みてなされたものであり、利用者が発話した内容に基づいて、利用者の感情度を推論し、推論した感情度に応じてロボットを可動させるための複雑な動作パターンを決定し、この決定した動作パターンを用いてロボットを可動させることのできる音声ロボットシステムについて提供する。
【0005】
【課題を解決するための手段】
本願に係る発明は、上記課題を解決すべくなされたものであり、利用者から発せられた音声に反応してロボットの可動部分が可動する音声ロボットシステムであって、利用者の音声を取得する取得手段と、取得手段で取得された音声に基づいて、該音声に対応する文字列を特定する音声認識手段と、所定のキーワード群を列記した検索テーブルを記憶する記憶手段と、音声認識手段で特定した文字列に基づいて利用者が抱く感情の度合いを推論し、利用者に質問する内容である質問内容を作成するとともに、記憶手段に前記質問内容を蓄積させ、かつ、解読した言葉の意味内容が曖昧な表現であると判断した場合は、ファジー機能を用いる推論エンジンと、推論エンジンで作成された質問内容を音声として出力する音声出力手段と、推論エンジンで推論された感情度に応じて前記ロボットの可動部分を可動させる可動手段とを有し、推論エンジンは、文字認識手段で認識された文字列と検索テーブルとを照合し、文字列の中から所定のキーワードを抽出するキーワード抽出手段と、キーワード抽出手段で抽出されたキーワードを含む文字列に基づいて、該キーワードに対して感情度を認識する感情認識手段と、キーワード抽出手段で抽出された所定のキーワード、及び、感情認識手段で認識した感情度に基づいて、所定のキーワード及び感情度に関係する質問内容を決定するとともに、記憶手段に質問内容を蓄積させるAI推論部と、感情認識手段で認識した感情度に応じてロボットの可動部分を可動させるための可動パターンを決定する動作決定部とを有することを特徴とするものである。
【0006】
このような本願に係る発明によれば、ロボットは、利用者から発せられた文字列に含まれるキーワードに基づいて、該キーワードに対して前記利用者が抱く感情の度合いを示す感情度を認識し、認識した前記感情度に応じて可動部分を可動させるので、単一の動作パターンではなく、感情度に応じた複雑な動作パターンにより可動部分を可動させることができる。
【0007】
また、ロボットが複雑なパターンをもって動作するので、利用者は、ロボットの次なる動作を予測することが困難となり、ロボットが複雑に動作する様子を飽きることなく見て楽しむことができる。
【0008】
尚、前記感情度は、前記文字列に含まれる強調語に基づいて定めるものであってもよい。これにより、ロボットは、文字列に含まれる強調語に基づいて利用者の感情度を定めることができるので、所定のキーワードに対して利用者が抱く感情度を的確に把握することができ、利用者が抱いている感情度にマッチした動作(例えば、利用者が興奮状態にあればロボットが激しく動作するなど)をすることができる。
【0009】
更に、本願に係る発明は、各キーワードを会話のフレーズ毎に対応付ける会話テーブルを予め複数蓄積し、抽出された前記キーワードと前記会話テーブルとを照合し、該キーワードと一致する前記会話のフレーズを検出し、検出された前記会話のフレーズに基づいて該会話のフレーズに対応する音声を出力することを特徴とするものである。
【0010】
このような本願に係る発明によれば、ロボットが、利用者から発話された文字列に含まれるキーワードに基づいてそのキーワードに関係する会話内容を音声をもって出力するので、利用者は、あたかもロボットと会話しているような感覚を味わうことができる。
【0011】
【発明の実施の形態】
[音声ロボットシステムの基本構成]
本発明に係る音声ロボットシステムについて図面を参照しながら説明する。図1は、本実施形態に係る音声ロボットシステムの概略構成図である。同図に示すように、音声ロボットシステムは、判断部100と、稼動部200とを有するロボット1を備える。尚、ロボット1は、宣伝広告、テレビゲームなどに用いられるキャラクターの外形を有するものであってもよい。
【0012】
判断部100は、利用者が発話した内容から利用者の感情度を推論し、推論した感情度に基づいて可動部200にある各部(本実施形態では、腕可動部202、膝可動部203、首可動部204、腰可動部205;以下これらの各部を単に”各部”と略す)を可動させるための命令を生成するものであり、本実施形態では、入力部101と、音声認識部102と、音声認識辞書記憶部103と、推論エンジン104と、感情情報データベース105と、出力部106とを有している。
【0013】
入力部101は、利用者の音声を取得する取得手段である。具体的に入力部101は、利用者の音声を取得し、取得した音声を音声信号として音声認識部102に出力する。音声認識部102は、入力部101で取得した音声に基づいて、その音声に対応する文字列を特定する音声認識手段である。
【0014】
具体的には、音声信号が入力された音声認識部102は、入力された音声信号を解析し、解析した音声信号に対応する文字列を、音声認識辞書記憶部103に格納されている辞書を用いて特定し、特定した文字列を文字列信号として推論エンジン104に出力する。
【0015】
音声認識辞書記憶部103は、標準的な音声信号に対応する辞書を格納しているものである。出力部106は、推論エンジン104からの命令に基づいて、音声などを出力するものである。
【0016】
尚、音声認識部102は、利用者が操作部(例えば、キーボード)を通じて入力した文字列を特定する文字認識手段でもある。更に、音声認識辞書記憶部103は、利用者が操作部を通じて入力した文字列に対応する辞書を格納するものでもある。
【0017】
これにより、利用者は、入力部101に対して発話するだけでなく、操作部から文字を入力することによっても、推論エンジン104は、利用者から入力された文字列に基づいて利用者の感情度を推論し、推論した感情度に基づいて可動部200の各部を可動させるための命令を生成することができる。
【0018】
感情情報データベース105は、所定のキーワード群を列記した検索テーブルを記憶する記憶手段である。ここで、キーワード群には、例えば、スポーツに関係するキーワード(サッカー、バスケットボール、卓球、テニス、バドミントンなど)、読書に関するキーワード(推理小説、ノンフィクションなど)、時事に関するキーワード(政治、経済など)が挙げられる。
【0019】
前記推論エンジン104は、出力部106を通じて利用者に対し所定の質問を行い、更に音声認識部102で特定した文字列に基づいて利用者が抱く感情度を推論し、推論した感情度に基づいて可動部200を可動させるための命令を生成するものである。
【0020】
この推論エンジン104は、本実施形態では、文脈を解読するための文脈辞書、言語の類似関係を調べるための類似関係辞書、言葉文節解析に関する辞書、言葉の形態素解析(各品詞、活用形、分類、連接)に関わる辞書を有しており、これらの辞書を基に、利用者が発話した言葉の意味内容を解読し、解読した意味内容から利用者が抱く感情度を推論することができる。
【0021】
即ち、言葉の意味内容を解読した推論エンジン104は、解読した意味内容に基づいて、解読された意味の結束性、話題の変化、利用者の感情を形成する言語、今までの会話の統計などにより、利用者が抱く感情を推論することができ、更に利用者に質問するのに適した文を作成することもできる。
【0022】
また、推論エンジン104は、人工知能、ニューラルネットワークによって構成されているものでもあり、利用者との間で交わされた言語(単語、文など)をニューラルネットに学習させ、その学習された言語に基づいて利用者に質問をする内容を作成することができる。
【0023】
更に、推論エンジン104は、解読した言葉の意味内容が曖昧な表現であると判断した場合は、ファジー機能を用いて、曖昧な表現に対応した質問内容をも作成することもできる。尚、推論エンジン104に有する上記機能の実行は、後述するAI推論部104e、動作決定部104fが主に担っている。
【0024】
具体的には、音声認識部102から文字列信号が入力された推論エンジン104は、入力された文字列信号に対応する文字列を構成する要素に基づいて、利用者の感情、文字列に含まれるキーワードを分別する。これらの”利用者の感情”、”文字列に含まれるキーワード”は、本実施形態では、感情情報を意味するものとする。
【0025】
ここで、「利用者の感情(感情の種類)」には、図3に示すように、例えば、いいね/だめ、良い/悪い等が挙げられる。また、「利用者の感情」には、利用者が抱く感情の程度(感情度)も含まれているものであり、図5に示すように、例えば、すごく関心がある/関心がある/関心がない/全く関心がない等が含まれている。
【0026】
この「感情の程度」は、本実施形態では、利用者がプラス的な感情を強く持っている場合をP1(P;Positive/プラス要素)〔例えば、すごく関心がある〕、利用者がプラス的な感情を単に持っている場合をP2〔例えば、関心がある]、利用者がマイナス的な感情を単に持っている場合をN1(N;Negative/マイナス要素)〔例えば、関心がない〕、利用者がマイナス的な感情を強く持っている場合をN2〔例えば、全く関心がない〕と表現することにする。尚、「感情の程度」は、上記例示に限定されるものではない。
【0027】
文字列を構成する要素から、利用者の感情に関する情報を分別した推論エンジン104は、利用者の感情情報に基づいて、利用者が抱いている感情度を推論する。
【0028】
例えば、推論エンジン104が出力部106を通じて利用者に対し、”サッカーで遊ぶのは楽しい?”と質問した場合に、利用者が”サッカーで遊ぶのはすごくつまらないね”と返事をした場合は、推論エンジン104は、”サッカー”(キーワード)、”すごくつまらない”(感情度N2)から、利用者はサッカーについてマイナス的な感情度をもっているな、と判断する。即ち、推論エンジン104は、キーワードに対して利用者が抱いている感情度を判断する。
【0029】
推論エンジン104は、上記判断した感情度に基づいて、可動部200を可動させるための各種命令を生成する。感情度の判断、各種命令の生成は、後述するAI推論部104e、動作決定部104fで詳述する。これにより、推論エンジン104は、入力部101を通じて特定された文字列に基づいて、文字列に含まれる利用者の感情度を推論し、推論した感情度に応じて可動部200を可動させるための各種命令を生成することができる。
【0030】
上記推論エンジン104は、本実施形態では、図2に示すように、文節認識部104aと、類別部104bと、強調語検出部104cと、感情判定部104dと、AI推論部104eと、動作決定部104fとを有している。
【0031】
文節認識部104aは、文を解析し、解析した文に基づいて、文から把握される言葉の意味空間を認識するものである。ここで、文の解析とは、文の形態要素、例えば品詞、活用形、分類、連接関係を解析することを意味する。言葉の意味空間は、文脈、文の類似関係、文の学習パターンから把握するものである。
【0032】
更に、文節認識部104aは、上記認識により、文と文との間を認識するものである。具体的には、文から把握される言葉の意味空間を認識した音声認識部102から文字列信号が入力された文節認識部104aは、入力された文字列信号に基づいて、文字列信号に対応する文と文との間を認識する。
【0033】
この認識は、本実施形態では、例えば文と文との間にはある程度の時間間隔があるので、その時間間隔に基づいて文と文との間を区別するものである。例えば、文字信号に対応する文が、”今日は暑いな・・・アイスを食べよう”というものである場合は、文節認識部104aは、上記文の中で時間間隔がある部分”・・・”を文の区切りと認識し、”今日は暑いな”と”アイスを食べよう”との文に分けることを行う。
【0034】
文と文との間を認識した文節認識部104aは、文を1文毎に区分けして、1文毎に区分けした文を文体信号として類別部104b、強調語検出部104c、感情判定部104dに出力する。
【0035】
類別部104bは、文字列から利用者の感情の種類を判別するものである。具体的には、文節認識部104aから文体信号が入力された類別部104bは、図3に示す「感情類別テーブル」に基づいて文字列に含まれる感情の種類を類別する。
【0036】
この感情の種類は、上述の如く、図3に示すように、利用者がプラス的な思考を感じている場合は「プラス要素P」、利用者がマイナス的な思考を感じている場合は「マイナス要素N」としたものから構成される。類別部104bは、上記の「感情類別テーブル」に基づいて、1文の中からどのような感情の種類が含まれているのかを類別し、この類別した結果を類別信号として感情判定部104dに出力する。
【0037】
強調語検出部104cは、文字列から感情の強弱を特徴付ける要素を抽出するものである。具体的には、文節認識部104aから文体信号が入力された強調語検出部104cは、入力された文体信号に対応する文に基づいて、その文を構成する要素の中に、強調語があるか否かを検出する。
【0038】
この強調語の検出は、本実施形態では、例えば図4に示す「強調語テーブル」に従って行うことができる。この「強調語テーブル」には、同図に示すように、例えば、すげー、ちょー、うひょー、わおー、ひえー、めっちゃ、すごく、とても、かなり等の副詞、感嘆詞が含まれる。強調語検出部104cは、上記の「強調語テーブル」に基づいて、1文の中にある強調語を検出し、検出した強調語を強調語検出信号として感情判定部104dに出力する。
【0039】
感情判定部104dは、音声認識部102で認識された文字列と感情情報データベース105に蓄積されている検索テーブルとを照合し、文字列の中から所定のキーワードを抽出するキーワード抽出手段である。また、感情判定部104dは、抽出したキーワードを含む前記文字列に基づいて、そのキーワードに対して利用者が抱いている感情の度合いを示す感情度を認識する感情認識手段でもある。
【0040】
具体的には、文節認識部104aから文体信号が入力された感情判定部104dは、入力された文体信号に対応する文字列と検索テーブルとを照合し、文字列の中から検索テーブルに含まれるキーワードと一致するキーワードを抽出する。
【0041】
また、類別部104b、強調語検出部104cから類別信号、又は強調語検出信号が入力された感情判定部104dは、入力された類別信号、又は強調語検出信号に基づいて、抽出されたキーワードに対して利用者が抱く感情の程度(感情度)を判定(判断)する。
【0042】
この感情の程度の判定は、本実施形態では、例えば図5に示す「感情度テーブル」に従って行うことができる。この「感情度テーブル」には、例えば、同図に示すように、判定要素(利用者の感情)と、「感情の度合い(感情度)」とを有している。
【0043】
判定要素は、利用者の感情を左右するフレーズを意味するものであり、例えば、図3に示すように、いいね/だめ、良い/悪い等が挙げられる。この判定要素は、上述した「利用者の感情」と同義の意味である。
【0044】
また「感情の程度」は、上述の如く、図4に示すように、例えば、判定要素が「関心/無関心」である場合は、感情の程度(感情度)は、すごく関心がある(P1)、関心がある(P2)、関心がない(N1)、全く関心がない(N2)と類別することができる。尚、この感情度は、4つに類別されるものに限定されるものではない。
【0045】
感情判定部104dは、類別信号に対応する「感情の類別」、強調語検出信号に対応する強調語、所定のキーワードに基づいて、上記「感情度テーブル」を参照し、文から把握される利用者の感情度がどの程度なのかを判定し、判定した結果(P1、P2、N1、N2)を感情判定信号としてAI推論部104eに出力する。
【0046】
例えば、文体信号に対応する文字列が”サッカーで遊ぶのはすごくつまらないね”である場合は、類別部104bは、”つまらない”という文字列を検出し、強調語検出部104cは、”すごく”という文字列を検出し、感情判定部104dは、”サッカー”という文字列を検出する。
【0047】
感情判定部104dは、類別部104bで検出された”つまらない”と、強調語検出部104cで検出した”すごく”とに基づいて、図5のテーブルを参照し、”サッカー”(キーワード)に対して利用者が抱く感情の度合い(感情度)をN2であると判断する。感情度を判断した感情判定部104dは、判断した感情度を感情度信号としてAI推論部104eに出力する。
【0048】
AI推論部104eは、出力部106を通じて、利用者に対し種々の質問を行うものである。具体的には、感情判定部104dから感情度信号が入力されたAI推論部104eは、入力された感情度信号に対応するキーワード及びそのキーワードに対して利用者が抱く感情度に基づいて、キーワード及びそのキーワードについての感情度に関係する内容を質問する。
【0049】
例えば、感情判定部104dから感情度信号が入力されたAI推論部104eは、入力された感情度信号に対応するキーワード及びそのキーワードに対する利用者の感情度が、上記例よりサッカー(キーワード)、感情度N2(すごくつまらない)である場合は、サッカーには興味がないな、と推論(判断)し、サッカー以外についての質問を行う。
【0050】
上記感情判定部104dから感情度信号が入力されたAI推論部104eは、入力された感情度信号に関連する質問を行うと共に、入力された感情度信号を動作決定部104fに出力する。
【0051】
尚、AI推論部104eが行う質問内容は、各キーワードを会話のフレーズ毎に対応付ける会話テーブルを感情情報データベース105に予め複数蓄積させておいても良い。また、AI推論部104eは、抽出したキーワードと会話テーブルとを照合し、該キーワードと対応付けられている会話のフレーズを検出するフレーズ検出手段を備えてもよく、更に、出力部106は、AI推論部104eで検出された会話フレーズに基づいて会話フレーズに対応する音声を出力するものであってもよい。
【0052】
これにより、AI推論部104eは、感情判定部104dから感情度信号が入力された場合は、入力された感情度信号に含まれるキーワードに基づいて、そのキーワードと会話テーブルとを照合し、キーワードと対応付けられている会話のフレーズを検出し、出力部106は、AI推論部104eで検出した会話のフレーズに基づいて所定の音声(質問内容)を出力することにより、AI推論部104eは、出力部106を通じて利用者に対してある事柄についての質問をすることができる。
【0053】
また、AI推論部104eは、利用者から発話された内容に基づいて、所定の質問を出力部106を通じて利用者にすることができるので、利用者は、あたかも人間と話しているような感覚を味わうことができる。
【0054】
尚、AI推論部104eは、利用者の感情度に応じて利用者に対して行う質問内容を決定することができ、例えば、利用者の感情度が高い場合は、利用者を落ち着かせるような内容、利用者の感情度が低い場合は、利用者を応援するような内容、又は利用者を元気付けさせるような内容等に質問内容を決定することができる。これらの質問内容は、感情情報データベース105に蓄積させておくことができる。
【0055】
これにより、ロボット1は、例えば利用者の感情度が低い(気持ちが沈んでいるような状態など)場合は、利用者を勇気付けるような内容を発することができるので、利用者は、ロボット1から発せられた内容により勇気が沸き、日常生活を少しでも楽しく過ごすことができる。
【0056】
動作決定部104fは、感情判定部104dで判定された感情度に応じてロボット1の可動部分を可動させるための可動パターンを決定するものである。具体的には、AI推論部104eから感情度信号が入力された動作決定部104fは、入力された感情度信号に含まれる感情度に応じて、可動部200にある各部を可動させるための各種命令を生成する。
【0057】
例えば、動作決定部104fは、入力された感情度信号に含まれる感情度が”P1”である場合は、図6に示すテーブルにより、腕可動部202、膝可動部203、首可動部204、腰可動部205を可動させるための可動命令信号を可動部200に出力する。
【0058】
また、動作決定部104fは、入力された感情度信号に含まれる感情度が”P2”である場合は、同図に示すテーブルにより、例えば、腕可動部202、膝可動部203、腰可動部205を可動させるための可動命令信号を可動部200に出力する。また、動作決定部104fは、入力された感情度信号に含まれる感情度が”N1”である場合は、同図に示すテーブルにより、例えば、膝可動部203、首可動部204を可動させるための可動命令信号を可動部200に出力する。
【0059】
更に、動作決定部104fは、入力された感情度信号に含まれる感情度が”N2”である場合は、同図に示すテーブルにより、例えば、首可動部204を可動させるための可動命令信号を可動部200に出力する。尚、動作決定部104fが決定する可動パターンは、上記4通りに限定されるものではなく、幾通りもの組み合わせで実現することができる。
【0060】
これにより、動作決定部104fは、感情度信号に含まれる感情度に応じて可動部200にある各部を可動させるための命令を生成するので、例えば、感情度信号に含まれる感情度が高い(興奮状態など)場合は、利用者の感情度が高いことを表現するため、可動部200にある各部の全部が可動できるような命令を生成することができる。
【0061】
また、動作決定部200は、利用者が発話した音声に反応して一定の動作をさせるための命令を生成するだけではなく、上記より利用者が抱いている感情度に応じて可動部分を動作させるための種々の命令を生成することができるので、ロボット1は、利用者の感情に応じて種々の動作を行うことができ、利用者は、自己の感情が変化する毎にロボット1の動作が変化する様子を見て楽しむことができる。
【0062】
前記可動部200は、判断部100からの命令により、ロボット1の各部位を可動させるものであり、本実施形態では、動作制御部201と、腕可動部202と、膝可動部203と、首可動部204と、腰可動部205とを有している。
【0063】
腕可動部202は、ロボット1の腕部分を可動させるものである。膝可動部203は、ロボット1の膝部分を可動させるものである。首可動部204は、ロボット1の首部分を可動させるものである。腰可動部205は、ロボット1の腰部分を可動させるものである。動作制御部201は、動作決定部104fからの可動命令信号に基づいて、各部を可動させるものである。
【0064】
尚、本発明は、ロボット1にある判断部100を、ロボット1とは別の容体に配置し、容体に配置されている判断部100とロボット1にある可動部200との中に通信部を設けてもよい。これにより、ロボット1には判断部100を設けなくてもよいので、この判断部100を有しない分、ロボット1の重量が軽くなり、ロボット1は安定した重心を保ちつつ、各部位をスムーズに可動させることができる。
【0065】
尚、本発明は、ロボット1の底部(足など)を固定させてもよい。これにより、ロボット1の各部位が激しく可動しても、ロボット1を横転させないようにすることができる。
【0066】
[音声ロボットシステムを用いた音声ロボット動作方法]
上記構成を有する音声ロボットシステムによる音声ロボット動作方法は、以下の手順により実施することができる。図7は、本実施形態に係る音声ロボット動作方法の手順を示すフロー図である。先ず、入力部101が利用者から発話された音声を取得するステップを行う(S101)。具体的に入力部101は、利用者から発話された音声を取得し、取得した音声を音声信号として音声認識部102に出力する。
【0067】
次いで、音声認識部102が入力部101で取得された音声に基づいて、その音声情報に対応する文字列を特定するステップを行う(S102)。具体的には、音声信号が入力された音声認識部102は、入力された音声信号を解析し、解析した音声信号に対応する文字列を、音声認識辞書記憶部103に格納されている辞書を用いて特定し、特定した文字列を文字列信号として推論エンジン104に出力する。
【0068】
次いで、推論エンジン104が、音声認識部102で特定された文字列に含まれるキーワードに基づいて、そのキーワードに対して利用者が抱く感情度を推論し、推論した感情度に応じてロボットの可動部200を可動させるステップを行う(S103)。ここで行う処理は、図8に基づいて説明する。
【0069】
推論エンジン104では、先ず、図8に示すように、文節認識部104aが、文を解析し、解析した文に基づいて、文から把握される言葉の意味空間を認識するステップを行う(S200)。次いで、文節認識部104aが上記認識により文と文との間を認識するステップを行う(S201)。具体的には、文から把握される言葉の意味空間を把握した文節認識部104aは、入力された文字信号に基づいて、文字信号に対応する文と文との間を認識する。
【0070】
この認識は、本実施形態では、例えば文と文との間にはある程度の時間間隔があるので、その時間間隔に基づいて文と文との間を区別するものである。例えば、文字信号に対応する文が、”今日は暑いな・・・アイスを食べよう”というものである場合は、文節認識部104aは、上記文の中で時間間隔がある部分”・・・”を文の区切りと認識し、”今日は暑いな”と”アイスを食べよう”との文に分けることを行う。
【0071】
そして、文と文との間を認識した文節認識部104aは、文を1文毎に区分けして、1文毎に区分けした文を文体信号として類別部104b、強調語検出部104c、感情判定部104dに出力する。
【0072】
次いで、類別部104bが、文字列から利用者の感情の種類を判別するステップを行う(S202)。具体的には、文節認識部104aから文体信号が入力された類別部104bは、図3に示す「感情類別テーブル」に基づいて利用者が抱いている感情の種類を類別する。
【0073】
類別部104bは、上記の「感情類別テーブル」に基づいて、1文の中からどのような感情が含まれているのかを類別し、この類別した結果を類別信号として感情判定部104dに出力する。
【0074】
次いで、強調語検出部104cが、文字列から感情の強弱を特徴付ける要素を抽出するステップを行う(S203)。具体的には、文節認識部104aから文体信号が入力された強調語検出部104cは、入力された文体信号に対応する文に基づいて、その文を構成する要素の中に、強調語があるか否かを検出する。
【0075】
この強調語の検出は、本実施形態では、例えば図4に示す「強調語テーブル」に従って行うことができる。この「強調語テーブル」には、同図に示すように、例えば、すげー、ちょー、うひょー、わおー、ひえー、めっちゃ、すごく、とても、かなり等の副詞、感嘆詞が含まれる。強調語検出部104cは、上記の「強調語テーブル」に基づいて、1文の中にある強調語を検出し、検出した強調語を強調語検出信号として感情判定部104dに出力する。
【0076】
次いで、感情判定部104dが、文字列に含まれるキーワードに対して利用者が抱く感情の程度を判定するステップを行う(S204)。具体的には、文節認識部104aから文体信号が入力された感情判定部104dは、入力された文体信号に対応する文字列と検索テーブルとを照合し、文字列の中から検索テーブルに含まれるキーワードと一致するキーワードを抽出する。
【0077】
その後、類別部104b、強調語検出部104cから類別信号、又は強調語検出信号が入力された感情判定部104dは、入力された類別信号、又は強調語検出信号に基づいて、抽出されたキーワードに対して利用者が抱く感情の程度(感情度)を判定する。
【0078】
感情判定部104dは、類別信号に対応する「感情の類別」、強調語検出信号に対応する強調語、所定のキーワードに基づいて、上記「感情度テーブル」を参照し、文から把握される利用者の感情度がどの程度なのかを判定し、判定した結果(P1、P2、N1、N2)を感情判定信号としてAI推論部104eに出力する。
【0079】
例えば、文体信号に対応する文字列が”サッカーで遊ぶのはすごくつまらないね”である場合は、類別部104bは、”つまらない”という文字列を検出し、強調語検出部104cは、”すごく”という文字列を検出し、感情判定部104dは、”サッカー”という文字列を検出する。
【0080】
感情判断部104eは、類別部104bで検出された”つまらない”と、強調語検出部104cで検出した”すごく”とに基づいて、図5のテーブルを参照し、”サッカー”(キーワード)に対する感情の度合い(感情度)をN2であると判断する。感情度を判断した感情判定部104dは、上記判断した感情度を感情度信号としてAI推論部104eに出力する。
【0081】
次いで、AI推論部104eが、様々な質問を利用者に対してするステップを行う(S205)。具体的には、感情判定部104dから感情度信号が入力されたAI推論部104eは、入力された感情度信号に対応するキーワード、そのキーワードに対する利用者の感情度に基づいて、キーワードとそのキーワードに関連付けられた感情度とに関係する内容を質問するとともに、この質問を感情情報データベース105に蓄積する
【0082】
例えば、感情判定部104dから感情度信号が入力されたAI推論部104eは、入力された感情度信号に対応するキーワードとそのキーワードに対する利用者の感情度が、上記例よりサッカー(キーワード)、感情度N2(すごくつまらない)である場合は、サッカーには興味がないな、と推論(判断)し、サッカー以外についての質問を行う。
【0083】
上記感情判定部104dから感情度信号が入力されたAI推論部104eは、入力された感情度信号に関連付けられた質問を行うと共に、入力された感情度信号を動作決定部104fに出力する。
【0084】
次いで、動作決定部104fが感情判定部104dで判定された感情度に応じて可動部200にある各部を可動させるステップを行う(S206)。具体的には、AI推論部104eから感情度信号が入力された動作決定部104fは、入力された感情度信号に含まれる感情度に応じて、可動部200にある各部を可動させるための可動命令信号を生成し、生成した可動命令信号を可動部200に出力する。
【0085】
例えば、動作決定部104fは、入力された感情度信号に含まれる感情度が”P1”である場合は、図6に示すテーブルにより、腕可動部202、膝可動部203、首可動部204、腰可動部205を可動させるための可動命令信号を可動部200に出力する。
【0086】
その後、動作決定部104fから可動命令信号が入力された動作制御部201は、入力された動作命令信号に基づいて、各部(腕可動部202、膝可動部203、首可動部204、腰可動部205)のいずれかを可動させる。
【0087】
[音声ロボットシステム及び音声ロボット動作方法による作用及び効果]
このような本実施形態に係る発明によれば、動作決定部104fが、感情度信号に含まれる感情度に応じて可動部200にある各部を可動させるための命令を生成するので、例えば、感情度信号に含まれる感情度が高い(興奮状態など)場合は、利用者の感情度が高いことを表現するため、可動部200にある各部の全部が可動できるような命令を生成することができる。
【0088】
また、動作決定部200は、利用者が発話した音声に反応して一定の動作をさせるための命令を生成するだけではなく、上記より利用者が抱いている感情度に応じて可動部分を動作をさせるための種々の命令を生成することができるので、ロボット1は、動作決定部200で生成された命令により利用者の感情に応じた種々の動作を行うことができ、利用者は、自己の感情が変化する毎にロボット1の動作が変化する様子を見て楽しむことができる。
【0089】
更に、感情判定部104dは、文字列に含まれる強調語に基づいて利用者の感情度を定めることができるので、所定のキーワードに対して利用者が抱く感情度を的確に把握することができることとなり、結果的に、動作決定部104fは、利用者が抱いている感情度にマッチした動作(例えば、利用者が興奮状態にあればロボットが激しく動作するなど)を可動部200にさせることができる。
【0090】
最後に、ロボット1が動作決定部200からの種々の命令により複雑なパターンをもって動作するので、利用者は、ロボット1の次なる動作を予測することが困難となり、ロボット1が複雑に動作する様子を飽きることなく見て楽しむことができる。
【0091】
【発明の効果】
以上説明したように、本発明によれば、利用者が発話した内容に基づいて、利用者の感情度を推論し、推論した感情度に応じてロボットを可動させるための複雑な動作パターンを決定し、この決定した動作パターンを用いてロボットを可動させることができる。
【図面の簡単な説明】
【図1】本実施形態に係る音声ロボットシステムの概略構成を示すブロック図である。
【図2】本実施形態における推論エンジンの内部構造を示すブロック図である。
【図3】本実施形態における類別部で格納している感情類別テーブルの内容を示した図である。
【図4】本実施形態における強調語検出部で格納している強調語テーブルの内容を示した図である。
【図5】本実施形態における感情判定部で格納している感情度テーブルの内容を示した図である。
【図6】本実施形態における動作決定部でロボットの動作を決定するための動作テーブルの内容を示した図である。
【図7】本実施形態に係る音声ロボット動作方法の手順を示したフロー図である。
【図8】本実施形態における推論エンジンの内部で処理されている手順を示したフロー図である。
【符号の説明】
1…ロボット、100…判断部、101…入力部、102…音声認識部、103…音声認識辞書記憶部、104…推論エンジン、104a…文節認識部、104b…類別部、104c…強調語検出部、104d…感情判定部、104e…AI推論部、104f…動作決定部、105…感情情報データベース、106…出力部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a voice robot system.
[0002]
[Prior art]
Conventionally, there are voice robots that react to voices uttered by users. This voice robot can function as a kind of advertising doll if it is installed in a place where many people come and go, such as a pachinko game hall. Also, if a person living alone installs a voice robot at home and speaks toward the voice robot, the voice robot moves in response to the utterance, so that the person can perform a predetermined operation. You can enjoy watching and enjoy the loneliness of living alone.
[0003]
[Problems to be solved by the invention]
However, the voice robot performs only one action (for example, the action of only the neck) in response to the voice emitted from the user, and the user feels something unsatisfactory with respect to the voice robot. On the other hand, at present, there is a voice robot that performs a plurality of series of operations in response to a voice uttered by a user. However, the voice robot simply has a plurality of predetermined voices while a voice is generated from the user. The movement pattern (for example, movement in the order of neck → arm → waist) is merely performed continuously, and does not satisfy the user's heart.
[0004]
Therefore, the present invention has been made in view of the above points, and infers the emotion level of the user based on the content spoken by the user, and is a complex for moving the robot in accordance with the inferred emotion level. Provided is a voice robot system capable of determining a simple motion pattern and moving the robot using the determined motion pattern.
[0005]
[Means for Solving the Problems]
The invention according to the present application has been made to solve the above-described problem, and is a voice robot system in which a movable part of a robot moves in response to voice uttered by a user, and acquires the voice of the user. An acquisition unit; a voice recognition unit that identifies a character string corresponding to the voice based on the voice acquired by the acquisition unit; a storage unit that stores a search table that lists predetermined keyword groups; and a voice recognition unit Inferring the degree of emotion a user has based on the specified character string, creating a question content that is a question to the user, and storing the question content in a storage means And if it is judged that the meaning of the decoded word is ambiguous, use the fuzzy function. An inference engine, comprising: an inference engine; an audio output means for outputting the content of a question created by the inference engine as a voice; and a movable means for moving a movable part of the robot in accordance with an emotion level inferred by the inference engine. Is based on the character string including the keyword extracted by the keyword extraction means, the keyword extraction means that collates the character string recognized by the character recognition means and the search table, and extracts a predetermined keyword from the character string. The emotion recognition means for recognizing the emotion level for the keyword, the predetermined keyword extracted by the keyword extraction means, and the emotion level recognized by the emotion recognition means are related to the predetermined keyword and the emotion level. The AI inference unit that determines the question contents and accumulates the question contents in the storage means, and the robot according to the emotion level recognized by the emotion recognition means It is characterized in that it has an operation determination unit that determines a moving pattern for moving the movable portion of the bets.
[0006]
According to the invention according to the present application, the robot recognizes the emotion level indicating the degree of emotion the user has with respect to the keyword based on the keyword included in the character string issued from the user. Since the movable part is moved according to the recognized emotion level, the movable part can be moved not by a single motion pattern but by a complex motion pattern according to the emotion level.
[0007]
Further, since the robot operates with a complicated pattern, it becomes difficult for the user to predict the next operation of the robot, and the user can enjoy watching the robot without getting tired.
[0008]
The emotion level may be determined based on an emphasized word included in the character string. As a result, the robot can determine the emotion level of the user based on the emphasis word included in the character string, and thus can accurately grasp the emotion level the user has for the predetermined keyword. It is possible to perform an action that matches the emotion level held by the person (for example, if the user is in an excited state, the robot moves violently).
[0009]
Furthermore, the invention according to the present application accumulates a plurality of conversation tables that associate each keyword with each conversation phrase, collates the extracted keyword with the conversation table, and detects the conversation phrase that matches the keyword. And outputting a voice corresponding to the phrase of the conversation based on the detected phrase of the conversation.
[0010]
According to the invention according to the present application, since the robot outputs the conversation contents related to the keyword based on the keyword included in the character string uttered by the user, the user is as if with the robot. You can enjoy the feeling of having a conversation.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
[Basic configuration of voice robot system]
A voice robot system according to the present invention will be described with reference to the drawings. FIG. 1 is a schematic configuration diagram of a voice robot system according to the present embodiment. As shown in the figure, the voice robot system includes a robot 1 having a determination unit 100 and an operation unit 200. The robot 1 may have a character outer shape used for advertisements, video games, and the like.
[0012]
The determination unit 100 infers the emotion level of the user from the content uttered by the user, and based on the inferred emotion level, each unit in the movable unit 200 (in this embodiment, the arm movable unit 202, the knee movable unit 203, A command for moving the neck movable unit 204 and the waist movable unit 205 (hereinafter, these units are simply referred to as “units”) is generated. In this embodiment, the input unit 101, the voice recognition unit 102, , A speech recognition dictionary storage unit 103, an inference engine 104, an emotion information database 105, and an output unit 106.
[0013]
The input unit 101 is an acquisition unit that acquires a user's voice. Specifically, the input unit 101 acquires the user's voice and outputs the acquired voice to the voice recognition unit 102 as a voice signal. The voice recognition unit 102 is a voice recognition unit that identifies a character string corresponding to the voice based on the voice acquired by the input unit 101.
[0014]
Specifically, the speech recognition unit 102 to which the speech signal is input analyzes the input speech signal, and a character string corresponding to the analyzed speech signal is stored in a dictionary stored in the speech recognition dictionary storage unit 103. The specified character string is output to the inference engine 104 as a character string signal.
[0015]
The voice recognition dictionary storage unit 103 stores a dictionary corresponding to standard voice signals. The output unit 106 outputs voice or the like based on a command from the inference engine 104.
[0016]
The voice recognition unit 102 is also a character recognition unit that specifies a character string input by a user through an operation unit (for example, a keyboard). Further, the voice recognition dictionary storage unit 103 stores a dictionary corresponding to a character string input by the user through the operation unit.
[0017]
As a result, the inference engine 104 not only utters the input unit 101 but also inputs characters from the operation unit. It is possible to infer the degree and generate a command for moving each part of the movable part 200 based on the inferred emotion degree.
[0018]
The emotion information database 105 is a storage unit that stores a search table that lists predetermined keyword groups. Here, for example, keywords related to sports (such as soccer, basketball, table tennis, tennis, and badminton), keywords related to reading (such as reasoning novels and non-fiction), and keywords related to current events (such as politics and economics) Can be mentioned.
[0019]
The inference engine 104 makes a predetermined question to the user through the output unit 106, further infers the emotion level the user has based on the character string specified by the voice recognition unit 102, and based on the inferred emotion level A command for moving the movable part 200 is generated.
[0020]
In this embodiment, the inference engine 104 is a context dictionary for decoding contexts, a similarity dictionary for examining language similarity, a dictionary for word phrase analysis, morphological analysis of words (each part-of-speech, inflection, classification) ), And the meaning content of the words spoken by the user can be deciphered based on these dictionaries, and the emotion level of the user can be inferred from the deciphered meaning content.
[0021]
In other words, the inference engine 104 that deciphers the semantic content of the words, based on the deciphered semantic content, coherence of the deciphered meaning, topic change, language that forms the user's emotions, statistics of the conversation so far Thus, it is possible to infer emotions held by the user and to create a sentence suitable for asking a question to the user.
[0022]
The inference engine 104 is also composed of artificial intelligence and a neural network. The inference engine 104 learns a language (word, sentence, etc.) exchanged with a user from a neural network, and converts the learned language into the learned language. Based on this, it is possible to create a content for asking a question to the user.
[0023]
Further, when the reasoning engine 104 determines that the meaning content of the decoded word is an ambiguous expression, the inference engine 104 can also create a question content corresponding to the ambiguous expression using the fuzzy function. Note that the execution of the above-described functions of the inference engine 104 is mainly performed by an AI inference unit 104e and an operation determination unit 104f described later.
[0024]
Specifically, the inference engine 104 to which the character string signal is input from the speech recognition unit 102 is included in the user's emotion and character string based on the elements constituting the character string corresponding to the input character string signal. Sort keywords These “user emotions” and “keywords included in the character string” mean emotion information in this embodiment.
[0025]
Here, “user's emotion (type of emotion)” includes, for example, “Like / No”, “Good” / “Bad”, etc., as shown in FIG. The “user's emotion” also includes the degree of emotion (feeling level) that the user has. As shown in FIG. 5, for example, the user is very interested / interested / interested. There is no / not interested at all.
[0026]
In the present embodiment, this “degree of emotion” is P1 (P: Positive / plus element) (for example, very interested) when the user has a strong positive emotion, and the user is positive. P2 [for example, interested] when the user simply has a negative emotion, N1 (N; negative / negative element) [for example, not interested] when the user simply has a negative emotion A person who has a strong negative feeling will be expressed as N2 [for example, no interest at all]. The “degree of emotion” is not limited to the above example.
[0027]
The inference engine 104, which classifies information related to the user's emotion from the elements constituting the character string, infers the emotion level held by the user based on the user's emotion information.
[0028]
For example, when the inference engine 104 asks the user through the output unit 106 “It is fun to play soccer?” And the user responds “It is very boring to play soccer” The inference engine 104 determines that the user has a negative emotional level about soccer from “soccer” (keyword) and “very boring” (emotion level N2). That is, the inference engine 104 determines the emotion level that the user has for the keyword.
[0029]
The inference engine 104 generates various commands for moving the movable unit 200 based on the determined emotion level. The determination of the emotion level and the generation of various commands will be described in detail in the AI inference unit 104e and the operation determination unit 104f described later. Thereby, the inference engine 104 infers the emotion level of the user included in the character string based on the character string specified through the input unit 101, and moves the movable unit 200 according to the inferred emotion level. Various instructions can be generated.
[0030]
In the present embodiment, the inference engine 104 includes a phrase recognition unit 104a, a classification unit 104b, an emphasized word detection unit 104c, an emotion determination unit 104d, an AI inference unit 104e, and an operation determination as shown in FIG. Part 104f.
[0031]
The phrase recognition unit 104a analyzes the sentence and recognizes the meaning space of the words grasped from the sentence based on the analyzed sentence. Here, sentence analysis means analyzing sentence form elements such as parts of speech, inflection forms, classifications, and connection relations. The meaning space of words is grasped from context, sentence similarity, and sentence learning patterns.
[0032]
Furthermore, the phrase recognizing unit 104a recognizes between sentences by the above recognition. Specifically, the phrase recognizing unit 104a to which the character string signal is input from the speech recognition unit 102 that has recognized the semantic space of the word grasped from the sentence corresponds to the character string signal based on the input character string signal. Recognize between sentences.
[0033]
In this embodiment, since there is a certain time interval between sentences in the present embodiment, for example, the sentence is distinguished from the sentence based on the time interval. For example, when the sentence corresponding to the character signal is “It is hot today ... Let's eat ice cream”, the phrase recognition unit 104a has a time interval in the sentence. Recognize that “is a sentence break,” and divide it into the sentence “It ’s hot today” and “Let's eat ice cream”.
[0034]
The phrase recognizing unit 104a that recognizes a sentence between sentences divides the sentence into sentences and classifies the sentence into sentences as a sentence body signal 104b, an emphasized word detection unit 104c, and an emotion determination unit 104d. Output to.
[0035]
The classification unit 104b determines the type of user's emotion from the character string. Specifically, the classification unit 104b to which the style signal is input from the phrase recognition unit 104a classifies the types of emotions included in the character string based on the “emotion classification table” shown in FIG.
[0036]
As described above, as shown in FIG. 3, this emotion type is “plus element P” when the user feels positive thinking, and “when the user feels negative thought”. It consists of what is designated as “minus element N”. The classification unit 104b classifies what kind of emotion is included in one sentence based on the above “emotion classification table”, and the classification result is sent to the emotion determination unit 104d as a classification signal. Output.
[0037]
The emphasized word detection unit 104c extracts an element characterizing emotion strength from a character string. Specifically, the emphasized word detection unit 104c, to which the stylistic signal is input from the phrase recognition unit 104a, has an emphasized word among the elements constituting the sentence based on the sentence corresponding to the input stylistic signal. Whether or not is detected.
[0038]
In this embodiment, this emphasis word can be detected according to, for example, an “emphasis word table” shown in FIG. In this "emphasis word table", as shown in the figure, for example, there are adverb and exclamation of suge, choo, uhyo, wow, hie, super, very, quite etc. included. The emphasized word detection unit 104c detects an emphasized word in one sentence based on the “emphasized word table”, and outputs the detected emphasized word as an emphasized word detection signal to the emotion determination unit 104d.
[0039]
The emotion determination unit 104 d compares the character string recognized by the voice recognition unit 102 with the search table stored in the emotion information database 105. , From within a string It is a keyword extracting means for extracting a predetermined keyword. The emotion determination unit 104d is also an emotion recognition unit that recognizes an emotion level indicating the level of emotion that the user has for the keyword based on the character string including the extracted keyword.
[0040]
Specifically, the emotion determination unit 104d to which the stylistic signal is input from the phrase recognition unit 104a collates the character string corresponding to the input stylistic signal with the search table, and is included in the search table from the character string. Extract keywords that match the keyword.
[0041]
In addition, the emotion determination unit 104d, to which the classification signal or the emphasized word detection signal is input from the classification unit 104b or the emphasized word detection unit 104c, extracts the keyword extracted based on the input classification signal or the emphasized word detection signal. On the other hand, the degree of emotion (feeling level) held by the user is determined (determined).
[0042]
In this embodiment, the determination of the degree of emotion can be performed according to, for example, an “emotion level table” shown in FIG. This “emotion level table” has, for example, a determination element (user's emotion) and an “emotion level (emotion level)” as shown in FIG.
[0043]
The determination element means a phrase that influences the user's emotion. For example, as shown in FIG. This determination element has the same meaning as “user's emotion” described above.
[0044]
As shown in FIG. 4, the “degree of emotion” is very interested in the degree of emotion (degree of emotion) when the determination element is “interested / not interested”, for example (P1). , Interested (P2), not interested (N1), and not interested at all (N2). In addition, this emotion level is not limited to what is classified into four.
[0045]
The emotion determination unit 104d refers to the “emotion level table” based on the “emotion category” corresponding to the category signal, the emphasized word corresponding to the emphasized word detection signal, and a predetermined keyword, and can be grasped from the sentence. The degree of emotion of the person is determined, and the determination results (P1, P2, N1, N2) are output to the AI inference unit 104e as emotion determination signals.
[0046]
For example, if the character string corresponding to the style signal is “It is very boring to play soccer”, the classification unit 104b detects the character string “not boring” and the emphasized word detecting unit 104c is “very”. The emotion determination unit 104d detects the character string “soccer”.
[0047]
The emotion determination unit 104d refers to the table of FIG. 5 based on the “bottom” detected by the classification unit 104b and the “very” detected by the emphasized word detection unit 104c, and determines “soccer” (keyword). Then, it is determined that the degree of emotion (feeling level) held by the user is N2. The emotion determination unit 104d that has determined the emotion level outputs the determined emotion level to the AI inference unit 104e as an emotion level signal.
[0048]
The AI inference unit 104e asks the user various questions through the output unit 106. Specifically, the AI inference unit 104e to which the emotion level signal is input from the emotion determination unit 104d is a keyword corresponding to the input emotion level signal. as well as Based on the feelings that users have about that keyword, as well as Ask questions related to the emotional level of the keyword.
[0049]
For example, the AI inference unit 104e to which the emotion level signal is input from the emotion determination unit 104d is a keyword corresponding to the input emotion level signal. as well as If the user's emotional level for the keyword is soccer (keyword) or emotional level N2 (very boring) from the above example, it is inferred (judged) that he is not interested in soccer, and questions about other than soccer I do.
[0050]
The AI inference unit 104e to which the emotion level signal is input from the emotion determination unit 104d makes a question related to the input emotion level signal and outputs the input emotion level signal to the action determination unit 104f.
[0051]
Note that the content of the question performed by the AI reasoning unit 104e may be stored in advance in the emotion information database 105 in a plurality of conversation tables that associate each keyword with each conversation phrase. Further, the AI inference unit 104e may include a phrase detecting unit that compares the extracted keyword with the conversation table and detects a phrase of the conversation associated with the keyword, and the output unit 106 further includes an AI The voice corresponding to the conversation phrase may be output based on the conversation phrase detected by the inference unit 104e.
[0052]
As a result, when an emotion level signal is input from the emotion determination unit 104d, the AI reasoning unit 104e checks the keyword against the conversation table based on the keyword included in the input emotion level signal. The associated phrase of conversation is detected, and the output unit 106 outputs a predetermined voice (question content) based on the phrase of conversation detected by the AI inference unit 104e, whereby the AI inference unit 104e outputs A question about a certain matter can be made to the user through the unit 106.
[0053]
Further, the AI inference unit 104e can make a predetermined question to the user through the output unit 106 based on the content uttered by the user, so that the user feels as if he / she is talking to a human. You can taste it.
[0054]
Note that the AI inference unit 104e can determine the contents of a question to be asked to the user according to the user's emotion level. For example, if the user's emotion level is high, the AI inference unit 104e may calm down the user. When the content and the user's emotion level are low, the content of the question can be determined as content that supports the user or content that makes the user cheer up. These question contents can be accumulated in the emotion information database 105.
[0055]
As a result, the robot 1 can emit content that encourages the user when, for example, the emotion level of the user is low (such as a state in which the user feels depressed). Courage is courageous by the content emanating from and you can spend a little fun in your daily life.
[0056]
The action determination unit 104f determines a movable pattern for moving the movable part of the robot 1 according to the emotion level determined by the emotion determination unit 104d. Specifically, the action determination unit 104f to which the emotion level signal is input from the AI inference unit 104e performs various operations for moving each unit in the movable unit 200 according to the emotion level included in the input emotion level signal. Generate instructions.
[0057]
For example, when the emotion level included in the input emotion level signal is “P1”, the motion determination unit 104f uses the table shown in FIG. 6 to move the arm movable unit 202, the knee movable unit 203, the neck movable unit 204, A movable command signal for moving the waist movable unit 205 is output to the movable unit 200.
[0058]
Further, when the emotion level included in the input emotion level signal is “P2”, the motion determination unit 104f uses, for example, the arm movable unit 202, the knee movable unit 203, and the waist movable unit according to the table shown in FIG. A movable command signal for moving 205 is output to the movable unit 200. Further, when the emotion level included in the input emotion level signal is “N1”, the motion determination unit 104f moves, for example, the knee movable unit 203 and the neck movable unit 204 using the table shown in FIG. The movable command signal is output to the movable unit 200.
[0059]
Furthermore, when the emotion level included in the input emotion level signal is “N2”, the motion determination unit 104f receives, for example, a movable command signal for moving the neck movable unit 204 using the table shown in FIG. Output to the movable unit 200. The movable pattern determined by the operation determining unit 104f is not limited to the above four patterns, and can be realized by various combinations.
[0060]
Thereby, since the action determination unit 104f generates a command for moving each unit in the movable unit 200 according to the emotion level included in the emotion level signal, for example, the emotion level included in the emotion level signal is high ( In the case of an excitement state, etc., in order to express that the degree of emotion of the user is high, it is possible to generate a command that allows all of the units in the movable unit 200 to move.
[0061]
In addition, the motion determination unit 200 not only generates a command for performing a certain motion in response to the voice spoken by the user, but also operates the movable part according to the emotion level held by the user. Since the robot 1 can generate various commands, the robot 1 can perform various operations according to the user's emotions, and the user can operate the robot 1 every time his / her emotions change. You can enjoy watching the change of
[0062]
The movable unit 200 moves each part of the robot 1 according to a command from the determination unit 100. In the present embodiment, the movable control unit 201, the arm movable unit 202, the knee movable unit 203, and the neck A movable part 204 and a waist movable part 205 are provided.
[0063]
The arm movable part 202 is for moving the arm part of the robot 1. The knee movable unit 203 is for moving the knee portion of the robot 1. The neck movable unit 204 moves the neck portion of the robot 1. The waist movable unit 205 is for moving the waist portion of the robot 1. The operation control unit 201 moves each unit based on the movable command signal from the operation determination unit 104f.
[0064]
In the present invention, the determination unit 100 in the robot 1 is arranged on a container different from the robot 1, and a communication unit is provided between the determination unit 100 arranged on the container and the movable unit 200 in the robot 1. It may be provided. As a result, the robot 1 does not need to include the determination unit 100. Therefore, the weight of the robot 1 is reduced by the absence of the determination unit 100, and the robot 1 can smoothly move each part while maintaining a stable center of gravity. Can be moved.
[0065]
In the present invention, the bottom portion (such as a foot) of the robot 1 may be fixed. Thereby, even if each part of the robot 1 moves violently, the robot 1 can be prevented from rolling over.
[0066]
[Voice Robot Operation Method Using Voice Robot System]
The voice robot operation method by the voice robot system having the above-described configuration can be implemented by the following procedure. FIG. 7 is a flowchart showing the procedure of the voice robot operation method according to the present embodiment. First, the input unit 101 performs a step of acquiring voice uttered by the user (S101). Specifically, the input unit 101 acquires voice uttered by the user, and outputs the acquired voice to the voice recognition unit 102 as a voice signal.
[0067]
Next, the voice recognition unit 102 performs a step of specifying a character string corresponding to the voice information based on the voice acquired by the input unit 101 (S102). Specifically, the speech recognition unit 102 to which the speech signal is input analyzes the input speech signal, and a character string corresponding to the analyzed speech signal is stored in a dictionary stored in the speech recognition dictionary storage unit 103. The specified character string is output to the inference engine 104 as a character string signal.
[0068]
Next, the inference engine 104 infers the emotion level that the user has for the keyword based on the keyword included in the character string specified by the speech recognition unit 102, and the robot moves according to the inferred emotion level. The step which moves the part 200 is performed (S103). The process performed here is demonstrated based on FIG.
[0069]
In the inference engine 104, first, as shown in FIG. 8, the phrase recognition unit 104a analyzes the sentence, and performs a step of recognizing the meaning space of the word grasped from the sentence based on the analyzed sentence (S200). . Next, the phrase recognition unit 104a performs a step of recognizing between sentences by the above recognition (S201). Specifically, the phrase recognizing unit 104a that has grasped the semantic space of the word grasped from the sentence recognizes between the sentence corresponding to the character signal based on the inputted character signal.
[0070]
In this embodiment, since there is a certain time interval between sentences in the present embodiment, for example, the sentence is distinguished from the sentence based on the time interval. For example, when the sentence corresponding to the character signal is “It is hot today ... Let's eat ice cream”, the phrase recognition unit 104a has a time interval in the sentence. Recognize that “is a sentence break,” and divide it into the sentence “It ’s hot today” and “Let's eat ice cream”.
[0071]
Then, the phrase recognizing unit 104a that recognizes between the sentences divides the sentence into sentences, and classifies the sentence divided into sentences as a stylistic signal 104b, the emphasized word detecting unit 104c, and emotion determination. Output to the unit 104d.
[0072]
Next, the classification unit 104b performs a step of discriminating the type of user's emotion from the character string (S202). Specifically, the classification unit 104b to which the style signal is input from the phrase recognition unit 104a classifies the types of emotions held by the user based on the “emotion classification table” shown in FIG.
[0073]
The classification unit 104b classifies what emotions are included in one sentence based on the above “emotion classification table”, and outputs the classified result to the emotion determination unit 104d as a classification signal. .
[0074]
Next, the emphasized word detection unit 104c performs a step of extracting an element characterizing the strength of emotion from the character string (S203). Specifically, the emphasized word detection unit 104c, to which the stylistic signal is input from the phrase recognition unit 104a, has an emphasized word among the elements constituting the sentence based on the sentence corresponding to the input stylistic signal. Whether or not is detected.
[0075]
In this embodiment, this emphasis word can be detected according to, for example, an “emphasis word table” shown in FIG. In this "emphasis word table", as shown in the figure, for example, there are adverb and exclamation of suge, choo, uhyo, wow, hie, super, very, quite etc. included. The emphasized word detection unit 104c detects an emphasized word in one sentence based on the “emphasized word table”, and outputs the detected emphasized word as an emphasized word detection signal to the emotion determination unit 104d.
[0076]
Next, the emotion determination unit 104d performs a step of determining the degree of emotion that the user has with respect to the keyword included in the character string (S204). Specifically, the emotion determination unit 104d to which the stylistic signal is input from the phrase recognition unit 104a collates the character string corresponding to the input stylistic signal with the search table, and is included in the search table from the character string. Extract keywords that match the keyword.
[0077]
Thereafter, the emotion determination unit 104d, to which the classification signal or the emphasized word detection signal is input from the classification unit 104b and the emphasized word detection unit 104c, extracts the extracted keyword based on the input classification signal or the emphasized word detection signal. On the other hand, the degree of emotion (feeling level) held by the user is determined.
[0078]
The emotion determination unit 104d refers to the “emotion level table” based on the “emotion category” corresponding to the category signal, the emphasized word corresponding to the emphasized word detection signal, and a predetermined keyword, and can be grasped from the sentence. The degree of emotion of the person is determined, and the determination results (P1, P2, N1, N2) are output to the AI inference unit 104e as emotion determination signals.
[0079]
For example, if the character string corresponding to the style signal is “It is very boring to play soccer”, the classification unit 104b detects the character string “not boring” and the emphasized word detecting unit 104c is “very”. The emotion determination unit 104d detects the character string “soccer”.
[0080]
The emotion determination unit 104e refers to the table of FIG. 5 based on the “bottom” detected by the classification unit 104b and “very” detected by the emphasized word detection unit 104c, and the emotion for “soccer” (keyword). Is determined to be N2. The emotion determination unit 104d that has determined the emotion level outputs the determined emotion level as an emotion level signal to the AI inference unit 104e.
[0081]
Next, the AI inference unit 104e performs a step of asking various questions to the user (S205). Specifically, the AI inference unit 104e to which the emotion level signal is input from the emotion determination unit 104d, the keyword and the keyword based on the keyword corresponding to the input emotion level signal and the user's emotion level for the keyword Ask questions related to the emotion level associated with At the same time, this question is stored in the emotion information database 105 .
[0082]
For example, the AI inference unit 104e to which the emotion level signal is input from the emotion determination unit 104d has a keyword corresponding to the input emotion level signal and the user's emotion level for the keyword, soccer (keyword), emotion If the degree is N2 (very boring), it is inferred (judged) that you are not interested in soccer and asks questions other than soccer.
[0083]
The AI inference unit 104e to which the emotion level signal is input from the emotion determination unit 104d makes a question associated with the input emotion level signal and outputs the input emotion level signal to the action determination unit 104f.
[0084]
Next, the operation determination unit 104f performs a step of moving each unit in the movable unit 200 in accordance with the emotion level determined by the emotion determination unit 104d (S206). Specifically, the action determination unit 104f to which the emotion level signal is input from the AI inference unit 104e is movable to move each unit in the movable unit 200 according to the emotion level included in the input emotion level signal. A command signal is generated, and the generated movable command signal is output to the movable unit 200.
[0085]
For example, when the emotion level included in the input emotion level signal is “P1”, the motion determination unit 104f uses the table shown in FIG. 6 to move the arm movable unit 202, the knee movable unit 203, the neck movable unit 204, A movable command signal for moving the waist movable unit 205 is output to the movable unit 200.
[0086]
After that, the motion control unit 201 to which the movable command signal is input from the motion determination unit 104f, based on the input motion command signal, each unit (arm movable unit 202, knee movable unit 203, neck movable unit 204, waist movable unit). 205) is moved.
[0087]
[Actions and effects of voice robot system and voice robot operation method]
According to the invention according to the present embodiment as described above, the motion determination unit 104f generates a command for moving each unit in the movable unit 200 according to the emotion level included in the emotion level signal. When the degree of emotion included in the degree signal is high (excited state or the like), in order to express that the degree of emotion of the user is high, it is possible to generate an instruction that can move all of the units in the movable unit 200. .
[0088]
In addition, the motion determination unit 200 not only generates a command for performing a certain motion in response to the voice spoken by the user, but also operates the movable part according to the emotion level held by the user. Therefore, the robot 1 can perform various actions in accordance with the user's emotions according to the instructions generated by the action determining unit 200. It can be enjoyed by watching the behavior of the robot 1 changing whenever the emotion of the robot changes.
[0089]
Furthermore, since the emotion determination unit 104d can determine the emotion level of the user based on the emphasized word included in the character string, the emotion determination unit 104d can accurately grasp the emotion level the user has with respect to the predetermined keyword. As a result, the action determining unit 104f can cause the movable part 200 to perform an action that matches the emotion level of the user (for example, if the user is in an excited state, the robot moves violently). it can.
[0090]
Finally, since the robot 1 operates in a complicated pattern according to various commands from the operation determining unit 200, it becomes difficult for the user to predict the next operation of the robot 1, and the robot 1 operates in a complicated manner. You can enjoy watching without getting bored.
[0091]
【The invention's effect】
As described above, according to the present invention, the emotion level of the user is inferred based on the content uttered by the user, and a complex motion pattern for moving the robot is determined according to the inferred emotion level. The robot can be moved using the determined motion pattern.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of a voice robot system according to an embodiment.
FIG. 2 is a block diagram showing an internal structure of the inference engine in the present embodiment.
FIG. 3 is a diagram showing the contents of an emotion classification table stored in a classification section in the present embodiment.
FIG. 4 is a diagram showing the contents of an emphasized word table stored in an emphasized word detection unit in the present embodiment.
FIG. 5 is a diagram showing the contents of an emotion level table stored in an emotion determination unit in the present embodiment.
FIG. 6 is a diagram showing the contents of an operation table for determining the operation of the robot by the operation determining unit in the present embodiment.
FIG. 7 is a flowchart showing a procedure of the voice robot operation method according to the present embodiment.
FIG. 8 is a flowchart showing a procedure processed in the inference engine in the present embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Robot, 100 ... Judgment part, 101 ... Input part, 102 ... Speech recognition part, 103 ... Speech recognition dictionary memory | storage part, 104 ... Inference engine, 104a ... Phrase recognition part, 104b ... Classification part, 104c ... Emphasis word detection part 104d ... emotion determination unit, 104e ... AI inference unit, 104f ... motion determination unit, 105 ... emotion information database, 106 ... output unit

Claims (5)

利用者から発せられた音声に反応してロボットの可動部分が可動する音声ロボットシステムであって、
前記利用者の音声を取得する取得手段と、
前記取得手段で取得された音声に基づいて、該音声に対応する文字列を特定する音声認識手段と、
所定のキーワード群を列記した検索テーブルを記憶する記憶手段と、
前記音声認識手段で特定した文字列に基づいて前記利用者が抱く感情の度合いを推論し、前記利用者に質問する内容である質問内容を作成するとともに、前記記憶手段に前記質問内容を蓄積させ、かつ、解読した言葉の意味内容が曖昧な表現であると判断した場合は、ファジー機能を用いる推論エンジンと、
前記推論エンジンで作成された前記質問内容を音声として出力する音声出力手段と、
前記推論エンジンで推論された前記感情度に応じて前記ロボットの可動部分を可動させる可動手段とを有し、
前記推論エンジンは、
前記音声認識手段で認識された前記文字列と前記検索テーブルとを照合し、前記文字列の中から所定のキーワードを抽出するキーワード抽出手段と、
前記キーワード抽出手段で抽出された前記キーワードを含む前記文字列に基づいて、該キーワードに対して前記感情度を認識する感情認識手段と、
前記キーワード抽出手段で抽出された前記所定のキーワード、及び、前記感情認識手段で認識した感情度に基づいて、前記所定のキーワード及び前記感情度に関係する前記質問内容を決定するとともに、前記記憶手段に前記質問内容を蓄積させるAI推論部と、
前記感情認識手段で認識した感情度に応じて前記ロボットの可動部分を可動させるための可動パターンを決定する動作決定部とを有することを特徴とする音声ロボットシステム。
A voice robot system in which a movable part of a robot moves in response to voice emitted from a user,
Acquisition means for acquiring the user's voice;
Voice recognition means for identifying a character string corresponding to the voice based on the voice acquired by the acquisition means;
Storage means for storing a search table listing predetermined keyword groups;
Inferring the degree of emotion that the user has based on the character string specified by the voice recognition means, creating a question content that is a question to the user, and storing the question content in the storage means And if the semantic content of the decoded word is an ambiguous expression, an inference engine that uses a fuzzy function,
Voice output means for outputting the question content created by the inference engine as voice;
Movable means for moving a movable part of the robot in accordance with the emotion level inferred by the inference engine,
The inference engine is
Keyword extraction means for comparing the character string recognized by the voice recognition means with the search table and extracting a predetermined keyword from the character string;
Emotion recognition means for recognizing the emotion level for the keyword based on the character string including the keyword extracted by the keyword extraction means;
Based on the predetermined keyword extracted by the keyword extraction unit and the emotion level recognized by the emotion recognition unit, the question content related to the predetermined keyword and the emotion level is determined, and the storage unit AI inference unit for storing the question content in
A voice robot system comprising: an operation determining unit that determines a movable pattern for moving a movable part of the robot according to the emotion level recognized by the emotion recognition unit.
請求項1に記載の音声ロボットシステムであって、
前記可動手段は、前記感情認識手段で認識された前記感情度と、前記キーワード抽出手段で抽出された前記キーワードとを含む認識情報に基づいて、前記可動部分を可動させることを特徴とする音声ロボットシステム。
The voice robot system according to claim 1,
The voice robot characterized in that the movable means moves the movable part based on recognition information including the emotion level recognized by the emotion recognition means and the keyword extracted by the keyword extraction means. system.
請求項1又は請求項2に記載の音声ロボットシステムであって、
前記記憶手段は、各キーワードを会話のフレーズ毎に対応付ける会話テーブルを予め複数蓄積し、
前記推論エンジンは、前記キーワード抽出手段で抽出された前記キーワードと前記会話テーブルとを照合し、該キーワードと対応付けられている前記会話のフレーズを検出するフレーズ検出手段を有し、
前記音声出力手段は、前記フレーズ検出手段で検出された前記会話のフレーズに基づいて該会話のフレーズに対応する音声を出力することを特徴とする音声ロボットシステム。
The voice robot system according to claim 1 or 2,
The storage means stores in advance a plurality of conversation tables that associate each keyword with each conversation phrase,
The inference engine includes a phrase detection unit that compares the keyword extracted by the keyword extraction unit with the conversation table and detects a phrase of the conversation associated with the keyword,
The voice output system, wherein the voice output unit outputs a voice corresponding to the phrase of the conversation based on the phrase of the conversation detected by the phrase detection unit.
請求項1乃至請求項3のいずれかに記載の音声ロボットシステムであって、
前記感情度は、前記文字列に含まれる副詞又は感嘆詞からなる強調語に基づいて定めることを特徴とする音声ロボットシステム。
A voice robot system according to any one of claims 1 to 3,
The voice robot system, wherein the emotion level is determined based on an emphasis word composed of an adverb or exclamation included in the character string.
請求項1乃至請求項4のいずれかに記載の音声ロボットシステムであって、
前記推論エンジンは、文脈を解読するための文脈辞書、言語の類似関係を調べるための類似関係辞書、言葉文節解析に関する辞書、言葉の形態素解析に関わる辞書を有しており、これらの辞書を基に、前記利用者が発話した言葉の意味内容を解読し、解読した意味内容から利用者が抱く感情度を推論することを特徴とする音声ロボットシステム。
A voice robot system according to any one of claims 1 to 4,
The inference engine includes a context dictionary for deciphering a context, a similarity dictionary for examining language similarity, a dictionary for word phrase analysis, and a dictionary for word morphological analysis. In addition, the speech robot system is characterized by deciphering the semantic content of the words spoken by the user and inferring the emotion level held by the user from the decoded semantic content.
JP2002002499A 2002-01-09 2002-01-09 Voice robot system Expired - Fee Related JP4015424B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002002499A JP4015424B2 (en) 2002-01-09 2002-01-09 Voice robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002002499A JP4015424B2 (en) 2002-01-09 2002-01-09 Voice robot system

Publications (2)

Publication Number Publication Date
JP2003202892A JP2003202892A (en) 2003-07-18
JP4015424B2 true JP4015424B2 (en) 2007-11-28

Family

ID=27642338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002002499A Expired - Fee Related JP4015424B2 (en) 2002-01-09 2002-01-09 Voice robot system

Country Status (1)

Country Link
JP (1) JP4015424B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101048619B1 (en) * 2008-12-19 2011-07-13 재단법인대구경북과학기술원 Fuzzy Controller and Control Method for Obstacle Avoidance with Table-based Fuzzy Single Positive and Double Negative Rules
CN102671381A (en) * 2011-03-08 2012-09-19 德信互动科技(北京)有限公司 Acoustic control-based game implementation device and method
CN102698434A (en) * 2011-03-28 2012-10-03 德信互动科技(北京)有限公司 Device and method for implementing game based on conversation
EP3373301A1 (en) 2017-03-08 2018-09-12 Panasonic Intellectual Property Management Co., Ltd. Apparatus, robot, method and recording medium having program recorded thereon

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100877476B1 (en) 2007-06-26 2009-01-07 주식회사 케이티 Intelligent robot service apparatus and method on PSTN
JP5172049B2 (en) 2011-06-14 2013-03-27 パナソニック株式会社 Robot apparatus, robot control method, and robot control program
JP6199927B2 (en) * 2015-06-17 2017-09-20 Cocoro Sb株式会社 Control system, system and program
KR102319013B1 (en) * 2020-01-31 2021-10-29 한국과학기술원 Method and system for personality recognition from dialogues

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101048619B1 (en) * 2008-12-19 2011-07-13 재단법인대구경북과학기술원 Fuzzy Controller and Control Method for Obstacle Avoidance with Table-based Fuzzy Single Positive and Double Negative Rules
CN102671381A (en) * 2011-03-08 2012-09-19 德信互动科技(北京)有限公司 Acoustic control-based game implementation device and method
CN102698434A (en) * 2011-03-28 2012-10-03 德信互动科技(北京)有限公司 Device and method for implementing game based on conversation
EP3373301A1 (en) 2017-03-08 2018-09-12 Panasonic Intellectual Property Management Co., Ltd. Apparatus, robot, method and recording medium having program recorded thereon

Also Published As

Publication number Publication date
JP2003202892A (en) 2003-07-18

Similar Documents

Publication Publication Date Title
Finch Key concepts in language and linguistics
Wilks et al. An artificial intelligence approach to machine translation
KR100746526B1 (en) Conversation processing apparatus and method, and recording medium therefor
CN110827821B (en) Voice interaction device and method and computer readable storage medium
WO2002023524A1 (en) Emotion recognizing method, sensibility creating method, device, and software
CN108874972A (en) A kind of more wheel emotion dialogue methods based on deep learning
Augello et al. Humorist bot: Bringing computational humour in a chat-bot system
KR20020067590A (en) Environment-responsive user interface/entertainment device that simulates personal interaction
KR20020067592A (en) User interface/entertainment device that simulates personal interaction and responds to user's mental state and/or personality
JP2004527808A (en) Self-updating user interface / entertainment device that simulates personal interaction
Marchi et al. Typicality and emotion in the voice of children with autism spectrum condition: Evidence across three languages
JP2004513444A (en) User interface / entertainment device that simulates personal interactions and augments external databases with relevant data
JP3857922B2 (en) Interactive game system, interactive game method, and program
JP4015424B2 (en) Voice robot system
JP3676981B2 (en) KANSEI GENERATION METHOD, KANSEI GENERATION DEVICE, AND SOFTWARE
Clifton Jr et al. Language comprehension and production
JP4451038B2 (en) Advice system and advice method
JP2003210835A (en) Character-selecting system, character-selecting device, character-selecting method, program, and recording medium
Sing et al. Towards a more natural and intelligent interface with embodied conversation agent
US20240095987A1 (en) Content generation
JP4451037B2 (en) Information search system and information search method
JP3848154B2 (en) Compatibility diagnosis system and compatibility diagnosis method
Pilato et al. EHeBby: An Evocative Humorist Chat‐Bot
Ahmed et al. Generation and classification of motivational-interviewing-style reflections for smoking behaviour change using few-shot learning with transformers. TechRxiv
Gaskell et al. Language processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070913

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100921

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4015424

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100921

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100921

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100921

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110921

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110921

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120921

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120921

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130921

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees