[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2010032763A - 語学学習を支援する装置および方法 - Google Patents

語学学習を支援する装置および方法 Download PDF

Info

Publication number
JP2010032763A
JP2010032763A JP2008194692A JP2008194692A JP2010032763A JP 2010032763 A JP2010032763 A JP 2010032763A JP 2008194692 A JP2008194692 A JP 2008194692A JP 2008194692 A JP2008194692 A JP 2008194692A JP 2010032763 A JP2010032763 A JP 2010032763A
Authority
JP
Japan
Prior art keywords
language
learning
knowledge
language knowledge
storage unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008194692A
Other languages
English (en)
Other versions
JP5202163B2 (ja
Inventor
Tetsuro Chino
哲朗 知野
Yasuyo Shibazaki
靖代 芝崎
Ran O
蘭 王
Naoko Sato
奈央子 佐藤
Masaaki Kikuchi
匡晃 菊池
Kaoru Suzuki
薫 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008194692A priority Critical patent/JP5202163B2/ja
Publication of JP2010032763A publication Critical patent/JP2010032763A/ja
Application granted granted Critical
Publication of JP5202163B2 publication Critical patent/JP5202163B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

【課題】実際のコミュニケーションで遭遇した表現を効率的に学習できる語学学習支援装置を提供すること。
【解決手段】自然言語解析で用いる言語知識を記憶する言語知識記憶部121と、言語知識と、言語知識に関する解説を表す解説情報とを対応づけて記憶する解説記憶部122と、利用者および他者のいずれかの発話を表す入力文字列を入力する入力部101と、言語知識に基づいて入力文字列を解析し、解析に用いた言語知識を特定する解析部102と、入力文字列が利用者および他者のいずれの発話であるかを判定する話者判定部103と、入力文字列が他者の発話である場合に、特定された言語知識に対応づけられた解説情報を解説記憶部から取得する解説取得部105と、取得された解説情報を利用者に出力する出力部106とを備えた。
【選択図】 図1

Description

この発明は、利用者の語学の学習を支援する装置および方法に関する。
語学習得の方法としては、(A)書籍などの教材を使った自習、(B)対面や通信での語学教師の直接指導による学習などが知られている。しかし、(A)の方法は、個人毎に適切な順序で適切な難易度の表現や構文等の知識を学ぶことができなかった。また、(B)の方法は、指導を受けるための費用や時間や手間が非常に大きいという問題があった。これらの問題を解決するために、(C)コンピュータを利用してインタラクティブに学習するe−Learningが開発され利用されている。
また、特許文献1では、入力文の構文解析に用いられた辞書情報に関する解説を出力することにより、構文構造に係る解説も提供可能であり、検索効率が良好な自然言語学習支援装置が提案されている。
特開2006−330628号公報
しかしながら、特許文献1の方法は、キーボードまたはWebページなどから入力された入力文の解析結果に関する解説によって自然言語を学習する方法であるため、利用者と他者との対話に関する学習には適していない。また、e−Learningではインタラクティブな学習が可能だが、模擬的な対話による学習のみしか行えなかった。すなわち、従来の方法では、実際のコミュニケーションが成される「現実の環境下での語学能力」を効率的に習得することができないという問題があった。言い換えれば、利用者が実際の遭遇した生きた表現を、その場で効率的に学ぶことができないという問題があった。
本発明は、上記に鑑みてなされたものであって、実際のコミュニケーションで遭遇した表現を効率的に学習できる装置および方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、自然言語解析処理で用いる処理用言語知識を記憶する知識記憶部と、前記処理用言語知識のうち語学学習に用いる学習用言語知識と、前記学習用言語知識に関する利用者向け解説を表す解説情報とを対応づけて記憶する解説記憶部と、利用者および前記利用者と異なる他者のいずれかの発話内容を表す入力文字列を入力する入力部と、前記処理用言語知識に基づいて前記入力文字列を自然言語解析処理し、当該自然言語解析処理に用いた前記処理用言語知識のうち前記学習用言語知識を特定する解析部と、前記入力文字列が前記利用者および前記他者のいずれの発話であるかを判定する判定部と、前記入力文字列が前記他者の発話である場合に、特定された前記学習用言語知識に対応づけられた前記解説情報を前記解説記憶部から取得する取得部と、取得された前記解説情報を前記利用者に出力する出力部と、を備えたことを特徴とする。
また、本発明は、上記装置を実行することができる方法である。
本発明によれば、実際のコミュニケーションで遭遇した表現を効率的に学習することができるという効果を奏する。
以下に添付図面を参照して、この発明にかかる装置および方法の最良な実施の形態を詳細に説明する。
本実施の形態にかかる語学学習支援装置は、語学学習支援装置の利用者、および、対話相手となる他者の発話を入力し、他者の発話で用いられている言語知識であって、利用者自身の発話で用いられていない言語知識に関する解説を利用者に提示する。
なお、以下では、日本語を母語とする話者(利用者)が英語会話を学習する語学学習支援装置に適用した例を説明するが、適用可能な装置はこれに限られず、利用者と他者との対話内で表現される言語の学習を支援するあらゆる装置に適用できる。
例えば、日本語と英語以外の言語間の会話を学習する装置に適用してもよい。また、日本語を母語とする利用者が正しい日本語を学習する装置、特定業界の業界用語や敬語の学習を支援する装置、および、年少者による日本語の学習を支援する装置などのように、ある1つの言語に関する学習を支援する装置に適用してもよい。また、日本語以外の外国語の学習を支援する装置に適用してもよい。また、学習可能な言語は1つに限られず、複数の言語を学習できるように構成してもよい。
図1は、本実施の形態にかかる語学学習支援装置100の構成を示すブロック図である。図1に示すように、語学学習支援装置100は、言語知識記憶部121と、解説記憶部122と、履歴記憶部123と、関連性記憶部124と、状況記憶部125と、入力部101と、解析部102と、話者判定部103と、保存部104と、解説取得部105と、出力部106と、を備えている。
言語知識記憶部121は、形態素解析、統語構造解析、および意味関係解析などの自然言語解析処理で用いる言語知識を表す処理用言語知識を記憶する。処理用言語知識には、単語、イディオム、慣用表現、対句表現、語形変化規則、形態素解析規則、統語構造解析規則、および意味関係解析規則などが含まれる。以下では、英語のイディオムに関する処理用言語知識を言語知識記憶部121に記録する場合を例に説明する。
図2は、言語知識記憶部121に記憶された処理用言語知識のデータ構造の一例を示す図である。図2に示すように、言語知識記憶部121の各エントリには、予め用意された処理用言語知識が、処理用言語知識を識別する言語知識IDを付して記録される。例えば、同図の言語知識ID=A1のエントリは、「take part in」という英語表現が、英語のイディオム(以下、英語イディオム表現という)であるという処理用言語知識を表している。同様に、同図の言語知識ID=A4のエントリは、「take up for」という英語表現が、英語イディオム表現であるという処理用言語知識を表している。
図1に戻り、解説記憶部122は、学習用言語知識それぞれの意味や使い方などの学習用言語知識に関する予め用意された解説情報を記憶する。なお、学習用言語知識とは、言語知識記憶部121に記録されている処理用言語知識のうち、語学学習に用いる処理用言語知識を意味する。また、本実施の形態では、図2に示した言語知識である英語イディオム表現の日本語の意味と、英語用例およびその日本語訳とが、学習言語知識の解説情報として解説記憶部122に記憶される。
図3は、解説記憶部122に記憶された解説情報のデータ構造の一例を示す図である。図3に示すように、解説記憶部122の各エントリには、解説情報を識別する解説IDと、言語知識IDと、日本語の意味と、英語用例とが対応づけられて記憶される。日本語の意味欄には、対応する学習用言語知識である英語イディオム表現に対する日本語の意味が記録される。英語用例欄には、対応する学習用言語知識である英語イディオム表現を用いた英語用例と、英語用例の日本語訳とが記録される。同図では、括弧内に日本語訳を記録する例が示されている。
図1に戻り、履歴記憶部123は、学習用言語知識ごとに、学習用言語知識を用いた表現を利用者が発話したことを表す履歴情報を記憶する。具体的には、履歴記憶部123は、履歴情報を識別する利用履歴IDと、言語知識IDと、利用者IDとを対応づけた履歴情報を記憶する。
図4は、履歴記憶部123に記憶された履歴情報のデータ構造の一例を示す図である。図4に示すように、履歴記憶部123の各エントリでは、言語知識IDの欄に、利用された学習用言語知識の言語知識IDが記録され、利用者IDの欄には、その学習用言語知識を含む言語表現を入力した利用者の利用者IDが記録される。
なお、同図では、利用者IDを「Un(nは自然数)」または「UX」で表している。「Un(nは自然数)」は、予め登録されている既知の利用者の利用者IDを表している。また、「UX」は、既知の利用者ではない未登録の利用者全般を表す利用者IDを表している。また、記号「−」は、未知の利用者を含め、いずれの利用者もその学習用言語知識を利用したことがない場合などのように、対応する学習用言語知識の利用を検知したことがないことを表している。
例えば、同図の利用履歴ID=C3のエントリは、言語知識ID=A3の学習用言語知識が、利用者ID=U2および利用者ID=U3の2人の利用者に利用されたことを表している。同様に、利用履歴ID=C2のエントリは、言語知識ID=A2の学習用言語知識が、利用者ID=UXの利用者、すなわち未登録の利用者のみに利用されたことを表している。さらに、利用履歴ID=C4のエントリの利用者IDが記号「−」であることから、言語知識ID=A4の学習用言語知識は、未知の利用者含め、いずれの利用者にも利用されていないことが示されている。
図1に戻り、関連性記憶部124は、学習用言語知識の間の関連性を表す関連性情報を記憶する。図5は、関連性記憶部124に記憶された関連性情報のデータ構造の一例を示す図である。
図5に示すように、関連性記憶部124の各エントリでは、関連性情報を識別する関連性IDと、言語知識ID1と、言語知識ID1の学習用言語知識に関連する他の学習用言語知識(関連知識)を識別する言語知識ID2と、関連性の種類とを含む関連性情報が記録される。同図では、関連性の種類の一例として、「基本/応用」、「類似」、「部分/全体」、および「一般/例外」が示されている。
「基本/応用」は、言語知識ID2の学習用言語知識が、基本の知識である言語知識ID1の学習用言語知識の応用を表す知識であることを意味する。例えば、同図の関連性ID=D2のエントリは、言語知識ID1=A1の学習用言語知識が、言語知識ID2=A3の学習用言語知識の「基本」となる知識であり、同時に、言語知識ID=A3の学習用言語知識が、言語知識ID1=A1の知識の「応用」となる知識であることを表している。
「類似」は、言語知識ID1の学習用言語知識と、言語知識ID2の学習用言語知識とが類似する知識であることを意味する。例えば、言語知識ID1の学習用言語知識が、英語の名詞「index」の複数形は、不規則に変化して「indices」になるという知識であるとする。また、言語知識ID2の学習用言語知識が、英語の名詞「vetex」の複数形は、不規則に変化して「vetices」になるという知識であるとする。これらは同様の不規則変化を表す知識であるため、類似する知識として関連性記憶部124に登録可能である。
「部分/全体」は、言語知識ID1の学習用言語知識が、言語知識ID2の学習用言語知識に含まれることを意味する。例えば、日本語の古文では、ラ行変格活用の動詞は、有り(あり)・居り(をり)・侍り(はべり)・いまそかりの4語に限られる。また、ナ行変格活用の動詞は、「死ぬ」「往ぬ(去ぬ)」の2語のみである。したがって、該当する動詞の個数が限られる活用がラ行変格活用およびナ行変格活用であることを表す学習用言語知識を言語知識ID2とし、ラ行変格活用に関する学習用言語知識またはナ行変格活用に関する学習用言語知識をそれぞれ言語知識ID1とすることにより、「部分/全体」の関連性を有する関連性情報を指定できる。
「一般/例外」は、言語知識ID2の学習用言語知識が、言語知識ID1の学習用言語知識の例外となる知識であることを意味する。例えば、言語知識ID1の学習用言語知識が、英語の単数形の名詞および名詞句には、冠詞(定冠詞「the」または不定冠詞「a」)が必ず先行するという知識であるとする。また、言語知識ID2の学習用言語知識が、「earth」、「king」、「sun」などのように唯一性を有する英語の名詞に関しては、冠詞が付かないという知識であるとする。言語知識ID2の学習用言語知識は、名詞に付与する冠詞に関する例外を表す知識であるため、名詞および名詞句に付与する冠詞に関する一般的な知識を表す言語ID1の学習用言語知識との間で「一般/例外」の関連性を有する知識として関連性記憶部124に登録可能である。
図1に戻り、状況記憶部125は、各学習用言語知識を含む言語表現が入力された日時などの発話状況を表す状況情報を記憶する。図6は、状況記憶部125に記憶された状況情報のデータ構造の一例を示す図である。
図6に示すように、状況記憶部125の各エントリは、状況情報を識別する状況IDと、言語知識IDと、入力日と、入力時刻と、発話者の利用者IDと、対話相手の利用者IDとを対応づけた状況情報を記憶する。
言語知識IDには、入力された言語表現に含まれていた学習用言語知識の言語知識IDが記録される。入力日には当該言語表現の入力時点の日付情報が記録される。また、入力時刻には当該言語表現の入力時点の時刻が記録される。発話者および対話相手には、話者判定部103(後述)の一連の出力を元に、それぞれ該言語表現を入力した話者の利用者IDと、対話相手の利用者IDとが記録される。
なお、状況情報に、音源方向、GPS(グローバルポジショニングシステム)により得られる位置情報、および利用環境に設置されたRFID(Radio Frequency Identification)タグなどから得られる情報などをさらに記憶するように構成してもよい。音源方向は、音源から複数マイクに到達する時間の差分や音圧の強さの違いを利用することで音源の方向を推定する方法などの従来から用いられているあらゆる技術を利用して得ることができる。
また、対話相手の利用者IDは、前後の発話の内容から対話相手を認識することにより特定してもよい。さらに、前後の発話の内容を状況情報として記録するように構成してもよい。また、発話の内容を解析し、話題や指示表現をさらに状況情報として記録するように構成してもよい。
なお、言語知識記憶部121、解説記憶部122、履歴記憶部123、関連性記憶部124、および状況記憶部125は、HDD(Hard Disk Drive)、光ディスク、メモリカード、RAM(Random Access Memory)などの一般的に利用されているあらゆる記憶手段により構成することができる。
図1に戻り、入力部101は、語学学習支援装置100に対する各種データの入力処理を実行する。例えば、入力部101は、利用者および他の人物が発話した音声を取り込んで音声認識し、認識結果をテキスト情報である言語入力情報(入力文字列)として出力する。例えば、入力部101は、まず利用者から発声された音声信号をマイクロフォンなどによってシステムに取り込み、電気信号に変えた後、A/D(アナログデジタル)変換装置などを用いて、微小な時間単位毎に標本化し、波形振幅の時間系列などのデジタルデータに変換する。
そして、入力部101は、デジタルデータに対して、例えばFFT(高速フーリエ変換)分析などの手法を適用することによって、例えば周波数の時間変化などを分析し、発声された音声信号の特徴データを抽出する。続いて、入力部101は、認識結果などと対応付けて予め辞書として用意している例えば音素などの標準パターンまたはその系列と、抽出した特徴データとを比較照合し、発声内容の認識候補を生成する。比較照合する方法としては、HMM(隠れマルコフモデル)、DP(ダイナミックプログラミング)、およびNN(ニューラルネットワーク)などの従来から用いられているあらゆる方法を適用できる。さらに、入力部101は、認識精度を高めるために、生成された認識候補に対して、例えばn−gramなどに代表される統計的な言語モデルを利用して最も確からしい候補を推定選択することなどによって、発声内容を認識する。
解析部102は、入力部101から出力される入力文字列を、言語知識記憶部121に記憶された処理用言語知識を参照して解析する。そして、解析部102は、入力文字列中に含まれる学習用言語知識を特定する。例えば、解析部102は、処理用言語知識のうち、予め定められた処理用言語知識を学習用言語知識として特定する。本実施の形態では、解析部102は、単語、イディオム、慣用表現、対句表現、語形変化規則、形態素解析規則、統語構造解析規則、および意味関係解析規則などの処理用言語知識のうち、語学学習に有用なイディオムに関する処理用言語知識を学習用言語知識として特定する。
なお、学習用言語知識として特定する処理用言語知識は、イディオムに限られず、単語、イディオム、慣用表現、対句表現、語形変化規則、形態素解析規則、統語構造解析規則、および意味関係解析規則などのうち、いずれか1つ以上の処理用言語知識を学習用言語知識として特定するように構成することができる。
また、学習用言語知識の特定方法は上記に限られるものではない。例えば、解析部102が、解説記憶部122に記憶された言語知識IDと一致する処理用言語知識を学習用言語知識として特定するように構成してもよい。また、解析部102が、解析時に利用した処理用言語知識のすべてを学習用言語知識として特定するように構成してもよい。このような場合であっても、語学学習に有用な処理用言語知識の解説情報のみを解説記憶部122に登録しておけば、語学学習に役立たない処理用言語知識の解説が利用者に提示されることはない。
解析部102は、入力文字列中に含まれる単語や形態素を抽出する形態素解析処理、文法規則や統計情報に基づいて抽出された単語や形態素の間の統語的な構造を抽出する構文解析処理、および抽出された単語や形態素の間の依存関係などの意味的な関係や係受け構造を抽出する意味解析処理などを実行する。以下では、解析部102が、入力文字列に含まれる単語を抽出し、言語知識記憶部121に記録されている英語イディオム表現が含まれているかを解析する場合を例に説明する。
話者判定部103は、入力部101が取り込んだ音声の話者を同定する。話者判定部103による話者判定処理では、特定の利用者を識別するための特徴情報と入力された音声の特徴情報とを比較して話者を判定する方法などの従来から用いられているあらゆる話者判定技術を適用できる。なお、話者判定部103は、語学学習支援装置100を利用する少なくとも一人以上の特定の利用者のそれぞれと、それ以外の利用者とを識別する。特定の利用者を識別するための特徴情報は、事前の学習処理などで予め語学学習支援装置100内の記憶部(図示せず)に保存しておくものとする。
保存部104は、履歴記憶部123に対する履歴情報の保存、および状況記憶部125に対する状況情報の保存を実行する。例えば、保存部104は、入力文字列の話者が特定の利用者であると判定された場合に、入力文字列の解析時に参照された学習用言語知識の言語知識IDと、判定された利用者の利用者IDとを対応づけた履歴情報を履歴記憶部123に保存する。言語知識IDの履歴情報が履歴記憶部123に既に記録されている場合は、保存部104は、記録済みの履歴情報の利用者ID欄に、判定された利用者の利用者IDを追加する。
解説取得部105は、入力文字列の話者が語学学習支援装置100の利用者以外の他者であると判定され、語学学習支援装置100の現在の利用者が、入力文字列の解析時に参照された学習用言語知識を利用したことを表す履歴情報が履歴記憶部123に記録されていない場合に、参照された学習用言語知識に対応する解説情報を解説記憶部122から取得する。
出力部106は、取得された解説情報を入力文字列などとともに利用者に出力する。出力部106は、解説情報を、文字情報または音声情報の少なくとも一方によって利用者に提示する。例えば、出力部106は、文字情報を表示可能なディスプレイ装置に文字情報として解説情報等を提示する。また、出力部106は、文字情報である解説情報等を従来から用いられている音声合成技術によって合成した合成音声をスピーカ等(図示せず)によって出力する。また、出力部106は、文字情報として出力する解説情報を、定型的な穴あきテンプレートに当てはめて生成する方法などの従来から用いられているあらゆる方法により生成することができる。
次に、このように構成された本実施の形態にかかる語学学習支援装置100による学習支援処理について図7を用いて説明する。図7は、本実施の形態における学習支援処理の全体の流れを示すフローチャートである。
まず、入力部101は、語学学習支援装置100の現在の利用者(以下、利用者UCとする)の利用者IDを入力する(ステップS701)。例えば、入力部101は、キーボードまたはテンキーなどの操作部(図示せず)から、現在、語学学習支援装置100を利用している利用者によって指定または入力された利用者IDを入力する。複数の利用者が利用する場合は、例えば、事前に登録されて記憶部等に保存された複数の利用者IDから、利用者が自身の利用者IDを指定するように構成することができる。
なお、現在の利用者の利用者IDの入力方法はこれに限られるものではない。例えば、語学学習支援装置100の利用者が1人に限定される場合は、事前に登録されて記憶部等に保存された利用者IDを取得するように構成してもよい。
次に、入力部101は、音声が入力されたか否かを判断し(ステップS702)、入力されていない場合は(ステップS702:NO)、入力されるまで待機する。音声(以下、音声Vとする)が入力された場合は(ステップS702:YES)、入力部101は、入力された音声Vを音声認識し、入力文字列を表す認識結果Rを生成する(ステップS703)。
次に、解析部102が、言語知識記憶部121に記憶された各種処理用言語知識を参照し、認識結果Rに対して自然言語解析処理を実行する(ステップS704)。例えば、解析部102は、認識結果Rに対する形態素解析処理、形態素解析結果に対する構文解析処理、および意味解析処理などを実行する。
そして、解析部102は、認識結果Rの解析時に参照した学習用言語知識(以下、学習用言語知識Kとする)が存在するか否かを判断する(ステップS705)。例えば、解析部102は、解析処理中に、言語知識記憶部121内の処理用言語知識のうち参照した処理用言語知識であって、学習用言語知識として予め定められた処理用言語知識の言語知識IDを記憶部等に一時的に記憶しておき、この記憶部を参照することにより参照した学習用言語知識を特定する。参照した学習用言語知識Kが存在しない場合は(ステップS705:NO)、次の音声を入力して処理を繰り返す(ステップS702)。
参照した学習用言語知識Kが存在する場合(ステップS705:YES)、話者判定部103が、音声Vの話者(以下、話者Uとする)を判定する(ステップS706)。次に、保存部104が、参照した学習用言語知識K、対応する音声Vが入力された入力日および入力時刻、判定された話者Uの利用者IDを含む状況情報(以下、状況情報Sとする)を状況記憶部125に記録する(ステップS707)。
次に、保存部104は、話者Uと利用者UCとが一致するか否かを判断する(ステップS708)。なお、保存部104は、例えば、話者判定部103が話者の判定時に利用する利用者の特徴情報に対応づけられた利用者IDと、ステップS701で入力された利用者UCの利用者IDとを比較することにより話者Uと利用者UCとの一致を判断する。
話者Uと利用者UCとが一致する場合(ステップS708:YES)、保存部104は、学習用言語知識Kと一致する言語知識ID2に対応づけられたすべての言語知識ID1を関連性記憶部124から取得し、取得した言語知識ID1の学習用言語知識それぞれを話者Uが利用したことを表す履歴情報を履歴記憶部123に保存する(ステップS709)。
例えば、学習用言語知識Kが図2の言語知識ID=A2の学習用言語知識であった場合、図5のような関連性記憶部124から、言語知識ID=A2が学習用言語知識ID2と一致する関連性ID=D1の関連性情報が検索できる。そして、この関連性情報の言語知識ID1欄に設定された言語知識ID=A1の学習用言語知識が取得できる。したがって、保存部104は、言語知識ID=A1の学習用言語知識の履歴情報として、話者Uの利用者IDを含む履歴情報を履歴記憶部123に保存する。
なお、履歴情報を履歴記憶部123に保存した後は、解説情報の取得処理および出力処理を実行せず、次の音声を入力して処理を繰り返す(ステップS702)。話者Uが利用者UCと一致する場合は、入力された音声は利用者UC自身が発話したことを意味するので、発話内容から得られる学習用言語知識を利用者UCに提示する必要がないからである。
話者Uと利用者UCとが一致しない場合(ステップS708:NO)、保存部104は、さらに、話者Uに学習用言語知識Kの利用履歴が存在するか否かを判断する(ステップS710)。具体的には、保存部104は、履歴記憶部123内に、学習用言語知識Kの言語知識IDに対応する履歴情報が存在し、かつ、当該履歴情報の利用者IDに、話者Uの利用者IDが含まれるか否かを判断する。
話者Uに学習用言語知識Kの利用履歴が存在しない場合(ステップS710:NO)、保存部104は、話者Uが学習用言語知識Kを利用したことを表す履歴情報を履歴記憶部123に保存する(ステップS711)。例えば、既に学習用言語知識Kの履歴情報が履歴記憶部123に記録されている場合は、保存部104は、当該履歴情報の利用者ID欄に、話者Uの利用者IDを追加する。また、例えば、学習用言語知識Kの履歴情報が履歴記憶部123に記録されていない場合は、保存部104は、学習用言語知識Kの言語知識IDと話者Uの利用者IDとを対応づけた履歴情報を新たに生成して履歴記憶部123に保存する。
話者Uに学習用言語知識Kの利用履歴が存在する場合(ステップS710:YES)、または、ステップS711で履歴情報を保存した後、解説取得部105が、利用者UCに学習用言語知識Kの利用履歴が存在するか否かを判断する(ステップS712)。具体的には、解説取得部105は、履歴記憶部123内に、学習用言語知識Kの言語知識IDに対応する履歴情報が存在し、かつ、当該履歴情報の利用者IDに、利用者UCの利用者IDが含まれるか否かを判断する。
利用者UCに学習用言語知識Kの利用履歴が存在する場合は(ステップS712:YES)、利用者UCに学習用言語知識Kに関する解説を出力する必要がないため、次の音声を入力して処理を繰り返す(ステップS702)。
利用者UCに学習用言語知識Kの利用履歴が存在しない場合は(ステップS712:NO)、解説取得部105が、学習用言語知識Kに対応する解説情報(以下、解説Eとする)を解説記憶部122から取得する(ステップS713)。具体的には、解説取得部105は、学習用言語知識Kの言語知識IDに対応する日本語の意味、英語用例および英語用例の日本語訳とを含む解説情報を取得する。
次に、解説取得部105は、学習用言語知識Kに対応する解説Eが取得できたか否かを判断する(ステップS714)。取得できなかった場合は(ステップS714:NO)、次の音声を入力して処理を繰り返す(ステップS702)。
取得できた場合は(ステップS714:YES)、出力部106が、状況情報S、認識結果R、および解説Eを利用者に提示する(ステップS715)。なお、出力部106は、これらのすべての情報を出力する必要はなく、少なくとも解説Eを利用者に提示すればよい。
次に、学習支援処理の具体例について説明する。図8は、本実施の形態の語学学習支援装置100による学習支援処理の具体例を示す図である。
まず、現在の語学学習支援装置100の利用者が日本語を母語とする話者であり、利用者ID=U3であるものとする。また、その対話相手は、米国の旅行代理店の英語を母語とする話者であり、語学学習支援装置100に未登録であるため、利用者ID=UXであるものとする。また、以下の説明の中で、「SYSTEM」とは語学学習支援装置100を表すものとする。さらに、以下では利用者ID=U3の話者を話者U3といい、利用者ID=UXの話者を話者UXという。
また、以下の例では、言語知識記憶部121、解説記憶部122、履歴記憶部123、および関連性記憶部124に、それぞれ図2、図3、図4、および図5のようなデータが記憶されていることを前提とする。
最初に、時点T1で、話者U3が、対話相手の話者UXに対して、「Hello」と挨拶をしたとする。このとき、語学学習支援装置100は、音声V1を検知し(ステップS702)、音声V1を音声認識する(ステップS703)。また、言語知識記憶部121を参照して、この発話に含まれる学習用言語知識を探索する(ステップS704、ステップS705)。しかし、図2の言語知識記憶部121には、「Hello」に対応する学習用言語知識が存在しないため(ステップS705:NO)、ステップS702に戻る。
時点T2で、話者UXが「May I help you?」と発話したとする。この場合も対応する音声V2に対して同様の処理が実行されるが、図2の言語知識記憶部121には、この発話に含まれる学習用言語知識も存在しないため、ステップS702に戻る。
時点T3およびT4にそれぞれ対応する音声V3およびV4についても同様の処理が実行される。この場合も、対応する学習用言語知識が存在しないため、ステップS702に戻る。
時点T5で、話者U3が、音声V5を入力し(ステップS702)、音声認識によって認識結果=「Could you TAKE some place FOR INSTANCE?」が得られたとする(ステップS703)。なお、説明の便宜のため、認識結果内の一部の単語を大文字で記載している。
この認識結果に対して言語解析が行われる(ステップS704)。この例では、認識結果中に、図2の言語知識記憶部121の言語知識ID=A3に対応する英語イディオム表現が使われていることが検出される(ステップS705:YES)。
このため、話者判定処理が実行され、音声V5が話者U3によって発話されたことが検出される(ステップS706)。続いて、検出された言語知識ID=A3が、話者U3によって、時点T5に対応する時刻に利用されたことを表す状況情報が、状況記憶部125に保存される(ステップS707)。
この場合は、判定された話者U3と語学学習支援装置100の現在の利用者とが一致するため(ステップS708:YES)、関連性記憶部124を参照して、今回利用された言語知識ID=A3の基本となる学習用言語知識が探索される。この例では、図5のD2のエントリから、言語知識ID=A1が、言語知識ID=A3の学習用言語知識との間に「基本/応用」の関係があることが発見される。そこで、履歴記憶部123の、言語知識ID=A1に対応するエントリC1の利用者IDの欄に「U3」が追加される。
以上の処理によって、この後、言語知識ID=A1に関連する音声が入力された際にも、言語知識ID=A1の応用知識である言語知識ID=A3を既に利用した話者U3に対しては、基本知識である言語知識ID=A1の解説は提示されないようにすることができる。
また、この場合は解説を出力せずにステップS702に戻る。これにより、利用者自身が利用した学習用言語知識については、解説が提示されないようにすることができる。
この後、時点T6およびT7にそれぞれ対応する音声V6およびV7についても同様の処理が実行される。この場合は、対応する学習用言語知識が存在しないため、ステップS702に戻る。
時点T8に入力された音声V8については、その認識結果中に、言語知識ID=A1に対応する英語イディオム表現「TAKE PART IN」が含まれていることが検出される(ステップS705:YES)。しかし、上述の時点T5の音声V5に対する処理で、言語知識ID=A1より高度な(応用関係にある)言語知識ID=A3の学習用言語知識を話者U3自身が使用したことが検出されている。そして、履歴記憶部123の言語知識ID=A1に対応するエントリC1の利用者IDの欄に「U3」が追加されている。このため、この履歴情報を参照することにより、話者U3に対しては言語知識ID=A1についての解説も不要であることが判断できる(ステップS712:YES)。したがって、言語知識ID=A1についての解説情報は提示されない。
時点T9に入力された音声V9についても同様の処理が実行されるが、対応する学習用言語知識が存在しないため、解説情報は提示されずにステップS702に戻る。
時点T10に入力された話者UXの音声V10については、認識結果「I'll TAKE UP FOR you to get the best hotel to see it.」の中に、言語知識ID=A4に対応する英語イディオム表現「take up for」が含まれていることが検出される(ステップS705)。また、この音声V10の話者が未知の話者UXであることが検出される(ステップS706)。さらに、検出された言語知識ID=A4が、話者UXから話者U3に対して、時点T10に対応する時刻に利用されたことを表す状況情報が、状況記憶部125に保存される(ステップS707)。
そして、検出された話者UXに言語知識ID=A4の学習用言語知識の利用履歴が存在するかが判断される(ステップS710)。図4に示すように言語知識ID=A4を利用した話者は存在しないため(ステップS710:NO)、履歴記憶部123の言語知識ID=C4に対応するエントリの利用者ID欄に「UX」が追加される(ステップS711)。
現在の利用者である話者U3には言語知識ID=A4の学習用言語知識の利用実績はないため(ステップS712:NO)、解説取得部105が、対応する解説情報を解説記憶部122から取得する(ステップS713)。具体的には、図3のような解説記憶部122から、言語知識ID=A4に対応する解説ID=B4のエントリを検出する。
対応する解説情報が取得されたため(ステップS714)、時点T11では、出力部106が、英語イディオム表現の日本語の意味と、英語用例と、その日本語訳とを含む解説を、現在の利用者である話者U3に対して提示する(ステップS715)。
図8に示すように、出力部106は、取得した日本語の意味、英語用例、および日本語訳をそれぞれ事前に定められたテンプレートに当てはめることにより、「今の英語に現れた「TAKE UP FOR」という英語イディオムは、「〜の身方をする」という意味です。例えば、「She TOOK UP FOR her friend.」ということで、「彼女は友達の味方をした」という意味を表せます。」などのような解説E1を出力する。
以上の処理によって、利用者が今まで使ったことのない学習用言語知識を含む音声が入力されたときに、その学習用言語知識の意味や用例などを含む解説情報を利用者に適切に提示することが可能となる。
時点T12に入力された音声V11についても同様の処理が実行されるが、対応する学習用言語知識が存在しないため、解説情報は提示されずにステップS702に戻る。
このように、本実施の形態にかかる語学学習支援装置では、利用者が発する言語表現と利用者以外の者が発する言語表現を区別して常時監視し、分析した結果を記録する。そして、利用者が使ったことのない学習用言語知識を含む表現を利用者以外の者が利用者に向けて発したことを検出し、当該学習用言語知識に関する解説を利用者に提示する。
これにより、実際のコミュニケーションで遭遇した表現を効率的に学習することが可能となる。また、利用者の学習用言語知識の利用履歴を記録し、過去に利用した学習用言語知識については解説を出力しないため、利用者が既に使っている表現や学習用言語知識についての無用な教育が行われて学習の効率が低下することを回避できる。
なお、これまでは、利用者が知らない学習用言語知識を含む表現に遭遇した際に即時に解説情報を提示する例を示した。しかし、状況記憶部125には、発話の状況に関する情報が記録されているので、状況記憶部125に記録された情報を元に事後的に学習することも可能である。この場合、さらに実際の対話の内容を録音または録画等して記憶部等に保存し、事後の学習時に参照可能とするように構成してもよい。
また、これまでは発話を表す音声情報が入力される場合を例として説明したが、メイル、チャット、および文書などのテキスト情報の形式、およびスキャナやカメラ等で入力される画像情報の形式で入力される言語情報に対しても同様の処理を実現することができる。同様に、手書き文字を認識してテキスト情報を入力する場合にも適用できる。
次に、本実施の形態にかかる語学学習支援装置のハードウェア構成について図9を用いて説明する。図9は、本実施の形態にかかる語学学習支援装置のハードウェア構成を示す説明図である。
本実施の形態にかかる語学学習支援装置は、CPU(Central Processing Unit)51などの制御装置と、ROM(Read Only Memory)52やRAM53などの記憶装置と、ネットワークに接続して通信を行う通信I/F54と、各部を接続するバス61を備えている。
本実施の形態にかかる語学学習支援装置で実行される語学学習支援プログラムは、ROM52等に予め組み込まれて提供される。
本実施の形態にかかる語学学習支援装置で実行される語学学習支援プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
さらに、本実施の形態にかかる語学学習支援装置で実行される語学学習支援プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施の形態にかかる語学学習支援装置で実行される語学学習支援プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
本実施の形態にかかる語学学習支援装置で実行される語学学習支援プログラムは、上述した各部(入力部、解析部、話者判定部、保存部、解説取得部、出力部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU51が上記ROM52から語学学習支援プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、各部が主記憶装置上に生成されるようになっている。
以上のように、本発明にかかる装置および方法は、他者との対話で入力される言語表現を学習する装置および方法に適している。
本実施の形態にかかる語学学習支援装置の構成を示すブロック図である。 言語知識記憶部に記憶された処理用言語知識のデータ構造の一例を示す図である。 解説記憶部に記憶された解説情報のデータ構造の一例を示す図である。 履歴記憶部に記憶された履歴情報のデータ構造の一例を示す図である。 関連性記憶部に記憶された関連性情報のデータ構造の一例を示す図である。 状況記憶部に記憶された状況情報のデータ構造の一例を示す図である。 本実施の形態における学習支援処理の全体の流れを示すフローチャートである。 本実施の形態の語学学習支援装置による学習支援処理の具体例を示す図である。 本実施の形態にかかる語学学習支援装置のハードウェア構成を示す説明図である。
符号の説明
51 CPU
52 ROM
53 RAM
54 通信I/F
61 バス
100 語学学習支援装置
101 入力部
102 解析部
103 話者判定部
104 保存部
105 解説取得部
106 出力部
121 言語知識記憶部
122 解説記憶部
123 履歴記憶部
124 関連性記憶部
125 状況記憶部

Claims (10)

  1. 自然言語解析処理で用いる処理用言語知識を記憶する知識記憶部と、
    前記処理用言語知識のうち語学学習に用いる学習用言語知識と、前記学習用言語知識に関する利用者向け解説を表す解説情報とを対応づけて記憶する解説記憶部と、
    利用者および前記利用者と異なる他者のいずれかの発話内容を表す入力文字列を入力する入力部と、
    前記処理用言語知識に基づいて前記入力文字列を自然言語解析処理し、当該自然言語解析処理に用いた前記処理用言語知識のうち前記学習用言語知識を特定する解析部と、
    前記入力文字列が前記利用者および前記他者のいずれの発話であるかを判定する判定部と、
    前記入力文字列が前記他者の発話である場合に、特定された前記学習用言語知識に対応づけられた前記解説情報を前記解説記憶部から取得する取得部と、
    取得された前記解説情報を前記利用者に出力する出力部と、
    を備えたことを特徴とする語学学習支援装置。
  2. 前記学習用言語知識ごとに、前記学習用言語知識を用いた前記入力文字列を前記利用者が発話したことを表す履歴情報を記憶可能な履歴記憶部と、
    前記入力文字列が前記利用者の発話である場合に、特定された前記学習用言語知識の前記履歴情報を前記履歴記憶部に保存する保存部と、をさらに備え、
    前記取得部は、特定された前記学習用言語知識の前記履歴情報が前記履歴記憶部に記憶されているか否かを判定し、記憶されていない場合に、特定された前記学習用言語知識に対応づけられた前記解説情報を前記解説記憶部から取得すること、
    を特徴とする請求項1に記載の語学学習支援装置。
  3. 前記履歴記憶部は、前記学習用言語知識と、前記学習用言語知識を用いた前記入力文字列を発話した前記利用者を識別する識別情報とを対応づけた前記履歴情報を記憶し、
    前記保存部は、前記入力文字列が前記利用者の発話である場合に、特定された前記学習用言語知識と、前記利用者の前記識別情報とを対応づけた前記履歴情報を前記履歴記憶部に保存し、
    前記取得部は、特定された前記学習用言語知識と前記利用者の前記識別情報とを対応づけた前記履歴情報が前記履歴記憶部に記憶されているか否かを判定し、記憶されていない場合に、特定された前記学習用言語知識に対応づけられた前記解説情報を前記解説記憶部から取得すること、
    を特徴とする請求項2に記載の語学学習支援装置。
  4. 前記学習用言語知識と、前記学習用言語知識に関連する他の学習用言語知識を表す関連知識とを対応づけて記憶する関連性記憶部をさらに備え、
    前記保存部は、さらに、前記入力文字列が前記利用者の発話である場合に、特定された前記学習用言語知識と一致する前記関連知識に対応づけられた前記学習用言語知識を前記関連性記憶部から取得し、取得した前記学習用言語知識の前記履歴情報を前記履歴記憶部に保存すること、
    を特徴とする請求項2に記載の語学学習支援装置。
  5. 前記関連性記憶部は、前記学習用言語知識と、前記学習用言語知識を応用した他の学習用言語知識、前記学習用言語知識と類似する他の学習用言語知識、前記学習用言語知識を一部に含む他の学習用言語知識、および、前記学習用言語知識の例外となる他の学習用言語知識の少なくとも1つである前記関連知識とを対応づけて記憶すること、
    を特徴とする請求項4に記載の語学学習支援装置。
  6. 前記入力文字列と、前記入力文字列が発話された状況を表す情報であって、前記入力文字列が発話された日時、場所を含む状況情報とを対応づけて記憶する状況記憶部をさらに備え、
    前記出力部は、さらに、取得された前記解説情報と前記状況情報とを前記利用者に出力すること、
    を特徴とする請求項1に記載の語学学習支援装置。
  7. 前記入力部は、前記他者の発話を表す第1言語による前記入力文字列を入力し、
    前記知識記憶部は、前記第1言語による前記入力文字列に対する自然言語解析処理で用いる前記処理用言語知識を記憶し、
    前記解説記憶部は、前記学習用言語知識と、第2言語で表された前記解説情報とを対応づけて記憶し、
    前記取得部は、前記入力文字列が前記他者の発話である場合に、特定された前記学習用言語知識に対応づけられ、前記第2言語で表された前記解説情報を前記解説記憶部から取得し、
    前記出力部は、前記第2言語で表された前記解説情報を前記利用者に出力すること、
    を特徴とする請求項1に記載の語学学習支援装置。
  8. 前記入力部は、前記利用者および前記他者のいずれかの発話を表す音声を音声認識して得られる前記入力文字列を入力すること、
    を特徴とする請求項1に記載の語学学習支援装置。
  9. 前記入力部は、前記入力文字列を含む画像を画像認識して得られる前記入力文字列を入力すること、
    を特徴とする請求項1に記載の語学学習支援装置。
  10. 語学学習支援装置で実行される語学学習支援方法であって、
    前記語学学習支援装置は、
    自然言語解析処理で用いる処理用言語知識を記憶する知識記憶部と、
    前記処理用言語知識のうち語学学習に用いる学習用言語知識と、前記学習用言語知識に関する利用者向け解説を表す解説情報とを対応づけて記憶する解説記憶部と、を備え、
    入力部が、利用者および前記利用者と異なる他者のいずれかの発話内容を表す入力文字列を入力する入力ステップと、
    解析部が、前記処理用言語知識に基づいて前記入力文字列を自然言語解析処理し、当該自然言語解析処理に用いた前記処理用言語知識のうち前記学習用言語知識を特定する解析ステップと、
    判定部が、前記入力文字列が前記利用者および前記他者のいずれの発話であるかを判定する判定ステップと、
    取得部が、前記入力文字列が前記他者の発話である場合に、特定された前記学習用言語知識に対応づけられた前記解説情報を前記解説記憶部から取得する取得ステップと、
    出力部が、取得された前記解説情報を前記利用者に出力する出力ステップと、
    を備えたことを特徴とする語学学習支援方法。
JP2008194692A 2008-07-29 2008-07-29 語学学習を支援する装置および方法 Active JP5202163B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008194692A JP5202163B2 (ja) 2008-07-29 2008-07-29 語学学習を支援する装置および方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008194692A JP5202163B2 (ja) 2008-07-29 2008-07-29 語学学習を支援する装置および方法

Publications (2)

Publication Number Publication Date
JP2010032763A true JP2010032763A (ja) 2010-02-12
JP5202163B2 JP5202163B2 (ja) 2013-06-05

Family

ID=41737310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008194692A Active JP5202163B2 (ja) 2008-07-29 2008-07-29 語学学習を支援する装置および方法

Country Status (1)

Country Link
JP (1) JP5202163B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10866781B2 (en) 2017-12-06 2020-12-15 Toyota Jidosha Kabushiki Kaisha Information processor

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981184A (ja) * 1995-09-12 1997-03-28 Toshiba Corp 対話支援装置
JP2000089780A (ja) * 1998-09-08 2000-03-31 Seiko Epson Corp 音声認識方法および音声認識装置
WO2000049599A1 (fr) * 1999-02-19 2000-08-24 Sony Corporation Traducteur de sons vocaux, procede de traduction de sons vocaux et support d'enregistrement sur lequel est enregistre un programme de commande de traduction de sons vocaux
JP2003302996A (ja) * 2002-04-11 2003-10-24 Yamagata Univ Research Institute 情報処理システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981184A (ja) * 1995-09-12 1997-03-28 Toshiba Corp 対話支援装置
JP2000089780A (ja) * 1998-09-08 2000-03-31 Seiko Epson Corp 音声認識方法および音声認識装置
WO2000049599A1 (fr) * 1999-02-19 2000-08-24 Sony Corporation Traducteur de sons vocaux, procede de traduction de sons vocaux et support d'enregistrement sur lequel est enregistre un programme de commande de traduction de sons vocaux
JP2003302996A (ja) * 2002-04-11 2003-10-24 Yamagata Univ Research Institute 情報処理システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10866781B2 (en) 2017-12-06 2020-12-15 Toyota Jidosha Kabushiki Kaisha Information processor

Also Published As

Publication number Publication date
JP5202163B2 (ja) 2013-06-05

Similar Documents

Publication Publication Date Title
JP3848319B2 (ja) 情報処理方法及び情報処理装置
US10672391B2 (en) Improving automatic speech recognition of multilingual named entities
US8924210B2 (en) Text processing using natural language understanding
Le et al. Automatic speech recognition for under-resourced languages: application to Vietnamese language
JP6251958B2 (ja) 発話解析装置、音声対話制御装置、方法、及びプログラム
US6910012B2 (en) Method and system for speech recognition using phonetically similar word alternatives
US20170206897A1 (en) Analyzing textual data
US7966173B2 (en) System and method for diacritization of text
CN104598644B (zh) 喜好标签挖掘方法和装置
JP2001100781A (ja) 音声処理装置および音声処理方法、並びに記録媒体
US20090138266A1 (en) Apparatus, method, and computer program product for recognizing speech
JP2001101187A (ja) 翻訳装置および翻訳方法、並びに記録媒体
JP2008209717A (ja) 入力された音声を処理する装置、方法およびプログラム
WO2000045376A1 (en) A method and apparatus for interactive source language expression recognition and alternative hypothesis presentation and selection
WO2000045290A9 (en) A method and apparatus for adaptive speech recognition hypothesis construction and selection in a spoken language translation system
JP2001188777A (ja) 音声をテキストに関連付ける方法、音声をテキストに関連付けるコンピュータ、コンピュータで文書を生成し読み上げる方法、文書を生成し読み上げるコンピュータ、コンピュータでテキスト文書の音声再生を行う方法、テキスト文書の音声再生を行うコンピュータ、及び、文書内のテキストを編集し評価する方法
CN108710653B (zh) 一种绘本朗读点播方法、装置及系统
CN114120985B (zh) 智能语音终端的安抚交互方法、系统、设备及存储介质
JP2002062891A (ja) 音素割当て方法
Labied et al. Moroccan Dialect “Darija” automatic speech recognition: a survey
Dyriv et al. The user's psychological state identification based on Big Data analysis for person's electronic diary
KR20130126570A (ko) 핵심어에서의 음소 오류 결과를 고려한 음향 모델 변별 학습을 위한 장치 및 이를 위한 방법이 기록된 컴퓨터 판독 가능한 기록매체
Marie-Sainte et al. A new system for Arabic recitation using speech recognition and Jaro Winkler algorithm
JP2000172294A (ja) 音声認識方法、その装置及びプログラム記録媒体
Sazhok et al. Punctuation Restoration for Ukrainian Broadcast Speech Recognition System based on Bidirectional Recurrent Neural Network and Word Embeddings.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120417

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120911

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121207

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20121217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130212

R151 Written notification of patent or utility model registration

Ref document number: 5202163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160222

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350