[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2010282083A - Incorrect recognition correction device, method and program - Google Patents

Incorrect recognition correction device, method and program Download PDF

Info

Publication number
JP2010282083A
JP2010282083A JP2009136261A JP2009136261A JP2010282083A JP 2010282083 A JP2010282083 A JP 2010282083A JP 2009136261 A JP2009136261 A JP 2009136261A JP 2009136261 A JP2009136261 A JP 2009136261A JP 2010282083 A JP2010282083 A JP 2010282083A
Authority
JP
Japan
Prior art keywords
unit
misrecognition
misrecognized
location
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009136261A
Other languages
Japanese (ja)
Inventor
Shuhei Oda
修平 織田
Masahide Mizushima
昌英 水島
Kenichi Furuya
賢一 古家
Yoichi Haneda
陽一 羽田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009136261A priority Critical patent/JP2010282083A/en
Publication of JP2010282083A publication Critical patent/JP2010282083A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device etc. for efficiently correcting a speech recognition result. <P>SOLUTION: In the invention, a correction operation is composed of two operations of: (1) specifying an incorrect recognition part; and (2) correcting the specified incorrect recognition part. In the two operations, (1) specifying the incorrect operation is (2) performed by a person other than the corrector who corrects the specified incorrect part, and thereby, a burden of the corrector is reduced. For example, specifying the incorrect recognition part is performed by a hearing impaired person. The incorrect recognition part may be automatically specified by using reliability and a degree of closeness. Moreover, when the incorrect part is specified, a priority order of the incorrect recognition part is determined, and correction of the incorrect recognition part can be performed by the corrector in the order from the incorrect recognition part with higher priority. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

この発明は、音声認識をする際に生じた誤認識箇所を推定し、その誤認識箇所を訂正する技術に関する。   The present invention relates to a technique for estimating a misrecognized portion that occurs during speech recognition and correcting the misrecognized portion.

音声認識とは、人が話した音声の音響信号をコンピュータ等により解析して、文字データに変換することをいう。変換にはある程度の間違いは避けられず、変換の誤りを含む部分である誤認識箇所が生じる。
従来、誤認識箇所を訂正するために、1人の訂正者が、音声認識結果である文章を目視して誤認識箇所を特定して、特定された誤認識箇所のすべてを特定された順に訂正していた(例えば、非特許文献1、非特許文献2参照。)。
Speech recognition means that a sound signal of speech spoken by a person is analyzed by a computer or the like and converted into character data. A certain degree of error is unavoidable in the conversion, and a misrecognized portion that is a part including a conversion error occurs.
Conventionally, in order to correct misrecognized parts, one corrector visually identifies the sentence as the voice recognition result, identifies the misrecognized parts, and corrects all the identified misrecognized parts in the specified order. (See, for example, Non-Patent Document 1 and Non-Patent Document 2.)

小林正幸、西川俊、石原保志、「聴覚障害者のための音声認識を活用したリアルタイム字幕挿入システム(1)」、信学技法、社団法人電子情報通信学会、P.41−48Masayuki Kobayashi, Shun Nishikawa, Yoshi Ishihara, “Real-time caption insertion system using speech recognition for the hearing impaired (1)”, IEICE Tech. 41-48 今井亨、「放送における情報バリアフリーのための研究開発〜生字幕製作のための音声認識〜」、放送技術、2008年8月、P.89−93Satoshi Imai, “Research and Development for Information Barrier-Free in Broadcasting—Voice Recognition for Production of Live Subtitles”, Broadcast Technology, August 2008, p. 89-93

1人の訂正者が、誤認識箇所の特定という作業と特定された誤認識箇所の訂正という作業の2つの作業をすると訂正者に負担がかかり、音声認識率が低く誤認識箇所が多い場合には訂正が追いつかなくなる場合があるという課題があった。
また、誤認識箇所の中にはその前後の文脈から正しい内容を推測することが可能であり訂正を必要としないものもあるが、特定された誤認識箇所のすべてを特定された順に訂正をすると、この訂正を必要としない誤認識箇所についても訂正をすることになり、訂正の効率が悪いという課題があった。
When one corrector performs the two tasks of identifying a misrecognized part and correcting the identified misrecognized part, the corrector is burdened, and the speech recognition rate is low and there are many misrecognized parts. Had the problem that corrections could not catch up.
Also, some misrecognized parts can be guessed from the context before and after, and do not require correction, but if all of the identified misrecognized parts are corrected in the order specified, The misrecognized portion that does not require correction is also corrected, and there is a problem that the correction efficiency is poor.

上記の課題を解決するために、誤認識箇所特定部が上記文章中の誤認識箇所についての情報を取得し、優先順位決定部が上記誤認識箇所の優先順位についての情報を取得し、表示部は上記優先順位に応じて上記誤認識箇所を表示する。   In order to solve the above problem, the misrecognized location specifying unit acquires information about the misrecognized location in the sentence, the priority determining unit acquires information about the priority of the misrecognized location, and the display unit Displays the erroneous recognition location according to the priority.

誤認識箇所の特定を訂正者以外のものが行うことにより、訂正者は誤認識箇所の訂正に専念することができ負担が減る。
訂正者は、優先順位が高い順に誤認識箇所を訂正することが可能となり、訂正の効率が従来よりも向上する。
By specifying a misrecognized portion by a person other than the corrector, the corrector can concentrate on correcting the misrecognized portion and reduce the burden.
The corrector can correct misrecognized portions in descending order of priority, and the correction efficiency is improved as compared with the prior art.

第一実施形態による誤認識訂正装置の例の機能ブロック図。The functional block diagram of the example of the misrecognition correction apparatus by 1st embodiment. 第二実施形態による誤認識訂正装置の例の機能ブロック図。The functional block diagram of the example of the misrecognition correction apparatus by 2nd embodiment. 第三実施形態による誤認識訂正装置の例の機能ブロック図。The functional block diagram of the example of the misrecognition correction apparatus by 3rd embodiment. 第一実施形態による誤認識訂正方法の例の流れ図。The flowchart of the example of the misrecognition correction method by 1st embodiment. 第二実施形態によるステップS3の例の流れ図。The flowchart of the example of step S3 by 2nd embodiment. 第二実施形態によるステップS3の例の流れ図。The flowchart of the example of step S3 by 2nd embodiment. 第三実施形態によるステップS3の例の流れ図。The flowchart of the example of step S3 by 3rd embodiment. この発明が使用される状況を例示するイメージ図。The image figure which illustrates the condition where this invention is used. かしげる動作を説明するための図Diagram for explaining the operation うなずく動作を説明するための図。The figure for demonstrating a nodding operation | movement. 優先順位に応じた誤認識箇所の表示例を示す図。The figure which shows the example of a display of the misrecognized location according to a priority. 優先順位に応じた誤認識箇所の表示例を示す図。The figure which shows the example of a display of the misrecognized location according to a priority. 優先順位に応じた誤認識箇所の表示例を示す図。The figure which shows the example of a display of the misrecognized location according to a priority. 優先順位に応じた誤認識箇所の表示例を示す図。The figure which shows the example of a display of the misrecognized location according to a priority.

以下、この発明の実施形態を詳細に説明する。
[第一実施形態]
まず、図8を用いて、この発明が使用される状況を例示する。この例では、聴覚障害者を含む複数人が参加する職場会議を想定している。
Hereinafter, embodiments of the present invention will be described in detail.
[First embodiment]
First, the situation where the present invention is used will be illustrated with reference to FIG. In this example, a workplace meeting is assumed in which a plurality of persons including persons with hearing impairments participate.

職場会議の参加者は、話者11、話者12及び聴覚障害者13の3人である。また、誤認識箇所の訂正を行う訂正者14が、この職場会議に同席する。話者11,12の前にはそれぞれマイク21,22が置かれており、それぞれ話者11,12の音声を集音する。マイク21,22はミキサ23を介して音声認識を行う音声認識用PC31に接続されている。音声認識用PC31、訂正者14が訂正を行う訂正用PC32、及び、誤認識箇所の訂正後の文章を聴覚障害者13に表示する文字出力用PC33は、必要な情報を送受信することができるようにネットワークで接続されている。   There are three participants in the workplace meeting: speaker 11, speaker 12, and hearing impaired person 13. A corrector 14 who corrects a misrecognized portion is present at the workplace meeting. Microphones 21 and 22 are placed in front of the speakers 11 and 12, respectively, and the voices of the speakers 11 and 12 are collected. The microphones 21 and 22 are connected via a mixer 23 to a voice recognition PC 31 that performs voice recognition. The speech recognition PC 31, the correction PC 32 that the corrector 14 corrects, and the character output PC 33 that displays the corrected sentence of the misrecognized portion on the hearing impaired person 13 can transmit and receive necessary information. Connected to the network.

図1は、第一実施形態による誤認識訂正装置の機能ブロック図である。図4は、第一実施形態による誤認識訂正方法の流れ図である。
話者11,12の音声はそれぞれマイク21,22に入力されて、音声認識用PC31に取り込まれる(ステップS1)。
音声認識用PC31の音声認識部311は、話者11,12の音声を音声認識して(ステップS2)、その音声認識結果である文章を訂正用PC32及び文字出力用PC33に出力する。
FIG. 1 is a functional block diagram of a misrecognition correction apparatus according to the first embodiment. FIG. 4 is a flowchart of the misrecognition correction method according to the first embodiment.
The voices of the speakers 11 and 12 are input to the microphones 21 and 22, respectively, and taken into the voice recognition PC 31 (step S1).
The voice recognition unit 311 of the voice recognition PC 31 recognizes the voices of the speakers 11 and 12 (step S2), and outputs a sentence as a voice recognition result to the correction PC 32 and the character output PC 33.

文章の誤り部分を含む箇所である誤認識箇所についての情報、及び、各誤認識箇所の優先順位についての情報が取得されて(ステップS3、ステップS4)、少なくとも訂正用PC32に出力される。これらの情報は訂正者14以外のものにより生成される。これらの情報の取得方法については後述する。
誤認識箇所は、文章の誤り部分を含む箇所であり、文章の誤り部分自体(例えば、単語)であってもよいし、その誤り部分を含む箇所(例えば、句、行、段落)であってもよい。
訂正用PC32の表示部321は、音声認識結果である文章、誤認識箇所及び優先順位を表示する。訂正者14は、訂正用PC32の入力部322を用いて、優先順位に応じて訂正する(ステップS5)。例えば優先順位が高い順に誤認識箇所を訂正する。
Information about misrecognized locations, which are locations including erroneous parts of the text, and information about the priority of each misrecognized location are acquired (step S3, step S4) and output to at least the correction PC 32. These pieces of information are generated by a person other than the corrector 14. A method for acquiring these pieces of information will be described later.
The misrecognized part is a part including an error part of a sentence, and may be an error part of the sentence itself (for example, a word) or a part including the error part (for example, a phrase, a line, or a paragraph). Also good.
The display unit 321 of the correction PC 32 displays a sentence that is a voice recognition result, a misrecognized portion, and a priority order. The corrector 14 uses the input unit 322 of the correction PC 32 to correct according to the priority order (step S5). For example, misrecognized portions are corrected in descending order of priority.

訂正された文章は文字出力用PC33の表示部331に表示され、聴覚障害者13に示される(ステップS6)。
表示部321,331は、例えばCRT(Cathode Ray Tube)、液晶ディスプレイ等の表示機器である。入力部322,332は、例えばキーボードやマウス等の入力機器である。
文章の誤り部分を含む箇所である誤認識箇所についての情報、及び、各誤認識箇所の優先順位についての情報を取得する方法がいくつかある。
The corrected sentence is displayed on the display unit 331 of the character output PC 33 and is shown to the hearing impaired person 13 (step S6).
The display units 321 and 331 are display devices such as a CRT (Cathode Ray Tube) and a liquid crystal display. The input units 322 and 332 are input devices such as a keyboard and a mouse, for example.
There are several methods for obtaining information about misrecognized locations that are locations containing erroneous parts of text and information about priorities of each misrecognized location.

第一実施形態では、訂正者14以外の人間、例えば聴覚障害者13が誤認識箇所を特定し、その優先順位を決定する。
すなわち、聴覚障害者13は、表示部331に表示された音声認識結果である文章を見て、入力部332により誤認識箇所を特定する(ステップS3)。このように、第一実施形態では、誤認識箇所についての情報は入力部332により取得される。すなわち、入力部332が特許請求の範囲における誤認箇所特定部に対応する。
In the first embodiment, a person other than the corrector 14, for example, a hearing impaired person 13 specifies a misrecognized portion and determines its priority.
That is, the hearing-impaired person 13 looks at the sentence that is the voice recognition result displayed on the display unit 331, and specifies the erroneous recognition location by the input unit 332 (step S3). As described above, in the first embodiment, the information about the misrecognized portion is acquired by the input unit 332. That is, the input unit 332 corresponds to the misidentified part specifying unit in the claims.

文字出力用PC33は、表示部331に表示された文章の内の誤認識箇所を他の部分と区別することができるように表示する。例えば誤認識箇所の文字色や背景を変えたり斜体にしたり、誤認識箇所を含む行や段落の文字色や背景したり斜体にしたりする。
誤認識箇所についての情報は訂正用PC32にも送られ、訂正用PC32は文字出力用PC33と同様にして、表示部321に表示された文章の内の誤認識箇所を他の部分と区別することができるように表示する。
The character output PC 33 displays the misrecognized part in the text displayed on the display unit 331 so that it can be distinguished from other parts. For example, the character color or background of the misrecognized portion is changed or italicized, or the character color or background or italic of the line or paragraph including the misrecognized portion is changed.
Information about the misrecognized portion is also sent to the correcting PC 32, and the correcting PC 32 distinguishes the misrecognized portion in the text displayed on the display unit 321 from other portions in the same manner as the character output PC 33. Display to be able to.

また、聴覚障害者13は、誤認識箇所を特定する際に、その訂正認識箇所についての訂正の必要度を表す指標である優先順位を決定してもよい(ステップS4)。例えば、誤認識箇所を特定する際に、「(1)至急訂正して欲しい」「(2)訂正して欲しい」「(3)訂正しなくても良い」の何れかの優先順位を入力部332により入力する。このように、第一実施形態では、優先順位についての情報は入力部332により取得される。すなわち、入力部332が特許請求の範囲における優先順位決定部に対応する。   In addition, when the hearing impaired person 13 specifies an erroneously recognized location, the hearing impaired person 13 may determine a priority that is an index indicating the degree of necessity of correction for the corrected recognized location (step S4). For example, when specifying a misrecognized location, the priority is given to any one of “(1) I want you to correct immediately”, “(2) I want you to correct” and “(3) I don't need to correct” 332 for input. Thus, in the first embodiment, information about the priority order is acquired by the input unit 332. That is, the input unit 332 corresponds to the priority order determination unit in the claims.

文字出力用PC33は、優先順位に応じて誤認識箇所の表示を変える。例えば、優先順位ごとに誤認識箇所の色を変える。
優先順位についての情報は訂正用PC32にも送られ、訂正用PC32は文字出力用PC33と同様にして、優先順位に応じて誤認識箇所の表示を変える。
The character output PC 33 changes the display of the erroneous recognition location according to the priority order. For example, the color of the misrecognized portion is changed for each priority.
The information about the priority order is also sent to the correction PC 32, and the correction PC 32 changes the display of the erroneous recognition portion in accordance with the priority order in the same manner as the character output PC 33.

図11から図14を参照して、訂正用PC32の表示部321に表示される、優先順位に応じた誤認識箇所の表示の例を説明する。この例は、優先順位が「(1)至急訂正して欲しい」「(2)訂正して欲しい」「(3)訂正しなくても良い」の3段階で表されるとする。図11から図13の例では誤認識箇所はすべて単語であるが、図14の例のように誤認識箇所は単語を含む文章箇所であってもよい。
図11の例では、表示部321には、認識結果出力窓71、訂正窓72、誤認識待機窓73の3つの窓が表示される。
With reference to FIGS. 11 to 14, an example of displaying a misrecognized portion according to the priority order displayed on the display unit 321 of the correction PC 32 will be described. In this example, it is assumed that the priority is expressed in three stages: “(1) I want you to correct immediately”, “(2) I want you to correct”, and “(3) I don't need to correct”. In the examples of FIGS. 11 to 13, the misrecognized portions are all words, but the misrecognized portions may be sentence portions including words as in the example of FIG. 14.
In the example of FIG. 11, the display unit 321 displays three windows: a recognition result output window 71, a correction window 72, and a misrecognition standby window 73.

認識結果出力窓71には、音声認識結果である文章が表示される。認識結果出力窓71に表示された文章中の誤認識箇所は、他の部分と区別することができるように色等が変えて表示される。
訂正窓72には、最も優先順位が高い誤認識箇所が表示される。訂正者14は、この訂正窓72に表示された誤認識箇所を見て、キーボード等の入力部322により正しい語句を入力する。認識結果出力窓71に表示された文章中の誤認識箇所は、入力された正しい語句に置き換えられる。
In the recognition result output window 71, a sentence that is a voice recognition result is displayed. The misrecognized part in the sentence displayed in the recognition result output window 71 is displayed in a different color so that it can be distinguished from other parts.
In the correction window 72, a misrecognized portion having the highest priority is displayed. The corrector 14 looks at the misrecognized portion displayed in the correction window 72 and inputs a correct word / phrase using the input unit 322 such as a keyboard. The misrecognized portion in the sentence displayed in the recognition result output window 71 is replaced with the input correct word / phrase.

なお、訂正用PC32の音声出力部(図示せず)から、訂正窓72に表示される誤認識箇所の音声を発生させてもよい。これにより、訂正者14はその誤認識箇所の音声を聞くことができ、訂正の容易性及び確実性が増す。
誤認識待機窓73には、特定された誤認識箇所の全部又は一部のうち最も優先順位が高い誤認識箇所以外のものが、優先順位が高い順に表示される。例えば、訂正者14が誤認識箇所「(1)−1単語」を訂正中に、優先順位が「(1)至急訂正して欲しい」である誤認識箇所「(1)−4単語」が新たに特定されたとする。この場合、誤認識箇所「(1)−4単語」は、誤認識待機窓73において誤認識箇所「(1)−3単語」の下に表示される。
It should be noted that a voice of a misrecognized portion displayed on the correction window 72 may be generated from a voice output unit (not shown) of the correction PC 32. As a result, the corrector 14 can hear the voice of the erroneously recognized portion, and the ease and certainty of correction increase.
In the misrecognition waiting window 73, all or a part of the specified misrecognition locations other than the misrecognition location with the highest priority are displayed in order of descending priority. For example, while the corrector 14 is correcting the erroneously recognized part “(1) -1 word”, the erroneously recognized part “(1) -4 word” having the priority “(1) I want to correct it immediately” is newly added. Is specified. In this case, the erroneous recognition location “(1) -4 words” is displayed below the erroneous recognition location “(1) -3 words” in the erroneous recognition standby window 73.

図12のように、訂正窓72に、誤認識箇所のみならず、その前後の箇所の文字を表示させてもよい。これにより、訂正者14は前後の文脈を容易に把握することができ、訂正の容易性及び確実性が増す。
図13のように、認識結果出力窓71の中に訂正窓72を設けてもよい。これにより、訂正者14はより直感的に訂正を行うことができる。また、図14のように、誤認識箇所を含む行を訂正窓72に表示させてもよい。
As shown in FIG. 12, the correction window 72 may display not only the misrecognized portion but also the characters before and after the portion. Thereby, the corrector 14 can easily grasp the context before and after, and the ease and certainty of correction increase.
A correction window 72 may be provided in the recognition result output window 71 as shown in FIG. Thereby, the corrector 14 can correct more intuitively. Further, as shown in FIG. 14, a line including a misrecognized portion may be displayed on the correction window 72.

このように、誤認識箇所の特定を訂正者以外のもの(この実施形態では人間)が行うことにより、訂正者14は誤認識箇所の訂正に専念することができ負担が減る。また、訂正者14は、優先順位が高い順に誤認識箇所を訂正することが可能となり、訂正の効率が従来よりも向上する。さらに、特に訂正を欲する当事者である聴覚障害者が誤認識箇所を特定して、優先順位を決定することにより、さらに的確で効率が良い訂正をすることができる。   In this way, by specifying a misrecognized portion by a person other than the corrector (in this embodiment, a human), the corrector 14 can concentrate on correcting the misrecognized portion and reduce the burden. Further, the corrector 14 can correct misrecognized portions in descending order of priority, and the correction efficiency is improved as compared with the prior art. Furthermore, a hearing impaired person who is a party who particularly desires correction can identify a misrecognized portion and determine a priority order, thereby enabling more accurate and efficient correction.

上記の例では聴覚障害者13が誤認識箇所を特定したが、訂正者14以外の人間であれば誰が誤認識箇所を特定してもよい。例えば、話者11,12が誤認識箇所を特定しても良い。この場合、話者11,12は、図示していない入力部から誤認識箇所についての情報を入力する。   In the above example, the hearing-impaired person 13 has identified the erroneously recognized location, but any person other than the corrector 14 may identify the erroneously recognized location. For example, the speakers 11 and 12 may specify a misrecognized location. In this case, the speakers 11 and 12 input information about misrecognized portions from an input unit (not shown).

また、誤認識箇所を特定する人間と優先順位を決定する人間とは異なる人間であってもよい。例えば、話者11,12が誤認識箇所を特定して、聴覚障害者13がその特定された誤認識箇所の優先順位を決定してもよい。   Further, the person who specifies the misrecognized portion and the person who determines the priority order may be different persons. For example, the speakers 11 and 12 may specify a misrecognized location, and the hearing impaired person 13 may determine the priority order of the identified misrecognized location.

[第二実施形態]
第二実施形態では、人間ではなくコンピュータが信頼度、親密度を用いて自動的に誤認識箇所を特定する。他の部分については、第一実施形態と同様である。以下、重複説明を省略するために、第一実施形態と異なる部分を中心にして説明をする。
図2は、第二実施形態の誤認識訂正装置の機能ブロック図である。図5は、第二実施形態におけるステップS3の流れ図である。
[Second Embodiment]
In the second embodiment, a computer, not a human, automatically specifies a misrecognized location using reliability and intimacy. About another part, it is the same as that of 1st embodiment. Hereinafter, in order to abbreviate | omit duplication description, it demonstrates centering on a different part from 1st embodiment.
FIG. 2 is a functional block diagram of the misrecognition correction apparatus of the second embodiment. FIG. 5 is a flowchart of step S3 in the second embodiment.

音声認識用PC31は、さらに誤認識箇所特定部313、優先順位決定部314を含む。
音声認識部311はステップS2において音声認識をする際に、音声認識結果である文章を構成する各単語の信頼度を計算する。計算された信頼度は、誤認識箇所特定部313に送られる(ステップS31a)。
The speech recognition PC 31 further includes a misrecognition location specifying unit 313 and a priority order determining unit 314.
When the speech recognition unit 311 performs speech recognition in step S2, the speech recognition unit 311 calculates the reliability of each word constituting the sentence that is the speech recognition result. The calculated reliability is sent to the misrecognized location specifying unit 313 (step S31a).

信頼度は、入力された音声とその音声認識結果との当てはまり度合いを示す指標である。例えば「音声(おんせい)」という音声が入力されたとき、音声認識結果が「音声(おんせい)」であれば信頼度が満点近くになり、「学校(がっこう)」であれば信頼度は低くなる。「混声(こんせい)」「温泉(おんせん)」等「音声(おんせい)」に近くなれば信頼度は上がるが、逆に「音声(おんせい)」からかけ離れるほど信頼度は下がる。信頼度のより具体的な定義は、音声認識部311が採用する音声認識エンジンによって異なる。   The reliability is an index indicating the degree of fit between the input speech and the speech recognition result. For example, when a voice of “voice” is input, if the voice recognition result is “voice”, the reliability is close to a perfect score, and if it is “school”, it is trusted. The degree is lowered. The reliability increases as it becomes closer to "voice" such as "mixed voice", "onsen", etc., but conversely, the reliability decreases as it moves away from "voice". A more specific definition of the reliability depends on the speech recognition engine employed by the speech recognition unit 311.

誤認識箇所特定部313は、各単語の信頼度と所定の第一閾値Nとを比較する(ステップS32)。第一閾値Nは求められる性能や仕様に応じて適宜決定される定数である。
信頼度が第一閾値Nよりも小さい場合には、誤認識箇所特定部313はその単語又はその単語を含む部分を誤認識箇所として特定する(ステップS33)。
信頼度が第一閾値N以上の場合には、誤認識箇所特定部313は何もせず、その単語については誤認識箇所として特定しない。
Misrecognized part identification unit 313 compares the first threshold value N 1 reliability and given for each word (step S32). The first threshold value N 1 is a constant which is appropriately determined according to performance required and specifications.
If the reliability is less than the first threshold value N 1, the misrecognized portion identifying unit 313 identifies as a recognition point erroneously a portion including the word or words that (step S33).
Reliability in the case of the first threshold value N 1 or more, without doing anything erroneous recognition site identification unit 313 does not specify a recognition portion erroneous for that word.

優先順位決定部314は、各単語の信頼度が小さい単語ほど高い優先順位を定める(ステップS4)。例えば、所定の閾値Th,…,Th,…,ThがTh<…<Th<…<Thの関係を満たすとし、閾値によって区切られた各区間に優先順位を予め定めておく。その際、小さな閾値によって区切られた区間ほど大きな優先順位を定めておく。例えば、区間[Thm−1,Th)の優先順位を、区間[Th,Thm+1)の優先順位よりも高くする。優先順位決定部314は、各単語の信頼度が閾値によって区切られた区間のいずれに含まれるかどうかを判断し、信頼度が含まれる区間に対応する優先順位をその単語の優先順位として決定する。 The priority determining unit 314 determines a higher priority for a word having a lower reliability of each word (step S4). For example, it is assumed that predetermined threshold values Th 1 ,..., Th m ,..., Th M satisfy the relationship Th 1 <... <Th m <... <Th M , and priorities are determined in advance for each section delimited by the threshold values. deep. At that time, a higher priority is set for a section divided by a smaller threshold. For example, the priority of the section [Th m−1 , Th m ) is set higher than the priority of the section [Th m , Th m + 1 ). The priority determination unit 314 determines whether the reliability of each word is included in any of the sections delimited by the threshold, and determines the priority corresponding to the section including the reliability as the priority of the word. .

特定された誤認識箇所についての情報及び優先順位についての情報は文章と共に、表示部312、訂正用PC32及び文字出力用PC33に送られる。
このように、誤認識箇所の特定を訂正者以外のもの(この実施形態ではコンピュータ)が行うことにより、訂正者14は誤認識箇所の訂正に専念することができ負担が減る。また、訂正者14は、優先順位が高い順に誤認識箇所を訂正することが可能となり、訂正の効率が従来よりも向上する。
Information on the identified erroneous recognition location and information on the priority order are sent to the display unit 312, the correction PC 32 and the character output PC 33 together with the text.
In this way, by specifying a misrecognized portion by a person other than the corrector (in this embodiment, a computer), the corrector 14 can concentrate on correcting the misrecognized portion and the burden is reduced. Further, the corrector 14 can correct misrecognized portions in descending order of priority, and the correction efficiency is improved as compared with the prior art.

信頼度に代えて親密度を基準として、信頼度を基準とした場合と同様に、誤認識箇所を特定し、優先順位を決定してもよい。
親密度は、単語がどの程度なじみがあるかを示す指標であり、例えば1(なじみがない)〜7(なじみがある)という7段階で表される。
Instead of the reliability, the familiarity may be used as a reference, and similarly to the case where the reliability is used as a reference, a misrecognized portion may be specified and the priority order may be determined.
The familiarity is an index indicating how familiar the word is, and is expressed in seven stages, for example, 1 (no familiarity) to 7 (the familiarity).

図6に、親密度を基準として誤認識箇所を特定する処理の流れを例示する。親密度を用いる場合には、図2に破線で示すように、誤認識箇所特定部313及び優先順位決定部314には、データの読み込みが可能なように親密度記憶部4が接続されているとする。親密度記憶部4には、複数の単語のそれぞれの親密度が記憶されている。   FIG. 6 illustrates a flow of processing for specifying a misrecognized portion on the basis of closeness. When using intimacy, as shown by a broken line in FIG. 2, the intimacy storage unit 4 is connected to the misrecognized location specifying unit 313 and the priority determining unit 314 so that data can be read. And Intimacy storage unit 4 stores intimacy of each of a plurality of words.

誤認識箇所特定部313は、音声認識部311による音声認識結果である文章を構成する各単語の親密度を、親密度記憶部4を参照して求める(ステップS31b)。後の処理は、信頼度を基準とする場合と同じであるため説明を省略する。
なお、単語の親密度が親密度記憶部4に記憶されていない場合には、親密度が第一閾値Nよりも小さい場合と同様にして、その単語又はその単語を含む部分を誤認識箇所として特定してもよい。
The misrecognition location specifying unit 313 obtains the familiarity of each word constituting the sentence that is the speech recognition result by the speech recognition unit 311 with reference to the familiarity storage unit 4 (step S31b). Since the subsequent processing is the same as that based on the reliability, description thereof is omitted.
In the case where word familiarity is not stored in the closeness storage unit 4, closeness is as in the case smaller than the first threshold N 1, recognizing places erroneously the word or portion including the word May be specified.

[第三実施形態]
第三実施形態は、人間ではなくコンピュータが、音声認識結果である文章を読む者の動作に基づいて自動的に誤認識箇所を特定する。他の部分については、第一実施形態と同様である。以下、重複説明を省略するために、第一実施形態とは異なる部分を中心にして説明をする。
[Third embodiment]
In the third embodiment, a computer, not a human, automatically specifies a misrecognized portion based on the action of a person who reads a sentence that is a voice recognition result. About another part, it is the same as that of 1st embodiment. Hereinafter, in order to omit redundant description, the description will be focused on parts different from the first embodiment.

図3は、第三実施形態の誤認識訂正装置の機能ブロック図である。図4は、第三実施形態のステップS3の処理の流れ図である。
動作情報取得部5は、例えばカメラ、モーションセンサ、位置センサ等の人間の動作についての情報を取得することができる機器である。この例では、動作情報取得部5は、聴覚障害者の動作情報を取得するとする。音声認識結果である文章を読んでいる者であれば、聴覚障害者以外の者の動作情報を取得しても構わない。
FIG. 3 is a functional block diagram of the misrecognition correction apparatus according to the third embodiment. FIG. 4 is a flowchart of the process in step S3 of the third embodiment.
The motion information acquisition unit 5 is a device that can acquire information about human motion, such as a camera, a motion sensor, and a position sensor. In this example, it is assumed that the motion information acquisition unit 5 acquires motion information of a hearing impaired person. As long as it is a person who is reading a sentence that is a voice recognition result, operation information of a person other than the hearing impaired person may be acquired.

動作情報取得部5は、表示部331に表示された音声認識結果である文章を読んでいる聴覚障害者の動作情報を取得する(ステップS35)。取得された動作情報は、誤認識箇所特定部333に送られる。
誤認識箇所特定部333は、取得された動作情報に基づいて、文章を読んでいる聴覚障害者がかしげているかどうかを検出する(ステップS36)。かしげるとは、図9のように通常の顔立ちから横に傾くしぐさである。顔の角度、顔の角度の変化に基づいてかしげているかどうかを検出することができる。
The motion information acquisition unit 5 acquires motion information of a hearing impaired person who is reading a sentence that is a voice recognition result displayed on the display unit 331 (step S35). The acquired operation information is sent to the misrecognized location specifying unit 333.
The misrecognition location specifying unit 333 detects whether or not the hearing impaired person reading the text is obscured based on the acquired motion information (step S36). The caulking is a gesture that tilts sideways from a normal face as shown in FIG. It is possible to detect whether or not the face is blurred based on the face angle and the change in the face angle.

かしげていると検出された場合には、誤認識箇所特定部333は、そのかしげていると検出された時間帯に表示部331に新たに表示された文章箇所を誤認識箇所として特定する(ステップS33)。例えば、かしげていると検出された時間帯に表示部331に新たに表示された文字を含む行を誤認識箇所として特定する。誤認識箇所についての情報は少なくとも訂正用PC32に送られて、その情報に基づいて表示部321に表示される文章中の誤認識箇所は例えば赤でマーカーされる。   When it is detected that it is crisp, the misrecognition location specifying unit 333 specifies the text location newly displayed on the display unit 331 as the misrecognition location in the time zone detected as being stale (step) S33). For example, the line including the character newly displayed on the display unit 331 in the time zone in which it is detected that it is distorted is specified as the misrecognized portion. Information about the misrecognized portion is sent to at least the correction PC 32, and the misrecognized portion in the text displayed on the display unit 321 based on the information is marked with red, for example.

かしげていないと検出された場合には、誤認識箇所特定部333は、その時間帯に表示部331に表示された文章箇所を誤認識箇所として特定しない(ステップS34)。
なお、ステップS36においてかしげていないと検出された場合に、誤認識箇所特定部333は、取得された動作情報に基づいて、文章を読んでいる聴覚障害者がうなずいているかどうかを検出してもよい(ステップS37)。うなずくとは、図10のように通常の顔立ちから前に頭を下げるしぐさである。うなずきは顔を1回下げる場合に限らず、何回も上げ下げする場合もある。
When it is detected that the page is not distorted, the misrecognition location specifying unit 333 does not specify the text location displayed on the display unit 331 in the time zone as the misrecognition location (step S34).
In addition, even if it is detected that it is not cautious in step S36, even if the misrecognition location specific | specification part 333 detects whether the hearing impaired person reading the sentence is nodding based on the acquired operation information Good (step S37). A nod is a gesture of lowering the head forward from a normal face as shown in FIG. Nodding is not limited to lowering the face once, but may be raised and lowered many times.

うなずいていると検出された場合には、誤認識箇所特定部333は、その時間帯に表示部331に表示された文章箇所を正しく認識された箇所、すなわち正認識箇所として特定してもよい。正認識箇所についての情報は少なくとも訂正用PC32に送られて、その情報に基づいて表示部321に表示される文章中の正認識箇所は例えば青でマーカーされる。   When it is detected that it is nodding, the misrecognition location specifying unit 333 may specify the text location displayed on the display unit 331 in the time zone as a location that is correctly recognized, that is, a correct recognition location. Information about the correct recognition location is sent to at least the correction PC 32, and the correct recognition location in the text displayed on the display unit 321 based on the information is marked in blue, for example.

このように、誤認識箇所の特定を訂正者以外のもの(この実施形態ではコンピュータ)が行うことにより、訂正者14は誤認識箇所の訂正に専念することができ負担が減る。また、訂正者14は、優先順位が高い順に誤認識箇所を訂正することが可能となり、訂正の効率が従来よりも向上する。   In this way, by specifying a misrecognized portion by a person other than the corrector (in this embodiment, a computer), the corrector 14 can concentrate on correcting the misrecognized portion and the burden is reduced. Further, the corrector 14 can correct misrecognized portions in descending order of priority, and the correction efficiency is improved as compared with the prior art.

誤認識箇所を赤でマーカーし、正認識箇所を青でマーカーすることにより、訂正者14は、赤でマーカーされた部分を中心にして訂正して行けばよくなり、訂正者14の疲労を軽減することが可能となる。
なお、かしげていると検出された場合には、優先順位決定部334が、そのときの顔の角度が大きいほど高い優先順位を決定して、その優先順位についての情報を少なくとも表示部321に送ってもよい。
By marking the erroneously recognized part in red and marking the correctly recognized part in blue, the corrector 14 needs to make corrections centering on the part marked in red, reducing the fatigue of the corrector 14 It becomes possible to do.
If it is detected that the face is distorted, the priority determining unit 334 determines a higher priority as the face angle at that time increases, and sends at least information about the priority to the display unit 321. May be.

[変形例等]
第一実施形態から第三実施形態で述べた誤認識箇所の特定方法、優先順位の決定方法は適宜組み合わせることができる。例えば、第三実施形態の方法で誤認識箇所を特定して、第二実施形態の方法で優先順位を決定してもよい。
コンピュータによって実現することができる。この場合、この装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、これ装置における各処理機能が、コンピュータ上で実現される。
[Modifications, etc.]
The method for identifying the misrecognized portion and the method for determining the priority order described in the first to third embodiments can be combined as appropriate. For example, the erroneous recognition location may be specified by the method of the third embodiment, and the priority order may be determined by the method of the second embodiment.
It can be realized by a computer. In this case, the processing contents of the functions that the apparatus should have are described by a program. Then, by executing this program on a computer, each processing function in this apparatus is realized on the computer.

この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、これらの装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
この発明は、上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
The program describing the processing contents can be recorded on a computer-readable recording medium. In this embodiment, these apparatuses are configured by executing a predetermined program on a computer. However, at least a part of these processing contents may be realized by hardware.
The present invention is not limited to the above-described embodiment, and can be modified as appropriate without departing from the spirit of the present invention.

Claims (10)

入力された音声を音声認識して、その音声認識結果である文章を生成する音声認識部と、
上記文章中の誤認識箇所についての情報を取得する誤認識箇所特定部と、
上記誤認識箇所の優先順位についての情報を取得する優先順位決定部と、
上記文章及び上記優先順位に応じて上記誤認識箇所を表示する表示部と、
訂正者による上記誤認識箇所についての訂正が入力される入力部と、
を含む誤認識訂正装置。
A speech recognition unit that recognizes the input speech and generates a sentence that is the speech recognition result;
A misrecognition location identifying unit for acquiring information about misrecognition locations in the sentence,
A priority determining unit for acquiring information on the priority of the erroneously recognized portion;
A display unit for displaying the misrecognized portion according to the sentence and the priority order;
An input unit for inputting corrections regarding the erroneously recognized parts by the corrector;
False recognition correction device including
請求項1に記載の誤認識訂正装置において、
上記誤認識箇所特定部は、上記訂正者とは異なる者により特定された誤認識箇所についての情報が入力される部である、
を含む誤認識訂正装置。
In the erroneous recognition correction apparatus according to claim 1,
The misrecognized part specifying part is a part to which information about a misrecognized part specified by a person different from the corrector is input.
False recognition correction device including
請求項1に記載の誤認識訂正装置において、
入力された音声とその音声認識結果との当てはまり度合いを示す指標を信頼度として、上記音声認識部は、音声認識をする際に上記文章を構成する単語のそれぞれの信頼度を計算し、
上記誤認識箇所特定部は、上記計算された信頼度が所定の閾値よりも小さい単語を誤認識箇所として特定する、
ことを特徴とする誤認識訂正装置。
In the erroneous recognition correction apparatus according to claim 1,
Using the index indicating the degree of fit between the input speech and the speech recognition result as the reliability, the speech recognition unit calculates the reliability of each word constituting the sentence when performing speech recognition,
The misrecognition location specifying unit specifies a word having the calculated reliability smaller than a predetermined threshold as an erroneous recognition location,
A misrecognition correction apparatus characterized by that.
請求項1に記載の誤認識訂正装置において、
単語がどの程度なじみがあるかを示す指標を親密度として、各単語の親密度が記憶された親密度記憶部を更に含み、
上記誤認識箇所特定部は、上記文章を構成する単語のそれぞれの信頼度を上記親密度記憶部を参照して求めて、その求まった信頼度が所定の閾値よりも小さい単語を誤認識箇所として特定する、
ことを特徴とする誤認識訂正装置。
In the erroneous recognition correction apparatus according to claim 1,
An index indicating how familiar the word is as a familiarity, further including a familiarity storage unit in which the familiarity of each word is stored,
The misrecognition location specifying unit obtains the reliability of each word constituting the sentence by referring to the familiarity storage unit, and uses the word whose reliability is smaller than a predetermined threshold as the misrecognition location. Identify,
A misrecognition correction apparatus characterized by that.
請求項1に記載の誤認識訂正装置において、
上記表示部に表示された上記文章を読んでいる者の動作についての動作情報を取得する動作情報取得部と、
上記誤認識箇所特定部は、上記動作情報に基づいて、上記文章を読んでいる者がかしげているかどうかを検出し、かしげていると検出された時間帯に上記表示部に表示された文章箇所を誤認識箇所として特定する、
ことを特徴とする誤認識訂正装置。
In the erroneous recognition correction apparatus according to claim 1,
An operation information acquisition unit for acquiring operation information about the operation of the person reading the sentence displayed on the display unit;
The misrecognition location specifying unit detects whether the person reading the text is stigmatized based on the operation information, and the text location displayed on the display unit in the time zone detected as stigmatized Is identified as a misrecognized location,
A misrecognition correction apparatus characterized by that.
請求項1から5の何れかに記載の誤認識訂正装置において、
上記優先順位決定部は、上記訂正者とは異なる者により決定された優先順位についての情報が入力される部である、
ことを特徴とする誤認識訂正装置。
In the erroneous recognition correction apparatus according to any one of claims 1 to 5,
The priority determining unit is a unit to which information on priority determined by a person different from the corrector is input.
A misrecognition correction apparatus characterized by that.
請求項1から5の何れかに記載の誤認識訂正装置において、
入力された音声とその音声認識結果との当てはまり度合いを示す指標を信頼度として、上記音声認識部は、音声認識をする際に上記文章を構成する単語のそれぞれの信頼度を計算し、
上記優先順位決定部は、上記計算された信頼度が小さい単語ほど高い優先順位を定める、
ことを特徴とする誤認識訂正装置。
In the erroneous recognition correction apparatus according to any one of claims 1 to 5,
Using the index indicating the degree of fit between the input speech and the speech recognition result as the reliability, the speech recognition unit calculates the reliability of each word constituting the sentence when performing speech recognition,
The priority determining unit determines a higher priority for a word having a lower calculated reliability.
A misrecognition correction apparatus characterized by that.
請求項1から5の何れかに記載の誤認識訂正装置において、
単語がどの程度なじみがあるかを示す指標を親密度として、各単語の親密度が記憶された親密度記憶部を更に含み、
上記優先順位決定部は、上記文章を構成する単語のそれぞれの信頼度を上記親密度記憶部を参照して求めて、その求まった信頼度が小さい単語ほど高い優先順位を定める、
ことを特徴とする誤認識訂正装置。
In the erroneous recognition correction apparatus according to any one of claims 1 to 5,
An index indicating how familiar the word is as a familiarity, further including a familiarity storage unit in which the familiarity of each word is stored,
The priority determining unit obtains the reliability of each word constituting the sentence with reference to the intimacy storage unit, and determines a higher priority for a word having a smaller reliability.
A misrecognition correction apparatus characterized by that.
入力された音声を音声認識して、その音声認識結果である文章を生成する音声認識ステップと、
上記文章中の誤認識箇所についての情報を取得する誤認識箇所特定ステップと、
上記誤認識箇所の優先順位についての情報を取得する優先順位決定ステップと、
上記文章及び上記優先順位に応じて上記誤認識箇所を表示する表示ステップと、
訂正者による上記誤認識箇所についての訂正が入力される入力ステップと、
を含む誤認識訂正方法。
A speech recognition step for recognizing the input speech and generating a sentence that is the speech recognition result;
A step of identifying a misrecognized location that acquires information about a misrecognized location in the sentence,
A priority determining step for obtaining information on the priority of the erroneous recognition location;
A display step for displaying the misrecognized portion according to the sentence and the priority order;
An input step in which corrections made by the corrector regarding the erroneously recognized part are input;
Misrecognition correction method including.
請求項1から8の何れかに記載された誤認識訂正装置の各部としてコンピュータを機能させるための誤認識訂正プログラム。   A misrecognition correction program for causing a computer to function as each unit of the misrecognition correction apparatus according to claim 1.
JP2009136261A 2009-06-05 2009-06-05 Incorrect recognition correction device, method and program Pending JP2010282083A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009136261A JP2010282083A (en) 2009-06-05 2009-06-05 Incorrect recognition correction device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009136261A JP2010282083A (en) 2009-06-05 2009-06-05 Incorrect recognition correction device, method and program

Publications (1)

Publication Number Publication Date
JP2010282083A true JP2010282083A (en) 2010-12-16

Family

ID=43538845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009136261A Pending JP2010282083A (en) 2009-06-05 2009-06-05 Incorrect recognition correction device, method and program

Country Status (1)

Country Link
JP (1) JP2010282083A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017161850A (en) * 2016-03-11 2017-09-14 株式会社東芝 Convention support device, convention support method, and convention support program
US10304460B2 (en) 2016-09-16 2019-05-28 Kabushiki Kaisha Toshiba Conference support system, conference support method, and computer program product
JP2019144310A (en) * 2018-02-16 2019-08-29 キヤノンマーケティングジャパン株式会社 Information processor, information processing system, control method and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11352988A (en) * 1998-06-09 1999-12-24 Olympus Optical Co Ltd Voice recognition device
JP2001060192A (en) * 1999-08-20 2001-03-06 Nippon Hoso Kyokai <Nhk> Character data corrector and storage medium
JP2006119534A (en) * 2004-10-25 2006-05-11 Internatl Business Mach Corp <Ibm> Computer system, method for supporting correction work, and program
WO2006093092A1 (en) * 2005-02-28 2006-09-08 Honda Motor Co., Ltd. Conversation system and conversation software

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11352988A (en) * 1998-06-09 1999-12-24 Olympus Optical Co Ltd Voice recognition device
JP2001060192A (en) * 1999-08-20 2001-03-06 Nippon Hoso Kyokai <Nhk> Character data corrector and storage medium
JP2006119534A (en) * 2004-10-25 2006-05-11 Internatl Business Mach Corp <Ibm> Computer system, method for supporting correction work, and program
WO2006093092A1 (en) * 2005-02-28 2006-09-08 Honda Motor Co., Ltd. Conversation system and conversation software

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017161850A (en) * 2016-03-11 2017-09-14 株式会社東芝 Convention support device, convention support method, and convention support program
US10102859B2 (en) 2016-03-11 2018-10-16 Kabushiki Kaisha Toshiba Conference support apparatus, conference support method, and computer program product
US10304460B2 (en) 2016-09-16 2019-05-28 Kabushiki Kaisha Toshiba Conference support system, conference support method, and computer program product
JP2019144310A (en) * 2018-02-16 2019-08-29 キヤノンマーケティングジャパン株式会社 Information processor, information processing system, control method and program
JP7231806B2 (en) 2018-02-16 2023-03-02 キヤノンマーケティングジャパン株式会社 Information processing device, information processing system, control method, and program

Similar Documents

Publication Publication Date Title
US10102859B2 (en) Conference support apparatus, conference support method, and computer program product
CN104252864B (en) Real-time voice analysis method and system
US7941318B2 (en) Public speaking self-evaluation tool
US11176944B2 (en) Transcription summary presentation
WO2016103988A1 (en) Information processing device, information processing method, and program
JPH11231891A (en) Voice recognition system and method
CN111738041A (en) Video segmentation method, device, equipment and medium
KR102193029B1 (en) Display apparatus and method for performing videotelephony using the same
US9028255B2 (en) Method and system for acquisition of literacy
US20200194003A1 (en) Meeting minute output apparatus, and control program of meeting minute output apparatus
CN101410790A (en) Text display, text display method, and program
WO2018105373A1 (en) Information processing device, information processing method, and information processing system
WO2021159729A1 (en) Method for broadcasting text in image and device thereof, electronic circuit and storage medium
WO2016152200A1 (en) Information processing system and information processing method
KR20210134614A (en) Data processing methods and devices, electronic devices and storage media
WO2016088411A1 (en) Information-processing apparatus, information-processing method, and program
JP2010282083A (en) Incorrect recognition correction device, method and program
JP2010086356A (en) Apparatus, method and program for measuring degree of involvement
US11694675B2 (en) Information processing apparatus, information processing system, and information processing method
JP6950708B2 (en) Information processing equipment, information processing methods, and information processing systems
US11404064B2 (en) Information processing apparatus and speech analysis method
JP2017211430A (en) Information processing device and information processing method
TW202022891A (en) System and method of interactive health assessment
JP2016082355A (en) Input information support device, input information support method, and input information support program
US20230066829A1 (en) Server device, conference assistance system, and conference assistance method

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Effective date: 20110720

Free format text: JAPANESE INTERMEDIATE CODE: A7423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130207

A131 Notification of reasons for refusal

Effective date: 20130219

Free format text: JAPANESE INTERMEDIATE CODE: A131

A02 Decision of refusal

Effective date: 20130625

Free format text: JAPANESE INTERMEDIATE CODE: A02