JP2012208630A - Speech management system, speech management method and speech management program - Google Patents
Speech management system, speech management method and speech management program Download PDFInfo
- Publication number
- JP2012208630A JP2012208630A JP2011072634A JP2011072634A JP2012208630A JP 2012208630 A JP2012208630 A JP 2012208630A JP 2011072634 A JP2011072634 A JP 2011072634A JP 2011072634 A JP2011072634 A JP 2011072634A JP 2012208630 A JP2012208630 A JP 2012208630A
- Authority
- JP
- Japan
- Prior art keywords
- keyword
- speech
- statement
- recorded
- management
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、会議等における発言についての記録を作成するとともに、議事進行を支援するための発言管理システム、発言管理方法及び発言管理プログラムに関する。 The present invention relates to a statement management system, a statement management method, and a statement management program for creating a record of a statement in a meeting or the like and supporting the proceeding of proceedings.
会議を行なった場合、会議終了後に議事録を作成することがある。このような議事録作成の効率化を図るために、議事録作成システムが検討されている。例えば、各発言内容について、発言者を特定しながら議事録を作成するための技術が検討されている(例えば、特許文献1を参照。)。この文献に記載された技術では、マイクで収集された録音内容に基づき、音声認識部は、会議出席者の音声を認識する。そして、認識した音声から議事録データを作成する。話者特定部は、声紋認証により、各発言内容の発言者を特定する。作成した議事録データにおける発言内容と特定された発言者とが対応付けられた議事録データを表示する。 When a meeting is held, the minutes may be created after the meeting ends. In order to improve the efficiency of such minutes creation, a minutes creation system is being studied. For example, a technique for creating a minutes while identifying a speaker for each comment content is being studied (for example, see Patent Document 1). In the technique described in this document, the voice recognition unit recognizes the voice of the conference attendee based on the recording contents collected by the microphone. Then, minutes data is created from the recognized voice. The speaker specifying unit specifies a speaker of each message content by voiceprint authentication. The minutes data in which the contents of the statements in the created minutes data are associated with the specified speaker are displayed.
また、記録された会議映像において、重要個所のみを抽出して視聴できるようにするための技術が検討されている(例えば、特許文献2を参照。)。この文献に記載された技術では、会議映像において、会議における重要部分を検出するインデックス検出手段を備える。そして、インデックス情報に基づいて議事録ファイルを作成する。 Further, a technique for extracting and viewing only important portions from recorded conference videos has been studied (for example, see Patent Document 2). The technique described in this document includes index detection means for detecting an important part of the conference in the conference video. Then, a minutes file is created based on the index information.
また、マイクロフォンに入力された音声に含まれるキーワードを認識し、このキーワードに基づいて各種操作を行なうための技術も検討されている(例えば、特許文献3を参照。)。この文献に記載された技術では、音声認識部において、キーワードスポッティング手法により入力音声の認識処理を実行する。 In addition, a technique for recognizing a keyword included in voice input to a microphone and performing various operations based on the keyword has been studied (see, for example, Patent Document 3). In the technique described in this document, an input speech recognition process is executed by a keyword spotting method in a speech recognition unit.
特許文献1に記載された技術においては、表示された発言内容に基づいて内容を確認することができる。しかしながら、発言内容の中には、専門用語が含まれる場合もあり、会議参加者の知識レベルによっては、発言内容が的確に理解されていない可能性もある。 In the technique described in Patent Document 1, the content can be confirmed based on the displayed remark content. However, technical terms may be included in the content of remarks, and the content of remarks may not be properly understood depending on the knowledge level of the conference participants.
また、会議の進行状況に言っては、会議参加者に関連資料を提示したい場合もある。このように、関連資料を提示する場合、会議の司会者や説明者の手間をかけていたのでは、会議に集中することができないことがある。 In addition, as for the progress of the conference, there are cases where it is desired to present relevant materials to the conference participants. As described above, when presenting related materials, it may not be possible to concentrate on the conference if it takes time and effort from the conference chairman and the explainer.
また、会議においては、会議次第において、議事の順番が予め決められていることが多い。この場合、参加者が現在の議事状況を把握できると便利である。
本発明は、上記問題点を解決するためになされたものであり、発言についての記録を作成するとともに、円滑な議事進行を支援するための発言管理システム、発言管理方法及び発言管理プログラムを提供することにある。
In a meeting, the order of agendas is often determined in advance depending on the meeting. In this case, it is convenient if the participant can grasp the current status of the proceedings.
The present invention has been made to solve the above problems, and provides a statement management system, a statement management method, and a statement management program for creating a record of a statement and supporting smooth proceeding of proceedings. There is.
上記問題点を解決するために、請求項1に記載の発明は、キーワードに対して関連情報を記録したキーワード記憶手段と、音声認識された発言内容を記録する発言記憶手段と、音声入力装置と表示装置とに接続された制御手段とを備えた発言管理システムであって、前記制御手段が、前記音声入力装置において発言者の音声を取得し、音声認識した発言内容を作成して前記発言記憶手段に記録する手段と、前記発言内容に含まれる発言文言と、前記キーワード記憶手段に記憶されたキーワードとを比較するキーワードスポッティング処理を行なう手段と、前記発言文言とキーワードとが一致した場合には、前記キーワードに関連付けられた関連情報を前記表示装置に出力する手段とを備えたことを要旨とする。 In order to solve the above-mentioned problems, the invention described in claim 1 includes a keyword storage unit that records related information for a keyword, a speech storage unit that records speech-recognized speech content, and a speech input device. A speech management system comprising control means connected to a display device, wherein the control means acquires speech of a speaker in the speech input device, creates speech content that is speech-recognized, and stores the speech storage A means for recording in the means, a means for performing a keyword spotting process for comparing the message text included in the content of the message and the keyword stored in the keyword storage means, and when the message word matches the keyword And a means for outputting relevant information associated with the keyword to the display device.
請求項2に記載の発明は、請求項1に記載の発言管理システムにおいて、前記キーワード記憶手段には、前記関連情報として、キーワードについての説明文が記録されていることを要旨とする。 The invention according to claim 2 is summarized in that in the statement management system according to claim 1, an explanatory text about a keyword is recorded in the keyword storage unit as the related information.
請求項3に記載の発明は、請求項1又は2に記載の発言管理システムにおいて、利用者の属性情報を記録した利用者管理手段を更に備え、各キーワードに対して、利用者の属性情報が更に記録されており、前記制御手段が、前記利用者管理手段から、各表示装置の利用者の属性情報を取得し、前記属性情報に対応するキーワードを前記キーワード記憶手段から抽出し、抽出したキーワードを用いて前記キーワードスポッティング処理を行なうことを要旨とする。 The invention described in claim 3 further comprises user management means for recording user attribute information in the statement management system according to claim 1 or 2, wherein the user attribute information is stored for each keyword. Further recorded, the control means acquires attribute information of the user of each display device from the user management means, extracts a keyword corresponding to the attribute information from the keyword storage means, and extracts the extracted keyword The gist is that the keyword spotting process is performed using.
請求項4に記載の発明は、請求項1〜3のいずれか一つに記載の発言管理システムにおいて、前記表示装置に関連情報を出力したキーワードについて、前記キーワード記憶手段に出力済み情報を記録し、前記キーワードスポッティング処理においては、出力済み情報が記録されていないキーワードを用いることを要旨とする。 According to a fourth aspect of the present invention, in the message management system according to any one of the first to third aspects, the output information is recorded in the keyword storage means for the keyword for which the related information is output to the display device. The gist of the keyword spotting process is to use a keyword for which output information is not recorded.
請求項5に記載の発明は、請求項1〜4のいずれか一つに記載の発言管理システムにおいて、前記制御手段が、前記表示装置に関連情報を出力したキーワードについて、発言文言が含まれていた発言回数をカウントし、前記発言回数に応じて、前記キーワードの関連情報の表示方法を変更する手段を更に備えたことを要旨とする。 According to a fifth aspect of the present invention, in the speech management system according to any one of the first to fourth aspects, a speech statement is included for a keyword for which the control means outputs related information to the display device. The gist further comprises means for counting the number of utterances and changing the display method of the relevant information of the keyword according to the number of utterances.
請求項6に記載の発明は、請求項1〜5のいずれか一つに記載の発言管理システムにおいて、前記キーワード記憶手段には、議事項目の進行を特定するためのキーワードが記録されており、前記制御手段が、発言文言とキーワードとの一致を検知した場合には、前記表示装置に出力された前記議事項目を消し込む手段を更に備えたことを要旨とする。 The invention according to claim 6 is the statement management system according to any one of claims 1 to 5, wherein the keyword storage means stores a keyword for specifying the progress of the agenda item, The gist of the present invention is that the control means further comprises means for deleting the agenda items output to the display device when the match between the statement word and the keyword is detected.
請求項7に記載の発明は、請求項1〜6のいずれか一つに記載の発言管理システムにおいて、前記制御手段が、前記発言記憶手段に記録された発言内容を用いて要約を作成し、前記表示装置に提供する手段を更に備えたことを要旨とする。 The invention according to claim 7 is the statement management system according to any one of claims 1 to 6, wherein the control unit creates a summary using the statement contents recorded in the statement storage unit, The gist of the invention is that the display device further includes means for providing the display device.
請求項8に記載の発明は、請求項7に記載の発言管理システムにおいて、前記制御手段が、前記表示装置において指定された発言内容範囲の要約を作成することを要旨とする。
請求項9に記載の発明は、請求項7に記載の発言管理システムにおいて、前記制御手段が、発言内容において前記キーワードスポッティング処理により抽出された発言文言の位置を特定し、この発言文言の位置を用いて要約対象範囲を特定し、この要約対象範囲の発言内容を要約することを要旨とする。
The gist of the invention described in claim 8 is that in the statement management system according to claim 7, the control means creates a summary of the content range of the statement designated in the display device.
According to a ninth aspect of the present invention, in the speech management system according to the seventh aspect, the control means specifies the position of the speech sentence extracted by the keyword spotting process in the speech content, and the position of the speech sentence is determined. The gist is to identify the summarization target range and summarize the content of the remarks in this summarization target range.
請求項10に記載の発明は、キーワードに対して関連情報を記録したキーワード記憶手段と、音声認識された発言内容を記録する発言記憶手段と、音声入力装置と表示装置とに接続された制御手段とを備えた発言管理システムを用いた発言管理方法であって、前記制御手段が、前記音声入力装置において発言者の音声を取得し、音声認識した発言内容を作成して前記発言記憶手段に記録する段階と、前記発言内容に含まれる発言文言と、前記キーワード記憶手段に記憶されたキーワードとを比較するキーワードスポッティング処理を行なう段階と、前記発言文言とキーワードとが一致した場合には、前記キーワードに関連付けられた関連情報を前記表示装置に出力する段階とを実行することを要旨とする。 According to a tenth aspect of the present invention, there is provided a keyword storage means for recording relevant information for a keyword, a speech storage means for recording speech-recognized speech content, and a control means connected to the speech input device and the display device. A speech management method using a speech management system comprising: a speech management apparatus that acquires speech of a speaker in the speech input device, creates speech-recognized speech content, and records the speech content in the speech storage device Performing a keyword spotting process for comparing the statement word included in the statement content with the keyword stored in the keyword storage means, and when the statement word matches the keyword, the keyword And executing the step of outputting the related information associated with the display device to the display device.
請求項11に記載の発明は、キーワードに対して関連情報を記録したキーワード記憶手段と、音声認識された発言内容を記録する発言記憶手段と、音声入力装置と表示装置とに接続された制御手段とを備えた発言管理システム発言管理プログラムであって、前記制御手段を、前記音声入力装置において発言者の音声を取得し、音声認識した発言内容を作成して前記発言記憶手段に記録する手段、前記発言内容に含まれる発言文言と、前記キーワード記憶手段に記憶されたキーワードとを比較するキーワードスポッティング処理を行なう手段、前記発言文言とキーワードとが一致した場合には、前記キーワードに関連付けられた関連情報を前記表示装置に出力する手段として機能させることを要旨とする。 According to the eleventh aspect of the present invention, there is provided a keyword storage means for recording related information for a keyword, a speech storage means for recording speech-recognized speech content, and a control means connected to the speech input device and the display device. A speech management system comprising: a means for acquiring speech of a speaker in the speech input device, creating speech-recognized speech content, and recording the speech content in the speech storage means; Means for performing a keyword spotting process for comparing the statement text included in the content of the comment and the keyword stored in the keyword storage means; and if the statement word matches the keyword, the association associated with the keyword The gist is to allow information to function as a means for outputting to the display device.
(作用)
請求項1、10又は11に記載の発明によれば、制御手段が、音声入力装置において発言者の音声を取得し、音声認識した発言内容を作成して発言記憶手段に記録する。次に、発言内容に含まれる発言文言と、キーワード記憶手段に記憶されたキーワードとを比較する。そして、発言文言とキーワードとが一致した場合には、キーワードに関連付けられた関連情報を表示装置に出力する。これにより、利用者に対して、発言に関連する関連情報を提供することができる。
(Function)
According to the first, tenth, or eleventh aspects, the control means acquires the voice of the speaker in the voice input device, creates the voice-recognized voice content, and records it in the voice storage means. Next, the statement text included in the statement content is compared with the keyword stored in the keyword storage means. When the statement word matches the keyword, the related information associated with the keyword is output to the display device. Thereby, it is possible to provide related information related to the remarks to the user.
請求項2に記載の発明によれば、キーワード記憶手段には、関連情報として、キーワードについての説明文が記録されている。これにより、利用者は、発言についての説明情報を取得することができる。 According to the second aspect of the present invention, the keyword storage is recorded with the explanatory text about the keyword as the related information. Thereby, the user can acquire the description information about the utterance.
請求項3に記載の発明によれば、利用者管理手段から、各表示装置の利用者の属性情報を取得する。そして、属性情報に対応するキーワードをキーワード記憶手段から抽出し、抽出したキーワードを用いてキーワードスポッティング処理を行なう。これにより、利用者の属性に応じた関連情報を提供することができる。 According to the invention described in claim 3, the attribute information of the user of each display device is acquired from the user management means. Then, a keyword corresponding to the attribute information is extracted from the keyword storage means, and a keyword spotting process is performed using the extracted keyword. Thereby, the related information according to a user's attribute can be provided.
請求項4に記載の発明によれば、表示装置に関連情報を出力したキーワードについて、キーワード記憶手段に出力済み情報を記録し、キーワードスポッティング処理においては、出力済み情報が記録されていないキーワードを用いる。これにより、既に提供済みの情報については、重複した提供を抑制することができる。 According to the fourth aspect of the present invention, the output information is recorded in the keyword storage means for the keyword for which the related information is output to the display device, and the keyword in which the output information is not recorded is used in the keyword spotting process. . Thereby, about the already provided information, the duplicate provision can be suppressed.
請求項5に記載の発明によれば、表示装置に関連情報を出力したキーワードについて、発言文言が含まれていた発言回数をカウントし、発言回数に応じて、キーワードの関連情報の表示方法を変更する。これにより、キーワードの重み付けを行ない、この重み付けに応じた表示を行なうことができる。 According to the fifth aspect of the present invention, the number of utterances including the utterance wording is counted for the keyword for which the related information is output to the display device, and the display method of the keyword related information is changed according to the number of utterances. To do. Thereby, weighting of keywords can be performed, and display according to the weighting can be performed.
請求項6に記載の発明によれば、キーワード記憶手段には、議事項目の進行を特定するためのキーワードが記録されている。そして、制御手段が、発言文言とキーワードとの一致を検知した場合には、表示装置に出力された議事項目を消し込む。これにより、利用者に対して、議事の進行状況を提供することができる。 According to the sixth aspect of the present invention, the keyword storage means stores a keyword for specifying the progress of the agenda item. When the control means detects a match between the statement and the keyword, the agenda item output to the display device is erased. Thereby, the progress of proceedings can be provided to the user.
請求項7に記載の発明によれば、発言記憶手段に記録された発言内容を用いて要約を作成する。これにより、利用者に対して、要約を提供することができる。
請求項8に記載の発明によれば、表示装置において指定された発言内容範囲の要約を作成する。これにより、所定範囲の発言についての要約を提供することができる。
According to the seventh aspect of the present invention, a summary is created using the content of the speech recorded in the speech storage means. Thereby, a summary can be provided to the user.
According to the eighth aspect of the present invention, a summary of the content range of the message specified in the display device is created. Thereby, the summary about the speech of the predetermined range can be provided.
請求項9に記載の発明によれば、発言内容においてキーワードスポッティング処理により抽出された発言文言の位置を特定する。そして、この発言文言の位置を用いて要約対象範囲を特定し、この要約対象範囲の発言内容を要約する。これにより、キーワードによって特定された範囲の要約を作成することができる。 According to the invention described in claim 9, the position of the statement word extracted by the keyword spotting process in the statement content is specified. Then, the summarization target range is specified using the position of the remark wording, and the content of the remarks in the summarization target range is summarized. Thereby, the summary of the range specified by the keyword can be created.
本発明によれば、発言についての記録を作成するとともに、円滑な議事進行を支援するための発言管理システム、発言管理方法及び発言管理プログラムを提供することができる。 According to the present invention, it is possible to provide a speech management system, a speech management method, and a speech management program for creating a record of speech and supporting smooth proceeding of proceedings.
以下、本発明を具体化した発言管理システムの一実施形態を図1〜図5に従って説明する。本実施形態では、複数の拠点に設置されたクライアント端末を接続して、テレビ会議を行なう場合を説明する。本実施形態では、図1に示すように、ネットワークを介して相互に接続されたクライアント端末10、会議支援サーバ20を用いる。
Hereinafter, an embodiment of a message management system embodying the present invention will be described with reference to FIGS. In the present embodiment, a case where a video conference is performed by connecting client terminals installed at a plurality of bases will be described. In the present embodiment, as shown in FIG. 1, a
クライアント端末10は、テレビ会議の参加者(利用者)が利用するコンピュータ端末である。このクライアント端末10は、制御部、キーボードやポイントデバイス等の入力部、ディスプレイ等の出力部(表示装置)、マイク(音声入力装置)、スピーカ、カメラ等を備えている。
The
クライアント端末10は、カメラによって撮影された映像データと、マイクにより集音された音声データとからなる映像・音声データを、ネットワークを介して、会議支援サーバ20に送信する。クライアント端末10は、映像・音声データを送信する場合には、自身の端末コードに関するデータを含める。
The
また、クライアント端末10は、会議支援サーバ20から、他拠点の映像・音声データを取得した場合、スピーカから音声を出力したり、ディスプレイに画像を表示したりする。
In addition, when the
クライアント端末10のディスプレイには、図5に示すテレビ会議画面500が出力される。このテレビ会議画面500は、参加者表示領域510、会議次第表示欄520、発言履歴表示欄530、説明表示欄540から構成されている。この参加者表示領域510には、他拠点のクライアント端末10から取得した画像データが出力される。会議次第表示欄520には、この会議の議事項目が列挙された会議次第が出力される。発言履歴表示欄530には、会議参加者の発言を音声認識したテキストが表示される。説明表示欄540には、発言に関連する参考情報の出力を指示するための選択アイコンが表示される。
A
会議支援サーバ20は、各拠点に設置されたクライアント端末10によるテレビ会議を支援するコンピュータシステムである。
会議支援サーバ20は、制御部21、キーワード記憶部22、参考情報記憶部23、会議管理情報記憶部24、発言管理情報記憶部25、映像・音声記憶部26を備えている。本実施形態では、キーワード記憶部22、参考情報記憶部23がキーワード記憶手段として機能し、発言管理情報記憶部25が発言記憶手段として機能する。そして、制御部21は、制御手段(CPU、RAM、ROM等)を備え、後述する処理(会議中継段階、音声認識段階、発言記録段階、画面制御段階、キーワード抽出段階、進行管理段階、説明表示段階、要約作成段階等の各処理等)を行なう。そのための発言管理プログラム(聴講者用)を実行することにより、制御部21は、図1に示すように、会議中継手段211、音声認識手段212、発言記録手段213、画面制御手段214、キーワード抽出手段215、進行管理手段216、説明表示手段217、要約作成手段218として機能する。
The
The
会議中継手段211は、クライアント端末10から取得した映像・音声データを、他の拠点に設置されたクライアント端末10に転送する処理を実行する。また、会議中継手段211は、映像・音声データに含まれる音声データを、音声認識手段212に供給する。
The
音声認識手段212は、クライアント端末10から取得した音声データに基づいて音声認識処理によりテキストに変換した音声認識テキストを生成する処理を実行する。
発言記録手段213は、音声認識テキストを翻訳して翻訳テキストを生成する処理を実行する。更に、発言記録手段213は、端末コードに基づいて発言者を特定した参加者コードを関連づけて、音声認識テキスト、翻訳テキストを発言管理情報記憶部25に記録する処理を実行する。
The
The
画面制御手段214は、各クライアント端末10のディスプレイに表示されたテレビ会議画面500の表示を制御する処理を実行する。具体的には、テレビ会議画面500の会議次第表示欄520に、テレビ会議の議事項目を列挙した会議次第を出力する。また、発言履歴表示欄530に、会議参加者の発言を音声認識したテキストを表示する。更に、説明表示欄540に、発言に関連する参考情報を選択させるための選択アイコンを表示する。そして、画面制御手段214は、発言履歴表示欄530、説明表示欄540に表示する情報がオーバーフローした場合には、古い情報から順次、表示を削除する。
The
キーワード抽出手段215は、発言管理情報記憶部25に記録されたテキスト(発言文言)と、キーワード記憶部22に記録されたキーワードをマッチングする処理(キーワードスポッティング処理)を実行する。
The
進行管理手段216は、キーワードスポッティング処理により抽出されたキーワードに基づいて、会議の進行状態を管理する処理を実行する。
説明表示手段217は、キーワードスポッティング処理により抽出されたキーワードに基づいて、参考情報の出力を管理する処理を実行する。
要約作成手段218は、発言管理情報記憶部25に記録された議事録レコードに基づいて、公知の要約作成技術を用いて要約を生成する処理を実行する。
The progress management means 216 executes a process for managing the progress of the conference based on the keywords extracted by the keyword spotting process.
The
The summary creation means 218 executes a process for generating a summary using a known summary creation technique based on the minutes record recorded in the statement management
キーワード記憶部22には、図2(a)に示すように、キーワードスポッティング処理を行なうためのキーワード管理レコード220が記録されている。このキーワード管理レコード220は、キーワードが登録された場合に記録される。キーワード管理レコード220には、キーワード、対応に関するデータが記録されている。
As shown in FIG. 2A, a
キーワードデータ領域には、キーワードスポッティング処理の対象となる言葉に関するデータが記録されている。
対応データ領域には、該当キーワードを検知した場合の対応に関するデータが記録されている。本実施形態では、キーワードスポッティング処理を会議進行管理、説明表示又は要約作成のために用いる。このため、対応データ領域には、会議進行管理、説明表示又は要約作成を特定するフラグが記録されている。
In the keyword data area, data relating to a word that is a target of the keyword spotting process is recorded.
In the corresponding data area, data related to the response when the corresponding keyword is detected is recorded. In the present embodiment, keyword spotting processing is used for conference progress management, explanation display, or summary creation. For this reason, a flag for specifying conference progress management, explanation display, or summary creation is recorded in the corresponding data area.
参考情報記憶部23には、図2(b)に示すように、クライアント端末10に出力する参考情報についての参考情報管理レコード230が記録されている。この参考情報管理レコード230は、キーワードに対応する参考情報が登録された場合に記録される。参考情報管理レコード230には、キーワード、参考資料、表示状況に関するデータが記録されている。
In the reference
キーワードデータ領域には、説明情報の出力対象である用語に関するデータが記録されている。
参考情報データ領域には、このキーワードに対応した関連情報が記録されている。本実施形態では、会議の中で用いられる専門用語の解説(説明文)やプレゼンテーション資料、内部資料が記録される。
In the keyword data area, data related to a term that is an output target of explanation information is recorded.
In the reference information data area, related information corresponding to this keyword is recorded. In the present embodiment, explanations (descriptions) of technical terms used in the conference, presentation materials, and internal materials are recorded.
表示状況データ領域には、この参考情報の表示状況を特定するためのフラグが記録される。クライアント端末10において、選択アイコンを表示した場合に、出力済み情報として表示済フラグを記録する。
In the display status data area, a flag for specifying the display status of the reference information is recorded. When the selection icon is displayed in the
会議管理情報記憶部24には、図2(c)に示すように、会議を運営するための会議管理情報が記録されている。本実施形態では、会議概要レコード241、会議次第管理レコード242及び参加者管理レコード243が記録されている。この参加者管理レコード243が記録された会議管理情報記憶部24が利用者管理手段として機能する。会議概要レコード241〜参加者管理レコード243は、会議の開催が決定されて、会議管理情報が登録された場合に記録されている。
As shown in FIG. 2C, conference management information for managing the conference is recorded in the conference management
会議概要レコード241には、会議コード、会議日時、タイトルに関するデータが記録されている。
会議コードデータ領域には、各会議を特定するための識別子に関するデータが記録されている。この会議コードにより、会議概要レコード241は、会議次第管理レコード242及び参加者管理レコード243に関連付けられている。
In the
In the conference code data area, data relating to an identifier for identifying each conference is recorded. With this conference code, the
会議日時データ領域には、テレビ会議が行なわれる年月日及び時刻に関するデータが記録されている。
タイトルデータ領域には、テレビ会議の表題や目的に関するデータが記録されている。
In the meeting date / time data area, data relating to the date and time of the video conference is recorded.
In the title data area, data relating to the title and purpose of the video conference is recorded.
会議次第管理レコード242には、議事順番、議事項目、キーワード、終了判定に関するデータが記録されている。
議事順番データ領域には、テレビ会議において討論予定の議事の順番を特定するためのデータが記録されている。
On the meeting, the
In the agenda order data area, data for specifying the order of agenda items scheduled for discussion in a video conference is recorded.
議事項目データ領域には、この議事の題目議題に関するデータが記録されている。複数の議題について討論を予定している場合には、すべての議題が記録されている。
キーワードデータ領域には、この議題の討論において用いるキーワードに関するデータが記録されている。
終了判定データ領域には、この議題についての討論の終了を判定するためのフラグが記録される。討論が終了した議事については、終了フラグが記録される。
In the agenda item data area, data relating to the agenda item of the agenda is recorded. If multiple agendas are scheduled for discussion, all agendas are recorded.
In the keyword data area, data relating to keywords used in the discussion of this agenda is recorded.
In the end determination data area, a flag for determining the end of the discussion on the agenda is recorded. For agendas that have been debated, an end flag is recorded.
参加者管理レコード243には、参加者コード、役割コード、端末コード、言語に関するデータが記録されている。
参加者コードデータ領域には、このテレビ会議の参加者を特定するための識別子に関するデータが記録されている。
In the
In the participant code data area, data relating to an identifier for identifying the participant of the video conference is recorded.
役割コードデータ領域には、この参加者のテレビ会議における役割を特定するための識別子に関するデータが記録されている。本実施形態では、司会者の参加者管理レコード243には、司会者フラグが記録されている。
In the role code data area, data relating to an identifier for identifying the role of the participant in the video conference is recorded. In the present embodiment, a moderator flag is recorded in the
端末コードデータ領域には、この参加者が利用するクライアント端末10を特定するための識別子が記録されている。例えば、端末コードとしてIPアドレスを利用することができる。
言語データ領域には、参加者が用いる言語を特定するための識別子が記録されている。
In the terminal code data area, an identifier for specifying the
In the language data area, an identifier for identifying the language used by the participant is recorded.
発言管理情報記憶部25には、図2(d)に示すように、テレビ会議における参加者の発言に関する情報が記録される。本実施形態では、音声ファイル、発言履歴レコード251及び要約管理レコード252が記録される。発言履歴レコード251は、後述する音声認識処理を実行した場合に記録される。要約管理レコード252は、後述する要約作成処理を実行した場合に記録される。
In the speech management
発言履歴レコード251には、時刻、発言者コード、発言内容に関するデータが記録される。
時刻データ流域には、発言を記録した年月日及び時刻に関するデータが記録される。
発言者コードデータ領域には、発言者を特定するための識別子(参加者コード)に関するデータが記録される。
発言内容データ領域には、音声認識処理により音声データを変換した音声認識テキスト、及びこの音声認識テキストを翻訳した翻訳テキストが記録される。
In the
In the time data basin, data related to the date and time when the utterance is recorded is recorded.
In the speaker code data area, data relating to an identifier (participant code) for identifying a speaker is recorded.
In the statement content data area, a speech recognition text obtained by converting speech data by speech recognition processing and a translation text obtained by translating the speech recognition text are recorded.
要約管理レコード252には、時刻、要約に関するデータが記録される。
時刻データ流域には、要約作成処理が行なわれた時刻に関するデータが記録される。
要約データ流域には、要約作成処理により生成された要約内容に関するデータが記録される。
The
In the time data basin, data relating to the time at which the summary creation process was performed is recorded.
In the summary data basin, data related to the summary content generated by the summary creation process is recorded.
映像・音声記憶部26には、各クライアント端末10から取得した映像・音声データが記録される。この映像・音声データには、映像・音声データを送信したクライアント端末10の端末コードや、映像・音声データの取得時刻が関連付けられて記録される。この取得時刻と、発言履歴レコード251に記録された時刻とを用いることにより、映像・音声データと発言履歴レコード251の発言内容とを関連付けることができる。
In the video /
次に、この発言管理システムにおける動作を、図3〜図5を用いて説明する。ここでは、発言登録処理(図3)、キーワードスポッティング処理(図3)、要約作成処理(図4)の順番に行なう。
(発言登録処理)
まず、発言登録処理を、図3を用いて説明する。この処理は、テレビ会議中に行なわれる。
Next, the operation in this message management system will be described with reference to FIGS. Here, speech registration processing (FIG. 3), keyword spotting processing (FIG. 3), and summary creation processing (FIG. 4) are performed in this order.
(Speech registration process)
First, the speech registration process will be described with reference to FIG. This process is performed during the video conference.
ここでは、会議支援サーバ20の制御部21は、音声の取得処理を実行する(ステップS1−1)。具体的には、制御部21の会議中継手段211は、各クライアント端末10から、映像・音声データを取得する。この映像・音声データには、データを送信したクライアント端末10の端末コードに関するデータが含まれる。会議中継手段211は、取得した映像・音声データを、映像・音声データを送信したクライアント端末10の端末コードや、映像・音声データの取得時刻に関連付けて、映像・音声記憶部26に記録する。そして、会議中継手段211は、他の拠点に設置されたクライアント端末10に転送する。更に、会議中継手段211は、映像・音声データに含まれる音声データを音声認識手段212に供給する。
Here, the
次に、会議支援サーバ20の制御部21は、音声認識処理を実行する(ステップS1−2)。具体的には、制御部21の音声認識手段212は、取得した音声データの音声認識処理により、音声テキストを生成する。そして、音声認識手段212は、音声テキストを発言記録手段213に提供する。
Next, the
次に、会議支援サーバ20の制御部21は、発言の記録処理を実行する(ステップS1−3)。具体的には、制御部21の発言記録手段213は、会議管理情報記憶部24において、映像・音声データを送信したクライアント端末10の端末コードが記録された参加者管理レコード243を抽出する。そして、発言記録手段213は、参加者管理レコード243に記録されている参加者コードを特定する。更に、発言記録手段213は、参加者管理レコード243を用いて各クライアント端末10を利用している参加者の言語を特定する。次に、発言記録手段213は、特定した言語に応じて、音声認識手段212から取得した音声テキストを翻訳した翻訳テキストを生成する。そして、発言記録手段213は、システムタイマから現在時刻及び端末コード、発言内容(音声テキスト及び翻訳テキスト)を記録した発言履歴レコード251を生成し、発言管理情報記憶部25に記録する。更に、発言記録手段213は、発言内容を画面制御手段214に供給する。
Next, the
次に、会議支援サーバ20の制御部21は、発言履歴の出力処理を実行する(ステップS1−4)。具体的には、制御部21の画面制御手段214は、各クライアント端末10に対して、音声テキスト及び翻訳テキストを各クライアント端末10に送信する。この場合、テレビ会議画面500の発言履歴表示欄530に発言内容を出力する。ここで、発言履歴表示欄530がオーバーフローする場合には、最も古い発言内容から順番に削除していく。
Next, the
(キーワードスポッティング処理)
次に、キーワードスポッティング処理を、図3を用いて説明する。この処理は、テレビ会議中に行なわれる。本実施形態では、キーワードスポッティング処理において、会議進行管理処理、説明表示管理処理、要約作成処理を実行する。
(Keyword spotting process)
Next, the keyword spotting process will be described with reference to FIG. This process is performed during the video conference. In the present embodiment, a conference progress management process, an explanation display management process, and a summary creation process are executed in the keyword spotting process.
まず、会議支援サーバ20の制御部21は、キーワード抽出処理を実行する(ステップS2−1)。具体的には、制御部21のキーワード抽出手段215は、発言管理情報記憶部25に新たに記録された発言履歴レコード251を取得する。次に、キーワード抽出手段215は、発言履歴レコード251において、キーワード記憶部22に記録されているキーワードが含まれているかどうかを判定する。キーワードが含まれていない場合は、この発言履歴レコード251についてのキーワードスポッティング処理を終了する。
First, the
一方、キーワードが含まれている場合には、キーワード抽出手段215は、キーワード管理レコード220に記録されている対応を特定する。ここでは、議事項目の進行を特定するためのキーワード「終了」や「終わり」に関連付けて、対応データ領域に「会議進行管理」が記録されている場合を想定する。この場合、キーワード抽出手段215は、進行管理手段216に処理を引き継ぐ。
On the other hand, when a keyword is included, the
〔会議進行管理処理〕
まず、会議進行管理処理について説明する。
会議支援サーバ20の制御部21は、発言者の特定処理を実行する(ステップS2−2)。具体的には、制御部21の進行管理手段216は、キーワードスポッティング処理によって抽出された発言履歴レコード251に記録されている発言者コードを取得する。
[Conference progress management process]
First, the conference progress management process will be described.
The
次に、会議支援サーバ20の制御部21は、司会者かどうかについての判定処理を実行する(ステップS2−3)。具体的には、制御部21の進行管理手段216は、会議管理情報記憶部24から、この発言者コードが参加者コードデータ領域に記録されている参加者管理レコード243を取得する。ここで、参加者管理レコード243の役割コードデータ領域に司会者フラグが記録されている場合には司会者と判定する。
Next, the
司会者でないと判定した場合(ステップS2−3において「NO」の場合)、会議支援サーバ20の制御部21は、会議進行管理処理を終了する。
一方、司会者と判定した場合(ステップS2−3において「YES」の場合)、会議支援サーバ20の制御部21は、会議次第の検索処理を実行する(ステップS2−4)。具体的には、制御部21の進行管理手段216は、終了フラグが記録されていない会議次第管理レコード242であって、議事順番が最も早いレコードを特定することにより、現在の議事項目を特定する。
If it is determined that the person is not a moderator (“NO” in step S2-3), the
On the other hand, when it determines with it being a moderator (in the case of "YES" in step S2-3), the
次に、会議支援サーバ20の制御部21は、議事進行があったかどうかについての判定処理を実行する(ステップS2−5)。具体的には、制御部21の進行管理手段216は、特定した会議次第管理レコード242に記録されているキーワードが、キーワードスポッティング処理の対象となった発言履歴レコード251に含まれているかどうかを確認する。キーワードが含まれている場合には、議事進行があったと判定する。
Next, the
キーワードが含まれておらず、議事進行がなかったと判定した場合(ステップS2−5において「NO」の場合)、会議支援サーバ20の制御部21は、会議進行管理処理を終了する。
If it is determined that no keyword is included and there is no proceeding (if “NO” in step S2-5), the
一方、キーワードが含まれており、議事進行があったと判定した場合(ステップS2−5において「YES」の場合)、会議支援サーバ20の制御部21は、議事項目の消込処理を実行する(ステップS2−6)。具体的には、制御部21の進行管理手段216は、この会議次第管理レコード242の終了判定データ領域に、終了フラグを記録する。更に、進行管理手段216は、画面制御手段214に、終了した議事項目を通知する。この場合、画面制御手段214は、各クライアント端末10において、テレビ会議画面500の会議次第表示欄520に表示された会議次第において、通知された議事項目をグレイアウトする。
On the other hand, when it is determined that the keyword is included and the proceedings have progressed (in the case of “YES” in step S2-5), the
〔説明表示管理処理〕
次に、説明表示管理処理を説明する。この処理は、キーワード抽出処理(ステップS2−1)において、専門用語や資料名のキーワードに関連付けて、対応データ領域に「説明表示」が記録されている場合に行なわれる。この場合、キーワード抽出手段215は、説明表示手段217に処理を引き継ぐ。
[Explanation display management process]
Next, explanation display management processing will be described. This process is performed when “description display” is recorded in the corresponding data area in association with the keyword of the technical term or the document name in the keyword extraction process (step S2-1). In this case, the
ここでは、会議支援サーバ20の制御部21は、参考情報の検索処理を実行する(ステップS2−7)。具体的には、制御部21の説明表示手段217は、参考情報記憶部23において、キーワードスポッティング処理の対象となったキーワードが記録された参考情報管理レコード230を特定する。
Here, the
次に、会議支援サーバ20の制御部21は、表示状況の検索処理を実行する(ステップS2−8)。具体的には、制御部21の説明表示手段217は、特定した参考情報管理レコード230の表示状況データ領域に表示済フラグが記録されているかどうかを確認する。
Next, the
次に、会議支援サーバ20の制御部21は、既表示かどうかについての判定処理を実行する(ステップS2−9)。具体的には、制御部21の説明表示手段217は、参考情報管理レコード230の表示状況データ領域に表示済フラグが記録されている場合には、既表示と判定する。
Next, the
既表示と判定した場合(ステップS2−9において「YES」の場合)、会議支援サーバ20の制御部21は、説明表示管理処理を終了する。
一方、表示済フラグが記録されておらず、既表示でないと判定した場合(ステップS2−9において「NO」の場合)、会議支援サーバ20の制御部21は、表示候補の出力処理を実行する(ステップS2−10)。具体的には、制御部21の説明表示手段217は、画面制御手段214に、キーワードスポッティング処理により抽出されたキーワードを通知する。この場合、画面制御手段214は、各クライアント端末10において、テレビ会議画面500の説明表示欄540に、キーワードに関連する参考情報を出力させるための選択アイコンを表示する。この選択アイコンは、参考情報記憶部23に記録された参考資料にリンクされている。この場合、画面制御手段214は、参考情報管理レコード230の表示状況データ領域に表示済フラグを記録する。
When it determines with already displayed (in the case of "YES" in step S2-9), the
On the other hand, when it is determined that the displayed flag is not recorded and is not already displayed (in the case of “NO” in step S2-9), the
次に、会議支援サーバ20の制御部21は、参考情報の出力処理を実行する(ステップS2−11)。具体的には、制御部21の説明表示手段217は、クライアント端末10において選択アイコンの押下を検知した場合、クライアント端末10のディスプレイに、選択アイコンに対応するキーワードの参考情報を出力する。
Next, the
〔要約作成処理〕
次に、要約作成処理を、図4を用いて説明する。
ここでは、まず、会議支援サーバ20の制御部21は、要約指示の取得処理を実行する(ステップS3−1)。この処理は、キーワード抽出処理(ステップS2−1)において、「要約」というキーワードに関連付けて、対応データ領域に「要約作成」が記録されている場合に行なわれる。この場合、キーワード抽出手段215は、要約作成手段218に処理を引き継ぐ。
[Summary creation process]
Next, the summary creation process will be described with reference to FIG.
Here, first, the
次に、会議支援サーバ20の制御部21は、先行要約の検索処理を実行する(ステップS3−2)。具体的には、制御部21の要約作成手段218は、発言管理情報記憶部25において、要約管理レコード252を検索する。
Next, the
次に、会議支援サーバ20の制御部21は、先行要約の登録があるかどうかについての判定処理を実行する(ステップS3−3)。具体的には、制御部21の要約作成手段218は、発言管理情報記憶部25に要約管理レコード252が記録されている場合には、先行要約の登録があると判定する。
Next, the
要約管理レコード252が記録されておらず、先行要約の登録がないと判定した場合(ステップS3−3において「NO」の場合)、会議支援サーバ20の制御部21は、最初からの要約の生成処理を実行する(ステップS3−4)。具体的には、制御部21の要約作成手段218は、発言管理情報記憶部25から、テレビ会議開始からの発言履歴レコード251を抽出する。そして、要約作成手段218は、抽出した発言履歴レコード251の発言内容を集約して、要約を作成する。
When it is determined that the
一方、要約管理レコード252が記録されており、先行要約の登録があると判定した場合(ステップS3−3において「YES」の場合)、会議支援サーバ20の制御部21は、先行要約以降の要約の生成処理を実行する(ステップS3−5)。具体的には、制御部21の要約作成手段218は、発言管理情報記憶部25に記録されている要約管理レコード252の中で最も遅い時刻(直近要約作成時刻)を特定する。そして、要約作成手段218は、発言管理情報記憶部25から、この直近要約作成時刻以降の時刻が記録されている発言履歴レコード251を抽出する。そして、要約作成手段218は、抽出した発言履歴レコード251の発言内容を集約して、要約を作成する。
On the other hand, when the
次に、会議支援サーバ20の制御部21は、要約の出力処理を実行する(ステップS3−6)。具体的には、制御部21の要約作成手段218は、作成した要約を画面制御手段214に供給する。画面制御手段214は、各クライアント端末10に対して、要約を各クライアント端末10に送信する。この場合、テレビ会議画面500の発言履歴表示欄530に要約を出力する。
Next, the
以上、本実施形態によれば、以下に示す効果を得ることができる。
(1)上記実施形態では、会議支援サーバ20の制御部21は、音声の取得処理(ステップS1−1)、音声認識処理(ステップS1−2)、発言の記録処理(ステップS1−3)を実行する。これにより、会議等における発言についての記録を残すことができる。この記録を利用することにより、効率的に議事録を作成することができる。
As described above, according to the present embodiment, the following effects can be obtained.
(1) In the above embodiment, the
ここで、発言記録手段213は、特定した言語に応じて、音声認識手段212から取得した音声テキストを翻訳した翻訳テキストを生成する。これにより、外国語で会議が行なわれている場合にも、会議参加者自身の言語によって発言内容を把握することができる。
Here, the
(2)上記実施形態では、会議支援サーバ20の制御部21は、発言履歴の出力処理を実行する(ステップS1−4)。この場合、クライアント端末10のディスプレイに、発言履歴表示欄530を含むテレビ会議画面500を出力する。これにより、参加者の各発言を確認することができる。
(2) In the above-described embodiment, the
(3)上記実施形態では、会議支援サーバ20の制御部21は、キーワード抽出処理を実行する(ステップS2−1)。ここで、キーワードに関連付けて「会議進行管理」が記録されている場合、会議進行管理処理を実行する。そして、キーワードが含まれており、議事進行があったと判定した場合(ステップS2−5において「YES」の場合)、会議支援サーバ20の制御部21は、議事項目の消込処理を実行する(ステップS2−6)。これにより、参加者は、クライアント端末10において議事進行状況を把握することができる。
(3) In the above embodiment, the
(4)上記実施形態では、会議支援サーバ20の制御部21は、キーワード抽出処理を実行する(ステップS2−1)。ここで、キーワードに関連付けて「説明表示」が記録されている場合、説明表示管理処理において、制御部21は、参考情報の検索処理(ステップS2−7)、表示状況の検索処理(ステップS2−8)を実行する。そして、既表示でないと判定した場合(ステップS2−9において「NO」の場合)、会議支援サーバ20の制御部21は、表示候補の出力処理(ステップS2−10)、参考情報の出力処理(ステップS2−11)を実行する。これにより、参加者は、クライアント端末10において、参考情報を効率的に入手することができる。
(4) In the above embodiment, the
(5)上記実施形態では、キーワードに関連付けて「要約作成」が記録されている場合、要約作成処理を実行する。ここで、先行要約の登録が登録されていないと判定した場合(ステップS3−3において「NO」の場合)、会議支援サーバ20の制御部21は、最初からの要約の生成処理を実行する(ステップS3−4)。一方、先行要約の登録が登録されていると判定した場合(ステップS3−3において「YES」の場合)、会議支援サーバ20の制御部21は、先行要約以降の要約の生成処理を実行する(ステップS3−5)。そして、会議支援サーバ20の制御部21は、要約の出力処理を実行する(ステップS3−6)。これにより、クライアント端末10において、会議における討論内容の要約を把握することができる。
(5) In the above embodiment, when “summary creation” is recorded in association with a keyword, summary creation processing is executed. Here, when it is determined that the registration of the preceding summary is not registered (in the case of “NO” in step S3-3), the
なお、上記実施形態は、以下の態様に変更してもよい。
・ 上記実施形態では、キーワードスポッティング処理において、説明表示管理処理を実行する。抽出したキーワードに対する対応方法はこれらに限定されるものではない。例えば、重要発言を特定するキーワードをキーワード記憶部22に記録してもよい。この場合、説明表示手段217に、重要発言が含まれる発言履歴レコード251を検索する所定の時間範囲に関するデータを保持している。この処理を、図6を用いて説明する。
In addition, you may change the said embodiment into the following aspects.
In the above embodiment, the explanation display management process is executed in the keyword spotting process. The correspondence method for the extracted keyword is not limited to these. For example, a keyword specifying an important utterance may be recorded in the
まず、会議支援サーバ20の制御部21は、ステップS2−1と同様に、キーワード抽出処理を実行する(ステップS4−1)。ここでは、キーワード抽出手段215が、「重要」というキーワードを検知して説明表示手段217に処理を引き継ぐ場合を想定する。
First, the
ここで、会議支援サーバ20の制御部21は、重要発言の抽出処理を実行する(ステップS4−2)。具体的には、制御部21の説明表示手段217は、この「重要」というキーワードが含まれている発言履歴レコード251を抽出する。更に、説明表示手段217は、この発言履歴レコード251に対して所定時間範囲内の発言履歴レコード251を抽出する。そして、説明表示手段217は、この発言履歴レコード251に記録された発言内容を重要発言として参考資料データ領域に記録した参考情報管理レコード230を生成し、参考情報記憶部23に登録する。
Here, the
次に、会議支援サーバ20の制御部21は、表示候補の出力処理を実行する(ステップS4−3)。具体的には、制御部21の説明表示手段217は、画面制御手段214に、重要発言があったことを通知する。この場合、画面制御手段214は、各クライアント端末10において、テレビ会議画面500の説明表示欄540に、重要発言表示アイコンを表示する。この重要発言表示アイコンは、参考情報記憶部23に記録された参考資料(重要発言)にリンクされている。
Next, the
次に、会議支援サーバ20の制御部21は、重要発言の出力処理を実行する(ステップS4−4)。具体的には、説明表示手段217は、クライアント端末10において重要発言表示アイコンの選択を検知した場合、クライアント端末10のディスプレイに、参考情報記憶部23に記録された重要発言を出力する。
これにより、クライアント端末10において、効率的に重要発言を確認することができる。
Next, the
As a result, the
・ 上記実施形態では、要約作成処理において、先行要約の登録がないと判定した場合(ステップS3−3において「NO」の場合)、会議支援サーバ20の制御部21は、最初からの要約の生成処理を実行する(ステップS3−4)。一方、先行要約の登録があると判定した場合(ステップS3−3において「YES」の場合)、会議支援サーバ20の制御部21は、先行要約以降の要約の生成処理を実行する(ステップS3−5)。要約の作成方法は、これに限定されるものではない。例えば、キーワードスポッティング処理により抽出された発言文言の位置を特定して要約するようにしてもよい。具体的には、会議の区切り(議事の終了)を検知して、議事毎に要約対象範囲を特定して要約を作成する。この場合、議事項目の消込処理(ステップS2−6)を実行した時刻を、この議事順番の会議次第管理レコード242に終了時刻として記録するとともに、次の議事順番の会議次第管理レコード242に開始時刻として記録する。この処理を、図7を用いて説明する。
In the above embodiment, when it is determined in the summary creation process that there is no registration of the preceding summary (“NO” in step S3-3), the
まず、会議支援サーバ20の制御部21は、会議の区切りの検出処理を実行する(ステップS5−1)。具体的には、制御部21の要約作成手段218は、進行管理手段216において議事進行を検知する。
First, the
次に、会議支援サーバ20の制御部21は、区切り範囲の要約の生成処理を実行する(ステップS5−2)。具体的には、制御部21の要約作成手段218は、会議の区切りにおいて終了した議事項目の会議次第管理レコード242に記録された開始時刻、終了時刻を取得する。そして、要約作成手段218は、発言管理情報記憶部25から、この開始時刻〜終了時刻が記録されている発言履歴レコード251を抽出する。そして、要約作成手段218は、抽出した発言履歴レコード251の発言内容を集約して要約を作成する。
Next, the
次に、会議支援サーバ20の制御部21は、ステップS3−6と同様に、要約の出力処理を実行する(ステップS5−3)。
これにより、各議事が終了した段階で、クライアント端末10において、この議事についての要約を確認することができる。
Next, the
Thus, at the stage where each agenda is completed, the
・ 上記実施形態では、説明表示欄540に、発言に関連する参考情報の出力を指示するための選択アイコンを表示する。そして、説明表示欄540に表示する情報がオーバーフローする場合には、古い情報から順次、表示を削除する。説明表示欄540における表示制御はこれに限定されるものではない。例えば、キーワードの重要度に応じて、表示方法を変更してもよい。この場合には、参考情報記憶部23の参考情報管理レコード230の表示状況データ領域に発言回数を記録する。更に、説明表示手段217に、重要度に応じて表示時間を決めるための時間決定テーブルを保持させておく。この処理を、図8を用いて説明する。
In the above embodiment, a selection icon for instructing output of reference information related to a statement is displayed in the
まず、会議支援サーバ20の制御部21は、ステップS2−1と同様に、キーワード抽出処理を実行する(ステップS6−1)。
次に、会議支援サーバ20の制御部21は、ステップS2−7と同様に、参考情報の検索処理(ステップS6−2)を実行する。
First, the
Next, similarly to step S2-7, the
次に、会議支援サーバ20の制御部21は、表示状況の更新処理を実行する。(ステップS6−3)。具体的には、制御部21の説明表示手段217は、参考情報管理レコード230の表示状況データ領域に記録された発言回数を更新する。
Next, the
次に、会議支援サーバ20の制御部21は、重要度の評価処理を実行する。(ステップS6−4)。具体的には、制御部21の説明表示手段217は、説明表示欄540に表示されているすべての選択アイコンに対応する参考情報管理レコード230を取得し、表示状況データ領域に記録された発言回数を特定する。そして、説明表示手段217は、発言回数の多さに応じて重要度を評価する。
Next, the
次に、会議支援サーバ20の制御部21は、重要度に応じて並び替え処理を実行する(ステップS6−5)。具体的には、制御部21の説明表示手段217は、選択アイコンの優先順位を決定する。
Next, the
次に、会議支援サーバ20の制御部21は、ステップS2−10、S2−11と同様に、表示候補の出力処理(ステップS6−6)、参考情報の出力処理(ステップS6−7)を実行する。
Next, similarly to steps S2-10 and S2-11, the
重要なキーワードは何度も発言されることが多い。従って、この発言回数に応じて、重要度を評価し、この重要度に応じて表示を変更することができる。これにより、優先順位を並べ替えることにより、選択アイコンが表示されている表示時間を制御することができる。 Important keywords are often spoken many times. Therefore, the importance can be evaluated according to the number of utterances, and the display can be changed according to the importance. Thereby, the display time when the selection icon is displayed can be controlled by rearranging the priorities.
・ 上記実施形態では、参考情報記憶部23には、クライアント端末10に出力する説明情報についての参考情報管理レコード230が記録されている。そして、会議支援サーバ20の制御部21は、表示候補の出力処理(ステップS2−10)、参考情報の出力処理(ステップS2−11)を実行する。この場合、参考情報記憶部23に記録されているすべての参考情報についてキーワードスポッティング処理を行なう。これに代えて、参加者の属性情報(例えば、スキルレベル)に応じて、キーワードスポッティング処理において用いるキーワードを変更するようにしてもよい。この場合には、参加者管理レコード243に参加者属性情報(スキルレベル)を記録しておく。更に、キーワード管理レコード220には、この参考情報を提供する対象者についての提供対象者属性情報(スキルレベル)を記録しておく。そして、制御部21のキーワード抽出手段215は、会議管理情報記憶部24に記録された参加者管理レコード243から、スキルレベルを取得する。そして、最も低いスキルレベルに基づいて最低レベルを決定する。そして、最低レベル以上の提供対象者属性情報が記録されたキーワード管理レコード220を用いて、キーワードスポッティング処理を行なう。これにより、参加者のスキルレベルに応じて不必要な情報の提供を抑制することができる。
In the above embodiment, the reference
・ 上記実施形態では、すべてのクライアント端末10に同じ表示候補が出力される。これに代えて、参加者の属性情報(例えば、スキルレベル)に応じて、表示候補を変更するようにしてもよい。この場合には、参加者管理レコード243には参加者属性情報(スキルレベル)を記録しておく。更に、参考情報管理レコード230には、この参考情報を提供する対象者についての提供対象者属性情報(スキルレベル)を記録しておく。そして、説明表示手段217は、キーワードスポッティング処理により特定されたキーワードの参考情報管理レコード230に記録されているスキルレベルを取得する。このスキルレベルに一致する参加者管理レコード243の参加者が利用しているクライアント端末10を特定し、特定したクライアント端末10のみに表示候補を出力する。これにより、例えばスキルレベルが低い参加者に対して参照情報を提供するとともに、スキルレベルが高い参加者には不必要な情報の提供を抑制することができる。従って、参加者属性に応じて的確な参考情報を提供することができる。
In the above embodiment, the same display candidate is output to all the
・ 上記実施形態では、参考情報記憶部23には、クライアント端末10に出力する参考情報についての参考情報管理レコード230が記録されている。この参考情報管理レコード230には、キーワード、参考資料、表示状況に関するデータが記録されている。参考情報記憶部23を用いて、会議支援サーバ20の制御部21は、表示状況の検索処理を実行する(ステップS2−8)。これに代えて、表示状況をキーワード記憶部22のキーワード管理レコード220に記録するようにしてもよい。この場合には、表示済フラグが記録されているキーワードについては、キーワードスポッティング処理の対象外とする。これにより、少ないキーワードを対象として効率的にキーワードスポッティング処理を行なうことができる。
In the above embodiment, the reference
・ 上記実施形態では、会議支援サーバ20の制御部21は、発言の記録処理を実行する(ステップS1−3)。ここで、発言者の感情を記録するようにしてもよい。この場合には、制御部21に感情評価手段を設ける。この感情評価手段は、呼吸の荒さ、抑揚、声の淀み、ため息の評価結果から構成された感情パターンに対応させて、感情指数を記録した感情評価テーブルを保持している。更に、会議支援サーバ20に、参加者コードに対応して、過去の発言における感情評価結果の統計値を記録した発話パターン記憶部を設ける。また、発言履歴レコード251には、感情指数を記録するためのデータ領域を更に設ける。この処理を、図9を用いて説明する。
In the above-described embodiment, the
まず、会議支援サーバ20の制御部21は、ステップS1−1と同様に、音声の取得処理を実行する(ステップS7−1)。
次に、会議支援サーバ20の制御部21は、発話状態の評価処理を実行する(ステップS7−2)。本実施形態では、制御部21の感情評価手段は、呼吸の荒さの評価、抑揚の評価、声の淀みの評価、ため息の評価を行なう。
First, the
Next, the
呼吸の荒さの評価においては、感情評価手段は、マイクで集音した呼吸音を取得する。そして、この参加者の呼吸の荒さ統計値と比較する。発話パターン記憶部に記録された統計値よりも呼吸音が大きく、息使いが荒いと判定した場合には、感情の高ぶりを示す評価結果を取得する。 In the evaluation of the roughness of breathing, the emotion evaluation means acquires the breathing sound collected by the microphone. And it compares with the roughness statistics of this participant's breathing. If it is determined that the breathing sound is larger than the statistical value recorded in the utterance pattern storage unit and the breathing is rough, an evaluation result indicating high emotion is acquired.
抑揚の評価においては、感情評価手段は、声の大きさの変化分布(変化の大きさ)を算出する。そして、この参加者の抑揚統計値と比較する。統計値よりも抑揚が大きい場合には、感情の高ぶりを示す評価結果を取得する。 In the evaluation of intonation, the emotion evaluation means calculates a change distribution (a magnitude of change) of the voice volume. Then, it compares with the inflection statistics of this participant. If the intonation is greater than the statistical value, an evaluation result indicating emotional height is obtained.
声の淀みの評価においては、感情評価手段は、発声の明瞭度を算出する。そして、この参加者の明瞭度統計値と比較する。発話パターン記憶部に記録された統計値よりも明瞭度が低く、淀みがあると判定した場合には、気分の落ち込みを示す評価結果を取得する。 In the evaluation of the voice itch, the emotion evaluation means calculates the intelligibility of the utterance. Then, it is compared with the clarity statistics value of this participant. When it is determined that the intelligibility is lower than the statistical value recorded in the utterance pattern storage unit and there is itchiness, an evaluation result indicating depression of mood is acquired.
ため息の評価においては、感情評価手段は、ため息パターンと一致する呼吸音を特定する。そして、感情評価手段は、ため息パターンと一致する呼吸音の回数をカウントし、単位時間あたりの回数(ため息頻度)を算出する。この参加者のため息頻度の統計値と比較する。発話パターン記憶部に記録された統計値よりも、ため息頻度が高い場合には、気分の落ち込みを示す評価結果を取得する。 In the sigh evaluation, the emotion evaluation means identifies a breathing sound that matches the sigh pattern. Then, the emotion evaluation means counts the number of breath sounds that match the sigh pattern, and calculates the number of times per unit time (sigh frequency). Compare this participant's sigh frequency statistics. When the sigh frequency is higher than the statistical value recorded in the utterance pattern storage unit, an evaluation result indicating a feeling drop is acquired.
次に、会議支援サーバ20の制御部21は、感情の評価処理を実行する(ステップS7−3)。具体的には、制御部21の感情評価手段は、呼吸の荒さ、抑揚、声の淀み、ため息の評価結果の感情パターンに対応する感情指数を感情評価テーブルから取得する。
Next, the
次に、会議支援サーバ20の制御部21は、発言内容に関連付けて感情指数の記録処理を実行する(ステップS7−4)。具体的には、制御部21の感情評価手段は、算出した感情指数を、この参加者の発言についての発言履歴レコード251に記録する。
Next, the
これにより、テキスト化された発言履歴において、その時の発言状況を把握することができる。 As a result, the utterance status at that time can be grasped in the utterance history made into text.
10…クライアント端末、20…会議支援サーバ、21…制御部、211…会議中継手段、212…音声認識手段、213…発言記録手段、214…画面制御手段、215…キーワード抽出手段、216…進行管理手段、217…説明表示手段、218…要約作成手段、22…キーワード記憶部、23…参考情報記憶部、24…会議管理情報記憶部、25…発言管理情報記憶部。
DESCRIPTION OF
Claims (11)
音声認識された発言内容を記録する発言記憶手段と、
音声入力装置と表示装置とに接続された制御手段とを備えた発言管理システムであって、
前記制御手段が、
前記音声入力装置において発言者の音声を取得し、音声認識した発言内容を作成して前記発言記憶手段に記録する手段と、
前記発言内容に含まれる発言文言と、前記キーワード記憶手段に記憶されたキーワードとを比較するキーワードスポッティング処理を行なう手段と、
前記発言文言とキーワードとが一致した場合には、前記キーワードに関連付けられた関連情報を前記表示装置に出力する手段と
を備えたことを特徴とする発言管理システム。 Keyword storage means for recording relevant information for keywords;
Speech storage means for recording speech-recognized speech content;
A speech management system comprising a voice input device and a control means connected to a display device,
The control means is
Means for acquiring a voice of a speaker in the voice input device, creating voice-recognized voice content and recording it in the voice storage means;
Means for performing a keyword spotting process for comparing the statement text included in the statement content with the keyword stored in the keyword storage means;
A speech management system comprising: means for outputting related information associated with the keyword to the display device when the speech statement matches the keyword.
各キーワードに対して、利用者の属性情報が更に記録されており、
前記制御手段が、
前記利用者管理手段から、各表示装置の利用者の属性情報を取得し、
前記属性情報に対応するキーワードを前記キーワード記憶手段から抽出し、抽出したキーワードを用いて前記キーワードスポッティング処理を行なうことを特徴とする請求項1又は2に記載の発言管理システム。 A user management means for recording user attribute information;
For each keyword, user attribute information is further recorded,
The control means is
From the user management means, obtain attribute information of the user of each display device,
3. The message management system according to claim 1, wherein a keyword corresponding to the attribute information is extracted from the keyword storage unit, and the keyword spotting process is performed using the extracted keyword.
前記キーワードスポッティング処理においては、出力済み情報が記録されていないキーワードを用いることを特徴とする請求項1〜3のいずれか一つに記載の発言管理システム。 For the keyword for which the relevant information is output to the display device, the output information is recorded in the keyword storage means,
The speech management system according to any one of claims 1 to 3, wherein in the keyword spotting process, a keyword in which output information is not recorded is used.
前記表示装置に関連情報を出力したキーワードについて、発言文言が含まれていた発言回数をカウントし、
前記発言回数に応じて、前記キーワードの関連情報の表示方法を変更する手段を更に備えたことを特徴とする請求項1〜4のいずれか一つに記載の発言管理システム。 The control means is
For the keywords that output related information to the display device, count the number of utterances that included the utterance statement,
5. The speech management system according to claim 1, further comprising means for changing a display method of the related information of the keyword according to the number of speeches.
前記制御手段が、発言文言とキーワードとの一致を検知した場合には、前記表示装置に出力された前記議事項目を消し込む手段を更に備えたことを特徴とする請求項1〜5のいずれか一つに記載の発言管理システム。 In the keyword storage means, a keyword for specifying the progress of the agenda item is recorded,
6. The apparatus according to claim 1, further comprising means for erasing the agenda item output to the display device when the control means detects a match between a statement word and a keyword. The statement management system according to one.
この発言文言の位置を用いて要約対象範囲を特定し、
この要約対象範囲の発言内容を要約することを特徴とする請求項7に記載の発言管理システム。 The control means specifies the position of the statement word extracted by the keyword spotting process in the statement content,
Use the position of this statement to identify the summary scope,
The comment management system according to claim 7, wherein the comment contents in the summary target range are summarized.
音声認識された発言内容を記録する発言記憶手段と、
音声入力装置と表示装置とに接続された制御手段とを備えた発言管理システムを用いた発言管理方法であって、
前記制御手段が、
前記音声入力装置において発言者の音声を取得し、音声認識した発言内容を作成して前記発言記憶手段に記録する段階と、
前記発言内容に含まれる発言文言と、前記キーワード記憶手段に記憶されたキーワードとを比較するキーワードスポッティング処理を行なう段階と、
前記発言文言とキーワードとが一致した場合には、前記キーワードに関連付けられた関連情報を前記表示装置に出力する段階と
を実行することを特徴とする発言管理方法。 Keyword storage means for recording relevant information for keywords;
Speech storage means for recording speech-recognized speech content;
A speech management method using a speech management system including a voice input device and a control unit connected to a display device,
The control means is
Acquiring the voice of the speaker in the voice input device, creating the voice-recognized speech content and recording it in the speech storage means;
Performing a keyword spotting process for comparing a statement word included in the statement content with a keyword stored in the keyword storage unit;
And a step of outputting related information associated with the keyword to the display device when the statement word matches the keyword.
音声認識された発言内容を記録する発言記憶手段と、
音声入力装置と表示装置とに接続された制御手段とを備えた発言管理システム発言管理プログラムであって、
前記制御手段を、
前記音声入力装置において発言者の音声を取得し、音声認識した発言内容を作成して前記発言記憶手段に記録する手段、
前記発言内容に含まれる発言文言と、前記キーワード記憶手段に記憶されたキーワードとを比較するキーワードスポッティング処理を行なう手段、
前記発言文言とキーワードとが一致した場合には、前記キーワードに関連付けられた関連情報を前記表示装置に出力する手段
として機能させることを特徴とする発言管理プログラム。 Keyword storage means for recording relevant information for keywords;
Speech storage means for recording speech-recognized speech content;
A speech management system speech management program comprising a voice input device and a control means connected to a display device,
The control means;
Means for acquiring a voice of a speaker in the voice input device, creating a voice-recognized voice content and recording it in the voice storage means;
Means for performing a keyword spotting process for comparing the statement text included in the statement content with the keyword stored in the keyword storage means;
A statement management program that causes a function to output related information associated with a keyword to the display device when the statement word matches a keyword.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011072634A JP2012208630A (en) | 2011-03-29 | 2011-03-29 | Speech management system, speech management method and speech management program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011072634A JP2012208630A (en) | 2011-03-29 | 2011-03-29 | Speech management system, speech management method and speech management program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012208630A true JP2012208630A (en) | 2012-10-25 |
Family
ID=47188325
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011072634A Pending JP2012208630A (en) | 2011-03-29 | 2011-03-29 | Speech management system, speech management method and speech management program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012208630A (en) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013012059A (en) * | 2011-06-29 | 2013-01-17 | Mizuho Information & Research Institute Inc | Material display system, material display method and material display program |
JP2014085998A (en) * | 2012-10-26 | 2014-05-12 | Univ Of Yamanashi | Electronic note creation support device and program for electronic note creation support device |
JP2014179010A (en) * | 2013-03-15 | 2014-09-25 | Ricoh Co Ltd | Minutes creation support device, minutes creation support method, and program |
JP2015064826A (en) * | 2013-09-26 | 2015-04-09 | 日本電信電話株式会社 | Emotion retrieval device, method, and program |
CN105684406A (en) * | 2013-10-31 | 2016-06-15 | 阿尔卡特朗讯公司 | Method and system for providing access to auxiliary information |
JP2017097488A (en) * | 2015-11-19 | 2017-06-01 | ヤフー株式会社 | Information processing device, information processing method, and information processing program |
JP2017161850A (en) * | 2016-03-11 | 2017-09-14 | 株式会社東芝 | Convention support device, convention support method, and convention support program |
JP2018170009A (en) * | 2015-11-10 | 2018-11-01 | 株式会社リコー | Electronic conference system |
JP2019053566A (en) * | 2017-09-15 | 2019-04-04 | シャープ株式会社 | Display control device, display control method, and program |
JP2019179081A (en) * | 2018-03-30 | 2019-10-17 | 本田技研工業株式会社 | Conference support device, conference support control method, and program |
JP2019207695A (en) * | 2017-05-19 | 2019-12-05 | アバイア インコーポレーテッド | Real-time speech feed to agent greeting |
JP2020017088A (en) * | 2018-07-25 | 2020-01-30 | 株式会社リコー | Information processing system, information processing method and program |
JP2020067670A (en) * | 2018-10-19 | 2020-04-30 | トランプコミュニケーション株式会社 | System for remote assessment and transaction work or the like |
JP2021056829A (en) * | 2019-09-30 | 2021-04-08 | Tis株式会社 | Idea making supporting system and control method therefor |
JP2021072035A (en) * | 2019-11-01 | 2021-05-06 | 株式会社日立製作所 | Workshop support system and workshop support method |
JP6902302B1 (en) * | 2020-11-11 | 2021-07-14 | 祐次 廣田 | AI electronic work system where selfie face videos go to work |
US11087767B2 (en) | 2018-11-16 | 2021-08-10 | Fujifilm Business Innovation Corp. | Information processing apparatus and non-transitory computer readable medium |
JP2022056591A (en) * | 2020-09-30 | 2022-04-11 | 本田技研工業株式会社 | Conversation support device, conversation support system, conversation support method, and program |
JP2022075661A (en) * | 2020-10-27 | 2022-05-18 | 株式会社I’mbesideyou | Information extraction apparatus |
WO2022186298A1 (en) * | 2021-03-03 | 2022-09-09 | ソフトバンク株式会社 | Information processing device, information processing method, and information processing program |
WO2022254909A1 (en) * | 2021-06-01 | 2022-12-08 | 株式会社Nttドコモ | Sound recognition device |
WO2023248677A1 (en) * | 2022-06-22 | 2023-12-28 | 株式会社Jvcケンウッド | Information display control device and information display method |
JP7536789B2 (en) | 2019-04-30 | 2024-08-20 | マイクロソフト テクノロジー ライセンシング,エルエルシー | Customized output to optimize for user preferences in distributed systems |
JP7563786B2 (en) | 2021-12-06 | 2024-10-08 | 株式会社インタラクティブソリューションズ | Explanation support system |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05347666A (en) * | 1992-06-15 | 1993-12-27 | Omron Corp | Electronic conference system |
JPH08147310A (en) * | 1994-11-25 | 1996-06-07 | Nippon Telegr & Teleph Corp <Ntt> | Request prediction type information providing service device |
JPH1125179A (en) * | 1997-07-09 | 1999-01-29 | Tec Corp | Order data processor |
JPH1125099A (en) * | 1997-06-27 | 1999-01-29 | Hitachi Ltd | Electronic conference system |
JP2002288179A (en) * | 2001-03-23 | 2002-10-04 | Ricoh Co Ltd | Internet conference room service system |
JP2003066991A (en) * | 2001-08-22 | 2003-03-05 | Seiko Epson Corp | Method and apparatus for outputting voice recognition result and recording medium with program for outputting and processing voice recognition result recorded thereon |
JP2005341015A (en) * | 2004-05-25 | 2005-12-08 | Hitachi Hybrid Network Co Ltd | Video conference system with minute creation support function |
JP2006079156A (en) * | 2004-09-07 | 2006-03-23 | Seiko Epson Corp | Display control system, equipment management device, display unit, equipment management program and display control program, and display control method |
JP2006106711A (en) * | 2004-09-10 | 2006-04-20 | Matsushita Electric Ind Co Ltd | Information processing terminal |
JP2010128665A (en) * | 2008-11-26 | 2010-06-10 | Kyocera Corp | Information terminal and conversation assisting program |
JP2011053629A (en) * | 2009-09-04 | 2011-03-17 | Sharp Corp | Conference relay device and computer program |
-
2011
- 2011-03-29 JP JP2011072634A patent/JP2012208630A/en active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05347666A (en) * | 1992-06-15 | 1993-12-27 | Omron Corp | Electronic conference system |
JPH08147310A (en) * | 1994-11-25 | 1996-06-07 | Nippon Telegr & Teleph Corp <Ntt> | Request prediction type information providing service device |
JPH1125099A (en) * | 1997-06-27 | 1999-01-29 | Hitachi Ltd | Electronic conference system |
JPH1125179A (en) * | 1997-07-09 | 1999-01-29 | Tec Corp | Order data processor |
JP2002288179A (en) * | 2001-03-23 | 2002-10-04 | Ricoh Co Ltd | Internet conference room service system |
JP2003066991A (en) * | 2001-08-22 | 2003-03-05 | Seiko Epson Corp | Method and apparatus for outputting voice recognition result and recording medium with program for outputting and processing voice recognition result recorded thereon |
JP2005341015A (en) * | 2004-05-25 | 2005-12-08 | Hitachi Hybrid Network Co Ltd | Video conference system with minute creation support function |
JP2006079156A (en) * | 2004-09-07 | 2006-03-23 | Seiko Epson Corp | Display control system, equipment management device, display unit, equipment management program and display control program, and display control method |
JP2006106711A (en) * | 2004-09-10 | 2006-04-20 | Matsushita Electric Ind Co Ltd | Information processing terminal |
JP2010128665A (en) * | 2008-11-26 | 2010-06-10 | Kyocera Corp | Information terminal and conversation assisting program |
JP2011053629A (en) * | 2009-09-04 | 2011-03-17 | Sharp Corp | Conference relay device and computer program |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013012059A (en) * | 2011-06-29 | 2013-01-17 | Mizuho Information & Research Institute Inc | Material display system, material display method and material display program |
JP2014085998A (en) * | 2012-10-26 | 2014-05-12 | Univ Of Yamanashi | Electronic note creation support device and program for electronic note creation support device |
JP2014179010A (en) * | 2013-03-15 | 2014-09-25 | Ricoh Co Ltd | Minutes creation support device, minutes creation support method, and program |
JP2015064826A (en) * | 2013-09-26 | 2015-04-09 | 日本電信電話株式会社 | Emotion retrieval device, method, and program |
CN105684406A (en) * | 2013-10-31 | 2016-06-15 | 阿尔卡特朗讯公司 | Method and system for providing access to auxiliary information |
JP2017500632A (en) * | 2013-10-31 | 2017-01-05 | アルカテル−ルーセント | Method and system for providing access to auxiliary information |
JP2018170009A (en) * | 2015-11-10 | 2018-11-01 | 株式会社リコー | Electronic conference system |
JP2017097488A (en) * | 2015-11-19 | 2017-06-01 | ヤフー株式会社 | Information processing device, information processing method, and information processing program |
JP2017161850A (en) * | 2016-03-11 | 2017-09-14 | 株式会社東芝 | Convention support device, convention support method, and convention support program |
JP2019207695A (en) * | 2017-05-19 | 2019-12-05 | アバイア インコーポレーテッド | Real-time speech feed to agent greeting |
JP2019053566A (en) * | 2017-09-15 | 2019-04-04 | シャープ株式会社 | Display control device, display control method, and program |
JP2019179081A (en) * | 2018-03-30 | 2019-10-17 | 本田技研工業株式会社 | Conference support device, conference support control method, and program |
JP7180168B2 (en) | 2018-07-25 | 2022-11-30 | 株式会社リコー | Information processing system, information processing method and program |
JP2020017088A (en) * | 2018-07-25 | 2020-01-30 | 株式会社リコー | Information processing system, information processing method and program |
JP2020067670A (en) * | 2018-10-19 | 2020-04-30 | トランプコミュニケーション株式会社 | System for remote assessment and transaction work or the like |
US11087767B2 (en) | 2018-11-16 | 2021-08-10 | Fujifilm Business Innovation Corp. | Information processing apparatus and non-transitory computer readable medium |
JP7536789B2 (en) | 2019-04-30 | 2024-08-20 | マイクロソフト テクノロジー ライセンシング,エルエルシー | Customized output to optimize for user preferences in distributed systems |
JP2021056829A (en) * | 2019-09-30 | 2021-04-08 | Tis株式会社 | Idea making supporting system and control method therefor |
JP7427405B2 (en) | 2019-09-30 | 2024-02-05 | Tis株式会社 | Idea support system and its control method |
JP2021072035A (en) * | 2019-11-01 | 2021-05-06 | 株式会社日立製作所 | Workshop support system and workshop support method |
JP7282014B2 (en) | 2019-11-01 | 2023-05-26 | 株式会社日立製作所 | Workshop support system and workshop support method |
JP7341111B2 (en) | 2020-09-30 | 2023-09-08 | 本田技研工業株式会社 | Conversation support device, conversation support system, conversation support method and program |
JP2022056591A (en) * | 2020-09-30 | 2022-04-11 | 本田技研工業株式会社 | Conversation support device, conversation support system, conversation support method, and program |
JP7130290B2 (en) | 2020-10-27 | 2022-09-05 | 株式会社I’mbesideyou | information extractor |
JP2022075661A (en) * | 2020-10-27 | 2022-05-18 | 株式会社I’mbesideyou | Information extraction apparatus |
JP2022077058A (en) * | 2020-11-11 | 2022-05-23 | 祐次 廣田 | Ai electronic work system for attendance with selfie face moving image |
JP6902302B1 (en) * | 2020-11-11 | 2021-07-14 | 祐次 廣田 | AI electronic work system where selfie face videos go to work |
WO2022186298A1 (en) * | 2021-03-03 | 2022-09-09 | ソフトバンク株式会社 | Information processing device, information processing method, and information processing program |
JP2022134202A (en) * | 2021-03-03 | 2022-09-15 | ソフトバンク株式会社 | Information processing device, information processing method, and information processing program |
JP7284204B2 (en) | 2021-03-03 | 2023-05-30 | ソフトバンク株式会社 | Information processing device, information processing method and information processing program |
WO2022254909A1 (en) * | 2021-06-01 | 2022-12-08 | 株式会社Nttドコモ | Sound recognition device |
JP7563786B2 (en) | 2021-12-06 | 2024-10-08 | 株式会社インタラクティブソリューションズ | Explanation support system |
WO2023248677A1 (en) * | 2022-06-22 | 2023-12-28 | 株式会社Jvcケンウッド | Information display control device and information display method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012208630A (en) | Speech management system, speech management method and speech management program | |
US9652113B1 (en) | Managing multiple overlapped or missed meetings | |
CN106612465B (en) | Live broadcast interaction method and device | |
TWI536365B (en) | Voice print identification | |
US10613825B2 (en) | Providing electronic text recommendations to a user based on what is discussed during a meeting | |
US20130144603A1 (en) | Enhanced voice conferencing with history | |
JP6115074B2 (en) | Information presentation system, information presentation apparatus, program, and information presentation method | |
CN104252464B (en) | Information processing method and device | |
JP2008225068A (en) | Minutes creation method, its device and its program | |
CN105957530A (en) | Speech control method, device and terminal equipment | |
JP4215792B2 (en) | CONFERENCE SUPPORT DEVICE, CONFERENCE SUPPORT METHOD, AND CONFERENCE SUPPORT PROGRAM | |
US20100246784A1 (en) | Conversation support | |
JP2008278088A (en) | Comment control device about moving image content | |
CN104050221A (en) | Automatic note taking within a virtual meeting | |
US20230252981A1 (en) | Systems and Methods for Identifying and Providing Information about Semantic Entities in Audio Signals | |
JP6280312B2 (en) | Minutes recording device, minutes recording method and program | |
JP2014220619A (en) | Conference information recording system, information processing unit, control method and computer program | |
US20200021453A1 (en) | Increasing audience engagement during presentations by automatic attendee log in, live audience statistics, and presenter evaluation and feedback | |
CN114009056A (en) | Dynamic scalable summaries with adaptive graphical associations between people and content | |
JP2018128869A (en) | Search result display device, search result display method, and program | |
JP4077656B2 (en) | Speaker specific video device | |
US11481434B1 (en) | System and method for contextual data selection from electronic data files | |
JP2011199522A (en) | Telephone conference system, communication server, communication terminal, and telephone conference method | |
JP2012003704A (en) | Faq candidate extraction system and faq candidate extraction program | |
JPH11203295A (en) | Information providing device and its method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120918 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130215 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130430 |