[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2012208630A - Speech management system, speech management method and speech management program - Google Patents

Speech management system, speech management method and speech management program Download PDF

Info

Publication number
JP2012208630A
JP2012208630A JP2011072634A JP2011072634A JP2012208630A JP 2012208630 A JP2012208630 A JP 2012208630A JP 2011072634 A JP2011072634 A JP 2011072634A JP 2011072634 A JP2011072634 A JP 2011072634A JP 2012208630 A JP2012208630 A JP 2012208630A
Authority
JP
Japan
Prior art keywords
keyword
speech
statement
recorded
management
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011072634A
Other languages
Japanese (ja)
Inventor
Takeshi Shinohara
猛 篠原
Taku Shimada
卓 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mizuho Information and Research Institute Inc
Original Assignee
Mizuho Information and Research Institute Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mizuho Information and Research Institute Inc filed Critical Mizuho Information and Research Institute Inc
Priority to JP2011072634A priority Critical patent/JP2012208630A/en
Publication of JP2012208630A publication Critical patent/JP2012208630A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a speech management system, a speech management method and a speech management program for making record about speech at meetings and for supporting smooth proceedings progress.SOLUTION: A control part 21 of a meeting support server 20 acquires sound, performs speech recognition processing and records a recognition result in a speech management information storage part 25. Then, the control part 21 performs keyword extraction processing using the speech management information storage part 25. The control part 21 performs delete processing of the proceedings article when the control part 21 determines that there is proceedings progress in a meeting progress management processing carried out based on the keyword. Besides, in an explanation display management processing carried out based on the keyword, the control part 21 searches for reference information and outputs display candidates on a client terminal 10.

Description

本発明は、会議等における発言についての記録を作成するとともに、議事進行を支援するための発言管理システム、発言管理方法及び発言管理プログラムに関する。   The present invention relates to a statement management system, a statement management method, and a statement management program for creating a record of a statement in a meeting or the like and supporting the proceeding of proceedings.

会議を行なった場合、会議終了後に議事録を作成することがある。このような議事録作成の効率化を図るために、議事録作成システムが検討されている。例えば、各発言内容について、発言者を特定しながら議事録を作成するための技術が検討されている(例えば、特許文献1を参照。)。この文献に記載された技術では、マイクで収集された録音内容に基づき、音声認識部は、会議出席者の音声を認識する。そして、認識した音声から議事録データを作成する。話者特定部は、声紋認証により、各発言内容の発言者を特定する。作成した議事録データにおける発言内容と特定された発言者とが対応付けられた議事録データを表示する。   When a meeting is held, the minutes may be created after the meeting ends. In order to improve the efficiency of such minutes creation, a minutes creation system is being studied. For example, a technique for creating a minutes while identifying a speaker for each comment content is being studied (for example, see Patent Document 1). In the technique described in this document, the voice recognition unit recognizes the voice of the conference attendee based on the recording contents collected by the microphone. Then, minutes data is created from the recognized voice. The speaker specifying unit specifies a speaker of each message content by voiceprint authentication. The minutes data in which the contents of the statements in the created minutes data are associated with the specified speaker are displayed.

また、記録された会議映像において、重要個所のみを抽出して視聴できるようにするための技術が検討されている(例えば、特許文献2を参照。)。この文献に記載された技術では、会議映像において、会議における重要部分を検出するインデックス検出手段を備える。そして、インデックス情報に基づいて議事録ファイルを作成する。   Further, a technique for extracting and viewing only important portions from recorded conference videos has been studied (for example, see Patent Document 2). The technique described in this document includes index detection means for detecting an important part of the conference in the conference video. Then, a minutes file is created based on the index information.

また、マイクロフォンに入力された音声に含まれるキーワードを認識し、このキーワードに基づいて各種操作を行なうための技術も検討されている(例えば、特許文献3を参照。)。この文献に記載された技術では、音声認識部において、キーワードスポッティング手法により入力音声の認識処理を実行する。   In addition, a technique for recognizing a keyword included in voice input to a microphone and performing various operations based on the keyword has been studied (see, for example, Patent Document 3). In the technique described in this document, an input speech recognition process is executed by a keyword spotting method in a speech recognition unit.

特開2007−233075号公報(第1頁、図1)Japanese Unexamined Patent Publication No. 2007-233075 (first page, FIG. 1) 特開2005−341015号公報(第1頁、図1)Japanese Patent Laying-Open No. 2005-341015 (first page, FIG. 1) 特開平8−339198号公報(第1頁、図1)JP-A-8-339198 (first page, FIG. 1)

特許文献1に記載された技術においては、表示された発言内容に基づいて内容を確認することができる。しかしながら、発言内容の中には、専門用語が含まれる場合もあり、会議参加者の知識レベルによっては、発言内容が的確に理解されていない可能性もある。   In the technique described in Patent Document 1, the content can be confirmed based on the displayed remark content. However, technical terms may be included in the content of remarks, and the content of remarks may not be properly understood depending on the knowledge level of the conference participants.

また、会議の進行状況に言っては、会議参加者に関連資料を提示したい場合もある。このように、関連資料を提示する場合、会議の司会者や説明者の手間をかけていたのでは、会議に集中することができないことがある。   In addition, as for the progress of the conference, there are cases where it is desired to present relevant materials to the conference participants. As described above, when presenting related materials, it may not be possible to concentrate on the conference if it takes time and effort from the conference chairman and the explainer.

また、会議においては、会議次第において、議事の順番が予め決められていることが多い。この場合、参加者が現在の議事状況を把握できると便利である。
本発明は、上記問題点を解決するためになされたものであり、発言についての記録を作成するとともに、円滑な議事進行を支援するための発言管理システム、発言管理方法及び発言管理プログラムを提供することにある。
In a meeting, the order of agendas is often determined in advance depending on the meeting. In this case, it is convenient if the participant can grasp the current status of the proceedings.
The present invention has been made to solve the above problems, and provides a statement management system, a statement management method, and a statement management program for creating a record of a statement and supporting smooth proceeding of proceedings. There is.

上記問題点を解決するために、請求項1に記載の発明は、キーワードに対して関連情報を記録したキーワード記憶手段と、音声認識された発言内容を記録する発言記憶手段と、音声入力装置と表示装置とに接続された制御手段とを備えた発言管理システムであって、前記制御手段が、前記音声入力装置において発言者の音声を取得し、音声認識した発言内容を作成して前記発言記憶手段に記録する手段と、前記発言内容に含まれる発言文言と、前記キーワード記憶手段に記憶されたキーワードとを比較するキーワードスポッティング処理を行なう手段と、前記発言文言とキーワードとが一致した場合には、前記キーワードに関連付けられた関連情報を前記表示装置に出力する手段とを備えたことを要旨とする。   In order to solve the above-mentioned problems, the invention described in claim 1 includes a keyword storage unit that records related information for a keyword, a speech storage unit that records speech-recognized speech content, and a speech input device. A speech management system comprising control means connected to a display device, wherein the control means acquires speech of a speaker in the speech input device, creates speech content that is speech-recognized, and stores the speech storage A means for recording in the means, a means for performing a keyword spotting process for comparing the message text included in the content of the message and the keyword stored in the keyword storage means, and when the message word matches the keyword And a means for outputting relevant information associated with the keyword to the display device.

請求項2に記載の発明は、請求項1に記載の発言管理システムにおいて、前記キーワード記憶手段には、前記関連情報として、キーワードについての説明文が記録されていることを要旨とする。   The invention according to claim 2 is summarized in that in the statement management system according to claim 1, an explanatory text about a keyword is recorded in the keyword storage unit as the related information.

請求項3に記載の発明は、請求項1又は2に記載の発言管理システムにおいて、利用者の属性情報を記録した利用者管理手段を更に備え、各キーワードに対して、利用者の属性情報が更に記録されており、前記制御手段が、前記利用者管理手段から、各表示装置の利用者の属性情報を取得し、前記属性情報に対応するキーワードを前記キーワード記憶手段から抽出し、抽出したキーワードを用いて前記キーワードスポッティング処理を行なうことを要旨とする。   The invention described in claim 3 further comprises user management means for recording user attribute information in the statement management system according to claim 1 or 2, wherein the user attribute information is stored for each keyword. Further recorded, the control means acquires attribute information of the user of each display device from the user management means, extracts a keyword corresponding to the attribute information from the keyword storage means, and extracts the extracted keyword The gist is that the keyword spotting process is performed using.

請求項4に記載の発明は、請求項1〜3のいずれか一つに記載の発言管理システムにおいて、前記表示装置に関連情報を出力したキーワードについて、前記キーワード記憶手段に出力済み情報を記録し、前記キーワードスポッティング処理においては、出力済み情報が記録されていないキーワードを用いることを要旨とする。   According to a fourth aspect of the present invention, in the message management system according to any one of the first to third aspects, the output information is recorded in the keyword storage means for the keyword for which the related information is output to the display device. The gist of the keyword spotting process is to use a keyword for which output information is not recorded.

請求項5に記載の発明は、請求項1〜4のいずれか一つに記載の発言管理システムにおいて、前記制御手段が、前記表示装置に関連情報を出力したキーワードについて、発言文言が含まれていた発言回数をカウントし、前記発言回数に応じて、前記キーワードの関連情報の表示方法を変更する手段を更に備えたことを要旨とする。   According to a fifth aspect of the present invention, in the speech management system according to any one of the first to fourth aspects, a speech statement is included for a keyword for which the control means outputs related information to the display device. The gist further comprises means for counting the number of utterances and changing the display method of the relevant information of the keyword according to the number of utterances.

請求項6に記載の発明は、請求項1〜5のいずれか一つに記載の発言管理システムにおいて、前記キーワード記憶手段には、議事項目の進行を特定するためのキーワードが記録されており、前記制御手段が、発言文言とキーワードとの一致を検知した場合には、前記表示装置に出力された前記議事項目を消し込む手段を更に備えたことを要旨とする。   The invention according to claim 6 is the statement management system according to any one of claims 1 to 5, wherein the keyword storage means stores a keyword for specifying the progress of the agenda item, The gist of the present invention is that the control means further comprises means for deleting the agenda items output to the display device when the match between the statement word and the keyword is detected.

請求項7に記載の発明は、請求項1〜6のいずれか一つに記載の発言管理システムにおいて、前記制御手段が、前記発言記憶手段に記録された発言内容を用いて要約を作成し、前記表示装置に提供する手段を更に備えたことを要旨とする。   The invention according to claim 7 is the statement management system according to any one of claims 1 to 6, wherein the control unit creates a summary using the statement contents recorded in the statement storage unit, The gist of the invention is that the display device further includes means for providing the display device.

請求項8に記載の発明は、請求項7に記載の発言管理システムにおいて、前記制御手段が、前記表示装置において指定された発言内容範囲の要約を作成することを要旨とする。
請求項9に記載の発明は、請求項7に記載の発言管理システムにおいて、前記制御手段が、発言内容において前記キーワードスポッティング処理により抽出された発言文言の位置を特定し、この発言文言の位置を用いて要約対象範囲を特定し、この要約対象範囲の発言内容を要約することを要旨とする。
The gist of the invention described in claim 8 is that in the statement management system according to claim 7, the control means creates a summary of the content range of the statement designated in the display device.
According to a ninth aspect of the present invention, in the speech management system according to the seventh aspect, the control means specifies the position of the speech sentence extracted by the keyword spotting process in the speech content, and the position of the speech sentence is determined. The gist is to identify the summarization target range and summarize the content of the remarks in this summarization target range.

請求項10に記載の発明は、キーワードに対して関連情報を記録したキーワード記憶手段と、音声認識された発言内容を記録する発言記憶手段と、音声入力装置と表示装置とに接続された制御手段とを備えた発言管理システムを用いた発言管理方法であって、前記制御手段が、前記音声入力装置において発言者の音声を取得し、音声認識した発言内容を作成して前記発言記憶手段に記録する段階と、前記発言内容に含まれる発言文言と、前記キーワード記憶手段に記憶されたキーワードとを比較するキーワードスポッティング処理を行なう段階と、前記発言文言とキーワードとが一致した場合には、前記キーワードに関連付けられた関連情報を前記表示装置に出力する段階とを実行することを要旨とする。   According to a tenth aspect of the present invention, there is provided a keyword storage means for recording relevant information for a keyword, a speech storage means for recording speech-recognized speech content, and a control means connected to the speech input device and the display device. A speech management method using a speech management system comprising: a speech management apparatus that acquires speech of a speaker in the speech input device, creates speech-recognized speech content, and records the speech content in the speech storage device Performing a keyword spotting process for comparing the statement word included in the statement content with the keyword stored in the keyword storage means, and when the statement word matches the keyword, the keyword And executing the step of outputting the related information associated with the display device to the display device.

請求項11に記載の発明は、キーワードに対して関連情報を記録したキーワード記憶手段と、音声認識された発言内容を記録する発言記憶手段と、音声入力装置と表示装置とに接続された制御手段とを備えた発言管理システム発言管理プログラムであって、前記制御手段を、前記音声入力装置において発言者の音声を取得し、音声認識した発言内容を作成して前記発言記憶手段に記録する手段、前記発言内容に含まれる発言文言と、前記キーワード記憶手段に記憶されたキーワードとを比較するキーワードスポッティング処理を行なう手段、前記発言文言とキーワードとが一致した場合には、前記キーワードに関連付けられた関連情報を前記表示装置に出力する手段として機能させることを要旨とする。   According to the eleventh aspect of the present invention, there is provided a keyword storage means for recording related information for a keyword, a speech storage means for recording speech-recognized speech content, and a control means connected to the speech input device and the display device. A speech management system comprising: a means for acquiring speech of a speaker in the speech input device, creating speech-recognized speech content, and recording the speech content in the speech storage means; Means for performing a keyword spotting process for comparing the statement text included in the content of the comment and the keyword stored in the keyword storage means; and if the statement word matches the keyword, the association associated with the keyword The gist is to allow information to function as a means for outputting to the display device.

(作用)
請求項1、10又は11に記載の発明によれば、制御手段が、音声入力装置において発言者の音声を取得し、音声認識した発言内容を作成して発言記憶手段に記録する。次に、発言内容に含まれる発言文言と、キーワード記憶手段に記憶されたキーワードとを比較する。そして、発言文言とキーワードとが一致した場合には、キーワードに関連付けられた関連情報を表示装置に出力する。これにより、利用者に対して、発言に関連する関連情報を提供することができる。
(Function)
According to the first, tenth, or eleventh aspects, the control means acquires the voice of the speaker in the voice input device, creates the voice-recognized voice content, and records it in the voice storage means. Next, the statement text included in the statement content is compared with the keyword stored in the keyword storage means. When the statement word matches the keyword, the related information associated with the keyword is output to the display device. Thereby, it is possible to provide related information related to the remarks to the user.

請求項2に記載の発明によれば、キーワード記憶手段には、関連情報として、キーワードについての説明文が記録されている。これにより、利用者は、発言についての説明情報を取得することができる。   According to the second aspect of the present invention, the keyword storage is recorded with the explanatory text about the keyword as the related information. Thereby, the user can acquire the description information about the utterance.

請求項3に記載の発明によれば、利用者管理手段から、各表示装置の利用者の属性情報を取得する。そして、属性情報に対応するキーワードをキーワード記憶手段から抽出し、抽出したキーワードを用いてキーワードスポッティング処理を行なう。これにより、利用者の属性に応じた関連情報を提供することができる。   According to the invention described in claim 3, the attribute information of the user of each display device is acquired from the user management means. Then, a keyword corresponding to the attribute information is extracted from the keyword storage means, and a keyword spotting process is performed using the extracted keyword. Thereby, the related information according to a user's attribute can be provided.

請求項4に記載の発明によれば、表示装置に関連情報を出力したキーワードについて、キーワード記憶手段に出力済み情報を記録し、キーワードスポッティング処理においては、出力済み情報が記録されていないキーワードを用いる。これにより、既に提供済みの情報については、重複した提供を抑制することができる。   According to the fourth aspect of the present invention, the output information is recorded in the keyword storage means for the keyword for which the related information is output to the display device, and the keyword in which the output information is not recorded is used in the keyword spotting process. . Thereby, about the already provided information, the duplicate provision can be suppressed.

請求項5に記載の発明によれば、表示装置に関連情報を出力したキーワードについて、発言文言が含まれていた発言回数をカウントし、発言回数に応じて、キーワードの関連情報の表示方法を変更する。これにより、キーワードの重み付けを行ない、この重み付けに応じた表示を行なうことができる。   According to the fifth aspect of the present invention, the number of utterances including the utterance wording is counted for the keyword for which the related information is output to the display device, and the display method of the keyword related information is changed according to the number of utterances. To do. Thereby, weighting of keywords can be performed, and display according to the weighting can be performed.

請求項6に記載の発明によれば、キーワード記憶手段には、議事項目の進行を特定するためのキーワードが記録されている。そして、制御手段が、発言文言とキーワードとの一致を検知した場合には、表示装置に出力された議事項目を消し込む。これにより、利用者に対して、議事の進行状況を提供することができる。   According to the sixth aspect of the present invention, the keyword storage means stores a keyword for specifying the progress of the agenda item. When the control means detects a match between the statement and the keyword, the agenda item output to the display device is erased. Thereby, the progress of proceedings can be provided to the user.

請求項7に記載の発明によれば、発言記憶手段に記録された発言内容を用いて要約を作成する。これにより、利用者に対して、要約を提供することができる。
請求項8に記載の発明によれば、表示装置において指定された発言内容範囲の要約を作成する。これにより、所定範囲の発言についての要約を提供することができる。
According to the seventh aspect of the present invention, a summary is created using the content of the speech recorded in the speech storage means. Thereby, a summary can be provided to the user.
According to the eighth aspect of the present invention, a summary of the content range of the message specified in the display device is created. Thereby, the summary about the speech of the predetermined range can be provided.

請求項9に記載の発明によれば、発言内容においてキーワードスポッティング処理により抽出された発言文言の位置を特定する。そして、この発言文言の位置を用いて要約対象範囲を特定し、この要約対象範囲の発言内容を要約する。これにより、キーワードによって特定された範囲の要約を作成することができる。   According to the invention described in claim 9, the position of the statement word extracted by the keyword spotting process in the statement content is specified. Then, the summarization target range is specified using the position of the remark wording, and the content of the remarks in the summarization target range is summarized. Thereby, the summary of the range specified by the keyword can be created.

本発明によれば、発言についての記録を作成するとともに、円滑な議事進行を支援するための発言管理システム、発言管理方法及び発言管理プログラムを提供することができる。   According to the present invention, it is possible to provide a speech management system, a speech management method, and a speech management program for creating a record of speech and supporting smooth proceeding of proceedings.

本発明の実施形態の発言管理システムの説明図。Explanatory drawing of the speech management system of embodiment of this invention. 本実施形態の各データ記憶部に記録されたデータの説明図であって、(a)はキーワード記憶部、(b)は参考情報記憶部、(c)は会議管理情報記憶部、(d)は発言管理情報記憶部の説明図。It is explanatory drawing of the data recorded on each data memory | storage part of this embodiment, (a) is a keyword memory | storage part, (b) is a reference information memory | storage part, (c) is a meeting management information memory | storage part, (d) Is an explanatory diagram of a speech management information storage unit. 本実施形態の処理手順の説明図。Explanatory drawing of the process sequence of this embodiment. 本実施形態の処理手順の説明図。Explanatory drawing of the process sequence of this embodiment. 本実施形態のクライアント端末における表示画面の説明図。Explanatory drawing of the display screen in the client terminal of this embodiment. 他の実施形態の処理手順の説明図。Explanatory drawing of the process sequence of other embodiment. 他の実施形態の処理手順の説明図。Explanatory drawing of the process sequence of other embodiment. 他の実施形態の処理手順の説明図。Explanatory drawing of the process sequence of other embodiment. 他の実施形態の処理手順の説明図。Explanatory drawing of the process sequence of other embodiment.

以下、本発明を具体化した発言管理システムの一実施形態を図1〜図5に従って説明する。本実施形態では、複数の拠点に設置されたクライアント端末を接続して、テレビ会議を行なう場合を説明する。本実施形態では、図1に示すように、ネットワークを介して相互に接続されたクライアント端末10、会議支援サーバ20を用いる。   Hereinafter, an embodiment of a message management system embodying the present invention will be described with reference to FIGS. In the present embodiment, a case where a video conference is performed by connecting client terminals installed at a plurality of bases will be described. In the present embodiment, as shown in FIG. 1, a client terminal 10 and a conference support server 20 connected to each other via a network are used.

クライアント端末10は、テレビ会議の参加者(利用者)が利用するコンピュータ端末である。このクライアント端末10は、制御部、キーボードやポイントデバイス等の入力部、ディスプレイ等の出力部(表示装置)、マイク(音声入力装置)、スピーカ、カメラ等を備えている。   The client terminal 10 is a computer terminal used by a participant (user) of a video conference. The client terminal 10 includes a control unit, an input unit such as a keyboard and a point device, an output unit (display device) such as a display, a microphone (voice input device), a speaker, a camera, and the like.

クライアント端末10は、カメラによって撮影された映像データと、マイクにより集音された音声データとからなる映像・音声データを、ネットワークを介して、会議支援サーバ20に送信する。クライアント端末10は、映像・音声データを送信する場合には、自身の端末コードに関するデータを含める。   The client terminal 10 transmits video / audio data including video data captured by the camera and audio data collected by the microphone to the conference support server 20 via the network. When transmitting video / audio data, the client terminal 10 includes data relating to its own terminal code.

また、クライアント端末10は、会議支援サーバ20から、他拠点の映像・音声データを取得した場合、スピーカから音声を出力したり、ディスプレイに画像を表示したりする。   In addition, when the client terminal 10 acquires video / audio data of another base from the conference support server 20, the client terminal 10 outputs audio from a speaker or displays an image on a display.

クライアント端末10のディスプレイには、図5に示すテレビ会議画面500が出力される。このテレビ会議画面500は、参加者表示領域510、会議次第表示欄520、発言履歴表示欄530、説明表示欄540から構成されている。この参加者表示領域510には、他拠点のクライアント端末10から取得した画像データが出力される。会議次第表示欄520には、この会議の議事項目が列挙された会議次第が出力される。発言履歴表示欄530には、会議参加者の発言を音声認識したテキストが表示される。説明表示欄540には、発言に関連する参考情報の出力を指示するための選択アイコンが表示される。   A video conference screen 500 shown in FIG. 5 is output on the display of the client terminal 10. The video conference screen 500 includes a participant display area 510, a conference display column 520, a speech history display column 530, and an explanation display column 540. In the participant display area 510, image data acquired from the client terminal 10 at another base is output. In the on-conference display column 520, the up-to-conference that lists the agenda items of this conference is output. In the speech history display field 530, text obtained by voice recognition of the speech of the conference participant is displayed. In the explanation display field 540, a selection icon for instructing output of reference information related to a statement is displayed.

会議支援サーバ20は、各拠点に設置されたクライアント端末10によるテレビ会議を支援するコンピュータシステムである。
会議支援サーバ20は、制御部21、キーワード記憶部22、参考情報記憶部23、会議管理情報記憶部24、発言管理情報記憶部25、映像・音声記憶部26を備えている。本実施形態では、キーワード記憶部22、参考情報記憶部23がキーワード記憶手段として機能し、発言管理情報記憶部25が発言記憶手段として機能する。そして、制御部21は、制御手段(CPU、RAM、ROM等)を備え、後述する処理(会議中継段階、音声認識段階、発言記録段階、画面制御段階、キーワード抽出段階、進行管理段階、説明表示段階、要約作成段階等の各処理等)を行なう。そのための発言管理プログラム(聴講者用)を実行することにより、制御部21は、図1に示すように、会議中継手段211、音声認識手段212、発言記録手段213、画面制御手段214、キーワード抽出手段215、進行管理手段216、説明表示手段217、要約作成手段218として機能する。
The conference support server 20 is a computer system that supports a video conference by the client terminal 10 installed at each site.
The conference support server 20 includes a control unit 21, a keyword storage unit 22, a reference information storage unit 23, a conference management information storage unit 24, a speech management information storage unit 25, and a video / audio storage unit 26. In the present embodiment, the keyword storage unit 22 and the reference information storage unit 23 function as a keyword storage unit, and the speech management information storage unit 25 functions as a speech storage unit. The control unit 21 includes control means (CPU, RAM, ROM, etc.), and will be described later (conference relay stage, voice recognition stage, speech recording stage, screen control stage, keyword extraction stage, progress management stage, explanation display). Stage, summary creation stage, etc.). By executing the speech management program (for the audience) for that purpose, the control unit 21, as shown in FIG. 1, the conference relay unit 211, the speech recognition unit 212, the speech recording unit 213, the screen control unit 214, keyword extraction Functions as means 215, progress management means 216, explanation display means 217, and summary creation means 218.

会議中継手段211は、クライアント端末10から取得した映像・音声データを、他の拠点に設置されたクライアント端末10に転送する処理を実行する。また、会議中継手段211は、映像・音声データに含まれる音声データを、音声認識手段212に供給する。   The conference relay unit 211 executes processing for transferring the video / audio data acquired from the client terminal 10 to the client terminal 10 installed at another base. In addition, the conference relay unit 211 supplies audio data included in the video / audio data to the audio recognition unit 212.

音声認識手段212は、クライアント端末10から取得した音声データに基づいて音声認識処理によりテキストに変換した音声認識テキストを生成する処理を実行する。
発言記録手段213は、音声認識テキストを翻訳して翻訳テキストを生成する処理を実行する。更に、発言記録手段213は、端末コードに基づいて発言者を特定した参加者コードを関連づけて、音声認識テキスト、翻訳テキストを発言管理情報記憶部25に記録する処理を実行する。
The voice recognition unit 212 executes processing for generating voice recognition text converted into text by voice recognition processing based on voice data acquired from the client terminal 10.
The utterance recording unit 213 executes a process of translating the speech recognition text to generate a translation text. Further, the utterance recording unit 213 executes a process of recording the speech recognition text and the translation text in the utterance management information storage unit 25 by associating the participant code specifying the speaker based on the terminal code.

画面制御手段214は、各クライアント端末10のディスプレイに表示されたテレビ会議画面500の表示を制御する処理を実行する。具体的には、テレビ会議画面500の会議次第表示欄520に、テレビ会議の議事項目を列挙した会議次第を出力する。また、発言履歴表示欄530に、会議参加者の発言を音声認識したテキストを表示する。更に、説明表示欄540に、発言に関連する参考情報を選択させるための選択アイコンを表示する。そして、画面制御手段214は、発言履歴表示欄530、説明表示欄540に表示する情報がオーバーフローした場合には、古い情報から順次、表示を削除する。   The screen control unit 214 executes processing for controlling the display of the video conference screen 500 displayed on the display of each client terminal 10. More specifically, the contents of the conferences that list the items of the video conference are output to the display column 520 of the conference on the video conference screen 500. Further, the speech history display field 530 displays a text obtained by voice recognition of the speech of the conference participant. Further, in the explanation display field 540, a selection icon for selecting reference information related to the utterance is displayed. When the information displayed in the message history display column 530 and the explanation display column 540 overflows, the screen control unit 214 sequentially deletes the display from the old information.

キーワード抽出手段215は、発言管理情報記憶部25に記録されたテキスト(発言文言)と、キーワード記憶部22に記録されたキーワードをマッチングする処理(キーワードスポッティング処理)を実行する。   The keyword extraction unit 215 executes a process (keyword spotting process) for matching the text (speech sentence) recorded in the speech management information storage unit 25 with the keyword recorded in the keyword storage unit 22.

進行管理手段216は、キーワードスポッティング処理により抽出されたキーワードに基づいて、会議の進行状態を管理する処理を実行する。
説明表示手段217は、キーワードスポッティング処理により抽出されたキーワードに基づいて、参考情報の出力を管理する処理を実行する。
要約作成手段218は、発言管理情報記憶部25に記録された議事録レコードに基づいて、公知の要約作成技術を用いて要約を生成する処理を実行する。
The progress management means 216 executes a process for managing the progress of the conference based on the keywords extracted by the keyword spotting process.
The explanation display unit 217 executes a process for managing the output of the reference information based on the keywords extracted by the keyword spotting process.
The summary creation means 218 executes a process for generating a summary using a known summary creation technique based on the minutes record recorded in the statement management information storage unit 25.

キーワード記憶部22には、図2(a)に示すように、キーワードスポッティング処理を行なうためのキーワード管理レコード220が記録されている。このキーワード管理レコード220は、キーワードが登録された場合に記録される。キーワード管理レコード220には、キーワード、対応に関するデータが記録されている。   As shown in FIG. 2A, a keyword management record 220 for performing a keyword spotting process is recorded in the keyword storage unit 22. This keyword management record 220 is recorded when a keyword is registered. The keyword management record 220 records data related to keywords and correspondence.

キーワードデータ領域には、キーワードスポッティング処理の対象となる言葉に関するデータが記録されている。
対応データ領域には、該当キーワードを検知した場合の対応に関するデータが記録されている。本実施形態では、キーワードスポッティング処理を会議進行管理、説明表示又は要約作成のために用いる。このため、対応データ領域には、会議進行管理、説明表示又は要約作成を特定するフラグが記録されている。
In the keyword data area, data relating to a word that is a target of the keyword spotting process is recorded.
In the corresponding data area, data related to the response when the corresponding keyword is detected is recorded. In the present embodiment, keyword spotting processing is used for conference progress management, explanation display, or summary creation. For this reason, a flag for specifying conference progress management, explanation display, or summary creation is recorded in the corresponding data area.

参考情報記憶部23には、図2(b)に示すように、クライアント端末10に出力する参考情報についての参考情報管理レコード230が記録されている。この参考情報管理レコード230は、キーワードに対応する参考情報が登録された場合に記録される。参考情報管理レコード230には、キーワード、参考資料、表示状況に関するデータが記録されている。   In the reference information storage unit 23, as shown in FIG. 2B, a reference information management record 230 for reference information output to the client terminal 10 is recorded. This reference information management record 230 is recorded when reference information corresponding to a keyword is registered. In the reference information management record 230, data on keywords, reference materials, and display status are recorded.

キーワードデータ領域には、説明情報の出力対象である用語に関するデータが記録されている。
参考情報データ領域には、このキーワードに対応した関連情報が記録されている。本実施形態では、会議の中で用いられる専門用語の解説(説明文)やプレゼンテーション資料、内部資料が記録される。
In the keyword data area, data related to a term that is an output target of explanation information is recorded.
In the reference information data area, related information corresponding to this keyword is recorded. In the present embodiment, explanations (descriptions) of technical terms used in the conference, presentation materials, and internal materials are recorded.

表示状況データ領域には、この参考情報の表示状況を特定するためのフラグが記録される。クライアント端末10において、選択アイコンを表示した場合に、出力済み情報として表示済フラグを記録する。   In the display status data area, a flag for specifying the display status of the reference information is recorded. When the selection icon is displayed in the client terminal 10, the displayed flag is recorded as the output information.

会議管理情報記憶部24には、図2(c)に示すように、会議を運営するための会議管理情報が記録されている。本実施形態では、会議概要レコード241、会議次第管理レコード242及び参加者管理レコード243が記録されている。この参加者管理レコード243が記録された会議管理情報記憶部24が利用者管理手段として機能する。会議概要レコード241〜参加者管理レコード243は、会議の開催が決定されて、会議管理情報が登録された場合に記録されている。   As shown in FIG. 2C, conference management information for managing the conference is recorded in the conference management information storage unit 24. In this embodiment, a conference summary record 241, a conference management record 242 and a participant management record 243 are recorded. The conference management information storage unit 24 in which the participant management record 243 is recorded functions as a user management unit. The conference summary record 241 to the participant management record 243 are recorded when the conference is decided to be held and the conference management information is registered.

会議概要レコード241には、会議コード、会議日時、タイトルに関するデータが記録されている。
会議コードデータ領域には、各会議を特定するための識別子に関するデータが記録されている。この会議コードにより、会議概要レコード241は、会議次第管理レコード242及び参加者管理レコード243に関連付けられている。
In the conference summary record 241, data relating to the conference code, the conference date and time, and the title are recorded.
In the conference code data area, data relating to an identifier for identifying each conference is recorded. With this conference code, the conference summary record 241 is associated with the management record 242 and the participant management record 243 as soon as the conference is performed.

会議日時データ領域には、テレビ会議が行なわれる年月日及び時刻に関するデータが記録されている。
タイトルデータ領域には、テレビ会議の表題や目的に関するデータが記録されている。
In the meeting date / time data area, data relating to the date and time of the video conference is recorded.
In the title data area, data relating to the title and purpose of the video conference is recorded.

会議次第管理レコード242には、議事順番、議事項目、キーワード、終了判定に関するデータが記録されている。
議事順番データ領域には、テレビ会議において討論予定の議事の順番を特定するためのデータが記録されている。
On the meeting, the management record 242 stores data relating to the agenda order, agenda items, keywords, and end determination.
In the agenda order data area, data for specifying the order of agenda items scheduled for discussion in a video conference is recorded.

議事項目データ領域には、この議事の題目議題に関するデータが記録されている。複数の議題について討論を予定している場合には、すべての議題が記録されている。
キーワードデータ領域には、この議題の討論において用いるキーワードに関するデータが記録されている。
終了判定データ領域には、この議題についての討論の終了を判定するためのフラグが記録される。討論が終了した議事については、終了フラグが記録される。
In the agenda item data area, data relating to the agenda item of the agenda is recorded. If multiple agendas are scheduled for discussion, all agendas are recorded.
In the keyword data area, data relating to keywords used in the discussion of this agenda is recorded.
In the end determination data area, a flag for determining the end of the discussion on the agenda is recorded. For agendas that have been debated, an end flag is recorded.

参加者管理レコード243には、参加者コード、役割コード、端末コード、言語に関するデータが記録されている。
参加者コードデータ領域には、このテレビ会議の参加者を特定するための識別子に関するデータが記録されている。
In the participant management record 243, data related to the participant code, role code, terminal code, and language is recorded.
In the participant code data area, data relating to an identifier for identifying the participant of the video conference is recorded.

役割コードデータ領域には、この参加者のテレビ会議における役割を特定するための識別子に関するデータが記録されている。本実施形態では、司会者の参加者管理レコード243には、司会者フラグが記録されている。   In the role code data area, data relating to an identifier for identifying the role of the participant in the video conference is recorded. In the present embodiment, a moderator flag is recorded in the participant management record 243 of the moderator.

端末コードデータ領域には、この参加者が利用するクライアント端末10を特定するための識別子が記録されている。例えば、端末コードとしてIPアドレスを利用することができる。
言語データ領域には、参加者が用いる言語を特定するための識別子が記録されている。
In the terminal code data area, an identifier for specifying the client terminal 10 used by the participant is recorded. For example, an IP address can be used as a terminal code.
In the language data area, an identifier for identifying the language used by the participant is recorded.

発言管理情報記憶部25には、図2(d)に示すように、テレビ会議における参加者の発言に関する情報が記録される。本実施形態では、音声ファイル、発言履歴レコード251及び要約管理レコード252が記録される。発言履歴レコード251は、後述する音声認識処理を実行した場合に記録される。要約管理レコード252は、後述する要約作成処理を実行した場合に記録される。   In the speech management information storage unit 25, as shown in FIG. 2D, information related to the speech of the participant in the video conference is recorded. In the present embodiment, an audio file, a statement history record 251 and a summary management record 252 are recorded. The speech history record 251 is recorded when a speech recognition process described later is executed. The summary management record 252 is recorded when a summary creation process described later is executed.

発言履歴レコード251には、時刻、発言者コード、発言内容に関するデータが記録される。
時刻データ流域には、発言を記録した年月日及び時刻に関するデータが記録される。
発言者コードデータ領域には、発言者を特定するための識別子(参加者コード)に関するデータが記録される。
発言内容データ領域には、音声認識処理により音声データを変換した音声認識テキスト、及びこの音声認識テキストを翻訳した翻訳テキストが記録される。
In the speech history record 251, data relating to the time, the speaker code, and the content of the speech are recorded.
In the time data basin, data related to the date and time when the utterance is recorded is recorded.
In the speaker code data area, data relating to an identifier (participant code) for identifying a speaker is recorded.
In the statement content data area, a speech recognition text obtained by converting speech data by speech recognition processing and a translation text obtained by translating the speech recognition text are recorded.

要約管理レコード252には、時刻、要約に関するデータが記録される。
時刻データ流域には、要約作成処理が行なわれた時刻に関するデータが記録される。
要約データ流域には、要約作成処理により生成された要約内容に関するデータが記録される。
The summary management record 252 records time and summary data.
In the time data basin, data relating to the time at which the summary creation process was performed is recorded.
In the summary data basin, data related to the summary content generated by the summary creation process is recorded.

映像・音声記憶部26には、各クライアント端末10から取得した映像・音声データが記録される。この映像・音声データには、映像・音声データを送信したクライアント端末10の端末コードや、映像・音声データの取得時刻が関連付けられて記録される。この取得時刻と、発言履歴レコード251に記録された時刻とを用いることにより、映像・音声データと発言履歴レコード251の発言内容とを関連付けることができる。   In the video / audio storage unit 26, video / audio data acquired from each client terminal 10 is recorded. The video / audio data is recorded in association with the terminal code of the client terminal 10 that transmitted the video / audio data and the acquisition time of the video / audio data. By using this acquisition time and the time recorded in the speech history record 251, the video / audio data can be associated with the content of the speech history record 251.

次に、この発言管理システムにおける動作を、図3〜図5を用いて説明する。ここでは、発言登録処理(図3)、キーワードスポッティング処理(図3)、要約作成処理(図4)の順番に行なう。
(発言登録処理)
まず、発言登録処理を、図3を用いて説明する。この処理は、テレビ会議中に行なわれる。
Next, the operation in this message management system will be described with reference to FIGS. Here, speech registration processing (FIG. 3), keyword spotting processing (FIG. 3), and summary creation processing (FIG. 4) are performed in this order.
(Speech registration process)
First, the speech registration process will be described with reference to FIG. This process is performed during the video conference.

ここでは、会議支援サーバ20の制御部21は、音声の取得処理を実行する(ステップS1−1)。具体的には、制御部21の会議中継手段211は、各クライアント端末10から、映像・音声データを取得する。この映像・音声データには、データを送信したクライアント端末10の端末コードに関するデータが含まれる。会議中継手段211は、取得した映像・音声データを、映像・音声データを送信したクライアント端末10の端末コードや、映像・音声データの取得時刻に関連付けて、映像・音声記憶部26に記録する。そして、会議中継手段211は、他の拠点に設置されたクライアント端末10に転送する。更に、会議中継手段211は、映像・音声データに含まれる音声データを音声認識手段212に供給する。   Here, the control unit 21 of the conference support server 20 executes a voice acquisition process (step S1-1). Specifically, the conference relay unit 211 of the control unit 21 acquires video / audio data from each client terminal 10. The video / audio data includes data related to the terminal code of the client terminal 10 that has transmitted the data. The conference relay unit 211 records the acquired video / audio data in the video / audio storage unit 26 in association with the terminal code of the client terminal 10 that transmitted the video / audio data and the acquisition time of the video / audio data. Then, the conference relay unit 211 transfers to the client terminal 10 installed at another base. Further, the conference relay unit 211 supplies audio data included in the video / audio data to the audio recognition unit 212.

次に、会議支援サーバ20の制御部21は、音声認識処理を実行する(ステップS1−2)。具体的には、制御部21の音声認識手段212は、取得した音声データの音声認識処理により、音声テキストを生成する。そして、音声認識手段212は、音声テキストを発言記録手段213に提供する。   Next, the control part 21 of the meeting assistance server 20 performs a speech recognition process (step S1-2). Specifically, the voice recognition unit 212 of the control unit 21 generates voice text by voice recognition processing of the acquired voice data. Then, the voice recognition unit 212 provides the voice recording unit 213 with the voice text.

次に、会議支援サーバ20の制御部21は、発言の記録処理を実行する(ステップS1−3)。具体的には、制御部21の発言記録手段213は、会議管理情報記憶部24において、映像・音声データを送信したクライアント端末10の端末コードが記録された参加者管理レコード243を抽出する。そして、発言記録手段213は、参加者管理レコード243に記録されている参加者コードを特定する。更に、発言記録手段213は、参加者管理レコード243を用いて各クライアント端末10を利用している参加者の言語を特定する。次に、発言記録手段213は、特定した言語に応じて、音声認識手段212から取得した音声テキストを翻訳した翻訳テキストを生成する。そして、発言記録手段213は、システムタイマから現在時刻及び端末コード、発言内容(音声テキスト及び翻訳テキスト)を記録した発言履歴レコード251を生成し、発言管理情報記憶部25に記録する。更に、発言記録手段213は、発言内容を画面制御手段214に供給する。   Next, the control unit 21 of the conference support server 20 executes a statement recording process (step S1-3). Specifically, the statement recording unit 213 of the control unit 21 extracts the participant management record 243 in which the terminal code of the client terminal 10 that has transmitted the video / audio data is recorded in the conference management information storage unit 24. Then, the utterance recording unit 213 specifies the participant code recorded in the participant management record 243. Furthermore, the statement recording unit 213 specifies the language of the participant who uses each client terminal 10 using the participant management record 243. Next, the utterance recording unit 213 generates a translated text obtained by translating the speech text acquired from the speech recognition unit 212 according to the specified language. Then, the utterance recording unit 213 generates a utterance history record 251 in which the current time, terminal code, and utterance content (speech text and translation text) are recorded from the system timer, and records the utterance history record 251 in the utterance management information storage unit 25. Further, the message recording unit 213 supplies the content of the message to the screen control unit 214.

次に、会議支援サーバ20の制御部21は、発言履歴の出力処理を実行する(ステップS1−4)。具体的には、制御部21の画面制御手段214は、各クライアント端末10に対して、音声テキスト及び翻訳テキストを各クライアント端末10に送信する。この場合、テレビ会議画面500の発言履歴表示欄530に発言内容を出力する。ここで、発言履歴表示欄530がオーバーフローする場合には、最も古い発言内容から順番に削除していく。   Next, the control unit 21 of the conference support server 20 executes a speech history output process (step S1-4). Specifically, the screen control unit 214 of the control unit 21 transmits the audio text and the translated text to each client terminal 10 to each client terminal 10. In this case, the content of the message is output to the message history display field 530 of the video conference screen 500. If the message history display field 530 overflows, the oldest message content is deleted in order.

(キーワードスポッティング処理)
次に、キーワードスポッティング処理を、図3を用いて説明する。この処理は、テレビ会議中に行なわれる。本実施形態では、キーワードスポッティング処理において、会議進行管理処理、説明表示管理処理、要約作成処理を実行する。
(Keyword spotting process)
Next, the keyword spotting process will be described with reference to FIG. This process is performed during the video conference. In the present embodiment, a conference progress management process, an explanation display management process, and a summary creation process are executed in the keyword spotting process.

まず、会議支援サーバ20の制御部21は、キーワード抽出処理を実行する(ステップS2−1)。具体的には、制御部21のキーワード抽出手段215は、発言管理情報記憶部25に新たに記録された発言履歴レコード251を取得する。次に、キーワード抽出手段215は、発言履歴レコード251において、キーワード記憶部22に記録されているキーワードが含まれているかどうかを判定する。キーワードが含まれていない場合は、この発言履歴レコード251についてのキーワードスポッティング処理を終了する。   First, the control part 21 of the meeting assistance server 20 performs a keyword extraction process (step S2-1). Specifically, the keyword extraction unit 215 of the control unit 21 acquires the comment history record 251 newly recorded in the comment management information storage unit 25. Next, the keyword extraction unit 215 determines whether or not the keyword recorded in the keyword storage unit 22 is included in the statement history record 251. If no keyword is included, the keyword spotting process for the statement history record 251 is terminated.

一方、キーワードが含まれている場合には、キーワード抽出手段215は、キーワード管理レコード220に記録されている対応を特定する。ここでは、議事項目の進行を特定するためのキーワード「終了」や「終わり」に関連付けて、対応データ領域に「会議進行管理」が記録されている場合を想定する。この場合、キーワード抽出手段215は、進行管理手段216に処理を引き継ぐ。   On the other hand, when a keyword is included, the keyword extraction unit 215 specifies the correspondence recorded in the keyword management record 220. Here, it is assumed that “conference progress management” is recorded in the corresponding data area in association with the keywords “end” and “end” for specifying the progress of the agenda item. In this case, the keyword extraction unit 215 takes over the process to the progress management unit 216.

〔会議進行管理処理〕
まず、会議進行管理処理について説明する。
会議支援サーバ20の制御部21は、発言者の特定処理を実行する(ステップS2−2)。具体的には、制御部21の進行管理手段216は、キーワードスポッティング処理によって抽出された発言履歴レコード251に記録されている発言者コードを取得する。
[Conference progress management process]
First, the conference progress management process will be described.
The control unit 21 of the conference support server 20 executes a speaker specifying process (step S2-2). Specifically, the progress management means 216 of the control unit 21 acquires the speaker code recorded in the statement history record 251 extracted by the keyword spotting process.

次に、会議支援サーバ20の制御部21は、司会者かどうかについての判定処理を実行する(ステップS2−3)。具体的には、制御部21の進行管理手段216は、会議管理情報記憶部24から、この発言者コードが参加者コードデータ領域に記録されている参加者管理レコード243を取得する。ここで、参加者管理レコード243の役割コードデータ領域に司会者フラグが記録されている場合には司会者と判定する。   Next, the control part 21 of the meeting assistance server 20 performs the determination process about whether it is a moderator (step S2-3). Specifically, the progress management means 216 of the control unit 21 acquires the participant management record 243 in which the speaker code is recorded in the participant code data area from the conference management information storage unit 24. Here, if the moderator flag is recorded in the role code data area of the participant management record 243, it is determined as a moderator.

司会者でないと判定した場合(ステップS2−3において「NO」の場合)、会議支援サーバ20の制御部21は、会議進行管理処理を終了する。
一方、司会者と判定した場合(ステップS2−3において「YES」の場合)、会議支援サーバ20の制御部21は、会議次第の検索処理を実行する(ステップS2−4)。具体的には、制御部21の進行管理手段216は、終了フラグが記録されていない会議次第管理レコード242であって、議事順番が最も早いレコードを特定することにより、現在の議事項目を特定する。
If it is determined that the person is not a moderator (“NO” in step S2-3), the control unit 21 of the conference support server 20 ends the conference progress management process.
On the other hand, when it determines with it being a moderator (in the case of "YES" in step S2-3), the control part 21 of the meeting assistance server 20 performs the search process depending on a meeting (step S2-4). Specifically, the progress management means 216 of the control unit 21 specifies the current agenda item by specifying a record that is the management record 242 for which the end flag is not recorded and that has the earliest agenda order. .

次に、会議支援サーバ20の制御部21は、議事進行があったかどうかについての判定処理を実行する(ステップS2−5)。具体的には、制御部21の進行管理手段216は、特定した会議次第管理レコード242に記録されているキーワードが、キーワードスポッティング処理の対象となった発言履歴レコード251に含まれているかどうかを確認する。キーワードが含まれている場合には、議事進行があったと判定する。   Next, the control part 21 of the meeting assistance server 20 performs the determination process about whether the proceeding proceeded (step S2-5). Specifically, the progress management means 216 of the control unit 21 confirms whether or not the keyword recorded in the specified management record 242 is included in the statement history record 251 that is the target of the keyword spotting process. To do. If a keyword is included, it is determined that the proceedings have progressed.

キーワードが含まれておらず、議事進行がなかったと判定した場合(ステップS2−5において「NO」の場合)、会議支援サーバ20の制御部21は、会議進行管理処理を終了する。   If it is determined that no keyword is included and there is no proceeding (if “NO” in step S2-5), the control unit 21 of the conference support server 20 ends the conference progress management process.

一方、キーワードが含まれており、議事進行があったと判定した場合(ステップS2−5において「YES」の場合)、会議支援サーバ20の制御部21は、議事項目の消込処理を実行する(ステップS2−6)。具体的には、制御部21の進行管理手段216は、この会議次第管理レコード242の終了判定データ領域に、終了フラグを記録する。更に、進行管理手段216は、画面制御手段214に、終了した議事項目を通知する。この場合、画面制御手段214は、各クライアント端末10において、テレビ会議画面500の会議次第表示欄520に表示された会議次第において、通知された議事項目をグレイアウトする。   On the other hand, when it is determined that the keyword is included and the proceedings have progressed (in the case of “YES” in step S2-5), the control unit 21 of the conference support server 20 executes the process for deleting the agenda items ( Step S2-6). Specifically, the progress management means 216 of the control unit 21 records an end flag in the end determination data area of the management record 242 as soon as the conference. Further, the progress management unit 216 notifies the screen control unit 214 of the completed item. In this case, the screen control unit 214 grays out the notified agenda items in each client terminal 10 depending on the conference displayed in the display column 520 depending on the conference on the video conference screen 500.

〔説明表示管理処理〕
次に、説明表示管理処理を説明する。この処理は、キーワード抽出処理(ステップS2−1)において、専門用語や資料名のキーワードに関連付けて、対応データ領域に「説明表示」が記録されている場合に行なわれる。この場合、キーワード抽出手段215は、説明表示手段217に処理を引き継ぐ。
[Explanation display management process]
Next, explanation display management processing will be described. This process is performed when “description display” is recorded in the corresponding data area in association with the keyword of the technical term or the document name in the keyword extraction process (step S2-1). In this case, the keyword extraction unit 215 takes over the processing to the explanation display unit 217.

ここでは、会議支援サーバ20の制御部21は、参考情報の検索処理を実行する(ステップS2−7)。具体的には、制御部21の説明表示手段217は、参考情報記憶部23において、キーワードスポッティング処理の対象となったキーワードが記録された参考情報管理レコード230を特定する。   Here, the control unit 21 of the conference support server 20 executes a reference information search process (step S2-7). Specifically, the explanation display means 217 of the control unit 21 specifies the reference information management record 230 in which the keyword subjected to the keyword spotting process is recorded in the reference information storage unit 23.

次に、会議支援サーバ20の制御部21は、表示状況の検索処理を実行する(ステップS2−8)。具体的には、制御部21の説明表示手段217は、特定した参考情報管理レコード230の表示状況データ領域に表示済フラグが記録されているかどうかを確認する。   Next, the control unit 21 of the conference support server 20 executes display status search processing (step S2-8). Specifically, the explanation display unit 217 of the control unit 21 checks whether or not a displayed flag is recorded in the display status data area of the identified reference information management record 230.

次に、会議支援サーバ20の制御部21は、既表示かどうかについての判定処理を実行する(ステップS2−9)。具体的には、制御部21の説明表示手段217は、参考情報管理レコード230の表示状況データ領域に表示済フラグが記録されている場合には、既表示と判定する。   Next, the control part 21 of the meeting assistance server 20 performs the determination process about whether it is already displayed (step S2-9). Specifically, the explanation display unit 217 of the control unit 21 determines that the display is already performed when the displayed flag is recorded in the display status data area of the reference information management record 230.

既表示と判定した場合(ステップS2−9において「YES」の場合)、会議支援サーバ20の制御部21は、説明表示管理処理を終了する。
一方、表示済フラグが記録されておらず、既表示でないと判定した場合(ステップS2−9において「NO」の場合)、会議支援サーバ20の制御部21は、表示候補の出力処理を実行する(ステップS2−10)。具体的には、制御部21の説明表示手段217は、画面制御手段214に、キーワードスポッティング処理により抽出されたキーワードを通知する。この場合、画面制御手段214は、各クライアント端末10において、テレビ会議画面500の説明表示欄540に、キーワードに関連する参考情報を出力させるための選択アイコンを表示する。この選択アイコンは、参考情報記憶部23に記録された参考資料にリンクされている。この場合、画面制御手段214は、参考情報管理レコード230の表示状況データ領域に表示済フラグを記録する。
When it determines with already displayed (in the case of "YES" in step S2-9), the control part 21 of the meeting assistance server 20 complete | finishes description display management processing.
On the other hand, when it is determined that the displayed flag is not recorded and is not already displayed (in the case of “NO” in step S2-9), the control unit 21 of the conference support server 20 executes display candidate output processing. (Step S2-10). Specifically, the explanation display unit 217 of the control unit 21 notifies the screen control unit 214 of the keyword extracted by the keyword spotting process. In this case, the screen control unit 214 displays a selection icon for outputting reference information related to the keyword in the explanation display field 540 of the video conference screen 500 in each client terminal 10. This selection icon is linked to a reference material recorded in the reference information storage unit 23. In this case, the screen control unit 214 records the displayed flag in the display status data area of the reference information management record 230.

次に、会議支援サーバ20の制御部21は、参考情報の出力処理を実行する(ステップS2−11)。具体的には、制御部21の説明表示手段217は、クライアント端末10において選択アイコンの押下を検知した場合、クライアント端末10のディスプレイに、選択アイコンに対応するキーワードの参考情報を出力する。   Next, the control unit 21 of the conference support server 20 executes reference information output processing (step S2-11). Specifically, the explanation display unit 217 of the control unit 21 outputs the reference information of the keyword corresponding to the selected icon on the display of the client terminal 10 when detecting the pressing of the selected icon in the client terminal 10.

〔要約作成処理〕
次に、要約作成処理を、図4を用いて説明する。
ここでは、まず、会議支援サーバ20の制御部21は、要約指示の取得処理を実行する(ステップS3−1)。この処理は、キーワード抽出処理(ステップS2−1)において、「要約」というキーワードに関連付けて、対応データ領域に「要約作成」が記録されている場合に行なわれる。この場合、キーワード抽出手段215は、要約作成手段218に処理を引き継ぐ。
[Summary creation process]
Next, the summary creation process will be described with reference to FIG.
Here, first, the control unit 21 of the conference support server 20 executes a summary instruction acquisition process (step S3-1). This processing is performed when “summary creation” is recorded in the corresponding data area in association with the keyword “summary” in the keyword extraction processing (step S2-1). In this case, the keyword extraction unit 215 takes over the process to the summary creation unit 218.

次に、会議支援サーバ20の制御部21は、先行要約の検索処理を実行する(ステップS3−2)。具体的には、制御部21の要約作成手段218は、発言管理情報記憶部25において、要約管理レコード252を検索する。   Next, the control part 21 of the meeting assistance server 20 performs a search process of a prior | preceding summary (step S3-2). Specifically, the summary creation means 218 of the control unit 21 searches the statement management information storage unit 25 for the summary management record 252.

次に、会議支援サーバ20の制御部21は、先行要約の登録があるかどうかについての判定処理を実行する(ステップS3−3)。具体的には、制御部21の要約作成手段218は、発言管理情報記憶部25に要約管理レコード252が記録されている場合には、先行要約の登録があると判定する。   Next, the control part 21 of the meeting assistance server 20 performs the determination process about whether there exists registration of a prior | preceding summary (step S3-3). Specifically, when the summary management record 252 is recorded in the speech management information storage unit 25, the summary creation unit 218 of the control unit 21 determines that the preceding summary is registered.

要約管理レコード252が記録されておらず、先行要約の登録がないと判定した場合(ステップS3−3において「NO」の場合)、会議支援サーバ20の制御部21は、最初からの要約の生成処理を実行する(ステップS3−4)。具体的には、制御部21の要約作成手段218は、発言管理情報記憶部25から、テレビ会議開始からの発言履歴レコード251を抽出する。そして、要約作成手段218は、抽出した発言履歴レコード251の発言内容を集約して、要約を作成する。   When it is determined that the summary management record 252 is not recorded and the preceding summary is not registered (“NO” in step S3-3), the control unit 21 of the conference support server 20 generates the summary from the beginning. Processing is executed (step S3-4). Specifically, the summary creation means 218 of the control unit 21 extracts the speech history record 251 from the start of the video conference from the speech management information storage unit 25. Then, the summary creation means 218 creates a summary by aggregating the content of the comments in the extracted comment history record 251.

一方、要約管理レコード252が記録されており、先行要約の登録があると判定した場合(ステップS3−3において「YES」の場合)、会議支援サーバ20の制御部21は、先行要約以降の要約の生成処理を実行する(ステップS3−5)。具体的には、制御部21の要約作成手段218は、発言管理情報記憶部25に記録されている要約管理レコード252の中で最も遅い時刻(直近要約作成時刻)を特定する。そして、要約作成手段218は、発言管理情報記憶部25から、この直近要約作成時刻以降の時刻が記録されている発言履歴レコード251を抽出する。そして、要約作成手段218は、抽出した発言履歴レコード251の発言内容を集約して、要約を作成する。   On the other hand, when the summary management record 252 is recorded and it is determined that the preceding summary is registered ("YES" in step S3-3), the control unit 21 of the conference support server 20 summarizes the preceding summary and subsequent summaries. Is generated (step S3-5). Specifically, the summary creation means 218 of the control unit 21 specifies the latest time (most recent summary creation time) among the summary management records 252 recorded in the speech management information storage unit 25. Then, the summary creation means 218 extracts the speech history record 251 in which the time after the latest summary creation time is recorded from the speech management information storage unit 25. Then, the summary creation means 218 creates a summary by aggregating the content of the comments in the extracted comment history record 251.

次に、会議支援サーバ20の制御部21は、要約の出力処理を実行する(ステップS3−6)。具体的には、制御部21の要約作成手段218は、作成した要約を画面制御手段214に供給する。画面制御手段214は、各クライアント端末10に対して、要約を各クライアント端末10に送信する。この場合、テレビ会議画面500の発言履歴表示欄530に要約を出力する。   Next, the control unit 21 of the conference support server 20 executes summary output processing (step S3-6). Specifically, the summary creation means 218 of the control unit 21 supplies the created summary to the screen control means 214. The screen control unit 214 transmits the summary to each client terminal 10 to each client terminal 10. In this case, the summary is output to the comment history display field 530 of the video conference screen 500.

以上、本実施形態によれば、以下に示す効果を得ることができる。
(1)上記実施形態では、会議支援サーバ20の制御部21は、音声の取得処理(ステップS1−1)、音声認識処理(ステップS1−2)、発言の記録処理(ステップS1−3)を実行する。これにより、会議等における発言についての記録を残すことができる。この記録を利用することにより、効率的に議事録を作成することができる。
As described above, according to the present embodiment, the following effects can be obtained.
(1) In the above embodiment, the control unit 21 of the conference support server 20 performs voice acquisition processing (step S1-1), voice recognition processing (step S1-2), and speech recording processing (step S1-3). Execute. As a result, it is possible to keep a record of remarks in a meeting or the like. By using this record, the minutes can be efficiently created.

ここで、発言記録手段213は、特定した言語に応じて、音声認識手段212から取得した音声テキストを翻訳した翻訳テキストを生成する。これにより、外国語で会議が行なわれている場合にも、会議参加者自身の言語によって発言内容を把握することができる。   Here, the utterance recording unit 213 generates a translated text obtained by translating the speech text acquired from the speech recognition unit 212 according to the specified language. Thereby, even when the conference is held in a foreign language, the content of the speech can be grasped by the language of the conference participants themselves.

(2)上記実施形態では、会議支援サーバ20の制御部21は、発言履歴の出力処理を実行する(ステップS1−4)。この場合、クライアント端末10のディスプレイに、発言履歴表示欄530を含むテレビ会議画面500を出力する。これにより、参加者の各発言を確認することができる。   (2) In the above-described embodiment, the control unit 21 of the conference support server 20 executes a speech history output process (step S1-4). In this case, the video conference screen 500 including the message history display field 530 is output on the display of the client terminal 10. Thereby, each participant's remark can be confirmed.

(3)上記実施形態では、会議支援サーバ20の制御部21は、キーワード抽出処理を実行する(ステップS2−1)。ここで、キーワードに関連付けて「会議進行管理」が記録されている場合、会議進行管理処理を実行する。そして、キーワードが含まれており、議事進行があったと判定した場合(ステップS2−5において「YES」の場合)、会議支援サーバ20の制御部21は、議事項目の消込処理を実行する(ステップS2−6)。これにより、参加者は、クライアント端末10において議事進行状況を把握することができる。   (3) In the above embodiment, the control unit 21 of the conference support server 20 executes the keyword extraction process (step S2-1). Here, when “conference progress management” is recorded in association with the keyword, the conference progress management process is executed. Then, when it is determined that the keyword is included and the proceedings have progressed (in the case of “YES” in step S2-5), the control unit 21 of the conference support server 20 executes a process for clearing the agenda items ( Step S2-6). Thereby, the participant can grasp the progress of proceedings at the client terminal 10.

(4)上記実施形態では、会議支援サーバ20の制御部21は、キーワード抽出処理を実行する(ステップS2−1)。ここで、キーワードに関連付けて「説明表示」が記録されている場合、説明表示管理処理において、制御部21は、参考情報の検索処理(ステップS2−7)、表示状況の検索処理(ステップS2−8)を実行する。そして、既表示でないと判定した場合(ステップS2−9において「NO」の場合)、会議支援サーバ20の制御部21は、表示候補の出力処理(ステップS2−10)、参考情報の出力処理(ステップS2−11)を実行する。これにより、参加者は、クライアント端末10において、参考情報を効率的に入手することができる。   (4) In the above embodiment, the control unit 21 of the conference support server 20 executes the keyword extraction process (step S2-1). Here, when “description display” is recorded in association with the keyword, in the explanation display management process, the control unit 21 performs a reference information search process (step S2-7) and a display status search process (step S2-). 8) is executed. If it is determined that it is not already displayed (in the case of “NO” in step S2-9), the control unit 21 of the conference support server 20 outputs the display candidate (step S2-10), the reference information output process (step S2-10). Step S2-11) is executed. Thus, the participant can efficiently obtain the reference information at the client terminal 10.

(5)上記実施形態では、キーワードに関連付けて「要約作成」が記録されている場合、要約作成処理を実行する。ここで、先行要約の登録が登録されていないと判定した場合(ステップS3−3において「NO」の場合)、会議支援サーバ20の制御部21は、最初からの要約の生成処理を実行する(ステップS3−4)。一方、先行要約の登録が登録されていると判定した場合(ステップS3−3において「YES」の場合)、会議支援サーバ20の制御部21は、先行要約以降の要約の生成処理を実行する(ステップS3−5)。そして、会議支援サーバ20の制御部21は、要約の出力処理を実行する(ステップS3−6)。これにより、クライアント端末10において、会議における討論内容の要約を把握することができる。   (5) In the above embodiment, when “summary creation” is recorded in association with a keyword, summary creation processing is executed. Here, when it is determined that the registration of the preceding summary is not registered (in the case of “NO” in step S3-3), the control unit 21 of the conference support server 20 executes a summary generation process from the beginning ( Step S3-4). On the other hand, when it is determined that registration of the preceding summary is registered (in the case of “YES” in step S3-3), the control unit 21 of the conference support server 20 executes a summary generation process after the preceding summary ( Step S3-5). And the control part 21 of the meeting assistance server 20 performs the output process of a summary (step S3-6). Thereby, the client terminal 10 can grasp a summary of discussion contents in the conference.

なお、上記実施形態は、以下の態様に変更してもよい。
・ 上記実施形態では、キーワードスポッティング処理において、説明表示管理処理を実行する。抽出したキーワードに対する対応方法はこれらに限定されるものではない。例えば、重要発言を特定するキーワードをキーワード記憶部22に記録してもよい。この場合、説明表示手段217に、重要発言が含まれる発言履歴レコード251を検索する所定の時間範囲に関するデータを保持している。この処理を、図6を用いて説明する。
In addition, you may change the said embodiment into the following aspects.
In the above embodiment, the explanation display management process is executed in the keyword spotting process. The correspondence method for the extracted keyword is not limited to these. For example, a keyword specifying an important utterance may be recorded in the keyword storage unit 22. In this case, the explanation display means 217 holds data related to a predetermined time range for searching for the utterance history record 251 including important utterances. This process will be described with reference to FIG.

まず、会議支援サーバ20の制御部21は、ステップS2−1と同様に、キーワード抽出処理を実行する(ステップS4−1)。ここでは、キーワード抽出手段215が、「重要」というキーワードを検知して説明表示手段217に処理を引き継ぐ場合を想定する。   First, the control part 21 of the meeting assistance server 20 performs a keyword extraction process similarly to step S2-1 (step S4-1). Here, it is assumed that the keyword extraction unit 215 detects the keyword “important” and takes over the processing to the explanation display unit 217.

ここで、会議支援サーバ20の制御部21は、重要発言の抽出処理を実行する(ステップS4−2)。具体的には、制御部21の説明表示手段217は、この「重要」というキーワードが含まれている発言履歴レコード251を抽出する。更に、説明表示手段217は、この発言履歴レコード251に対して所定時間範囲内の発言履歴レコード251を抽出する。そして、説明表示手段217は、この発言履歴レコード251に記録された発言内容を重要発言として参考資料データ領域に記録した参考情報管理レコード230を生成し、参考情報記憶部23に登録する。   Here, the control unit 21 of the conference support server 20 executes an important message extraction process (step S4-2). Specifically, the explanation display means 217 of the control unit 21 extracts the comment history record 251 including the keyword “important”. Further, the explanation display means 217 extracts a comment history record 251 within a predetermined time range for this comment history record 251. Then, the explanation display means 217 generates a reference information management record 230 in which the content of the message recorded in the message history record 251 is recorded in the reference material data area as an important message, and registers it in the reference information storage unit 23.

次に、会議支援サーバ20の制御部21は、表示候補の出力処理を実行する(ステップS4−3)。具体的には、制御部21の説明表示手段217は、画面制御手段214に、重要発言があったことを通知する。この場合、画面制御手段214は、各クライアント端末10において、テレビ会議画面500の説明表示欄540に、重要発言表示アイコンを表示する。この重要発言表示アイコンは、参考情報記憶部23に記録された参考資料(重要発言)にリンクされている。   Next, the control unit 21 of the conference support server 20 executes display candidate output processing (step S4-3). Specifically, the explanation display unit 217 of the control unit 21 notifies the screen control unit 214 that an important statement has been made. In this case, the screen control unit 214 displays an important message display icon in the explanation display field 540 of the video conference screen 500 in each client terminal 10. This important message display icon is linked to the reference material (important message) recorded in the reference information storage unit 23.

次に、会議支援サーバ20の制御部21は、重要発言の出力処理を実行する(ステップS4−4)。具体的には、説明表示手段217は、クライアント端末10において重要発言表示アイコンの選択を検知した場合、クライアント端末10のディスプレイに、参考情報記憶部23に記録された重要発言を出力する。
これにより、クライアント端末10において、効率的に重要発言を確認することができる。
Next, the control unit 21 of the conference support server 20 executes an important message output process (step S4-4). Specifically, the explanation display unit 217 outputs the important message recorded in the reference information storage unit 23 to the display of the client terminal 10 when the client terminal 10 detects the selection of the important message display icon.
As a result, the client terminal 10 can efficiently confirm important messages.

・ 上記実施形態では、要約作成処理において、先行要約の登録がないと判定した場合(ステップS3−3において「NO」の場合)、会議支援サーバ20の制御部21は、最初からの要約の生成処理を実行する(ステップS3−4)。一方、先行要約の登録があると判定した場合(ステップS3−3において「YES」の場合)、会議支援サーバ20の制御部21は、先行要約以降の要約の生成処理を実行する(ステップS3−5)。要約の作成方法は、これに限定されるものではない。例えば、キーワードスポッティング処理により抽出された発言文言の位置を特定して要約するようにしてもよい。具体的には、会議の区切り(議事の終了)を検知して、議事毎に要約対象範囲を特定して要約を作成する。この場合、議事項目の消込処理(ステップS2−6)を実行した時刻を、この議事順番の会議次第管理レコード242に終了時刻として記録するとともに、次の議事順番の会議次第管理レコード242に開始時刻として記録する。この処理を、図7を用いて説明する。   In the above embodiment, when it is determined in the summary creation process that there is no registration of the preceding summary (“NO” in step S3-3), the control unit 21 of the conference support server 20 generates the summary from the beginning. Processing is executed (step S3-4). On the other hand, when it is determined that there is registration of the preceding summary (in the case of “YES” in step S3-3), the control unit 21 of the conference support server 20 executes the summary generation processing after the preceding summary (step S3- 5). The method for creating the summary is not limited to this. For example, the position of the comment sentence extracted by the keyword spotting process may be specified and summarized. Specifically, it detects the break of the meeting (end of the agenda), specifies the summary target range for each agenda, and creates a summary. In this case, the time when the agenda item clearing process (step S2-6) is executed is recorded as the end time in the management record 242 as soon as the meeting is in the agenda order, and is started in the management record 242 as soon as the meeting is in the next agenda order. Record as time. This process will be described with reference to FIG.

まず、会議支援サーバ20の制御部21は、会議の区切りの検出処理を実行する(ステップS5−1)。具体的には、制御部21の要約作成手段218は、進行管理手段216において議事進行を検知する。   First, the control unit 21 of the conference support server 20 executes a conference break detection process (step S5-1). Specifically, the summary creation means 218 of the control unit 21 detects the proceeding of proceedings in the progress management means 216.

次に、会議支援サーバ20の制御部21は、区切り範囲の要約の生成処理を実行する(ステップS5−2)。具体的には、制御部21の要約作成手段218は、会議の区切りにおいて終了した議事項目の会議次第管理レコード242に記録された開始時刻、終了時刻を取得する。そして、要約作成手段218は、発言管理情報記憶部25から、この開始時刻〜終了時刻が記録されている発言履歴レコード251を抽出する。そして、要約作成手段218は、抽出した発言履歴レコード251の発言内容を集約して要約を作成する。   Next, the control unit 21 of the conference support server 20 executes a process for generating a summary of the separation range (step S5-2). Specifically, the summary creation means 218 of the control unit 21 acquires the start time and the end time recorded in the management record 242 as soon as the agenda item ended at the conference break. Then, the summary creating means 218 extracts the message history record 251 in which the start time to the end time are recorded from the message management information storage unit 25. Then, the summary creation means 218 aggregates the content of the extracted speech history record 251 and creates a summary.

次に、会議支援サーバ20の制御部21は、ステップS3−6と同様に、要約の出力処理を実行する(ステップS5−3)。
これにより、各議事が終了した段階で、クライアント端末10において、この議事についての要約を確認することができる。
Next, the control part 21 of the meeting assistance server 20 performs the output process of the summary similarly to step S3-6 (step S5-3).
Thus, at the stage where each agenda is completed, the client terminal 10 can confirm a summary of the agenda.

・ 上記実施形態では、説明表示欄540に、発言に関連する参考情報の出力を指示するための選択アイコンを表示する。そして、説明表示欄540に表示する情報がオーバーフローする場合には、古い情報から順次、表示を削除する。説明表示欄540における表示制御はこれに限定されるものではない。例えば、キーワードの重要度に応じて、表示方法を変更してもよい。この場合には、参考情報記憶部23の参考情報管理レコード230の表示状況データ領域に発言回数を記録する。更に、説明表示手段217に、重要度に応じて表示時間を決めるための時間決定テーブルを保持させておく。この処理を、図8を用いて説明する。   In the above embodiment, a selection icon for instructing output of reference information related to a statement is displayed in the explanation display field 540. When the information displayed in the explanation display field 540 overflows, the display is deleted sequentially from the old information. The display control in the explanation display field 540 is not limited to this. For example, the display method may be changed according to the importance of the keyword. In this case, the number of utterances is recorded in the display status data area of the reference information management record 230 of the reference information storage unit 23. Further, the explanation display means 217 holds a time determination table for determining the display time according to the importance. This process will be described with reference to FIG.

まず、会議支援サーバ20の制御部21は、ステップS2−1と同様に、キーワード抽出処理を実行する(ステップS6−1)。
次に、会議支援サーバ20の制御部21は、ステップS2−7と同様に、参考情報の検索処理(ステップS6−2)を実行する。
First, the control part 21 of the meeting assistance server 20 performs a keyword extraction process similarly to step S2-1 (step S6-1).
Next, similarly to step S2-7, the control unit 21 of the conference support server 20 executes reference information search processing (step S6-2).

次に、会議支援サーバ20の制御部21は、表示状況の更新処理を実行する。(ステップS6−3)。具体的には、制御部21の説明表示手段217は、参考情報管理レコード230の表示状況データ領域に記録された発言回数を更新する。   Next, the control unit 21 of the conference support server 20 executes display status update processing. (Step S6-3). Specifically, the explanation display means 217 of the control unit 21 updates the number of utterances recorded in the display status data area of the reference information management record 230.

次に、会議支援サーバ20の制御部21は、重要度の評価処理を実行する。(ステップS6−4)。具体的には、制御部21の説明表示手段217は、説明表示欄540に表示されているすべての選択アイコンに対応する参考情報管理レコード230を取得し、表示状況データ領域に記録された発言回数を特定する。そして、説明表示手段217は、発言回数の多さに応じて重要度を評価する。   Next, the control unit 21 of the conference support server 20 executes importance evaluation processing. (Step S6-4). Specifically, the explanation display means 217 of the control unit 21 acquires the reference information management record 230 corresponding to all the selection icons displayed in the explanation display field 540, and the number of utterances recorded in the display status data area. Is identified. The explanation display means 217 evaluates the importance according to the number of utterances.

次に、会議支援サーバ20の制御部21は、重要度に応じて並び替え処理を実行する(ステップS6−5)。具体的には、制御部21の説明表示手段217は、選択アイコンの優先順位を決定する。   Next, the control part 21 of the meeting assistance server 20 performs a rearrangement process according to importance (step S6-5). Specifically, the explanation display means 217 of the control unit 21 determines the priority order of the selected icons.

次に、会議支援サーバ20の制御部21は、ステップS2−10、S2−11と同様に、表示候補の出力処理(ステップS6−6)、参考情報の出力処理(ステップS6−7)を実行する。   Next, similarly to steps S2-10 and S2-11, the control unit 21 of the conference support server 20 executes display candidate output processing (step S6-6) and reference information output processing (step S6-7). To do.

重要なキーワードは何度も発言されることが多い。従って、この発言回数に応じて、重要度を評価し、この重要度に応じて表示を変更することができる。これにより、優先順位を並べ替えることにより、選択アイコンが表示されている表示時間を制御することができる。   Important keywords are often spoken many times. Therefore, the importance can be evaluated according to the number of utterances, and the display can be changed according to the importance. Thereby, the display time when the selection icon is displayed can be controlled by rearranging the priorities.

・ 上記実施形態では、参考情報記憶部23には、クライアント端末10に出力する説明情報についての参考情報管理レコード230が記録されている。そして、会議支援サーバ20の制御部21は、表示候補の出力処理(ステップS2−10)、参考情報の出力処理(ステップS2−11)を実行する。この場合、参考情報記憶部23に記録されているすべての参考情報についてキーワードスポッティング処理を行なう。これに代えて、参加者の属性情報(例えば、スキルレベル)に応じて、キーワードスポッティング処理において用いるキーワードを変更するようにしてもよい。この場合には、参加者管理レコード243に参加者属性情報(スキルレベル)を記録しておく。更に、キーワード管理レコード220には、この参考情報を提供する対象者についての提供対象者属性情報(スキルレベル)を記録しておく。そして、制御部21のキーワード抽出手段215は、会議管理情報記憶部24に記録された参加者管理レコード243から、スキルレベルを取得する。そして、最も低いスキルレベルに基づいて最低レベルを決定する。そして、最低レベル以上の提供対象者属性情報が記録されたキーワード管理レコード220を用いて、キーワードスポッティング処理を行なう。これにより、参加者のスキルレベルに応じて不必要な情報の提供を抑制することができる。   In the above embodiment, the reference information storage unit 23 stores the reference information management record 230 for the explanation information output to the client terminal 10. The control unit 21 of the conference support server 20 executes display candidate output processing (step S2-10) and reference information output processing (step S2-11). In this case, keyword spotting processing is performed for all reference information recorded in the reference information storage unit 23. Instead, the keyword used in the keyword spotting process may be changed according to the attribute information (for example, skill level) of the participant. In this case, participant attribute information (skill level) is recorded in the participant management record 243. Further, the keyword management record 220 records provision target person attribute information (skill level) for the target person who provides this reference information. Then, the keyword extraction unit 215 of the control unit 21 acquires the skill level from the participant management record 243 recorded in the conference management information storage unit 24. Then, the lowest level is determined based on the lowest skill level. Then, the keyword spotting process is performed using the keyword management record 220 in which the provision target person attribute information of the lowest level or higher is recorded. Thereby, provision of unnecessary information can be suppressed according to the skill level of the participant.

・ 上記実施形態では、すべてのクライアント端末10に同じ表示候補が出力される。これに代えて、参加者の属性情報(例えば、スキルレベル)に応じて、表示候補を変更するようにしてもよい。この場合には、参加者管理レコード243には参加者属性情報(スキルレベル)を記録しておく。更に、参考情報管理レコード230には、この参考情報を提供する対象者についての提供対象者属性情報(スキルレベル)を記録しておく。そして、説明表示手段217は、キーワードスポッティング処理により特定されたキーワードの参考情報管理レコード230に記録されているスキルレベルを取得する。このスキルレベルに一致する参加者管理レコード243の参加者が利用しているクライアント端末10を特定し、特定したクライアント端末10のみに表示候補を出力する。これにより、例えばスキルレベルが低い参加者に対して参照情報を提供するとともに、スキルレベルが高い参加者には不必要な情報の提供を抑制することができる。従って、参加者属性に応じて的確な参考情報を提供することができる。   In the above embodiment, the same display candidate is output to all the client terminals 10. Instead of this, display candidates may be changed according to the attribute information (for example, skill level) of the participant. In this case, participant attribute information (skill level) is recorded in the participant management record 243. Further, in the reference information management record 230, provision target person attribute information (skill level) for a target person who provides this reference information is recorded. Then, the explanation display means 217 acquires the skill level recorded in the reference information management record 230 of the keyword specified by the keyword spotting process. The client terminal 10 used by the participant in the participant management record 243 that matches this skill level is specified, and display candidates are output only to the specified client terminal 10. Thereby, for example, reference information is provided to a participant with a low skill level, and provision of unnecessary information to a participant with a high skill level can be suppressed. Therefore, accurate reference information can be provided according to the participant attributes.

・ 上記実施形態では、参考情報記憶部23には、クライアント端末10に出力する参考情報についての参考情報管理レコード230が記録されている。この参考情報管理レコード230には、キーワード、参考資料、表示状況に関するデータが記録されている。参考情報記憶部23を用いて、会議支援サーバ20の制御部21は、表示状況の検索処理を実行する(ステップS2−8)。これに代えて、表示状況をキーワード記憶部22のキーワード管理レコード220に記録するようにしてもよい。この場合には、表示済フラグが記録されているキーワードについては、キーワードスポッティング処理の対象外とする。これにより、少ないキーワードを対象として効率的にキーワードスポッティング処理を行なうことができる。   In the above embodiment, the reference information storage unit 23 stores the reference information management record 230 for the reference information output to the client terminal 10. In this reference information management record 230, data on keywords, reference materials, and display status are recorded. Using the reference information storage unit 23, the control unit 21 of the conference support server 20 executes a display status search process (step S2-8). Instead, the display status may be recorded in the keyword management record 220 of the keyword storage unit 22. In this case, the keyword in which the displayed flag is recorded is excluded from the keyword spotting process. Thereby, keyword spotting processing can be efficiently performed for a small number of keywords.

・ 上記実施形態では、会議支援サーバ20の制御部21は、発言の記録処理を実行する(ステップS1−3)。ここで、発言者の感情を記録するようにしてもよい。この場合には、制御部21に感情評価手段を設ける。この感情評価手段は、呼吸の荒さ、抑揚、声の淀み、ため息の評価結果から構成された感情パターンに対応させて、感情指数を記録した感情評価テーブルを保持している。更に、会議支援サーバ20に、参加者コードに対応して、過去の発言における感情評価結果の統計値を記録した発話パターン記憶部を設ける。また、発言履歴レコード251には、感情指数を記録するためのデータ領域を更に設ける。この処理を、図9を用いて説明する。   In the above-described embodiment, the control unit 21 of the conference support server 20 executes a speech recording process (step S1-3). Here, the emotion of the speaker may be recorded. In this case, the control unit 21 is provided with emotion evaluation means. This emotion evaluation means holds an emotion evaluation table in which an emotion index is recorded in correspondence with an emotion pattern composed of evaluation results of rough breathing, intonation, voice itchiness, and sigh. Further, the conference support server 20 is provided with an utterance pattern storage unit that records the statistical value of the emotion evaluation result in the past utterance corresponding to the participant code. The speech history record 251 further includes a data area for recording the emotion index. This process will be described with reference to FIG.

まず、会議支援サーバ20の制御部21は、ステップS1−1と同様に、音声の取得処理を実行する(ステップS7−1)。
次に、会議支援サーバ20の制御部21は、発話状態の評価処理を実行する(ステップS7−2)。本実施形態では、制御部21の感情評価手段は、呼吸の荒さの評価、抑揚の評価、声の淀みの評価、ため息の評価を行なう。
First, the control part 21 of the meeting assistance server 20 performs the audio | voice acquisition process similarly to step S1-1 (step S7-1).
Next, the control unit 21 of the conference support server 20 executes an utterance state evaluation process (step S7-2). In the present embodiment, the emotion evaluation means of the control unit 21 performs evaluation of roughness of breathing, evaluation of inflection, evaluation of voice itch, and evaluation of sigh.

呼吸の荒さの評価においては、感情評価手段は、マイクで集音した呼吸音を取得する。そして、この参加者の呼吸の荒さ統計値と比較する。発話パターン記憶部に記録された統計値よりも呼吸音が大きく、息使いが荒いと判定した場合には、感情の高ぶりを示す評価結果を取得する。   In the evaluation of the roughness of breathing, the emotion evaluation means acquires the breathing sound collected by the microphone. And it compares with the roughness statistics of this participant's breathing. If it is determined that the breathing sound is larger than the statistical value recorded in the utterance pattern storage unit and the breathing is rough, an evaluation result indicating high emotion is acquired.

抑揚の評価においては、感情評価手段は、声の大きさの変化分布(変化の大きさ)を算出する。そして、この参加者の抑揚統計値と比較する。統計値よりも抑揚が大きい場合には、感情の高ぶりを示す評価結果を取得する。   In the evaluation of intonation, the emotion evaluation means calculates a change distribution (a magnitude of change) of the voice volume. Then, it compares with the inflection statistics of this participant. If the intonation is greater than the statistical value, an evaluation result indicating emotional height is obtained.

声の淀みの評価においては、感情評価手段は、発声の明瞭度を算出する。そして、この参加者の明瞭度統計値と比較する。発話パターン記憶部に記録された統計値よりも明瞭度が低く、淀みがあると判定した場合には、気分の落ち込みを示す評価結果を取得する。   In the evaluation of the voice itch, the emotion evaluation means calculates the intelligibility of the utterance. Then, it is compared with the clarity statistics value of this participant. When it is determined that the intelligibility is lower than the statistical value recorded in the utterance pattern storage unit and there is itchiness, an evaluation result indicating depression of mood is acquired.

ため息の評価においては、感情評価手段は、ため息パターンと一致する呼吸音を特定する。そして、感情評価手段は、ため息パターンと一致する呼吸音の回数をカウントし、単位時間あたりの回数(ため息頻度)を算出する。この参加者のため息頻度の統計値と比較する。発話パターン記憶部に記録された統計値よりも、ため息頻度が高い場合には、気分の落ち込みを示す評価結果を取得する。   In the sigh evaluation, the emotion evaluation means identifies a breathing sound that matches the sigh pattern. Then, the emotion evaluation means counts the number of breath sounds that match the sigh pattern, and calculates the number of times per unit time (sigh frequency). Compare this participant's sigh frequency statistics. When the sigh frequency is higher than the statistical value recorded in the utterance pattern storage unit, an evaluation result indicating a feeling drop is acquired.

次に、会議支援サーバ20の制御部21は、感情の評価処理を実行する(ステップS7−3)。具体的には、制御部21の感情評価手段は、呼吸の荒さ、抑揚、声の淀み、ため息の評価結果の感情パターンに対応する感情指数を感情評価テーブルから取得する。   Next, the control part 21 of the meeting assistance server 20 performs an emotion evaluation process (step S7-3). Specifically, the emotion evaluation unit of the control unit 21 acquires an emotion index corresponding to the emotion pattern of the evaluation result of the roughness of breathing, intonation, voice itchiness, and sigh from the emotion evaluation table.

次に、会議支援サーバ20の制御部21は、発言内容に関連付けて感情指数の記録処理を実行する(ステップS7−4)。具体的には、制御部21の感情評価手段は、算出した感情指数を、この参加者の発言についての発言履歴レコード251に記録する。   Next, the control unit 21 of the conference support server 20 executes emotion index recording processing in association with the content of the statement (step S7-4). Specifically, the emotion evaluation means of the control unit 21 records the calculated emotion index in the statement history record 251 regarding the participant's statement.

これにより、テキスト化された発言履歴において、その時の発言状況を把握することができる。   As a result, the utterance status at that time can be grasped in the utterance history made into text.

10…クライアント端末、20…会議支援サーバ、21…制御部、211…会議中継手段、212…音声認識手段、213…発言記録手段、214…画面制御手段、215…キーワード抽出手段、216…進行管理手段、217…説明表示手段、218…要約作成手段、22…キーワード記憶部、23…参考情報記憶部、24…会議管理情報記憶部、25…発言管理情報記憶部。   DESCRIPTION OF SYMBOLS 10 ... Client terminal, 20 ... Conference support server, 21 ... Control part, 211 ... Conference relay means, 212 ... Voice recognition means, 213 ... Message recording means, 214 ... Screen control means, 215 ... Keyword extraction means, 216 ... Progress management Means, 217 ... description display means, 218 ... summary creation means, 22 ... keyword storage section, 23 ... reference information storage section, 24 ... conference management information storage section, 25 ... speech management information storage section.

Claims (11)

キーワードに対して関連情報を記録したキーワード記憶手段と、
音声認識された発言内容を記録する発言記憶手段と、
音声入力装置と表示装置とに接続された制御手段とを備えた発言管理システムであって、
前記制御手段が、
前記音声入力装置において発言者の音声を取得し、音声認識した発言内容を作成して前記発言記憶手段に記録する手段と、
前記発言内容に含まれる発言文言と、前記キーワード記憶手段に記憶されたキーワードとを比較するキーワードスポッティング処理を行なう手段と、
前記発言文言とキーワードとが一致した場合には、前記キーワードに関連付けられた関連情報を前記表示装置に出力する手段と
を備えたことを特徴とする発言管理システム。
Keyword storage means for recording relevant information for keywords;
Speech storage means for recording speech-recognized speech content;
A speech management system comprising a voice input device and a control means connected to a display device,
The control means is
Means for acquiring a voice of a speaker in the voice input device, creating voice-recognized voice content and recording it in the voice storage means;
Means for performing a keyword spotting process for comparing the statement text included in the statement content with the keyword stored in the keyword storage means;
A speech management system comprising: means for outputting related information associated with the keyword to the display device when the speech statement matches the keyword.
前記キーワード記憶手段には、前記関連情報として、キーワードについての説明文が記録されていることを特徴とする請求項1に記載の発言管理システム。   The statement management system according to claim 1, wherein an explanatory note about a keyword is recorded in the keyword storage unit as the related information. 利用者の属性情報を記録した利用者管理手段を更に備え、
各キーワードに対して、利用者の属性情報が更に記録されており、
前記制御手段が、
前記利用者管理手段から、各表示装置の利用者の属性情報を取得し、
前記属性情報に対応するキーワードを前記キーワード記憶手段から抽出し、抽出したキーワードを用いて前記キーワードスポッティング処理を行なうことを特徴とする請求項1又は2に記載の発言管理システム。
A user management means for recording user attribute information;
For each keyword, user attribute information is further recorded,
The control means is
From the user management means, obtain attribute information of the user of each display device,
3. The message management system according to claim 1, wherein a keyword corresponding to the attribute information is extracted from the keyword storage unit, and the keyword spotting process is performed using the extracted keyword.
前記表示装置に関連情報を出力したキーワードについて、前記キーワード記憶手段に出力済み情報を記録し、
前記キーワードスポッティング処理においては、出力済み情報が記録されていないキーワードを用いることを特徴とする請求項1〜3のいずれか一つに記載の発言管理システム。
For the keyword for which the relevant information is output to the display device, the output information is recorded in the keyword storage means,
The speech management system according to any one of claims 1 to 3, wherein in the keyword spotting process, a keyword in which output information is not recorded is used.
前記制御手段が、
前記表示装置に関連情報を出力したキーワードについて、発言文言が含まれていた発言回数をカウントし、
前記発言回数に応じて、前記キーワードの関連情報の表示方法を変更する手段を更に備えたことを特徴とする請求項1〜4のいずれか一つに記載の発言管理システム。
The control means is
For the keywords that output related information to the display device, count the number of utterances that included the utterance statement,
5. The speech management system according to claim 1, further comprising means for changing a display method of the related information of the keyword according to the number of speeches.
前記キーワード記憶手段には、議事項目の進行を特定するためのキーワードが記録されており、
前記制御手段が、発言文言とキーワードとの一致を検知した場合には、前記表示装置に出力された前記議事項目を消し込む手段を更に備えたことを特徴とする請求項1〜5のいずれか一つに記載の発言管理システム。
In the keyword storage means, a keyword for specifying the progress of the agenda item is recorded,
6. The apparatus according to claim 1, further comprising means for erasing the agenda item output to the display device when the control means detects a match between a statement word and a keyword. The statement management system according to one.
前記制御手段が、前記発言記憶手段に記録された発言内容を用いて要約を作成し、前記表示装置に提供する手段を更に備えたことを特徴とする請求項1〜6のいずれか一つに記載の発言管理システム。   7. The control device according to claim 1, further comprising means for creating a summary using the content of the speech recorded in the speech storage device and providing the summary to the display device. The statement management system described. 前記制御手段が、前記表示装置において指定された発言内容範囲の要約を作成することを特徴とする請求項7に記載の発言管理システム。   8. The message management system according to claim 7, wherein the control unit creates a summary of a message content range designated on the display device. 前記制御手段が、発言内容において前記キーワードスポッティング処理により抽出された発言文言の位置を特定し、
この発言文言の位置を用いて要約対象範囲を特定し、
この要約対象範囲の発言内容を要約することを特徴とする請求項7に記載の発言管理システム。
The control means specifies the position of the statement word extracted by the keyword spotting process in the statement content,
Use the position of this statement to identify the summary scope,
The comment management system according to claim 7, wherein the comment contents in the summary target range are summarized.
キーワードに対して関連情報を記録したキーワード記憶手段と、
音声認識された発言内容を記録する発言記憶手段と、
音声入力装置と表示装置とに接続された制御手段とを備えた発言管理システムを用いた発言管理方法であって、
前記制御手段が、
前記音声入力装置において発言者の音声を取得し、音声認識した発言内容を作成して前記発言記憶手段に記録する段階と、
前記発言内容に含まれる発言文言と、前記キーワード記憶手段に記憶されたキーワードとを比較するキーワードスポッティング処理を行なう段階と、
前記発言文言とキーワードとが一致した場合には、前記キーワードに関連付けられた関連情報を前記表示装置に出力する段階と
を実行することを特徴とする発言管理方法。
Keyword storage means for recording relevant information for keywords;
Speech storage means for recording speech-recognized speech content;
A speech management method using a speech management system including a voice input device and a control unit connected to a display device,
The control means is
Acquiring the voice of the speaker in the voice input device, creating the voice-recognized speech content and recording it in the speech storage means;
Performing a keyword spotting process for comparing a statement word included in the statement content with a keyword stored in the keyword storage unit;
And a step of outputting related information associated with the keyword to the display device when the statement word matches the keyword.
キーワードに対して関連情報を記録したキーワード記憶手段と、
音声認識された発言内容を記録する発言記憶手段と、
音声入力装置と表示装置とに接続された制御手段とを備えた発言管理システム発言管理プログラムであって、
前記制御手段を、
前記音声入力装置において発言者の音声を取得し、音声認識した発言内容を作成して前記発言記憶手段に記録する手段、
前記発言内容に含まれる発言文言と、前記キーワード記憶手段に記憶されたキーワードとを比較するキーワードスポッティング処理を行なう手段、
前記発言文言とキーワードとが一致した場合には、前記キーワードに関連付けられた関連情報を前記表示装置に出力する手段
として機能させることを特徴とする発言管理プログラム。
Keyword storage means for recording relevant information for keywords;
Speech storage means for recording speech-recognized speech content;
A speech management system speech management program comprising a voice input device and a control means connected to a display device,
The control means;
Means for acquiring a voice of a speaker in the voice input device, creating a voice-recognized voice content and recording it in the voice storage means;
Means for performing a keyword spotting process for comparing the statement text included in the statement content with the keyword stored in the keyword storage means;
A statement management program that causes a function to output related information associated with a keyword to the display device when the statement word matches a keyword.
JP2011072634A 2011-03-29 2011-03-29 Speech management system, speech management method and speech management program Pending JP2012208630A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011072634A JP2012208630A (en) 2011-03-29 2011-03-29 Speech management system, speech management method and speech management program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011072634A JP2012208630A (en) 2011-03-29 2011-03-29 Speech management system, speech management method and speech management program

Publications (1)

Publication Number Publication Date
JP2012208630A true JP2012208630A (en) 2012-10-25

Family

ID=47188325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011072634A Pending JP2012208630A (en) 2011-03-29 2011-03-29 Speech management system, speech management method and speech management program

Country Status (1)

Country Link
JP (1) JP2012208630A (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012059A (en) * 2011-06-29 2013-01-17 Mizuho Information & Research Institute Inc Material display system, material display method and material display program
JP2014085998A (en) * 2012-10-26 2014-05-12 Univ Of Yamanashi Electronic note creation support device and program for electronic note creation support device
JP2014179010A (en) * 2013-03-15 2014-09-25 Ricoh Co Ltd Minutes creation support device, minutes creation support method, and program
JP2015064826A (en) * 2013-09-26 2015-04-09 日本電信電話株式会社 Emotion retrieval device, method, and program
CN105684406A (en) * 2013-10-31 2016-06-15 阿尔卡特朗讯公司 Method and system for providing access to auxiliary information
JP2017097488A (en) * 2015-11-19 2017-06-01 ヤフー株式会社 Information processing device, information processing method, and information processing program
JP2017161850A (en) * 2016-03-11 2017-09-14 株式会社東芝 Convention support device, convention support method, and convention support program
JP2018170009A (en) * 2015-11-10 2018-11-01 株式会社リコー Electronic conference system
JP2019053566A (en) * 2017-09-15 2019-04-04 シャープ株式会社 Display control device, display control method, and program
JP2019179081A (en) * 2018-03-30 2019-10-17 本田技研工業株式会社 Conference support device, conference support control method, and program
JP2019207695A (en) * 2017-05-19 2019-12-05 アバイア インコーポレーテッド Real-time speech feed to agent greeting
JP2020017088A (en) * 2018-07-25 2020-01-30 株式会社リコー Information processing system, information processing method and program
JP2020067670A (en) * 2018-10-19 2020-04-30 トランプコミュニケーション株式会社 System for remote assessment and transaction work or the like
JP2021056829A (en) * 2019-09-30 2021-04-08 Tis株式会社 Idea making supporting system and control method therefor
JP2021072035A (en) * 2019-11-01 2021-05-06 株式会社日立製作所 Workshop support system and workshop support method
JP6902302B1 (en) * 2020-11-11 2021-07-14 祐次 廣田 AI electronic work system where selfie face videos go to work
US11087767B2 (en) 2018-11-16 2021-08-10 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium
JP2022056591A (en) * 2020-09-30 2022-04-11 本田技研工業株式会社 Conversation support device, conversation support system, conversation support method, and program
JP2022075661A (en) * 2020-10-27 2022-05-18 株式会社I’mbesideyou Information extraction apparatus
WO2022186298A1 (en) * 2021-03-03 2022-09-09 ソフトバンク株式会社 Information processing device, information processing method, and information processing program
WO2022254909A1 (en) * 2021-06-01 2022-12-08 株式会社Nttドコモ Sound recognition device
WO2023248677A1 (en) * 2022-06-22 2023-12-28 株式会社Jvcケンウッド Information display control device and information display method
JP7536789B2 (en) 2019-04-30 2024-08-20 マイクロソフト テクノロジー ライセンシング,エルエルシー Customized output to optimize for user preferences in distributed systems
JP7563786B2 (en) 2021-12-06 2024-10-08 株式会社インタラクティブソリューションズ Explanation support system

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05347666A (en) * 1992-06-15 1993-12-27 Omron Corp Electronic conference system
JPH08147310A (en) * 1994-11-25 1996-06-07 Nippon Telegr & Teleph Corp <Ntt> Request prediction type information providing service device
JPH1125179A (en) * 1997-07-09 1999-01-29 Tec Corp Order data processor
JPH1125099A (en) * 1997-06-27 1999-01-29 Hitachi Ltd Electronic conference system
JP2002288179A (en) * 2001-03-23 2002-10-04 Ricoh Co Ltd Internet conference room service system
JP2003066991A (en) * 2001-08-22 2003-03-05 Seiko Epson Corp Method and apparatus for outputting voice recognition result and recording medium with program for outputting and processing voice recognition result recorded thereon
JP2005341015A (en) * 2004-05-25 2005-12-08 Hitachi Hybrid Network Co Ltd Video conference system with minute creation support function
JP2006079156A (en) * 2004-09-07 2006-03-23 Seiko Epson Corp Display control system, equipment management device, display unit, equipment management program and display control program, and display control method
JP2006106711A (en) * 2004-09-10 2006-04-20 Matsushita Electric Ind Co Ltd Information processing terminal
JP2010128665A (en) * 2008-11-26 2010-06-10 Kyocera Corp Information terminal and conversation assisting program
JP2011053629A (en) * 2009-09-04 2011-03-17 Sharp Corp Conference relay device and computer program

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05347666A (en) * 1992-06-15 1993-12-27 Omron Corp Electronic conference system
JPH08147310A (en) * 1994-11-25 1996-06-07 Nippon Telegr & Teleph Corp <Ntt> Request prediction type information providing service device
JPH1125099A (en) * 1997-06-27 1999-01-29 Hitachi Ltd Electronic conference system
JPH1125179A (en) * 1997-07-09 1999-01-29 Tec Corp Order data processor
JP2002288179A (en) * 2001-03-23 2002-10-04 Ricoh Co Ltd Internet conference room service system
JP2003066991A (en) * 2001-08-22 2003-03-05 Seiko Epson Corp Method and apparatus for outputting voice recognition result and recording medium with program for outputting and processing voice recognition result recorded thereon
JP2005341015A (en) * 2004-05-25 2005-12-08 Hitachi Hybrid Network Co Ltd Video conference system with minute creation support function
JP2006079156A (en) * 2004-09-07 2006-03-23 Seiko Epson Corp Display control system, equipment management device, display unit, equipment management program and display control program, and display control method
JP2006106711A (en) * 2004-09-10 2006-04-20 Matsushita Electric Ind Co Ltd Information processing terminal
JP2010128665A (en) * 2008-11-26 2010-06-10 Kyocera Corp Information terminal and conversation assisting program
JP2011053629A (en) * 2009-09-04 2011-03-17 Sharp Corp Conference relay device and computer program

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012059A (en) * 2011-06-29 2013-01-17 Mizuho Information & Research Institute Inc Material display system, material display method and material display program
JP2014085998A (en) * 2012-10-26 2014-05-12 Univ Of Yamanashi Electronic note creation support device and program for electronic note creation support device
JP2014179010A (en) * 2013-03-15 2014-09-25 Ricoh Co Ltd Minutes creation support device, minutes creation support method, and program
JP2015064826A (en) * 2013-09-26 2015-04-09 日本電信電話株式会社 Emotion retrieval device, method, and program
CN105684406A (en) * 2013-10-31 2016-06-15 阿尔卡特朗讯公司 Method and system for providing access to auxiliary information
JP2017500632A (en) * 2013-10-31 2017-01-05 アルカテル−ルーセント Method and system for providing access to auxiliary information
JP2018170009A (en) * 2015-11-10 2018-11-01 株式会社リコー Electronic conference system
JP2017097488A (en) * 2015-11-19 2017-06-01 ヤフー株式会社 Information processing device, information processing method, and information processing program
JP2017161850A (en) * 2016-03-11 2017-09-14 株式会社東芝 Convention support device, convention support method, and convention support program
JP2019207695A (en) * 2017-05-19 2019-12-05 アバイア インコーポレーテッド Real-time speech feed to agent greeting
JP2019053566A (en) * 2017-09-15 2019-04-04 シャープ株式会社 Display control device, display control method, and program
JP2019179081A (en) * 2018-03-30 2019-10-17 本田技研工業株式会社 Conference support device, conference support control method, and program
JP7180168B2 (en) 2018-07-25 2022-11-30 株式会社リコー Information processing system, information processing method and program
JP2020017088A (en) * 2018-07-25 2020-01-30 株式会社リコー Information processing system, information processing method and program
JP2020067670A (en) * 2018-10-19 2020-04-30 トランプコミュニケーション株式会社 System for remote assessment and transaction work or the like
US11087767B2 (en) 2018-11-16 2021-08-10 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium
JP7536789B2 (en) 2019-04-30 2024-08-20 マイクロソフト テクノロジー ライセンシング,エルエルシー Customized output to optimize for user preferences in distributed systems
JP2021056829A (en) * 2019-09-30 2021-04-08 Tis株式会社 Idea making supporting system and control method therefor
JP7427405B2 (en) 2019-09-30 2024-02-05 Tis株式会社 Idea support system and its control method
JP2021072035A (en) * 2019-11-01 2021-05-06 株式会社日立製作所 Workshop support system and workshop support method
JP7282014B2 (en) 2019-11-01 2023-05-26 株式会社日立製作所 Workshop support system and workshop support method
JP7341111B2 (en) 2020-09-30 2023-09-08 本田技研工業株式会社 Conversation support device, conversation support system, conversation support method and program
JP2022056591A (en) * 2020-09-30 2022-04-11 本田技研工業株式会社 Conversation support device, conversation support system, conversation support method, and program
JP7130290B2 (en) 2020-10-27 2022-09-05 株式会社I’mbesideyou information extractor
JP2022075661A (en) * 2020-10-27 2022-05-18 株式会社I’mbesideyou Information extraction apparatus
JP2022077058A (en) * 2020-11-11 2022-05-23 祐次 廣田 Ai electronic work system for attendance with selfie face moving image
JP6902302B1 (en) * 2020-11-11 2021-07-14 祐次 廣田 AI electronic work system where selfie face videos go to work
WO2022186298A1 (en) * 2021-03-03 2022-09-09 ソフトバンク株式会社 Information processing device, information processing method, and information processing program
JP2022134202A (en) * 2021-03-03 2022-09-15 ソフトバンク株式会社 Information processing device, information processing method, and information processing program
JP7284204B2 (en) 2021-03-03 2023-05-30 ソフトバンク株式会社 Information processing device, information processing method and information processing program
WO2022254909A1 (en) * 2021-06-01 2022-12-08 株式会社Nttドコモ Sound recognition device
JP7563786B2 (en) 2021-12-06 2024-10-08 株式会社インタラクティブソリューションズ Explanation support system
WO2023248677A1 (en) * 2022-06-22 2023-12-28 株式会社Jvcケンウッド Information display control device and information display method

Similar Documents

Publication Publication Date Title
JP2012208630A (en) Speech management system, speech management method and speech management program
US9652113B1 (en) Managing multiple overlapped or missed meetings
CN106612465B (en) Live broadcast interaction method and device
TWI536365B (en) Voice print identification
US10613825B2 (en) Providing electronic text recommendations to a user based on what is discussed during a meeting
US20130144603A1 (en) Enhanced voice conferencing with history
JP6115074B2 (en) Information presentation system, information presentation apparatus, program, and information presentation method
CN104252464B (en) Information processing method and device
JP2008225068A (en) Minutes creation method, its device and its program
CN105957530A (en) Speech control method, device and terminal equipment
JP4215792B2 (en) CONFERENCE SUPPORT DEVICE, CONFERENCE SUPPORT METHOD, AND CONFERENCE SUPPORT PROGRAM
US20100246784A1 (en) Conversation support
JP2008278088A (en) Comment control device about moving image content
CN104050221A (en) Automatic note taking within a virtual meeting
US20230252981A1 (en) Systems and Methods for Identifying and Providing Information about Semantic Entities in Audio Signals
JP6280312B2 (en) Minutes recording device, minutes recording method and program
JP2014220619A (en) Conference information recording system, information processing unit, control method and computer program
US20200021453A1 (en) Increasing audience engagement during presentations by automatic attendee log in, live audience statistics, and presenter evaluation and feedback
CN114009056A (en) Dynamic scalable summaries with adaptive graphical associations between people and content
JP2018128869A (en) Search result display device, search result display method, and program
JP4077656B2 (en) Speaker specific video device
US11481434B1 (en) System and method for contextual data selection from electronic data files
JP2011199522A (en) Telephone conference system, communication server, communication terminal, and telephone conference method
JP2012003704A (en) Faq candidate extraction system and faq candidate extraction program
JPH11203295A (en) Information providing device and its method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130430