[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4829696B2 - Conversation support system - Google Patents

Conversation support system Download PDF

Info

Publication number
JP4829696B2
JP4829696B2 JP2006168797A JP2006168797A JP4829696B2 JP 4829696 B2 JP4829696 B2 JP 4829696B2 JP 2006168797 A JP2006168797 A JP 2006168797A JP 2006168797 A JP2006168797 A JP 2006168797A JP 4829696 B2 JP4829696 B2 JP 4829696B2
Authority
JP
Japan
Prior art keywords
conversation
line
participant
sight
field state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006168797A
Other languages
Japanese (ja)
Other versions
JP2007336445A (en
Inventor
篤信 木村
稔 小林
雅行 井原
義弘 島田
由里子 鈴木
彰 中山
陽子 石井
睦裕 中茂
悠一 吉田
有理佳 片桐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2006168797A priority Critical patent/JP4829696B2/en
Publication of JP2007336445A publication Critical patent/JP2007336445A/en
Application granted granted Critical
Publication of JP4829696B2 publication Critical patent/JP4829696B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、会話支援システムに関する。   The present invention relates to a conversation support system.

会話場において注目を集めて情報を効率的、効果的に伝えるためには、発話者にプレゼンテーションや会話のスキルが必要である。したがって、発話者が十分な会話のスキルを有していない場合には、効果的に情報を伝えることができず、会話の進展を妨げてしまう。   In order to attract attention and convey information efficiently and effectively in a conversation hall, the speaker needs presentation and conversation skills. Therefore, when the speaker does not have sufficient conversation skills, information cannot be effectively transmitted, and the progress of the conversation is hindered.

従来より、遠隔にいる相手との視線を一致させることによって、通話者相互の意思伝達を密にする装置は開発されている(特許文献1参照。)。   2. Description of the Related Art Conventionally, a device has been developed that closely communicates with each other by matching the line of sight with a remote party (see Patent Document 1).

特開平5−219501号公報JP-A-5-219501

会話場にいる参加者との会話を活性化させるためには、会話場の参加者の視線を発話者に向けさせることが有効であるが、特許文献1に開示された技術では、会話場の参加者の注目を集めることや、注目を逸らせることによって、会話場の発言促進、発言抑止を誘発することができない。   In order to activate the conversation with the participant in the conversation area, it is effective to direct the line of sight of the participant in the conversation area to the speaker. However, in the technique disclosed in Patent Document 1, By attracting the attention of participants or diverting attention, it is not possible to induce speech promotion or deterrence in the conversation area.

本発明は、上記実情に鑑みてなされたものであり、会話場の参加者との会話を活性化させるために、参加者の視線を誘導することができる会話支援システムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a conversation support system that can guide a participant's line of sight in order to activate conversation with a participant in a conversation hall. To do.

第1の発明によれば、会話場における複数の各参加者の発話状態を集音装置からの情報に基づいて取得し、各参加者の視線方向を撮像装置からのカメラ画像に基づいて取得し、各参加者の発話状態と視線方向とを含む会話場状態を検出する会話場状態検出手段と、会話場状態と、参加者の視線を誘導したい対象への視線方向を示す推奨視線方向情報とを互いに関連付けて記憶するデータベースと、前記会話場状態検出手段によって検出された会話場状態を条件として、前記データベースを検索することにより、検出された会話場状態に対応する参加者の視線を誘導したい対象への視線方向を示す推奨視線方向情報を算出する推奨視線方向算出手段と、 前記推奨視線方向算出手段によって算出された推奨視線方向情報によって示される視線方向に会話場の参加者の視線が誘導されるように所定の機器を制御する視線方向制御手段と、会話場状態の一部によって定義される会話場状態パラメータと、前記検出された会話場状態の履歴に含まれる情報とが一致することを検出する会話場状態パラメータ一致検出手段と、前記会話場状態パラメータ一致検出手段により一致することが検出された場合に、その一致することが検出された会話場状態に含まれる参加者の視線の方向を評価し、この評価結果に基づいて、参加者の視線方向を推奨視線方向情報として、一致することが検出された会話場状態パラメータと関連付けて前記データベースに格納するデータベース更新手段とを具備する会話支援システム、である。
第2の発明によれば、第1の発明において、前記会話場状態検出手段は、離れた会話場における参加者の発話状態と参加者の視線の方向とを含む会話場状態をネットワークを介して受信することを含むことを特徴とする会話支援システム、である。
第3の発明によれば、第1の発明又は第2の発明において、前記視線方向制御手段は、前記算出された推奨視線方向情報によって示される視線方向に参加者の視線が向くように、参加者の椅子を回転させる手段を具備することを特徴とする会話支援システム、である。
第4の発明によれば、第1の発明又は第2の発明において、前記視線方向制御手段は、前記算出された推奨視線方向情報によって示される視線方向に参加者の視線が向くように、プロジェクタによりスポットライトを当てる、あるいは、矢印の映像を投影することにより、視線を誘導することを特徴とする会話支援システム、である。
第5の発明によれば、第1の発明乃至第3の発明いずれか1つの発明において、複数の参加者を表示する表示手段と、前記推奨視線方向検出手段によって検出された推奨視線方向情報によって示される視線方向の参加者以外の前記表示手段に表示される参加者の画像を暗転する処理とをさらに具備することを特徴とする会話支援システム、である。
According to the first invention, the utterance state of each of the plurality of participants in the conversation area is acquired based on information from the sound collecting device, and the line- of- sight direction of each participant is acquired based on the camera image from the imaging device. , A conversation field state detecting means for detecting a conversation field state including a speech state and a line-of-sight direction of each participant ; And searching for the database on the condition that the conversation field state detected by the conversation field state detecting means and the database are stored in association with each other, to guide the gaze of the participant corresponding to the detected conversation field state A recommended gaze direction calculating means for calculating recommended gaze direction information indicating a gaze direction to the target, and a gaze direction indicated by the recommended gaze direction information calculated by the recommended gaze direction calculation means Gaze direction control means for controlling a predetermined device so that the gaze of the participant in the conversation field is guided to the conversation field, a conversation field state parameter defined by a part of the conversation field state, and the detected conversation field state A conversation field state parameter match detection unit that detects that the information included in the history matches, and a conversation that is detected to match when detected by the conversation field state parameter match detection unit The direction of the line of sight of the participant included in the field state is evaluated, and based on the evaluation result, the line of sight of the participant is used as the recommended line-of-sight direction information and associated with the conversation field state parameter detected to match, A conversation support system comprising database update means for storing in the database .
According to a second invention, in the first invention, the conversation field state detection means is configured to transmit a conversation field state including a participant's speech state and a participant's line-of-sight direction in a remote conversation field via a network. A conversation support system characterized by including receiving.
According to a third invention, in the first invention or the second invention, the gaze direction control means participates so that the gaze direction of the participant is in the gaze direction indicated by the calculated recommended gaze direction information. A conversation support system comprising means for rotating a person's chair.
According to a fourth invention, in the first invention or the second invention, the line-of-sight direction control means is configured so that the participant's line of sight faces the line-of-sight direction indicated by the calculated recommended line-of-sight direction information. A conversation support system characterized by guiding a line of sight by applying a spotlight or projecting an image of an arrow.
According to a fifth invention, in any one of the first to third inventions, the display means for displaying a plurality of participants and the recommended gaze direction information detected by the recommended gaze direction detection means. A conversation support system, further comprising: a process of darkening an image of a participant displayed on the display unit other than the participant in the viewing direction shown.

本発明によれば、会話場の参加者との会話を活性化させるために、参加者の視線を誘導することができる会話支援システムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, in order to activate the conversation with the participant of a conversation place, the conversation assistance system which can guide | inspect a participant's eyes | visual_axis can be provided.

以下、図面を参照して、本発明の実施の形態に係る会話支援システムについて説明する。
図1及び図2は、本発明の実施の形態に係る会話支援システムの利用環境を説明するための図である。
図1は、マイクなどの集音装置及びカメラなどの撮像装置2からなるセンシング部により会話場の状態を検出し、この検出された会話場の状態に基づいて、プロジェクタなどの映像投影装置3により、会話場のテーブル4上に発話者である参加者5−1以外の参加者5−2〜5−4の視線を発話者5−1に向くように誘導する矢印型の推奨視線方向6を表示した場合を説明するための図である。
Hereinafter, a conversation support system according to an embodiment of the present invention will be described with reference to the drawings.
1 and 2 are diagrams for explaining a use environment of a conversation support system according to an embodiment of the present invention.
FIG. 1 shows a state of a conversation field detected by a sensing unit including a sound collection device such as a microphone and an image pickup device 2 such as a camera, and a video projection device 3 such as a projector based on the detected state of the conversation field. The arrow-type recommended line-of-sight direction 6 that guides the line of sight of the participants 5-2 to 5-4 other than the participant 5-1 who is the speaker on the table 4 in the conversation area is directed to the speaker 5-1. It is a figure for demonstrating the case where it displays.

図2は、マイクなどの集音装置及びカメラなどの撮像装置2からなるセンシング部により会話場の状態を検出し、この検出された会話場の状態に基づいて、スポットライトなどの映像投影装置3により、参加者である発話者5−1にスポットライト7をあてることにより、参加者5−1以外の参加者5−2〜5−4の視線を発話者5−1に向くように誘導するものである。   FIG. 2 shows the state of a conversation field detected by a sensing unit including a sound collection device such as a microphone and an imaging device 2 such as a camera, and a video projection device 3 such as a spotlight based on the detected state of the conversation field. Thus, by applying the spotlight 7 to the speaker 5-1 who is a participant, the line of sight of the participants 5-2 to 5-4 other than the participant 5-1 is guided to the speaker 5-1 Is.

図3は、本発明の実施の形態に係る会話支援システムを実現する構成を示す図である。
集音装置1は、例えば、マイクロフォンアレイ、複数台のマイクであり、会話場に取り付けられ、会話場の各参加者の発話を集音する。
撮像装置2は、カメラであり、会話場の各参加者を撮像する。
FIG. 3 is a diagram showing a configuration for realizing the conversation support system according to the embodiment of the present invention.
The sound collection device 1 is, for example, a microphone array and a plurality of microphones, and is attached to a conversation place, and collects speech of each participant in the conversation place.
The imaging device 2 is a camera and images each participant in the conversation hall.

その他のセンシング装置11は、集音装置1及び撮像装置2以外の方法で会話場状態を取得するものである。例えば、温度計、湿度計、騒音計、照度計、震度計、複数のガスセンサを利用した臭気計測装置や、参加者の心理状態を取得する、脈拍計、呼吸数計測装置、発刊計測装置、眼球運動計測装置、各参加者の視線検出装置、脳波検出装置、筋電検出装置、血圧計、血液成分検出装置、歩行或いは着座バランス検出装置である。   The other sensing device 11 acquires the conversation field state by a method other than the sound collection device 1 and the imaging device 2. For example, thermometer, hygrometer, sound level meter, illuminance meter, seismic intensity meter, odor measuring device using multiple gas sensors, and heart rate meter, respiratory rate measuring device, published measuring device, eyeball to acquire the psychological state of participants It is a motion measurement device, a gaze detection device for each participant, an electroencephalogram detection device, a myoelectric detection device, a sphygmomanometer, a blood component detection device, a walking or seating balance detection device.

コンピュータ21は、会話場状態検出部22、推奨視線方向算出部26、規定会話場状態のパラメータ入力部31、規定会話場状態と会話場状態の一致判定部32、会話場状態−推奨視線方向データベース更新部33、会話場状態−推奨視線方向データベース34を具備している。   The computer 21 includes a conversation field state detection unit 22, a recommended gaze direction calculation unit 26, a parameter input unit 31 for a prescribed conversation field state, a match determination unit 32 for the prescribed conversation field state and the conversation field state, a conversation field state-recommended gaze direction database. An update unit 33 and a conversation field state-recommended line-of-sight direction database 34 are provided.

会話場状態検出部22は、集音装置1、撮像装置2、その他の会話場状態検出装置11からの少なくとも1つの情報から、会話場における各参加者の発話状態、参加者の視線方向を含む会話場状態を検出する。
これら集音装置1、撮像装置2、その他の会話場状態検出装置11は、同一の会話場に取り付けられていても良いし、離れた会話場に取り付けられていても良く、これら集音装置1、撮像装置2、その他の会話場状態検出装置11からの情報は、ネットワークを介してコンピュータ21に入力される。
The conversation field state detection unit 22 includes the utterance state of each participant in the conversation field and the gaze direction of the participant from at least one information from the sound collection device 1, the imaging device 2, and other conversation field state detection devices 11. Detect the conversation area state.
The sound collecting device 1, the imaging device 2, and the other conversation field state detection device 11 may be attached to the same conversation place or may be attached to remote conversation places. Information from the imaging device 2 and other conversation field state detection device 11 is input to the computer 21 via the network.

会話場状態検出部22は、具体的には、発話状態検出部23、視線方向検出部24、その他の会話場状態検出部25を有している。
発話状態検出部23は、会話場の参加者の発話状態を検出するものである。例えば、集音装置1からの情報に基づいて、どの参加者が話しているかを常時センシングする。これにより、誰が話し始めたか、話を止めたか、現時点で発話をしている人は誰かなどを検出する。また、撮像装置2からのカメラ映像情報を利用することで、各参加者の口の動きから発話状態をより正確に検出してもよい。
Specifically, the conversation field state detection unit 22 includes an utterance state detection unit 23, a gaze direction detection unit 24, and other conversation field state detection units 25.
The utterance state detection unit 23 detects the utterance state of the participants in the conversation hall. For example, based on information from the sound collection device 1, it is always sensed which participant is speaking. This detects who started speaking, stopped speaking, and who is speaking at the present time. Moreover, the utterance state may be detected more accurately from the movement of each participant's mouth by using the camera video information from the imaging device 2.

視線方向検出部24は、撮像装置2からのカメラ画像により、各参加者の視線方向を、カメラ画像中の各参加者の頭の方向により検出する。カメラ画像内に参加者の「目」の領域が撮影されている場合は、より正確に参加者の視線方向を検出するようにしてもよい。   The line-of-sight direction detection unit 24 detects the line-of-sight direction of each participant from the camera image from the imaging device 2 based on the direction of the head of each participant in the camera image. When the “eye” region of the participant is captured in the camera image, the participant's line-of-sight direction may be detected more accurately.

その他の会話場状態検出部25は、発話状態検出部23によって検出される発話状態や、視線方向検出部24によって検出される参加者の視線方向の会話場状態以外の会話場状態を検出する。
例えば、挙手をすることが規定されている会話場において、発話の権利を推測する場合には、挙手している姿勢を撮像装置2からのカメラ映像により、挙手に伴う”はい”という発話を集音装置1からの音声情報により検出することで発話の権利を推測する挙手状態検出部が設けられる。
The other conversation field state detection unit 25 detects a conversation field state other than the speech state detected by the speech state detection unit 23 and the conversation field state in the gaze direction of the participant detected by the gaze direction detection unit 24.
For example, when guessing the right to speak in a conversation hall where raising hands is regulated, the utterance “Yes” accompanying raising hands is collected from the camera image from the imaging device 2 when the right of raising the hand is estimated. A raised hand state detection unit that estimates the right to speak by detecting voice information from the sound device 1 is provided.

推奨視線方向算出部26は、会話場状態検出部22によって検出された会話場状態を条件に、会話場状態−推奨視線方向データベース34を検索することにより、検出された会話場状態に対応する参加者の視線を誘導したい対象への視線方向を示す推奨視線方向情報を算出する。   The recommended gaze direction calculation unit 26 searches the conversation field state-recommended gaze direction database 34 on the condition of the conversation field state detected by the conversation field state detection unit 22, thereby participating corresponding to the detected conversation field state. The recommended line-of-sight direction information indicating the line-of-sight direction toward the subject to which the person's line of sight is to be guided is calculated.

また、推奨視線方向算出部26は、算出した視線方向を示す推奨視線方向情報に基づいて、会話場の参加者の視線が推奨視線方向に向くように、映像投影装置3や、会話場の参加者が座っている椅子を回転させるための椅子回転装置12を制御する。
参加者の視線を誘導する方法としては、大きく分けると、間接的にユーザの視線を誘導する方法と、直接的にユーザの視線を移動させる方法とがある。前者には、発話者のみプロジェクタによりスポットライトを当てて視覚的に注目させる方法や、矢印の映像を投影することにより注目させる方向に視線を誘導する方法などがある。また、後者には参加者が座っている椅子を回転することで、強制的に注目させる方向に視線を向けさせる方法がある。なお、これらの方法を併用しても良いことはいうまでもない。
Further, the recommended gaze direction calculation unit 26 is based on the recommended gaze direction information indicating the calculated gaze direction, so that the gaze of the participant in the conversation field is directed to the recommended gaze direction. The chair rotation device 12 for rotating the chair on which the person is sitting is controlled.
As a method for guiding a participant's line of sight, there are roughly a method for indirectly guiding the user's line of sight and a method for moving the user's line of sight directly. The former includes a method in which only a speaker is visually focused by applying a spotlight with a projector, and a method in which a line of sight is guided in a direction to be focused by projecting an arrow image. In the latter case, there is a method in which the line of sight is forcibly focused by rotating the chair on which the participant is sitting. Needless to say, these methods may be used in combination.

また、”綱で強制的に椅子を引かれている様子”を椅子の回転駆動と綱エフェクトの動きによって提示して体の方向を強制的に移動させる方法のように、両方を利用してもよい。さらに、プロジェクタによる情報提示に加えて、複数のスピーカによる音像定位を再現することで、より効果的な誘導が可能である。   You can also use both methods, such as a method of forcibly moving the direction of the body by presenting “the chair being forcibly pulled by the leash” by the rotation of the chair and the movement of the leash effect. Good. Furthermore, in addition to information presentation by a projector, more effective guidance is possible by reproducing sound image localization by a plurality of speakers.

規定会話場状態のパラメータ入力部31は、ユーザによって入力される規定の会話場状態の少なくとも一部を示すパラメータを入力するためのインターフェイスである。
規定会話場状態と会話場状態の一致判定部32は、規定会話場状態のパラメータ入力部31によって入力された規定会話場状態のパラメータと、会話場状態検出部21によって検出された会話場状態の履歴に含まれる情報とが一致することを検出する。
The parameter input unit 31 in the prescribed conversation place state is an interface for inputting a parameter indicating at least a part of the prescribed conversation place state input by the user.
The coincidence determination unit 32 between the prescribed conversation place state and the conversation place state includes the parameters of the prescribed conversation place state input by the parameter input unit 31 of the prescribed conversation place state and the conversation place state detected by the conversation place state detection unit 21. It detects that the information contained in the history matches.

会話場状態−推奨視線方向データベース更新部33は、一致することが検出された会話場状態に含まれる参加者の視線を評価する。例えば、視線提示の効果を測定するデータ列によって、当該一致することが検出された会話場状態に含まれる参加者の視線の方向を評価する。   The conversation field state-recommended line-of-sight direction database update unit 33 evaluates the line of sight of the participants included in the conversation field state that is detected to match. For example, the direction of the line of sight of the participant included in the conversation field state where the matching is detected is evaluated by the data string for measuring the effect of the line of sight presentation.

そして、この評価結果に基づいて、参加者の視線方向を推奨視線方向として、一致することが検出された会話場状態パラメータと関連付けて、会話場状態−推奨視線方向データベース34に格納する。例えば、最も評価の高い視線方向を推奨視線方向として、規定会話場状態のパラメータと関連付けて、会話場状態−推奨視線方向データベース34に格納する。   Based on the evaluation result, the participant's line-of-sight direction is set as the recommended line-of-sight direction and is stored in the conversation field state-recommended line-of-sight direction database 34 in association with the conversation field state parameter detected to match. For example, the line-of-sight direction with the highest evaluation is set as the recommended line-of-sight direction, and is stored in the conversation field state-recommended line-of-sight direction database 34 in association with the parameter of the prescribed conversation field state.

次に、本発明の実施の形態に係る会話支援システムの動作について、図4のフローチャートを参照して説明する。
本実施の形態の会話支援システムは、誰かが話し始める状況や、話しているの着目してもらえない状況を検出し、動作する。例えば、ブレインストーミングや会議(発話の順序がある程度守られる)での発言における利用が考えられる。
Next, the operation of the conversation support system according to the embodiment of the present invention will be described with reference to the flowchart of FIG.
The conversation support system according to the present embodiment operates by detecting a situation in which someone starts speaking or a situation in which the user is not focused. For example, it can be used for speech in brainstorming and meetings (the order of utterances is kept to some extent).

会話場状態検出部22により、集音装置1、撮像装置2、その他の会話場状態検出装置11からの少なくとも1つの情報から、会話場における各参加者の発話状態、参加者の視線方向を含む会話場状態を検出する(S1)。
次に、推奨視線方向算出部26は、会話場状態検出部22によって検出された会話場状態を条件に、会話場状態−推奨視線方向データベース34を検索することにより(S2)、検出された会話場状態に対応する参加者の視線を集めたい対象への視線方向を示す推奨視線方向情報を算出する(S3)。
From the at least one information from the sound collecting device 1, the imaging device 2, and the other conversation field state detection device 11, the conversation field state detection unit 22 includes the utterance state of each participant in the conversation field and the gaze direction of the participant. A conversation place state is detected (S1).
Next, the recommended gaze direction calculation unit 26 searches the conversation field state-recommended gaze direction database 34 on the condition of the conversation field state detected by the conversation field state detection unit 22 (S2), thereby detecting the detected conversation. The recommended line-of-sight direction information indicating the line-of-sight direction to the target for which the line-of-sight of the participant corresponding to the field condition is to be collected is calculated (S3).

その後、推奨視線方向算出部26は、検出した視線方向を示す推奨視線方向情報に基づいて、会話場の参加者の視線が推奨視線方向に向くように、映像投影装置3や、会話場の参加者が座っている椅子を回転させるための椅子回転装置12を制御する(S4)。   Thereafter, the recommended gaze direction calculation unit 26, based on the recommended gaze direction information indicating the detected gaze direction, the video projector 3 or the participation of the conversation field so that the gaze of the participant in the conversation field is directed to the recommended gaze direction. The chair rotating device 12 for rotating the chair on which the person is sitting is controlled (S4).

例えば、発話者が一人の場合、当該発話者に注目させるような推奨視線方向情報を算出する。特に、他の参加者の視線が発話者方向を向いていない度合いに応じて、視線方向の制御の強度を変えてもよい。
発話者の衝突に対しては、同時に発話する参加者が検出された場合、そのうち、最も早く発言を開始した発話者を発言者と決定し、当該発言者方向に着目させるような推奨視線方向情報を算出してもよい。
For example, when there is only one speaker, recommended gaze direction information that causes the speaker to be noted is calculated. In particular, the strength of the control of the gaze direction may be changed according to the degree that the gaze of the other participant is not facing the speaker direction.
For a speaker's collision, if participants who speak at the same time are detected, recommended gaze direction information that determines the speaker who started speaking the earliest as the speaker and focuses on the speaker direction May be calculated.

発話することが望まれる人が、発話をためらう場合、当該発話者に注目させるような推奨視線方向情報を算出してもよい。このように、発言権がある発話者を明示することで、当該発話者以外の発話を抑制することができる。
上述の例では、参加者の視線を注目させるように制御する場合について説明したが、注目をそらせることで、発言を抑止させるように制御を行なってもよい。
When a person who desires to speak is hesitant to speak, recommended line-of-sight direction information that causes the speaker to pay attention may be calculated. In this way, by specifying a speaker who has the right to speak, it is possible to suppress utterances other than that speaker.
In the above-described example, the case where control is performed so as to draw attention to the participant's line of sight has been described, but control may be performed so as to suppress speech by diverting attention.

例えば、参加者の一人が発話し続けており、他の参加者の発話が疎外されている状況を検出し、動作する。
具体的には、ブレインストーミングにもかかわらず、発言権が移動しない場合や、他の参加者の発言が一人の参加者によって常にさえぎられる状況での利用が考えられる。このような場合、発話者の連続発話時間が長い場合や、合計発話時間が長い場合を検知して、当該発話者から注目をそらすような推奨視線方向情報を算出する。この場合、全参加者の発言量に占める発言の割合に応じて、視線方向の制御の強度を変更してもよい。
For example, a situation where one of the participants continues to speak and the other participants' utterances are excluded is detected and operated.
Specifically, it can be used in cases where the right to speak does not move despite brainstorming, or where the speech of another participant is always interrupted by one participant. In such a case, a case where the continuous utterance time of the speaker is long or a case where the total utterance time is long is detected, and recommended gaze direction information that diverts attention from the speaker is calculated. In this case, the strength of the control in the line-of-sight direction may be changed according to the ratio of the utterance in the utterance amount of all participants.

上述の実施の形態においては、映像投影装置3及び椅子回転装置12を利用して参加者の視線を誘導する場合について示したが、会話場に参加する複数の参加者を表示するディスプレイを設け、算出された推奨視線方向によって示される視線方向の参加者以外のディスプレイに表示される参加者の画像を暗転する処理を行なうことにより、参加者の視線を誘導するようにしてもよい。   In the above-described embodiment, the case where the visual line of the participant is guided using the video projection device 3 and the chair rotation device 12 is shown, but a display for displaying a plurality of participants participating in the conversation hall is provided, You may make it induce | guide | derive a participant's gaze by performing the process which darkens the image of the participant displayed on displays other than the participant of the gaze direction shown by the calculated recommended gaze direction.

次に、本発明の実施の形態に係る会話支援システムのデータベースの構築方法について、図5のフローチャートを参照して説明する。
規定会話場状態のパラメータ入力部31を介して、規定会話場状態のパラメータが入力されると(S11)、規定会話場状態と会話場状態の一致判定部32は、規定会話場状態のパラメータ入力部31によって入力された規定会話場状態のパラメータと、会話場状態検出部21によって検出された会話場状態の履歴に含まれる情報とが一致するか否かの判断を行ない、一致する場合には、一致することが検出された会話場状態に含まれる参加者の視線を評価する(S13)。一方、一致していない場合には、S11の処理に戻る。
Next, a database construction method for the conversation support system according to the embodiment of the present invention will be described with reference to the flowchart of FIG.
When a parameter for the specified conversation field state is input via the parameter input unit 31 for the specified conversation field state (S11), the match determination unit 32 between the specified conversation field state and the conversation field state inputs the parameter for the specified conversation field state. It is determined whether or not the parameters of the specified conversation field state input by the unit 31 and the information included in the conversation field state history detected by the conversation field state detection unit 21 match. Then, the line of sight of the participant included in the conversation area detected to be matched is evaluated (S13). On the other hand, if they do not match, the process returns to S11.

そして、この評価結果に基づいて、参加者の視線方向を推奨視線方向として、一致することが検出された会話場状態パラメータと関連付けて、会話場状態−推奨視線方向データベース34に格納する(S14)。
規定会話場状態のパラメータとしては、例えば、音声の途切れのない状態(会話場で音声入力が3秒以上である状態)を会話場が盛り上がっている状態のパラメータとして定義する。なお、他の状態に対するパラメータを定義することで、複数の会話場状態に対応する理想的な視線方向のデータベースを構築することが可能となる。
Then, based on the evaluation result, the gaze direction of the participant is set as the recommended gaze direction, and is stored in the conversation field state-recommended gaze direction database 34 in association with the conversation field state parameter detected to match (S14). .
As the parameter of the prescribed conversation place state, for example, a state in which the voice is not interrupted (a state in which the voice input is 3 seconds or longer in the conversation place) is defined as a parameter in a state where the conversation place is excited. Note that, by defining parameters for other states, it is possible to construct an ideal gaze direction database corresponding to a plurality of conversation place states.

例えば、一人の会話場の参加者の発話が連続で続き、かつ、他の参加者の頷きが少ない場合は、聴衆が退屈に感じている状態であると定義し、一人の参加者の発話が連続で続き、かつ、他の参加者全員の頷きの頻度が多い場合は、聴衆がユーザの発話を理解している状態であると定義することができる。すなわち、規定会話場状態のパラメータは、利用する会話の場に応じて、適宜設定することが可能である。   For example, if the conversation of one participant in a conversation hall continues continuously and there is little whisper of other participants, it is defined that the audience feels bored, and the speech of one participant is It can be defined that the audience understands the user's utterance if it continues continuously and the frequency of whispering of all other participants is high. That is, the parameters of the prescribed conversation place state can be set as appropriate according to the place of conversation to be used.

したがって、本発明の実施の形態によれば、会話場状態に応じて、会話場の参加者の視線を誘導することができるので、会話場での参加者との会話を活性化させることができる。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
Therefore, according to the embodiment of the present invention, it is possible to guide the line of sight of the participant in the conversation place according to the state of the conversation place, so that the conversation with the participant in the conversation place can be activated. .
Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

また、実施形態に記載した手法は、計算機(コンピュータ)に実行させることができるプログラム(ソフトウエア手段)として、例えば磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、計算機に実行させるソフトウエア手段(実行プログラムのみならずテーブルやデータ構造も含む)を計算機内に構成させる設定プログラムをも含む。本装置を実現する計算機は、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウエア手段を構築し、このソフトウエア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、計算機内部あるいはネットワークを介して接続される機器に設けられた磁気ディスクや半導体メモリ等の記憶媒体を含むものである。   In addition, the method described in the embodiment is, for example, a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), optical disk (CD-ROM, DVD) as programs (software means) that can be executed by a computer (computer). , MO, etc.), a semiconductor memory (ROM, RAM, flash memory, etc.) or the like, or can be transmitted and distributed via a communication medium. The program stored on the medium side includes a setting program that configures software means (including not only the execution program but also a table and data structure) in the computer. A computer that implements this apparatus reads a program recorded on a recording medium, constructs software means by a setting program as the case may be, and executes the above-described processing by controlling the operation by this software means. The recording medium referred to in this specification is not limited to distribution, but includes a storage medium such as a magnetic disk or a semiconductor memory provided in a computer or a device connected via a network.

本発明の実施の形態に係る会話支援システムの利用環境を説明するための図である。It is a figure for demonstrating the utilization environment of the conversation assistance system which concerns on embodiment of this invention. 本発明の実施の形態に係る会話支援システムの他の利用環境を説明するための図である。It is a figure for demonstrating the other utilization environment of the conversation assistance system which concerns on embodiment of this invention. 本発明の実施の形態に係る会話支援システムを実現する構成を示す図である。It is a figure which shows the structure which implement | achieves the conversation assistance system which concerns on embodiment of this invention. 本発明の実施の形態に係る会話支援システムの動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the conversation assistance system which concerns on embodiment of this invention. 本発明の実施の形態に係る会話支援システムのデータベースの更新方法を説明するためのフローチャートである。It is a flowchart for demonstrating the update method of the database of the conversation assistance system which concerns on embodiment of this invention.

符号の説明Explanation of symbols

22…会話場状態検出部、26…推奨視線方向算出部、31…規定会話場状態のパラメータ入力部、32…規定会話場状態と現会話場状態の一致判定部、33…会話場状態−推奨視線方向データベース更新部。   DESCRIPTION OF SYMBOLS 22 ... Conversation place state detection part, 26 ... Recommended gaze direction calculation part, 31 ... Parameter input part of prescription | regulation conversation place state, 32 ... Match determination part of prescription | regulation conversation place state and present conversation place state, 33 ... Conversation place state-recommended Gaze direction database update unit.

Claims (7)

会話場における複数の各参加者の発話状態を集音装置からの情報に基づいて取得し、各参加者の視線方向を撮像装置からのカメラ画像に基づいて取得し、各参加者の発話状態と視線方向とを含む会話場状態を検出する会話場状態検出手段と、
会話場状態と、参加者の視線を誘導したい対象への視線方向を示す推奨視線方向情報とを互いに関連付けて記憶するデータベースと、
前記会話場状態検出手段によって検出された会話場状態を条件として、前記データベースを検索することにより、検出された会話場状態に対応する参加者の視線を誘導したい対象への視線方向を示す推奨視線方向情報を算出する推奨視線方向算出手段と、
前記推奨視線方向算出手段によって算出された推奨視線方向情報によって示される視線方向に会話場の参加者の視線が誘導されるように所定の機器を制御する視線方向制御手段と
会話場状態の一部によって定義される会話場状態パラメータと、前記検出された会話場状態の履歴に含まれる情報とが一致することを検出する会話場状態パラメータ一致検出手段と、
前記会話場状態パラメータ一致検出手段により一致することが検出された場合に、その一致することが検出された会話場状態に含まれる参加者の視線の方向を評価し、この評価結果に基づいて、参加者の視線方向を推奨視線方向情報として、一致することが検出された会話場状態パラメータと関連付けて前記データベースに格納するデータベース更新手段と
を具備する会話支援システム。
The utterance state of each participant in the conversation area is acquired based on information from the sound collection device , the line- of- sight direction of each participant is acquired based on the camera image from the imaging device, and the utterance state of each participant A conversation field state detection means for detecting a conversation field state including a gaze direction ;
A database that stores the conversation field state and recommended line-of-sight direction information that indicates the line-of-sight direction to the subject to which the participant's line of sight is to be guided,
A recommended line of sight indicating a line-of-sight direction to a target to which a participant's line of sight corresponding to the detected conversation field state is to be guided by searching the database on the condition of the conversation field state detected by the conversation field state detection unit Recommended gaze direction calculation means for calculating direction information;
Gaze direction control means for controlling a predetermined device so that the gaze of the participant in the conversation field is guided in the gaze direction indicated by the recommended gaze direction information calculated by the recommended gaze direction calculation means ;
A conversation field state parameter match detection means for detecting that a conversation field state parameter defined by a part of the conversation field state matches information included in the history of the detected conversation field state;
When matching is detected by the conversation field state parameter match detection means, the direction of the line of sight of the participant included in the conversation field state detected to match is evaluated, and based on the evaluation result, A conversation support system, comprising: database update means for storing in the database in association with a conversation field state parameter that is detected to be coincident with the participant's line-of-sight direction as recommended line-of-sight direction information .
前記会話場状態検出手段は、離れた会話場における参加者の発話状態と参加者の視線の方向とを含む会話場状態をネットワークを介して受信することを含むことを特徴とする請求項1記載の会話支援システム。   2. The conversation field state detection means includes receiving a conversation field state including a speech state of a participant in a remote conversation field and a direction of the line of sight of the participant via a network. Conversation support system. 前記視線方向制御手段は、前記算出された推奨視線方向情報によって示される視線方向に参加者の視線が向くように、参加者の椅子を回転させる手段を具備することを特徴とする請求項1又は請求項2記載の会話支援システム。   The line-of-sight direction control means comprises means for rotating the participant's chair so that the line-of-sight of the participant is directed to the line-of-sight direction indicated by the calculated recommended line-of-sight direction information. The conversation support system according to claim 2. 前記視線方向制御手段は、前記算出された推奨視線方向情報によって示される視線方向に参加者の視線が向くように、プロジェクタによりスポットライトを当てる、あるいは、矢印の映像を投影することにより、視線を誘導することを特徴とする請求項1又は請求項2記載の会話支援システム。  The line-of-sight direction control means directs the line of sight by applying a spotlight with a projector or projecting an image of an arrow so that the line of sight of the participant is directed in the line-of-sight direction indicated by the calculated recommended line-of-sight direction information. 3. The conversation support system according to claim 1, wherein guidance is provided. 複数の参加者を表示する表示手段と、  Display means for displaying a plurality of participants;
前記推奨視線方向検出手段によって検出された推奨視線方向情報によって示される視線方向の参加者以外の前記表示手段に表示される参加者の画像を暗転する処理とをさらに具備することを特徴とする請求項1乃至請求項4いずれか1項に記載の会話支援システム。  And a process of darkening an image of a participant displayed on the display unit other than the participant in the line-of-sight direction indicated by the recommended line-of-sight direction information detected by the recommended line-of-sight direction detecting unit. The conversation support system according to any one of claims 1 to 4.
会話場状態と、参加者の視線を誘導したい対象への視線方向を示す推奨視線方向情報とを互いに関連付けて記憶するデータベースを具備する会話支援システムにおける会話支援方法において、  In a conversation support method in a conversation support system comprising a database that stores a conversation field state and recommended line-of-sight direction information indicating a line-of-sight direction to a subject to which a participant's line of sight is to be guided is stored.
会話場における複数の参加者の発話状態を集音装置からの情報に基づいて取得し、各参加者の視線方向を撮像装置からのカメラ画像に基づいて取得し、各参加者の発話状態と視線方向とを含む会話場状態を検出し、  The utterance state of a plurality of participants in the conversation area is acquired based on information from the sound collector, and the sight line direction of each participant is acquired based on the camera image from the imaging device, and the utterance state and sight line of each participant Detecting the conversation state including the direction,
前記検出された会話場状態を条件として、前記データベースを検索することにより、検出された会話場状態に対応する参加者の視線を誘導したい対象への視線方向を示す推奨視線方向情報を算出し、  By calculating the recommended line-of-sight direction information indicating the line-of-sight direction to the target to be guided to the participant's line of sight corresponding to the detected conversation place state by searching the database on the condition of the detected conversation place state,
前記算出された推奨視線方向情報によって示される視線方向に会話場の参加者の視線が誘導されるように所定の機器を制御し、  Controlling a predetermined device so that the gaze of the participant in the conversation field is guided in the gaze direction indicated by the calculated recommended gaze direction information,
会話場状態の一部によって定義される会話場状態パラメータと、前記検出された会話場状態の履歴に含まれる情報とが一致することを検出し、  Detecting that a conversation field state parameter defined by a part of the conversation field state matches information included in the history of the detected conversation field state;
一致することが検出された場合に、その一致することが検出された会話場状態に含まれる参加者の視線の方向を評価し、この評価結果に基づいて、参加者の視線方向を推奨視線方向情報として、一致することが検出された会話場状態パラメータと関連付けて前記データベースに格納する  When a match is detected, the direction of the gaze of the participant included in the conversation field state where the match is detected is evaluated, and the gaze direction of the participant is determined based on the evaluation result. Information is stored in the database in association with a conversation field state parameter that is detected to match
ことを特徴とする会話支援方法。A conversation support method characterized by that.
会話場状態と、参加者の視線を誘導したい対象への視線方向を示す推奨視線方向情報とを互いに関連付けて記憶するデータベースを具備する会話支援システムにおいて使用される会話支援プログラムにおいて、  In a conversation support program used in a conversation support system including a database that stores a conversation field state and recommended line-of-sight direction information indicating a line-of-sight direction to a subject to which a participant's line of sight is to be guided is stored.
前記会話支援プログラムは、前記会話支援システムに、  The conversation support program includes the conversation support system,
会話場における複数の各参加者の発話状態を集音装置からの情報に基づいて取得し、各参加者の視線の方向を撮像装置からのカメラ画像に基づいて取得し、各参加者の発話状態と視線方向とを含む会話場状態を検出させ、  The utterance state of each participant in the conversation area is acquired based on information from the sound collector, the direction of each participant's line of sight is acquired based on the camera image from the imaging device, and the utterance state of each participant And the conversation field state including the gaze direction
前記検出された会話場状態を条件として、前記データベースを検索することにより、検出された会話場状態に対応する参加者の視線を誘導したい対象への視線方向を示す推奨視線方向情報を算出させ、  By searching the database on the condition of the detected conversation field state, to calculate recommended line-of-sight direction information indicating the line-of-sight direction to the target to be guided to the participant's line of sight corresponding to the detected conversation field state,
前記算出された推奨視線方向情報によって示される視線方向に会話場の参加者の視線が誘導されるように所定の機器を制御させ、  A predetermined device is controlled such that the gaze of the participant in the conversation field is guided in the gaze direction indicated by the calculated recommended gaze direction information;
会話場状態の一部によって定義される会話場状態パラメータと、前記検出された会話場状態の履歴に含まれる情報とが一致することを検出させ、  Detecting that a conversation field state parameter defined by a part of the conversation field state matches information included in the history of the detected conversation field state;
一致することが検出された場合に、その一致することが検出された会話場状態に含まれる参加者の視線の方向を評価し、この評価結果に基づいて、参加者の視線方向を推奨視線方向情報として、一致することが検出された会話場状態パラメータと関連付けて前記データベースに格納させることを特徴とする会話支援プログラム。  When a match is detected, the direction of the gaze of the participant included in the conversation field state where the match is detected is evaluated, and the gaze direction of the participant is determined based on the evaluation result. A conversation support program characterized in that the information is stored in the database in association with a conversation field state parameter detected to match.
JP2006168797A 2006-06-19 2006-06-19 Conversation support system Expired - Fee Related JP4829696B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006168797A JP4829696B2 (en) 2006-06-19 2006-06-19 Conversation support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006168797A JP4829696B2 (en) 2006-06-19 2006-06-19 Conversation support system

Publications (2)

Publication Number Publication Date
JP2007336445A JP2007336445A (en) 2007-12-27
JP4829696B2 true JP4829696B2 (en) 2011-12-07

Family

ID=38935460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006168797A Expired - Fee Related JP4829696B2 (en) 2006-06-19 2006-06-19 Conversation support system

Country Status (1)

Country Link
JP (1) JP4829696B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008139762A (en) * 2006-12-05 2008-06-19 Univ Of Tokyo Presentation support device, method, and program
US9277021B2 (en) * 2009-08-21 2016-03-01 Avaya Inc. Sending a user associated telecommunication address
JP5407069B2 (en) * 2009-11-02 2014-02-05 株式会社国際電気通信基礎技術研究所 Listening dialog system
JP6497185B2 (en) * 2015-04-09 2019-04-10 本田技研工業株式会社 Autonomous mobile device and control method of autonomous mobile device
JP6445473B2 (en) * 2016-01-06 2018-12-26 日本電信電話株式会社 Conversation support system, conversation support apparatus, and conversation support program
JP2019113928A (en) 2017-12-21 2019-07-11 ソニー株式会社 Information processing device, information processing method, and recording medium
US20210390961A1 (en) * 2018-11-01 2021-12-16 Shin Nippon Biomedical Laboratories, Ltd. Conference support system
JP7400531B2 (en) * 2020-02-26 2023-12-19 株式会社リコー Information processing system, information processing device, program, information processing method and room

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3271900B2 (en) * 1996-06-19 2002-04-08 松下電工株式会社 Automatic tracking lighting system
JP2004505560A (en) * 2000-08-01 2004-02-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Aiming the device at the sound source
JP2003244669A (en) * 2002-02-14 2003-08-29 Matsushita Electric Ind Co Ltd Video conference system having sight line detecting function
JP2006100216A (en) * 2004-09-30 2006-04-13 Toshiba Lighting & Technology Corp Lighting system

Also Published As

Publication number Publication date
JP2007336445A (en) 2007-12-27

Similar Documents

Publication Publication Date Title
JP4829696B2 (en) Conversation support system
KR102700934B1 (en) Directing live entertainment using biometric sensor data for detection of neurological state
US12076642B2 (en) Delivery of spectator feedback content to virtual reality environments provided by head mounted display
KR101520524B1 (en) Alzheimers cognitive enabler
JP4241913B2 (en) Training support device
US11417045B2 (en) Dialog-based testing using avatar virtual assistant
TW201820279A (en) System and method for training and monitoring administration of inhaler medication
TW200928553A (en) System and method for dynamically adapting a slide show presentation to an audience behaviour
US10043415B2 (en) System, method and computer program for training for medical examinations involving manipulation of medical tools
JP2019087257A (en) System and method for guiding social interactions
JP6636670B1 (en) Learning system, learning lecture providing method, and program
JP7492294B2 (en) Learning system, learning lecture delivery method, and program
CN103597530A (en) System, method and computer program for training for medical examinations involving body parts with concealed anatomy
JP2007213282A (en) Lecturer support device and lecturer support method
CN112074804B (en) Information processing system, information processing method, and recording medium
US20230236016A1 (en) Computer system, apparatus, and method for an augmented reality hand guidance application for people with visual impairments
US20160111019A1 (en) Method and system for providing feedback of an audio conversation
JP2008046802A (en) Interaction information output device, interaction information output method and program
KR102383793B1 (en) Method, apparatus and system for managing and controlling concentration of user of registered extended reality device
JP7530079B2 (en) Learning system, learning lecture delivery method, and program
JP5768667B2 (en) Non-linguistic information analysis apparatus, non-linguistic information analysis program, and non-linguistic information analysis method
KR101691720B1 (en) System diagnosing adhd using touchscreen
JP7269269B2 (en) Information processing device, information processing method, and information processing program
JP2007050077A (en) Apparatus for observing vibrating body and apparatus and program for observing vocal cord
JP2020042557A (en) Excitement promotion system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110308

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110913

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110916

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140922

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees