JP4829696B2 - Conversation support system - Google Patents
Conversation support system Download PDFInfo
- Publication number
- JP4829696B2 JP4829696B2 JP2006168797A JP2006168797A JP4829696B2 JP 4829696 B2 JP4829696 B2 JP 4829696B2 JP 2006168797 A JP2006168797 A JP 2006168797A JP 2006168797 A JP2006168797 A JP 2006168797A JP 4829696 B2 JP4829696 B2 JP 4829696B2
- Authority
- JP
- Japan
- Prior art keywords
- conversation
- line
- participant
- sight
- field state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Telephonic Communication Services (AREA)
Description
本発明は、会話支援システムに関する。 The present invention relates to a conversation support system.
会話場において注目を集めて情報を効率的、効果的に伝えるためには、発話者にプレゼンテーションや会話のスキルが必要である。したがって、発話者が十分な会話のスキルを有していない場合には、効果的に情報を伝えることができず、会話の進展を妨げてしまう。 In order to attract attention and convey information efficiently and effectively in a conversation hall, the speaker needs presentation and conversation skills. Therefore, when the speaker does not have sufficient conversation skills, information cannot be effectively transmitted, and the progress of the conversation is hindered.
従来より、遠隔にいる相手との視線を一致させることによって、通話者相互の意思伝達を密にする装置は開発されている(特許文献1参照。)。 2. Description of the Related Art Conventionally, a device has been developed that closely communicates with each other by matching the line of sight with a remote party (see Patent Document 1).
会話場にいる参加者との会話を活性化させるためには、会話場の参加者の視線を発話者に向けさせることが有効であるが、特許文献1に開示された技術では、会話場の参加者の注目を集めることや、注目を逸らせることによって、会話場の発言促進、発言抑止を誘発することができない。 In order to activate the conversation with the participant in the conversation area, it is effective to direct the line of sight of the participant in the conversation area to the speaker. However, in the technique disclosed in Patent Document 1, By attracting the attention of participants or diverting attention, it is not possible to induce speech promotion or deterrence in the conversation area.
本発明は、上記実情に鑑みてなされたものであり、会話場の参加者との会話を活性化させるために、参加者の視線を誘導することができる会話支援システムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object thereof is to provide a conversation support system that can guide a participant's line of sight in order to activate conversation with a participant in a conversation hall. To do.
第1の発明によれば、会話場における複数の各参加者の発話状態を集音装置からの情報に基づいて取得し、各参加者の視線方向を撮像装置からのカメラ画像に基づいて取得し、各参加者の発話状態と視線方向とを含む会話場状態を検出する会話場状態検出手段と、会話場状態と、参加者の視線を誘導したい対象への視線方向を示す推奨視線方向情報とを互いに関連付けて記憶するデータベースと、前記会話場状態検出手段によって検出された会話場状態を条件として、前記データベースを検索することにより、検出された会話場状態に対応する参加者の視線を誘導したい対象への視線方向を示す推奨視線方向情報を算出する推奨視線方向算出手段と、 前記推奨視線方向算出手段によって算出された推奨視線方向情報によって示される視線方向に会話場の参加者の視線が誘導されるように所定の機器を制御する視線方向制御手段と、会話場状態の一部によって定義される会話場状態パラメータと、前記検出された会話場状態の履歴に含まれる情報とが一致することを検出する会話場状態パラメータ一致検出手段と、前記会話場状態パラメータ一致検出手段により一致することが検出された場合に、その一致することが検出された会話場状態に含まれる参加者の視線の方向を評価し、この評価結果に基づいて、参加者の視線方向を推奨視線方向情報として、一致することが検出された会話場状態パラメータと関連付けて前記データベースに格納するデータベース更新手段とを具備する会話支援システム、である。
第2の発明によれば、第1の発明において、前記会話場状態検出手段は、離れた会話場における参加者の発話状態と参加者の視線の方向とを含む会話場状態をネットワークを介して受信することを含むことを特徴とする会話支援システム、である。
第3の発明によれば、第1の発明又は第2の発明において、前記視線方向制御手段は、前記算出された推奨視線方向情報によって示される視線方向に参加者の視線が向くように、参加者の椅子を回転させる手段を具備することを特徴とする会話支援システム、である。
第4の発明によれば、第1の発明又は第2の発明において、前記視線方向制御手段は、前記算出された推奨視線方向情報によって示される視線方向に参加者の視線が向くように、プロジェクタによりスポットライトを当てる、あるいは、矢印の映像を投影することにより、視線を誘導することを特徴とする会話支援システム、である。
第5の発明によれば、第1の発明乃至第3の発明いずれか1つの発明において、複数の参加者を表示する表示手段と、前記推奨視線方向検出手段によって検出された推奨視線方向情報によって示される視線方向の参加者以外の前記表示手段に表示される参加者の画像を暗転する処理とをさらに具備することを特徴とする会話支援システム、である。
According to the first invention, the utterance state of each of the plurality of participants in the conversation area is acquired based on information from the sound collecting device, and the line- of- sight direction of each participant is acquired based on the camera image from the imaging device. , A conversation field state detecting means for detecting a conversation field state including a speech state and a line-of-sight direction of each participant ; And searching for the database on the condition that the conversation field state detected by the conversation field state detecting means and the database are stored in association with each other, to guide the gaze of the participant corresponding to the detected conversation field state A recommended gaze direction calculating means for calculating recommended gaze direction information indicating a gaze direction to the target, and a gaze direction indicated by the recommended gaze direction information calculated by the recommended gaze direction calculation means Gaze direction control means for controlling a predetermined device so that the gaze of the participant in the conversation field is guided to the conversation field, a conversation field state parameter defined by a part of the conversation field state, and the detected conversation field state A conversation field state parameter match detection unit that detects that the information included in the history matches, and a conversation that is detected to match when detected by the conversation field state parameter match detection unit The direction of the line of sight of the participant included in the field state is evaluated, and based on the evaluation result, the line of sight of the participant is used as the recommended line-of-sight direction information and associated with the conversation field state parameter detected to match, A conversation support system comprising database update means for storing in the database .
According to a second invention, in the first invention, the conversation field state detection means is configured to transmit a conversation field state including a participant's speech state and a participant's line-of-sight direction in a remote conversation field via a network. A conversation support system characterized by including receiving.
According to a third invention, in the first invention or the second invention, the gaze direction control means participates so that the gaze direction of the participant is in the gaze direction indicated by the calculated recommended gaze direction information. A conversation support system comprising means for rotating a person's chair.
According to a fourth invention, in the first invention or the second invention, the line-of-sight direction control means is configured so that the participant's line of sight faces the line-of-sight direction indicated by the calculated recommended line-of-sight direction information. A conversation support system characterized by guiding a line of sight by applying a spotlight or projecting an image of an arrow.
According to a fifth invention, in any one of the first to third inventions, the display means for displaying a plurality of participants and the recommended gaze direction information detected by the recommended gaze direction detection means. A conversation support system, further comprising: a process of darkening an image of a participant displayed on the display unit other than the participant in the viewing direction shown.
本発明によれば、会話場の参加者との会話を活性化させるために、参加者の視線を誘導することができる会話支援システムを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, in order to activate the conversation with the participant of a conversation place, the conversation assistance system which can guide | inspect a participant's eyes | visual_axis can be provided.
以下、図面を参照して、本発明の実施の形態に係る会話支援システムについて説明する。
図1及び図2は、本発明の実施の形態に係る会話支援システムの利用環境を説明するための図である。
図1は、マイクなどの集音装置及びカメラなどの撮像装置2からなるセンシング部により会話場の状態を検出し、この検出された会話場の状態に基づいて、プロジェクタなどの映像投影装置3により、会話場のテーブル4上に発話者である参加者5−1以外の参加者5−2〜5−4の視線を発話者5−1に向くように誘導する矢印型の推奨視線方向6を表示した場合を説明するための図である。
Hereinafter, a conversation support system according to an embodiment of the present invention will be described with reference to the drawings.
1 and 2 are diagrams for explaining a use environment of a conversation support system according to an embodiment of the present invention.
FIG. 1 shows a state of a conversation field detected by a sensing unit including a sound collection device such as a microphone and an
図2は、マイクなどの集音装置及びカメラなどの撮像装置2からなるセンシング部により会話場の状態を検出し、この検出された会話場の状態に基づいて、スポットライトなどの映像投影装置3により、参加者である発話者5−1にスポットライト7をあてることにより、参加者5−1以外の参加者5−2〜5−4の視線を発話者5−1に向くように誘導するものである。
FIG. 2 shows the state of a conversation field detected by a sensing unit including a sound collection device such as a microphone and an
図3は、本発明の実施の形態に係る会話支援システムを実現する構成を示す図である。
集音装置1は、例えば、マイクロフォンアレイ、複数台のマイクであり、会話場に取り付けられ、会話場の各参加者の発話を集音する。
撮像装置2は、カメラであり、会話場の各参加者を撮像する。
FIG. 3 is a diagram showing a configuration for realizing the conversation support system according to the embodiment of the present invention.
The sound collection device 1 is, for example, a microphone array and a plurality of microphones, and is attached to a conversation place, and collects speech of each participant in the conversation place.
The
その他のセンシング装置11は、集音装置1及び撮像装置2以外の方法で会話場状態を取得するものである。例えば、温度計、湿度計、騒音計、照度計、震度計、複数のガスセンサを利用した臭気計測装置や、参加者の心理状態を取得する、脈拍計、呼吸数計測装置、発刊計測装置、眼球運動計測装置、各参加者の視線検出装置、脳波検出装置、筋電検出装置、血圧計、血液成分検出装置、歩行或いは着座バランス検出装置である。
The
コンピュータ21は、会話場状態検出部22、推奨視線方向算出部26、規定会話場状態のパラメータ入力部31、規定会話場状態と会話場状態の一致判定部32、会話場状態−推奨視線方向データベース更新部33、会話場状態−推奨視線方向データベース34を具備している。
The computer 21 includes a conversation field
会話場状態検出部22は、集音装置1、撮像装置2、その他の会話場状態検出装置11からの少なくとも1つの情報から、会話場における各参加者の発話状態、参加者の視線方向を含む会話場状態を検出する。
これら集音装置1、撮像装置2、その他の会話場状態検出装置11は、同一の会話場に取り付けられていても良いし、離れた会話場に取り付けられていても良く、これら集音装置1、撮像装置2、その他の会話場状態検出装置11からの情報は、ネットワークを介してコンピュータ21に入力される。
The conversation field
The sound collecting device 1, the
会話場状態検出部22は、具体的には、発話状態検出部23、視線方向検出部24、その他の会話場状態検出部25を有している。
発話状態検出部23は、会話場の参加者の発話状態を検出するものである。例えば、集音装置1からの情報に基づいて、どの参加者が話しているかを常時センシングする。これにより、誰が話し始めたか、話を止めたか、現時点で発話をしている人は誰かなどを検出する。また、撮像装置2からのカメラ映像情報を利用することで、各参加者の口の動きから発話状態をより正確に検出してもよい。
Specifically, the conversation field
The utterance
視線方向検出部24は、撮像装置2からのカメラ画像により、各参加者の視線方向を、カメラ画像中の各参加者の頭の方向により検出する。カメラ画像内に参加者の「目」の領域が撮影されている場合は、より正確に参加者の視線方向を検出するようにしてもよい。
The line-of-sight
その他の会話場状態検出部25は、発話状態検出部23によって検出される発話状態や、視線方向検出部24によって検出される参加者の視線方向の会話場状態以外の会話場状態を検出する。
例えば、挙手をすることが規定されている会話場において、発話の権利を推測する場合には、挙手している姿勢を撮像装置2からのカメラ映像により、挙手に伴う”はい”という発話を集音装置1からの音声情報により検出することで発話の権利を推測する挙手状態検出部が設けられる。
The other conversation field state detection unit 25 detects a conversation field state other than the speech state detected by the speech
For example, when guessing the right to speak in a conversation hall where raising hands is regulated, the utterance “Yes” accompanying raising hands is collected from the camera image from the
推奨視線方向算出部26は、会話場状態検出部22によって検出された会話場状態を条件に、会話場状態−推奨視線方向データベース34を検索することにより、検出された会話場状態に対応する参加者の視線を誘導したい対象への視線方向を示す推奨視線方向情報を算出する。
The recommended gaze
また、推奨視線方向算出部26は、算出した視線方向を示す推奨視線方向情報に基づいて、会話場の参加者の視線が推奨視線方向に向くように、映像投影装置3や、会話場の参加者が座っている椅子を回転させるための椅子回転装置12を制御する。
参加者の視線を誘導する方法としては、大きく分けると、間接的にユーザの視線を誘導する方法と、直接的にユーザの視線を移動させる方法とがある。前者には、発話者のみプロジェクタによりスポットライトを当てて視覚的に注目させる方法や、矢印の映像を投影することにより注目させる方向に視線を誘導する方法などがある。また、後者には参加者が座っている椅子を回転することで、強制的に注目させる方向に視線を向けさせる方法がある。なお、これらの方法を併用しても良いことはいうまでもない。
Further, the recommended gaze
As a method for guiding a participant's line of sight, there are roughly a method for indirectly guiding the user's line of sight and a method for moving the user's line of sight directly. The former includes a method in which only a speaker is visually focused by applying a spotlight with a projector, and a method in which a line of sight is guided in a direction to be focused by projecting an arrow image. In the latter case, there is a method in which the line of sight is forcibly focused by rotating the chair on which the participant is sitting. Needless to say, these methods may be used in combination.
また、”綱で強制的に椅子を引かれている様子”を椅子の回転駆動と綱エフェクトの動きによって提示して体の方向を強制的に移動させる方法のように、両方を利用してもよい。さらに、プロジェクタによる情報提示に加えて、複数のスピーカによる音像定位を再現することで、より効果的な誘導が可能である。 You can also use both methods, such as a method of forcibly moving the direction of the body by presenting “the chair being forcibly pulled by the leash” by the rotation of the chair and the movement of the leash effect. Good. Furthermore, in addition to information presentation by a projector, more effective guidance is possible by reproducing sound image localization by a plurality of speakers.
規定会話場状態のパラメータ入力部31は、ユーザによって入力される規定の会話場状態の少なくとも一部を示すパラメータを入力するためのインターフェイスである。
規定会話場状態と会話場状態の一致判定部32は、規定会話場状態のパラメータ入力部31によって入力された規定会話場状態のパラメータと、会話場状態検出部21によって検出された会話場状態の履歴に含まれる情報とが一致することを検出する。
The
The
会話場状態−推奨視線方向データベース更新部33は、一致することが検出された会話場状態に含まれる参加者の視線を評価する。例えば、視線提示の効果を測定するデータ列によって、当該一致することが検出された会話場状態に含まれる参加者の視線の方向を評価する。
The conversation field state-recommended line-of-sight direction
そして、この評価結果に基づいて、参加者の視線方向を推奨視線方向として、一致することが検出された会話場状態パラメータと関連付けて、会話場状態−推奨視線方向データベース34に格納する。例えば、最も評価の高い視線方向を推奨視線方向として、規定会話場状態のパラメータと関連付けて、会話場状態−推奨視線方向データベース34に格納する。
Based on the evaluation result, the participant's line-of-sight direction is set as the recommended line-of-sight direction and is stored in the conversation field state-recommended line-of-
次に、本発明の実施の形態に係る会話支援システムの動作について、図4のフローチャートを参照して説明する。
本実施の形態の会話支援システムは、誰かが話し始める状況や、話しているの着目してもらえない状況を検出し、動作する。例えば、ブレインストーミングや会議(発話の順序がある程度守られる)での発言における利用が考えられる。
Next, the operation of the conversation support system according to the embodiment of the present invention will be described with reference to the flowchart of FIG.
The conversation support system according to the present embodiment operates by detecting a situation in which someone starts speaking or a situation in which the user is not focused. For example, it can be used for speech in brainstorming and meetings (the order of utterances is kept to some extent).
会話場状態検出部22により、集音装置1、撮像装置2、その他の会話場状態検出装置11からの少なくとも1つの情報から、会話場における各参加者の発話状態、参加者の視線方向を含む会話場状態を検出する(S1)。
次に、推奨視線方向算出部26は、会話場状態検出部22によって検出された会話場状態を条件に、会話場状態−推奨視線方向データベース34を検索することにより(S2)、検出された会話場状態に対応する参加者の視線を集めたい対象への視線方向を示す推奨視線方向情報を算出する(S3)。
From the at least one information from the sound collecting device 1, the
Next, the recommended gaze
その後、推奨視線方向算出部26は、検出した視線方向を示す推奨視線方向情報に基づいて、会話場の参加者の視線が推奨視線方向に向くように、映像投影装置3や、会話場の参加者が座っている椅子を回転させるための椅子回転装置12を制御する(S4)。
Thereafter, the recommended gaze
例えば、発話者が一人の場合、当該発話者に注目させるような推奨視線方向情報を算出する。特に、他の参加者の視線が発話者方向を向いていない度合いに応じて、視線方向の制御の強度を変えてもよい。
発話者の衝突に対しては、同時に発話する参加者が検出された場合、そのうち、最も早く発言を開始した発話者を発言者と決定し、当該発言者方向に着目させるような推奨視線方向情報を算出してもよい。
For example, when there is only one speaker, recommended gaze direction information that causes the speaker to be noted is calculated. In particular, the strength of the control of the gaze direction may be changed according to the degree that the gaze of the other participant is not facing the speaker direction.
For a speaker's collision, if participants who speak at the same time are detected, recommended gaze direction information that determines the speaker who started speaking the earliest as the speaker and focuses on the speaker direction May be calculated.
発話することが望まれる人が、発話をためらう場合、当該発話者に注目させるような推奨視線方向情報を算出してもよい。このように、発言権がある発話者を明示することで、当該発話者以外の発話を抑制することができる。
上述の例では、参加者の視線を注目させるように制御する場合について説明したが、注目をそらせることで、発言を抑止させるように制御を行なってもよい。
When a person who desires to speak is hesitant to speak, recommended line-of-sight direction information that causes the speaker to pay attention may be calculated. In this way, by specifying a speaker who has the right to speak, it is possible to suppress utterances other than that speaker.
In the above-described example, the case where control is performed so as to draw attention to the participant's line of sight has been described, but control may be performed so as to suppress speech by diverting attention.
例えば、参加者の一人が発話し続けており、他の参加者の発話が疎外されている状況を検出し、動作する。
具体的には、ブレインストーミングにもかかわらず、発言権が移動しない場合や、他の参加者の発言が一人の参加者によって常にさえぎられる状況での利用が考えられる。このような場合、発話者の連続発話時間が長い場合や、合計発話時間が長い場合を検知して、当該発話者から注目をそらすような推奨視線方向情報を算出する。この場合、全参加者の発言量に占める発言の割合に応じて、視線方向の制御の強度を変更してもよい。
For example, a situation where one of the participants continues to speak and the other participants' utterances are excluded is detected and operated.
Specifically, it can be used in cases where the right to speak does not move despite brainstorming, or where the speech of another participant is always interrupted by one participant. In such a case, a case where the continuous utterance time of the speaker is long or a case where the total utterance time is long is detected, and recommended gaze direction information that diverts attention from the speaker is calculated. In this case, the strength of the control in the line-of-sight direction may be changed according to the ratio of the utterance in the utterance amount of all participants.
上述の実施の形態においては、映像投影装置3及び椅子回転装置12を利用して参加者の視線を誘導する場合について示したが、会話場に参加する複数の参加者を表示するディスプレイを設け、算出された推奨視線方向によって示される視線方向の参加者以外のディスプレイに表示される参加者の画像を暗転する処理を行なうことにより、参加者の視線を誘導するようにしてもよい。
In the above-described embodiment, the case where the visual line of the participant is guided using the
次に、本発明の実施の形態に係る会話支援システムのデータベースの構築方法について、図5のフローチャートを参照して説明する。
規定会話場状態のパラメータ入力部31を介して、規定会話場状態のパラメータが入力されると(S11)、規定会話場状態と会話場状態の一致判定部32は、規定会話場状態のパラメータ入力部31によって入力された規定会話場状態のパラメータと、会話場状態検出部21によって検出された会話場状態の履歴に含まれる情報とが一致するか否かの判断を行ない、一致する場合には、一致することが検出された会話場状態に含まれる参加者の視線を評価する(S13)。一方、一致していない場合には、S11の処理に戻る。
Next, a database construction method for the conversation support system according to the embodiment of the present invention will be described with reference to the flowchart of FIG.
When a parameter for the specified conversation field state is input via the
そして、この評価結果に基づいて、参加者の視線方向を推奨視線方向として、一致することが検出された会話場状態パラメータと関連付けて、会話場状態−推奨視線方向データベース34に格納する(S14)。
規定会話場状態のパラメータとしては、例えば、音声の途切れのない状態(会話場で音声入力が3秒以上である状態)を会話場が盛り上がっている状態のパラメータとして定義する。なお、他の状態に対するパラメータを定義することで、複数の会話場状態に対応する理想的な視線方向のデータベースを構築することが可能となる。
Then, based on the evaluation result, the gaze direction of the participant is set as the recommended gaze direction, and is stored in the conversation field state-recommended
As the parameter of the prescribed conversation place state, for example, a state in which the voice is not interrupted (a state in which the voice input is 3 seconds or longer in the conversation place) is defined as a parameter in a state where the conversation place is excited. Note that, by defining parameters for other states, it is possible to construct an ideal gaze direction database corresponding to a plurality of conversation place states.
例えば、一人の会話場の参加者の発話が連続で続き、かつ、他の参加者の頷きが少ない場合は、聴衆が退屈に感じている状態であると定義し、一人の参加者の発話が連続で続き、かつ、他の参加者全員の頷きの頻度が多い場合は、聴衆がユーザの発話を理解している状態であると定義することができる。すなわち、規定会話場状態のパラメータは、利用する会話の場に応じて、適宜設定することが可能である。 For example, if the conversation of one participant in a conversation hall continues continuously and there is little whisper of other participants, it is defined that the audience feels bored, and the speech of one participant is It can be defined that the audience understands the user's utterance if it continues continuously and the frequency of whispering of all other participants is high. That is, the parameters of the prescribed conversation place state can be set as appropriate according to the place of conversation to be used.
したがって、本発明の実施の形態によれば、会話場状態に応じて、会話場の参加者の視線を誘導することができるので、会話場での参加者との会話を活性化させることができる。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
Therefore, according to the embodiment of the present invention, it is possible to guide the line of sight of the participant in the conversation place according to the state of the conversation place, so that the conversation with the participant in the conversation place can be activated. .
Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
また、実施形態に記載した手法は、計算機(コンピュータ)に実行させることができるプログラム(ソフトウエア手段)として、例えば磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、計算機に実行させるソフトウエア手段(実行プログラムのみならずテーブルやデータ構造も含む)を計算機内に構成させる設定プログラムをも含む。本装置を実現する計算機は、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウエア手段を構築し、このソフトウエア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、計算機内部あるいはネットワークを介して接続される機器に設けられた磁気ディスクや半導体メモリ等の記憶媒体を含むものである。 In addition, the method described in the embodiment is, for example, a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), optical disk (CD-ROM, DVD) as programs (software means) that can be executed by a computer (computer). , MO, etc.), a semiconductor memory (ROM, RAM, flash memory, etc.) or the like, or can be transmitted and distributed via a communication medium. The program stored on the medium side includes a setting program that configures software means (including not only the execution program but also a table and data structure) in the computer. A computer that implements this apparatus reads a program recorded on a recording medium, constructs software means by a setting program as the case may be, and executes the above-described processing by controlling the operation by this software means. The recording medium referred to in this specification is not limited to distribution, but includes a storage medium such as a magnetic disk or a semiconductor memory provided in a computer or a device connected via a network.
22…会話場状態検出部、26…推奨視線方向算出部、31…規定会話場状態のパラメータ入力部、32…規定会話場状態と現会話場状態の一致判定部、33…会話場状態−推奨視線方向データベース更新部。
DESCRIPTION OF
Claims (7)
会話場状態と、参加者の視線を誘導したい対象への視線方向を示す推奨視線方向情報とを互いに関連付けて記憶するデータベースと、
前記会話場状態検出手段によって検出された会話場状態を条件として、前記データベースを検索することにより、検出された会話場状態に対応する参加者の視線を誘導したい対象への視線方向を示す推奨視線方向情報を算出する推奨視線方向算出手段と、
前記推奨視線方向算出手段によって算出された推奨視線方向情報によって示される視線方向に会話場の参加者の視線が誘導されるように所定の機器を制御する視線方向制御手段と、
会話場状態の一部によって定義される会話場状態パラメータと、前記検出された会話場状態の履歴に含まれる情報とが一致することを検出する会話場状態パラメータ一致検出手段と、
前記会話場状態パラメータ一致検出手段により一致することが検出された場合に、その一致することが検出された会話場状態に含まれる参加者の視線の方向を評価し、この評価結果に基づいて、参加者の視線方向を推奨視線方向情報として、一致することが検出された会話場状態パラメータと関連付けて前記データベースに格納するデータベース更新手段と
を具備する会話支援システム。 The utterance state of each participant in the conversation area is acquired based on information from the sound collection device , the line- of- sight direction of each participant is acquired based on the camera image from the imaging device, and the utterance state of each participant A conversation field state detection means for detecting a conversation field state including a gaze direction ;
A database that stores the conversation field state and recommended line-of-sight direction information that indicates the line-of-sight direction to the subject to which the participant's line of sight is to be guided,
A recommended line of sight indicating a line-of-sight direction to a target to which a participant's line of sight corresponding to the detected conversation field state is to be guided by searching the database on the condition of the conversation field state detected by the conversation field state detection unit Recommended gaze direction calculation means for calculating direction information;
Gaze direction control means for controlling a predetermined device so that the gaze of the participant in the conversation field is guided in the gaze direction indicated by the recommended gaze direction information calculated by the recommended gaze direction calculation means ;
A conversation field state parameter match detection means for detecting that a conversation field state parameter defined by a part of the conversation field state matches information included in the history of the detected conversation field state;
When matching is detected by the conversation field state parameter match detection means, the direction of the line of sight of the participant included in the conversation field state detected to match is evaluated, and based on the evaluation result, A conversation support system, comprising: database update means for storing in the database in association with a conversation field state parameter that is detected to be coincident with the participant's line-of-sight direction as recommended line-of-sight direction information .
前記推奨視線方向検出手段によって検出された推奨視線方向情報によって示される視線方向の参加者以外の前記表示手段に表示される参加者の画像を暗転する処理とをさらに具備することを特徴とする請求項1乃至請求項4いずれか1項に記載の会話支援システム。 And a process of darkening an image of a participant displayed on the display unit other than the participant in the line-of-sight direction indicated by the recommended line-of-sight direction information detected by the recommended line-of-sight direction detecting unit. The conversation support system according to any one of claims 1 to 4.
会話場における複数の参加者の発話状態を集音装置からの情報に基づいて取得し、各参加者の視線方向を撮像装置からのカメラ画像に基づいて取得し、各参加者の発話状態と視線方向とを含む会話場状態を検出し、 The utterance state of a plurality of participants in the conversation area is acquired based on information from the sound collector, and the sight line direction of each participant is acquired based on the camera image from the imaging device, and the utterance state and sight line of each participant Detecting the conversation state including the direction,
前記検出された会話場状態を条件として、前記データベースを検索することにより、検出された会話場状態に対応する参加者の視線を誘導したい対象への視線方向を示す推奨視線方向情報を算出し、 By calculating the recommended line-of-sight direction information indicating the line-of-sight direction to the target to be guided to the participant's line of sight corresponding to the detected conversation place state by searching the database on the condition of the detected conversation place state,
前記算出された推奨視線方向情報によって示される視線方向に会話場の参加者の視線が誘導されるように所定の機器を制御し、 Controlling a predetermined device so that the gaze of the participant in the conversation field is guided in the gaze direction indicated by the calculated recommended gaze direction information,
会話場状態の一部によって定義される会話場状態パラメータと、前記検出された会話場状態の履歴に含まれる情報とが一致することを検出し、 Detecting that a conversation field state parameter defined by a part of the conversation field state matches information included in the history of the detected conversation field state;
一致することが検出された場合に、その一致することが検出された会話場状態に含まれる参加者の視線の方向を評価し、この評価結果に基づいて、参加者の視線方向を推奨視線方向情報として、一致することが検出された会話場状態パラメータと関連付けて前記データベースに格納する When a match is detected, the direction of the gaze of the participant included in the conversation field state where the match is detected is evaluated, and the gaze direction of the participant is determined based on the evaluation result. Information is stored in the database in association with a conversation field state parameter that is detected to match
ことを特徴とする会話支援方法。A conversation support method characterized by that.
前記会話支援プログラムは、前記会話支援システムに、 The conversation support program includes the conversation support system,
会話場における複数の各参加者の発話状態を集音装置からの情報に基づいて取得し、各参加者の視線の方向を撮像装置からのカメラ画像に基づいて取得し、各参加者の発話状態と視線方向とを含む会話場状態を検出させ、 The utterance state of each participant in the conversation area is acquired based on information from the sound collector, the direction of each participant's line of sight is acquired based on the camera image from the imaging device, and the utterance state of each participant And the conversation field state including the gaze direction
前記検出された会話場状態を条件として、前記データベースを検索することにより、検出された会話場状態に対応する参加者の視線を誘導したい対象への視線方向を示す推奨視線方向情報を算出させ、 By searching the database on the condition of the detected conversation field state, to calculate recommended line-of-sight direction information indicating the line-of-sight direction to the target to be guided to the participant's line of sight corresponding to the detected conversation field state,
前記算出された推奨視線方向情報によって示される視線方向に会話場の参加者の視線が誘導されるように所定の機器を制御させ、 A predetermined device is controlled such that the gaze of the participant in the conversation field is guided in the gaze direction indicated by the calculated recommended gaze direction information;
会話場状態の一部によって定義される会話場状態パラメータと、前記検出された会話場状態の履歴に含まれる情報とが一致することを検出させ、 Detecting that a conversation field state parameter defined by a part of the conversation field state matches information included in the history of the detected conversation field state;
一致することが検出された場合に、その一致することが検出された会話場状態に含まれる参加者の視線の方向を評価し、この評価結果に基づいて、参加者の視線方向を推奨視線方向情報として、一致することが検出された会話場状態パラメータと関連付けて前記データベースに格納させることを特徴とする会話支援プログラム。 When a match is detected, the direction of the gaze of the participant included in the conversation field state where the match is detected is evaluated, and the gaze direction of the participant is determined based on the evaluation result. A conversation support program characterized in that the information is stored in the database in association with a conversation field state parameter detected to match.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006168797A JP4829696B2 (en) | 2006-06-19 | 2006-06-19 | Conversation support system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006168797A JP4829696B2 (en) | 2006-06-19 | 2006-06-19 | Conversation support system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007336445A JP2007336445A (en) | 2007-12-27 |
JP4829696B2 true JP4829696B2 (en) | 2011-12-07 |
Family
ID=38935460
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006168797A Expired - Fee Related JP4829696B2 (en) | 2006-06-19 | 2006-06-19 | Conversation support system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4829696B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008139762A (en) * | 2006-12-05 | 2008-06-19 | Univ Of Tokyo | Presentation support device, method, and program |
US9277021B2 (en) * | 2009-08-21 | 2016-03-01 | Avaya Inc. | Sending a user associated telecommunication address |
JP5407069B2 (en) * | 2009-11-02 | 2014-02-05 | 株式会社国際電気通信基礎技術研究所 | Listening dialog system |
JP6497185B2 (en) * | 2015-04-09 | 2019-04-10 | 本田技研工業株式会社 | Autonomous mobile device and control method of autonomous mobile device |
JP6445473B2 (en) * | 2016-01-06 | 2018-12-26 | 日本電信電話株式会社 | Conversation support system, conversation support apparatus, and conversation support program |
JP2019113928A (en) | 2017-12-21 | 2019-07-11 | ソニー株式会社 | Information processing device, information processing method, and recording medium |
US20210390961A1 (en) * | 2018-11-01 | 2021-12-16 | Shin Nippon Biomedical Laboratories, Ltd. | Conference support system |
JP7400531B2 (en) * | 2020-02-26 | 2023-12-19 | 株式会社リコー | Information processing system, information processing device, program, information processing method and room |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3271900B2 (en) * | 1996-06-19 | 2002-04-08 | 松下電工株式会社 | Automatic tracking lighting system |
JP2004505560A (en) * | 2000-08-01 | 2004-02-19 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Aiming the device at the sound source |
JP2003244669A (en) * | 2002-02-14 | 2003-08-29 | Matsushita Electric Ind Co Ltd | Video conference system having sight line detecting function |
JP2006100216A (en) * | 2004-09-30 | 2006-04-13 | Toshiba Lighting & Technology Corp | Lighting system |
-
2006
- 2006-06-19 JP JP2006168797A patent/JP4829696B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2007336445A (en) | 2007-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4829696B2 (en) | Conversation support system | |
KR102700934B1 (en) | Directing live entertainment using biometric sensor data for detection of neurological state | |
US12076642B2 (en) | Delivery of spectator feedback content to virtual reality environments provided by head mounted display | |
KR101520524B1 (en) | Alzheimers cognitive enabler | |
JP4241913B2 (en) | Training support device | |
US11417045B2 (en) | Dialog-based testing using avatar virtual assistant | |
TW201820279A (en) | System and method for training and monitoring administration of inhaler medication | |
TW200928553A (en) | System and method for dynamically adapting a slide show presentation to an audience behaviour | |
US10043415B2 (en) | System, method and computer program for training for medical examinations involving manipulation of medical tools | |
JP2019087257A (en) | System and method for guiding social interactions | |
JP6636670B1 (en) | Learning system, learning lecture providing method, and program | |
JP7492294B2 (en) | Learning system, learning lecture delivery method, and program | |
CN103597530A (en) | System, method and computer program for training for medical examinations involving body parts with concealed anatomy | |
JP2007213282A (en) | Lecturer support device and lecturer support method | |
CN112074804B (en) | Information processing system, information processing method, and recording medium | |
US20230236016A1 (en) | Computer system, apparatus, and method for an augmented reality hand guidance application for people with visual impairments | |
US20160111019A1 (en) | Method and system for providing feedback of an audio conversation | |
JP2008046802A (en) | Interaction information output device, interaction information output method and program | |
KR102383793B1 (en) | Method, apparatus and system for managing and controlling concentration of user of registered extended reality device | |
JP7530079B2 (en) | Learning system, learning lecture delivery method, and program | |
JP5768667B2 (en) | Non-linguistic information analysis apparatus, non-linguistic information analysis program, and non-linguistic information analysis method | |
KR101691720B1 (en) | System diagnosing adhd using touchscreen | |
JP7269269B2 (en) | Information processing device, information processing method, and information processing program | |
JP2007050077A (en) | Apparatus for observing vibrating body and apparatus and program for observing vocal cord | |
JP2020042557A (en) | Excitement promotion system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080725 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110308 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110422 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110913 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110916 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140922 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |