JP2019148852A - 理解度判定システムおよび理解度判定プログラム - Google Patents
理解度判定システムおよび理解度判定プログラム Download PDFInfo
- Publication number
- JP2019148852A JP2019148852A JP2018031544A JP2018031544A JP2019148852A JP 2019148852 A JP2019148852 A JP 2019148852A JP 2018031544 A JP2018031544 A JP 2018031544A JP 2018031544 A JP2018031544 A JP 2018031544A JP 2019148852 A JP2019148852 A JP 2019148852A
- Authority
- JP
- Japan
- Prior art keywords
- understanding
- emotion
- listener
- listeners
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
【課題】 複数の聴者の全体の理解度を話者に認識させることができる理解度判定システムおよび理解度判定プログラムを提供する。【解決手段】 理解度判定システムは、カメラによって撮影された聴者の顔の表情に基づいてS51において聴者の感情を解析する感情解析手段と、感情解析手段によって解析された感情に基づいて聴者の理解度をS53〜S62において解析する理解度解析手段とを備え、理解度解析手段は、カメラによって複数の聴者が撮影される場合(S57でYES)、カメラによって撮影された複数の聴者のうち、特定の割合以上の数の聴者の理解度を「理解していない」と判定するとき(S59でYES)、カメラによって撮影された複数の聴者の全体の理解度を「理解していない」と判定し(S60)、判定した理解度をモニターに表示する(S63)ことを特徴とする。【選択図】 図9
Description
本発明は、聴者の理解度を判定する理解度判定システムおよび理解度判定プログラムに関する。
従来の理解度判定システムとして、カメラによって撮影された聴者の顔の表情などの動き情報から聴者の理解度を判定するシステムが知られている(例えば、特許文献1参照。)。
しかしながら、特許文献1に記載された理解度判定システムにおいては、カメラによって複数の聴者が撮影される場合に、カメラによって撮影された複数の聴者の全体の理解度を表示しないので、複数の聴者の全体の理解度を話者に認識させることができないという問題がある。
そこで、本発明は、複数の聴者の全体の理解度を話者に認識させることができる理解度判定システムおよび理解度判定プログラムを提供することを目的とする。
本発明の理解度判定システムは、カメラによって撮影された聴者の顔の表情に基づいて前記聴者の感情を解析する感情解析手段と、前記感情解析手段によって解析された感情に基づいて前記聴者の理解度を解析する理解度解析手段とを備え、前記理解度解析手段は、前記カメラによって複数の前記聴者が撮影される場合、前記カメラによって撮影された複数の前記聴者のうち、特定の割合以上の数の前記聴者の理解度を「理解していない」と判定するとき、前記カメラによって撮影された複数の前記聴者の全体の理解度を「理解していない」と判定し、判定した理解度をモニターに表示することを特徴とする。
この構成により、本発明の理解度判定システムは、カメラによって複数の聴者が撮影される場合、カメラによって撮影された複数の聴者のうち、特定の割合以上の数の聴者の理解度を「理解していない」と判定するとき、カメラによって撮影された複数の聴者の全体の理解度を「理解していない」としてモニターに表示するので、複数の聴者の全体の理解度を話者に認識させることができる。
本発明の理解度判定システムは、前記カメラと、前記モニターとが離れた場所に設置されるリモート会議システムであっても良い。
リモート会議、すなわち、互いに離れた場所にいる人間同士の会議は、対面での会議、すなわち、同一の場所にいる人間同士の会議と比較して、視覚によって得られる情報が少ないので、聴者の顔の表情や仕草などの非言語のコミュニケーションが話者に伝わり難く、話者が聴者の理解度を高精度に判定することが困難である。しかしながら、本発明の理解度判定システムは、カメラによって撮影された聴者の顔の表情に基づいて聴者の理解度を判定するので、リモート会議システムであっても聴者の理解度を高精度に判定することができる。
本発明の理解度判定システムにおいて、前記理解度解析手段は、前記感情解析手段によって解析された感情のうち「嫌悪」の感情に基づいて前記聴者の理解度を判定しても良い。
この構成により、本発明の理解度判定システムは、聴者の顔の表情に基づいて解析した感情のうち、聴者の理解度と相関する「嫌悪」の感情に基づいて聴者の理解度を判定するので、聴者の顔の表情に基づいて聴者の理解度を高精度に判定することができる。
本発明の理解度判定システムにおいて、前記理解度解析手段は、前記感情解析手段によって解析された感情の強度を時間毎に示す時系列データに対してクラスタリングを行うことによって、前記時系列データに含まれる感情の強度を複数のクラスターに分類し、前記時系列データにおいて特定の期間に含まれる感情の強度が所属する前記クラスターに応じて前記特定の期間における前記聴者の理解度を判定しても良い。
この構成により、本発明の理解度判定システムは、聴者の顔の表情に基づいて解析した感情の強度を時間毎に示す時系列データに対してクラスタリングを行うことによって、時系列データに含まれる感情の強度を複数のクラスターに分類し、時系列データにおいて特定の期間に含まれる感情の強度が所属するクラスターに応じてこの期間における聴者の理解度を判定するので、聴者の顔の表情に基づいて聴者の理解度を高精度に判定することができる。
本発明の理解度判定プログラムは、カメラによって撮影された聴者の顔の表情に基づいて前記聴者の感情を解析する感情解析手段と、前記感情解析手段によって解析された感情に基づいて前記聴者の理解度を解析する理解度解析手段とをコンピューターに実現させ、前記理解度解析手段は、前記カメラによって複数の前記聴者が撮影される場合、前記カメラによって撮影された複数の前記聴者のうち、特定の割合以上の数の前記聴者の理解度を「理解していない」と判定するとき、前記カメラによって撮影された複数の前記聴者の全体の理解度を「理解していない」と判定し、判定した理解度をモニターに表示することを特徴とする。
この構成により、本発明の理解度判定プログラムを実行するコンピューターは、カメラによって複数の聴者が撮影される場合、カメラによって撮影された複数の聴者のうち、特定の割合以上の数の聴者の理解度を「理解していない」と判定するとき、カメラによって撮影された複数の聴者の全体の理解度を「理解していない」としてモニターに表示するので、複数の聴者の全体の理解度を話者に認識させることができる。
本発明の理解度判定システムおよび理解度判定プログラムは、複数の聴者の全体の理解度を話者に認識させることができる。
以下、本発明の一実施の形態について、図面を用いて説明する。
まず、本実施の形態に係る理解度判定システムを開発するために行った実験(以下「開発用実験」という。)について説明する。
本願の発明者は、聴者の顔の表情と、聴者の理解度との関連性を確認するために以下に説明する開発用実験を行った。
1.開発用実験の内容
図1は、開発用実験の環境を示す上面図である。
図1は、開発用実験の環境を示す上面図である。
図1に示すように、開発用実験は、被験者11と、特定の説明文を被験者11に対して読み上げる説明員12との2名で行われる。開発用実験において、被験者11と、説明員12とは、テーブル13を挟んで向かい合わせに、約2mの距離をあけて着席する。そして、被験者11から約1mの距離をあけてテーブル13上に配置されたカメラ14によって、説明員12が説明文を読み上げている最中の被験者11の顔の表情が記録される。
開発用実験に用いられた説明文としては、複数の被験者の間で知識差が出難い哲学分野の課題が採用された。開発用実験に用いられた説明文は、シーン1からシーン6までの6個のシーンに分けられており、シーン2およびシーン3のそれぞれの難易度がシーン1、シーン4、シーン5およびシーン6のそれぞれの難易度より高くなっている。
開発用実験の手順は、次の通りである。
(1)説明員が被験者に実験の内容と注意事項の説明を行う。
(2)説明員がシーン1を使って実験の流れの説明をする。
(3)実験に関しての質疑応答
(4)説明員がシーン2の説明を行う。
(5)被験者がシーン2の理解度を1から5までの5段階(数値が大きいほど理解度が高い。)で回答する。
(6)上記(4)、(5)をシーン3、シーン4、シーン5、シーン6の順に繰り返す。
(1)説明員が被験者に実験の内容と注意事項の説明を行う。
(2)説明員がシーン1を使って実験の流れの説明をする。
(3)実験に関しての質疑応答
(4)説明員がシーン2の説明を行う。
(5)被験者がシーン2の理解度を1から5までの5段階(数値が大きいほど理解度が高い。)で回答する。
(6)上記(4)、(5)をシーン3、シーン4、シーン5、シーン6の順に繰り返す。
開発用実験は、以上の条件で、10名の被験者のそれぞれに対して行われた。
2.開発用実験の結果の分析
開発用実験においてカメラ14によって取得された動画のデータを、表情解析ソフトウェアである、affectiva社製のaffdexを用いて解析することによって、説明員が説明文を読み上げている最中の被験者の感情を取得した。affdexは、被験者の顔の表情から被験者の感情の強度を、「嫌悪」、「怒り」、「悲しみ」、「軽蔑」、「喜び」、「恐れ」および「驚き」という7個の感情毎に0.00〜100.00の値で1/30秒毎に取得することができる。
開発用実験においてカメラ14によって取得された動画のデータを、表情解析ソフトウェアである、affectiva社製のaffdexを用いて解析することによって、説明員が説明文を読み上げている最中の被験者の感情を取得した。affdexは、被験者の顔の表情から被験者の感情の強度を、「嫌悪」、「怒り」、「悲しみ」、「軽蔑」、「喜び」、「恐れ」および「驚き」という7個の感情毎に0.00〜100.00の値で1/30秒毎に取得することができる。
図2(a)、図2(b)、図2(c)、図2(d)、図3(a)、図3(b)、図3(c)は、開発用実験の結果のうち、それぞれ、「嫌悪」、「怒り」、「悲しみ」、「軽蔑」、「喜び」、「恐れ」、「驚き」の感情の強度を時間毎に示したグラフである。
図2および図3に示すグラフは、特定の1人の被験者の7個の感情のそれぞれの強度を時間毎に示したグラフである。各グラフにおいて、太線で示すデータは、対象の被験者自身が回答した理解度を参考として表しており、感情の強度を示す縦軸の数値とは直接の関係はない。なお、図2および図3に示すグラフの対象の被験者は、シーン1の理解度を3と回答し、シーン2、3の理解度を2と回答し、シーン4、5の理解度を4と回答し、シーン6の理解度を5と回答している。
図2および図3に示すように、「嫌悪」、「怒り」、「悲しみ」、「軽蔑」、「喜び」、「恐れ」および「驚き」という7個の感情の強度のうち、「嫌悪」の感情の強度と、被験者が回答した理解度との間に関連性が現れた。すなわち、図2(a)に示すグラフでは、被験者が回答した理解度が低いシーン2およびシーン3において「嫌悪」の感情の強度が高くなっている。図2および図3に示すデータは1人の被験者のデータであるが、被験者が回答した理解度が低いシーンにおいて「嫌悪」の感情の強度が高くなる傾向は、全ての被験者に対して現れた。
図4(a)は、図2(a)に示すグラフからシーン1およびシーン5のデータを除いたグラフである。図4(b)は、図4(a)に示すデータの対象の被験者とは異なる被験者に対する開発用実験の結果のうち「嫌悪」の感情の強度を時間毎に示したグラフである。
図4(b)に示すグラフは、図4(a)に示すグラフと同様に、シーン1およびシーン5のデータを除いている。
図4に示すように、感情の強度には、個人差が存在する。そのため、理解度が低いと判定するための感情の強度の閾値が被験者に依存しない固定の数値である場合には、理解度を適切に判定することができない。したがって、閾値は、被験者毎に取得される必要がある。閾値を被験者毎に取得するための方法として、クラスタリングが存在する。
図5(a)、図5(b)は、それぞれ、図4(a)、図4(b)に示すデータの対象の被験者に対する開発用実験の結果のうち「嫌悪」の感情の強度をクラスタリングした図である。
図5に示すように、被験者毎に「嫌悪」の感情の強度をクラスタリングすることによって、感情の強度の個人差の影響を抑えることができる。具体的には、クラスタリングの方法としてk平均法を用いた。図5において、丸印の1つずつが1/30秒毎の感情の強度を示している。
なお、クラスタリングを行うに際して、被験者が発話中である場合や、被験者が被験者自身の顔を触る動作中である場合など、被験者の顔の表情から被験者の感情の強度を表情解析ソフトウェアによって正常に取得することができていない場合のデータは、適切なクラスタリングの妨げになるので、除去した。また、被験者が未だ実験に慣れてない場合には被験者の顔の表情が自然ではない可能性がある。したがって、クラスタリングを行うに際して、被験者が未だ実験に慣れてない時期のシーンであるシーン1のデータは、適切なクラスタリングの妨げになるので、除去した。また、シーン5は、他のシーンと比較してデータの数が少ない。したがって、クラスタリングを行うに際して、シーン5のデータは、適切なクラスタリングの妨げになるので、除去した。
実験において、被験者は、1から5までの5段階の理解度のうち、実際には2から5までのいずれかの理解度のみを回答した。したがって、クラスタリングを行うに際して、クラスターの数は、4個とした。クラスターに含まれる数値の平均値が最も低いクラスターをクラスター1とし、クラスターに含まれる数値の平均値が2番目に低いクラスターをクラスター2とし、クラスターに含まれる数値の平均値が3番目に低いクラスターをクラスター3とし、クラスターに含まれる数値の平均値が最も高いクラスターをクラスター4とする。
図6は、開発用実験において被験者が回答した理解度毎に、クラスター4に含まれるデータを含むシーンと、クラスター4に含まれるデータを含まないシーンとの割合を示す図である。
図6に示すように、被験者が理解度として2を回答したシーンのうち、クラスター4に含まれるデータを含むシーンは、67%であり、クラスター4に含まれるデータを含まないシーンは、33%である。被験者が理解度として3を回答したシーンのうち、クラスター4に含まれるデータを含むシーンは、33%であり、クラスター4に含まれるデータを含まないシーンは、67%である。被験者が理解度として4を回答したシーンのうち、クラスター4に含まれるデータを含むシーンは、14%であり、クラスター4に含まれるデータを含まないシーンは、86%である。被験者が理解度として5を回答したシーンのうち、クラスター4に含まれるデータを含むシーンは、17%であり、クラスター4に含まれるデータを含まないシーンは、83%である。
ここで、被験者が回答した理解度が1または2であるシーンを「理解していない」と判定し、被験者が回答した理解度が3、4または5であるシーンを「理解している」と判定する。そして、クラスター4に含まれるデータを含むシーンを「理解していない」と判定し、クラスター4に含まれるデータを含まないシーンを「理解している」と判定することとする。被験者が回答した理解度に基づいて「理解していない」と判定されたシーンのうち、「嫌悪」の感情の強度に基づいて「理解していない」と判定されたシーン、すなわち、クラスター4に含まれるデータを含むシーンの割合は、67%であった。被験者が回答した理解度に基づいて「理解している」と判定されたシーンのうち、「嫌悪」の感情の強度に基づいて「理解している」と判定されたシーン、すなわち、クラスター4に含まれるデータを含まないシーンの割合は、79%であった。そして、被験者が回答した理解度に基づいた「理解していない」または「理解している」の判定と、「嫌悪」の感情の強度に基づいた「理解していない」または「理解している」の判定との一致率は、75%であった。
次に、本実施の形態に係る理解度判定システムの構成について説明する。
図7は、本実施の形態に係る理解度判定システム20のブロック図である。
図7に示すように、理解度判定システム20は、コンピューター30と、コンピューター30に接続されたカメラ35、マイク36、モニター37およびスピーカー38と、コンピューター30とは離れて配置されているコンピューター40と、コンピューター40に接続されたカメラ45、マイク46、モニター47およびスピーカー48とを備えている。コンピューター30と、コンピューター40とは、インターネットなどのネットワーク21経由で互いに通信可能である。
理解度判定システム20において、コンピューター30は、カメラ35によって取得した映像と、マイク36によって取得した音声とをコンピューター40に送信する。そして、コンピューター40は、コンピューター30から送信されてきた映像をモニター47に表示するとともに、コンピューター30から送信されてきた音声をスピーカー48から出力する。同様に、コンピューター40は、カメラ45によって取得した映像と、マイク46によって取得した音声とをコンピューター30に送信する。そして、コンピューター30は、コンピューター40から送信されてきた映像をモニター37に表示するとともに、コンピューター40から送信されてきた音声をスピーカー38から出力する。すなわち、理解度判定システム20は、互いに離れた場所にいる人間同士の会議を可能にするリモート会議システムである。
図8は、コンピューター30のブロック図である。
図8に示すように、コンピューター30は、種々の操作が入力される例えばキーボード、マウスなどの入力デバイスである操作部31と、LAN(Local Area Network)、インターネットなどのネットワーク経由で、または、ネットワークを介さずに有線または無線によって直接に、外部の装置と通信を行う通信デバイスである通信部32と、各種の情報を記憶する例えば半導体メモリー、HDD(Hard Disk Drive)などの不揮発性の記憶デバイスである記憶部33と、コンピューター30全体を制御する制御部34とを備えている。
記憶部33は、聴者の理解度を判定するための理解度判定プログラム33aを記憶している。理解度判定プログラム33aは、例えば、コンピューター30のコンピューター30にインストールされていても良いし、USB(Universal Serial Bus)メモリー、CD(Compact Disk)、DVD(Digital Versatile Disk)などの外部の記憶媒体からコンピューター30に追加でインストールされても良いし、ネットワーク上からコンピューター30に追加でインストールされても良い。
制御部34は、例えば、CPU(Central Processing Unit)と、プログラムおよび各種のデータを記憶しているROM(Read Only Memory)と、CPUの作業領域として用いられるRAM(Random Access Memory)とを備えている。CPUは、ROMまたは記憶部33に記憶されているプログラムを実行する。
制御部34は、理解度判定プログラム33aを実行することによって、聴者の顔の表情に基づいて聴者の感情を解析する感情解析手段34aと、感情解析手段34aによって解析された感情に基づいて聴者の理解度を解析する理解度解析手段34bとを実現する。
コンピューター40の構成は、コンピューター30の構成と同様である。
次に、カメラ45によって撮影される聴者の理解度をモニター37に表示する場合のコンピューター30の動作について説明する。
図9は、カメラ45によって撮影される聴者の理解度をモニター37に表示する場合のコンピューター30の動作のフローチャートである。
コンピューター30は、コンピューター40から送信されてきた映像の動画ファイル(以下「対象動画ファイル」という。)を受信すると、図9に示す動作を実行する。
図9に示すように、感情解析手段34aは、対象動画ファイルをFACS(Facial Action Coding System)などの表情解析ソフトウェアを用いて解析することによって、聴者の感情を取得する(S51)。ここで、表情解析ソフトウェアは、顔の特徴点を用いて感情を解析するソフトウェアであれば良く、例えばaffectiva社製のaffdexが採用されても良い。なお、感情解析手段34aは、対象動画ファイルによる動画に複数の聴者が含まれている場合、聴者毎に感情を取得する。
次いで、感情解析手段34aは、S51において取得した感情のうち、「嫌悪」の感情の強度を時間毎に示す時系列データを生成する(S52)。すなわち、感情解析手段34aは、図4に示す時系列データと同様な時系列データを生成する。なお、感情解析手段34aは、対象動画ファイルによる動画に複数の聴者が含まれている場合、聴者毎に時系列データを生成する。
次いで、理解度解析手段34bは、S52において生成された時系列データを、時間における特定の区切りによって分ける(S53)。ここで、特定の区切りは、例えば、話者が話者自身の発表資料において区切りを指定している場合には、発表資料において話者によって指定されている区切りが採用されても良いし、30秒毎などの特定の時間が採用されても良い。
理解度解析手段34bは、S53の処理の後、聴者が発話中である場合や、聴者が聴者自身の顔を触る動作中である場合など、聴者の顔の表情から聴者の感情の強度を表情解析ソフトウェアによって正常に取得することができていない場合のデータを、S53において特定の区切りによって分けた時系列データから除去する(S54)。ここで、理解度解析手段34bは、聴者が発話中であることや、聴者が聴者自身の顔を触る動作中であることを、対象動画ファイルに対する画像処理によって認識することが可能である。
理解度解析手段34bは、S54の処理の後、S54において生成された時系列データのデータに対して図5に示す例と同様にクラスタリングを行う(S55)。ここで、理解度解析手段34bは、例えば、k平均法を用いてクラスタリングを行う。また、理解度解析手段34bは、例えばエルボー法などを用いてクラスターの数を決めても良いし、利用者によって指示された数などの特定の数をクラスターの数としても良い。なお、理解度解析手段34bは、対象動画ファイルによる動画に複数の聴者が含まれている場合、聴者毎に時系列データのデータに対してクラスタリングを行う。
理解度解析手段34bは、S55の処理の後、S53において分けた区間のそれぞれに対して、「理解していない」および「理解している」のいずれであるかを判定する(S56)。ここで、理解度解析手段34bは、S53において分けた区間のうち、S55において分類されたクラスターに含まれる数値の平均値が最も高いクラスターに含まれるデータを含む区間を、「理解していない区間」として判定する。一方、理解度解析手段34bは、S53において分けた区間のうち、S55において分類されたクラスターに含まれる数値の平均値が最も高いクラスターに含まれるデータを含まない区間を、「理解している区間」として判定する。なお、理解度解析手段34bは、対象動画ファイルによる動画に複数の聴者が含まれている場合、聴者毎にS56の処理を実行する。
理解度解析手段34bは、S56の処理の後、対象動画ファイルによる動画のS53において分けたいずれかの区間に複数の聴者が含まれているか否かを判断する(S57)。
理解度解析手段34bは、対象動画ファイルによる動画のS53において分けたいずれかの区間に複数の聴者が含まれているとS57において判断すると、対象動画ファイルによる動画のS53において分けた区間のうち、複数の聴者が含まれている区間であって、未だ対象にしていない1つの区間のみを対象にする(S58)。
次いで、理解度解析手段34bは、現在の対象の区間の動画に含まれている複数の聴者のうち、特定の割合以上の数の聴者の理解度を「理解していない」とS56において判定したか否かを判断する(S59)。ここで、特定の割合とは、例えば5割である。
理解度解析手段34bは、現在の対象の区間の動画に含まれている複数の聴者のうち、特定の割合以上の数の聴者の理解度を「理解していない」とS56において判定したとS59において判断すると、現在の対象の区間の動画に含まれている複数の聴者の全体の理解度を「理解していない」と判定する(S60)。
理解度解析手段34bは、現在の対象の区間の動画に含まれている複数の聴者のうち、特定の割合以上の数の聴者の理解度を「理解していない」とS56において判定していないとS59において判断すると、現在の対象の区間の動画に含まれている複数の聴者の全体の理解度を「理解している」と判定する(S61)。
理解度解析手段34bは、S60またはS61の処理の後、対象動画ファイルによる動画のS53において分けた区間のうち、複数の聴者が含まれている区間であって、未だ対象にしていない区間が存在するか否かを判断する(S62)。
理解度解析手段34bは、対象動画ファイルによる動画のS53において分けた区間のうち、複数の聴者が含まれている区間であって、未だ対象にしていない区間が存在するとS62において判断すると、S58の処理を実行する。
理解度解析手段34bは、対象動画ファイルによる動画のS53において分けたいずれの区間にも複数の聴者が含まれていないとS57において判断するか、対象動画ファイルによる動画のS53において分けた区間のうち、複数の聴者が含まれている区間であって、未だ対象にしていない区間が存在しないとS62において判断すると、S56、S60およびS61における判定結果をモニター37に表示する(S63)。例えば、理解度解析手段34bは、S56またはS60において「理解していない」と判定した区間に対して、理解していないことを悲しみの感情を表す絵文字などで表示し、S56またはS61において「理解している」と判定した区間に対して、理解していることを平静の感情を表す絵文字などで表示する。
理解度解析手段34bは、S63の処理の後、図9に示す動作を終了する。
以上においては、カメラ45によって撮影される聴者の理解度をモニター37に表示する場合のコンピューター30の動作について説明した。カメラ35によって撮影される聴者の理解度をモニター47に表示する場合のコンピューター40の動作についても同様である。
以上に説明したように、理解度判定システム20は、カメラ45によって複数の聴者が撮影される場合(S57でYES)、カメラ45によって撮影された複数の聴者のうち、特定の割合以上の数の聴者の理解度を「理解していない」と判定するとき(S59でYES)、カメラ45によって撮影された複数の聴者の全体の理解度を「理解していない」としてモニター37に表示する(S63)ので、複数の聴者の全体の理解度を話者に認識させることができる。
理解度判定システム20は、聴者の顔の表情に基づいて解析した感情の強度を時間毎に示す時系列データに対してクラスタリングを行う(S55)ことによって、時系列データに含まれる感情の強度を複数のクラスターに分類し、時系列データにおいて特定の期間に含まれる感情の強度が所属するクラスターに応じてこの期間における聴者の理解度を判定する(S56)ので、聴者の顔の表情に基づいて聴者の理解度を高精度に判定することができる。
理解度判定システム20は、聴者の顔の表情に基づいてS51において解析した感情のうち、聴者の理解度と相関する「嫌悪」の感情に基づいて聴者の理解度を判定する(S56)ので、聴者の顔の表情に基づいて聴者の理解度を高精度に判定することができる。
なお、理解度判定システム20は、聴者の顔の表情に基づいてS51において解析した感情のうち、「嫌悪」の感情に代えて、または、「嫌悪」の感情に加えて、「嫌悪」以外の感情に基づいて聴者の理解度を判定しても良い。
リモート会議、すなわち、互いに離れた場所にいる人間同士の会議は、対面での会議、すなわち、同一の場所にいる人間同士の会議と比較して、視覚によって得られる情報が少ないので、聴者の顔の表情や仕草などの非言語のコミュニケーションが話者に伝わり難く、話者が聴者の理解度を高精度に判定することが困難である。しかしながら、理解度判定システム20は、カメラ45によって撮影された聴者の顔の表情に基づいて聴者の理解度を判定するので、リモート会議システムであっても聴者の理解度を高精度に判定することができる。したがって、理解度判定システム20は、聴者が理解していない場合に、話者が発言内容のレベルを下げたり、説明をし直したりすることができ、その結果、情報の伝達の精度を向上することができる。
なお、以上においては、リモート会議システムについて説明した。しかしながら、理解度判定システムは、リモート会議システムでなくても良い。例えば、理解度判定システムは、図10に示すものであっても良い。
図10は、図7に示す理解度判定システム20とは異なる構成の理解度判定システム60のブロック図である。
図10に示すように、理解度判定システム60は、コンピューター30と、コンピューター30に接続されたカメラ35およびモニター37を備えている。カメラ35は、聴者を撮影可能な位置に配置されている。モニター37は、画面が話者によって視認可能な位置に配置されている。
20 理解度判定システム(リモート会議システム)
30 コンピューター
33a 理解度判定プログラム
34a 感情解析手段
34b 理解度解析手段
35 カメラ
37 モニター
40 コンピューター
45 カメラ
47 モニター
60 理解度判定システム
30 コンピューター
33a 理解度判定プログラム
34a 感情解析手段
34b 理解度解析手段
35 カメラ
37 モニター
40 コンピューター
45 カメラ
47 モニター
60 理解度判定システム
Claims (5)
- カメラによって撮影された聴者の顔の表情に基づいて前記聴者の感情を解析する感情解析手段と、
前記感情解析手段によって解析された感情に基づいて前記聴者の理解度を解析する理解度解析手段と
を備え、
前記理解度解析手段は、前記カメラによって複数の前記聴者が撮影される場合、前記カメラによって撮影された複数の前記聴者のうち、特定の割合以上の数の前記聴者の理解度を「理解していない」と判定するとき、前記カメラによって撮影された複数の前記聴者の全体の理解度を「理解していない」と判定し、判定した理解度をモニターに表示することを特徴とする理解度判定システム。 - 前記カメラと、前記モニターとが離れた場所に設置されるリモート会議システムであることを特徴とする請求項1に記載の理解度判定システム。
- 前記理解度解析手段は、前記感情解析手段によって解析された感情のうち「嫌悪」の感情に基づいて前記聴者の理解度を判定することを特徴とする請求項1または請求項2に記載の理解度判定システム。
- 前記理解度解析手段は、前記感情解析手段によって解析された感情の強度を時間毎に示す時系列データに対してクラスタリングを行うことによって、前記時系列データに含まれる感情の強度を複数のクラスターに分類し、前記時系列データにおいて特定の期間に含まれる感情の強度が所属する前記クラスターに応じて前記特定の期間における前記聴者の理解度を判定することを特徴とする請求項1から請求項3までのいずれかに記載の理解度判定システム。
- カメラによって撮影された聴者の顔の表情に基づいて前記聴者の感情を解析する感情解析手段と、
前記感情解析手段によって解析された感情に基づいて前記聴者の理解度を解析する理解度解析手段と
をコンピューターに実現させ、
前記理解度解析手段は、前記カメラによって複数の前記聴者が撮影される場合、前記カメラによって撮影された複数の前記聴者のうち、特定の割合以上の数の前記聴者の理解度を「理解していない」と判定するとき、前記カメラによって撮影された複数の前記聴者の全体の理解度を「理解していない」と判定することを特徴とする理解度判定プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018031544A JP2019148852A (ja) | 2018-02-26 | 2018-02-26 | 理解度判定システムおよび理解度判定プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018031544A JP2019148852A (ja) | 2018-02-26 | 2018-02-26 | 理解度判定システムおよび理解度判定プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019148852A true JP2019148852A (ja) | 2019-09-05 |
Family
ID=67850630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018031544A Pending JP2019148852A (ja) | 2018-02-26 | 2018-02-26 | 理解度判定システムおよび理解度判定プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019148852A (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021181550A1 (ja) * | 2020-03-11 | 2021-09-16 | 日本電気株式会社 | 感情推定装置、感情推定方法、及びプログラム |
WO2022064619A1 (ja) * | 2020-09-24 | 2022-03-31 | 株式会社I’mbesideyou | ビデオミーティング評価システム及びビデオミーティング評価サーバ |
WO2022064618A1 (ja) * | 2020-09-24 | 2022-03-31 | 株式会社I’mbesideyou | ビデオミーティング評価システム及びビデオミーティング評価サーバ |
WO2022064617A1 (ja) * | 2020-09-24 | 2022-03-31 | 株式会社I’mbesideyou | ビデオミーティング評価システム及びビデオミーティング評価サーバ |
WO2022064622A1 (ja) * | 2020-09-24 | 2022-03-31 | 株式会社I’mbesideyou | 感情解析システム |
WO2022064621A1 (ja) * | 2020-09-24 | 2022-03-31 | 株式会社I’mbesideyou | ビデオミーティング評価システム及びビデオミーティング評価サーバ |
WO2022064620A1 (ja) * | 2020-09-24 | 2022-03-31 | 株式会社I’mbesideyou | ビデオミーティング評価システム及びビデオミーティング評価サーバ |
WO2022074785A1 (ja) * | 2020-10-08 | 2022-04-14 | 株式会社I’mbesideyou | ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム |
WO2022201383A1 (ja) * | 2021-03-24 | 2022-09-29 | 株式会社I’mbesideyou | 動画像分析プログラム |
WO2022201275A1 (ja) * | 2021-03-22 | 2022-09-29 | 株式会社I’mbesideyou | 動画像分析プログラム |
JP2022151612A (ja) * | 2021-03-24 | 2022-10-07 | 株式会社I’mbesideyou | 動画像分析プログラム |
JP2022180533A (ja) * | 2022-02-01 | 2022-12-06 | 株式会社I’mbesideyou | 動画像分析プログラム |
-
2018
- 2018-02-26 JP JP2018031544A patent/JP2019148852A/ja active Pending
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021181550A1 (ja) * | 2020-03-11 | 2021-09-16 | 日本電気株式会社 | 感情推定装置、感情推定方法、及びプログラム |
JP7553128B2 (ja) | 2020-09-24 | 2024-09-18 | 株式会社I’mbesideyou | 感情解析システム |
WO2022064619A1 (ja) * | 2020-09-24 | 2022-03-31 | 株式会社I’mbesideyou | ビデオミーティング評価システム及びビデオミーティング評価サーバ |
WO2022064618A1 (ja) * | 2020-09-24 | 2022-03-31 | 株式会社I’mbesideyou | ビデオミーティング評価システム及びビデオミーティング評価サーバ |
WO2022064617A1 (ja) * | 2020-09-24 | 2022-03-31 | 株式会社I’mbesideyou | ビデオミーティング評価システム及びビデオミーティング評価サーバ |
WO2022064622A1 (ja) * | 2020-09-24 | 2022-03-31 | 株式会社I’mbesideyou | 感情解析システム |
WO2022064621A1 (ja) * | 2020-09-24 | 2022-03-31 | 株式会社I’mbesideyou | ビデオミーティング評価システム及びビデオミーティング評価サーバ |
WO2022064620A1 (ja) * | 2020-09-24 | 2022-03-31 | 株式会社I’mbesideyou | ビデオミーティング評価システム及びビデオミーティング評価サーバ |
WO2022074785A1 (ja) * | 2020-10-08 | 2022-04-14 | 株式会社I’mbesideyou | ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム |
WO2022201275A1 (ja) * | 2021-03-22 | 2022-09-29 | 株式会社I’mbesideyou | 動画像分析プログラム |
WO2022201383A1 (ja) * | 2021-03-24 | 2022-09-29 | 株式会社I’mbesideyou | 動画像分析プログラム |
JP7152817B1 (ja) * | 2021-03-24 | 2022-10-13 | 株式会社I’mbesideyou | 動画像分析プログラム |
JP7152819B1 (ja) | 2021-03-24 | 2022-10-13 | 株式会社I’mbesideyou | 動画像分析プログラム |
US11935329B2 (en) | 2021-03-24 | 2024-03-19 | I'mbesideyou Inc. | Video analysis program |
JP2022151612A (ja) * | 2021-03-24 | 2022-10-07 | 株式会社I’mbesideyou | 動画像分析プログラム |
JP2022180533A (ja) * | 2022-02-01 | 2022-12-06 | 株式会社I’mbesideyou | 動画像分析プログラム |
JP7388768B2 (ja) | 2022-02-01 | 2023-11-29 | 株式会社I’mbesideyou | 動画像分析プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019148852A (ja) | 理解度判定システムおよび理解度判定プログラム | |
Bahreini et al. | Towards real-time speech emotion recognition for affective e-learning | |
WO2020206487A1 (en) | Methods and apparatus for displaying, compressing and/or indexing information relating to a meeting | |
Ramsay et al. | The intrinsic memorability of everyday sounds | |
US20230011923A1 (en) | System for providing a virtual focus group facility | |
WO2021153618A1 (ja) | 情報処理装置、情報処理方法、プログラム及び記憶媒体 | |
JP7468690B2 (ja) | 分析装置、分析方法、および分析プログラム | |
JP2019148849A (ja) | 理解度判定システムおよび理解度判定プログラム | |
JP2019148851A (ja) | 理解度判定システムおよび理解度判定プログラム | |
JP7533607B2 (ja) | 分析装置、分析方法、および分析プログラム | |
KR20240018874A (ko) | 이미지 데이터로부터 민감 정보를 제거하기 위한 방법 및 전자 장치 | |
US11042274B2 (en) | Extracting demonstrations from in-situ video content | |
WO2022079768A1 (ja) | 分析装置、システム、方法及びプログラムが格納された非一時的なコンピュータ可読媒体 | |
Viswanathan et al. | Collaboration detection that preserves privacy of students’ speech | |
JP7172299B2 (ja) | 情報処理装置、情報処理方法、プログラムおよび情報処理システム | |
JP7465012B2 (ja) | ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム | |
Lefter et al. | Multimodal cross-context recognition of negative interactions | |
JP7465013B2 (ja) | ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム | |
JP7471683B2 (ja) | 反応通知システム | |
JP7388768B2 (ja) | 動画像分析プログラム | |
JP7445331B2 (ja) | ビデオミーティング評価端末及びビデオミーティング評価方法 | |
WO2022181287A1 (ja) | 画像蓄積装置、方法及び非一時的なコンピュータ可読媒体 | |
JP7629226B2 (ja) | ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム | |
JP7361961B1 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
JP7100938B1 (ja) | 動画像分析プログラム |