JP7400231B2 - 通信システム、情報処理装置、通信方法およびプログラム - Google Patents
通信システム、情報処理装置、通信方法およびプログラム Download PDFInfo
- Publication number
- JP7400231B2 JP7400231B2 JP2019129658A JP2019129658A JP7400231B2 JP 7400231 B2 JP7400231 B2 JP 7400231B2 JP 2019129658 A JP2019129658 A JP 2019129658A JP 2019129658 A JP2019129658 A JP 2019129658A JP 7400231 B2 JP7400231 B2 JP 7400231B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- communication terminal
- participant
- communication
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004891 communication Methods 0.000 title claims description 550
- 238000000034 method Methods 0.000 title claims description 67
- 230000010365 information processing Effects 0.000 title claims description 7
- 238000001514 detection method Methods 0.000 claims description 57
- 230000008569 process Effects 0.000 claims description 56
- 238000000605 extraction Methods 0.000 claims description 30
- 238000003384 imaging method Methods 0.000 claims description 14
- 239000000284 extract Substances 0.000 claims description 11
- 230000005540 biological transmission Effects 0.000 claims description 6
- 230000001815 facial effect Effects 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 51
- 230000004044 response Effects 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 230000005236 sound signal Effects 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 4
- 238000002360 preparation method Methods 0.000 description 4
- 238000005401 electroluminescence Methods 0.000 description 3
- 206010048669 Terminal state Diseases 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000005674 electromagnetic induction Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- KNMAVSAGTYIFJF-UHFFFAOYSA-N 1-[2-[(2-hydroxy-3-phenoxypropyl)amino]ethylamino]-3-phenoxypropan-2-ol;dihydrochloride Chemical compound Cl.Cl.C=1C=CC=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC=C1 KNMAVSAGTYIFJF-UHFFFAOYSA-N 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
- Telephonic Communication Services (AREA)
Description
(通信システムの全体構成)
図1は、実施形態に係る通信システムの概略構成図である。図1を参照しながら、本実施形態に係る通信システム1の構成の概略を説明する。
図2は、実施形態に係る通信端末(ビデオ会議端末)のハードウェア構成の一例を示す図である。図3は、実施形態に係る通信端末(電子黒板)のハードウェア構成の一例を示す図である。まず、図2を参照しながら、本実施形態に係る通信端末10がビデオ会議端末であるものとした場合のハードウェア構成の詳細について説明する。
図4は、実施形態に係る管理システムおよびプログラム提供システムのハードウェア構成の一例を示す図である。図4を参照しながら、管理システム50およびプログラム提供システム90のハードウェア構成の詳細について説明する。
図5は、実施形態に係る通信端末のソフトウェア構成の一例を示す図である。図5を参照しながら、本実施形態に係る通信端末10のソフトウェア構成の詳細について説明する。
図6は、実施形態に係る通信システムの機能ブロックの構成の一例を示す図である。図6を参照しながら、本実施形態に係る通信システム1の機能ブロックの構成について説明する。
図6に示すように、通信端末10は、通信部11と、操作入力受付部12と、撮像部13と、表示制御部14(第2制御部の一例)と、音声入力部15と、音声出力部16(第2制御部の一例)と、記憶・読出部17と、記憶部18と、認証要求部19と、発話方向特定部20(第1特定部)と、を有している。
図6に示すように、管理システム50は、通信部51と、認証部52と、状態管理部53と、端末抽出部54と、端末状態取得部55と、セッション制御部56と、記憶・読出部57と、記憶部58と、を有している。管理システム50は、さらに、顔検出部61(検出部)と、比較部62と、生成部63と、属性情報要求部64(要求部)と、対応付け部65(第2特定部)と、テキスト化部66と、抽出部67と、登録部68と、表示制御部69(第1制御部、制御部)と、を有している。記憶部58は、図4に示す補助記憶装置305によって実現され、図6に示すように、認証管理DB5001と、端末管理DB5002と、グループ管理DB5003と、セッション管理DB5004とを記憶している。以下、記憶部58に記憶されている各DBにおいて管理される各テーブルについて説明する。
図7は、認証管理テーブルの一例を示す図である。
図8は、端末管理テーブルの一例を示す図である。
図9は、グループ管理テーブルの一例を示す図である。
図10は、セッション管理テーブルの一例を示す図である。
図11は、実施形態に係る通信システムにおけるコンテンツデータおよび各種管理情報を送受信するために確立されたセッションを示す図である。図11を参照しながら、通信システム1におけるコンテンツデータおよび各種管理情報を送受信するために確立されたセッションについて説明する。
図12は、実施形態に係る通信システムにおける、通信端末が通話を開始するための認証処理を含む準備段階の処理の一例を示すシーケンス図である。図13は、宛先リストの表示例を示す図である。図12および図13を参照しながら、通信端末10aaが通話を開始する前の準備段階における各情報の送受信処理について説明する。なお、図12では、管理情報用セッションseiによって、各種管理情報が送受信される処理が示されている。
まず、通信端末10aaのユーザが、図2に示す入力装置108に対する操作により電源をオンにすると、通信端末10aaの操作入力受付部12が、電源オンを受け付けて、通信端末10aaの電源をオンにする。
そして、通信端末10aaの認証要求部19は、上述の通信端末10aaの電源オンを契機とし、通信部11から通信ネットワーク2を介して管理システム50に、ログインの認証要求を示す認証要求情報、および通信端末10aaのIPアドレスを送信する。この認証要求情報には、開始要求端末としての自端末である通信端末10aaを識別するための端末ID、通信端末10aaにログインしているユーザのユーザID、およびパスワードが含まれている。端末ID、ユーザIDおよびパスワードは、通信端末10aaの記憶・読出部17によって記憶部18から読み出されて、通信部11に送られたデータである。また、通信端末10aaから管理システム50へ認証要求情報が送信される際は、受信側である管理システム50は、送信側である通信端末10aaのIPアドレスを把握することができる。
次に、管理システム50の認証部52は、通信部51を介して受信した認証要求情報に含まれているユーザIDおよびパスワードを検索キーとして、認証管理テーブル(図7参照)を検索し、認証管理テーブルに同一のユーザIDおよびパスワードが管理されているかを判断することによってユーザ認証を行う。
認証部52によって、正当な利用権限を有する通信端末10からのログインの認証要求であると判断された場合には、管理システム50の状態管理部53は、端末管理テーブル(図8参照)に、通信端末10aaの端末IDおよび端末名で示されるレコード毎に、ユーザIDおよび通信端末10aaのIPアドレスを関連付けて記憶する。これにより、端末管理テーブルには、通信端末10aaの端末ID「10aa」に、ユーザID「A_10aa」およびIPアドレス「1.2.1.3」が関連付けて管理されることになる。
続いて、状態管理部53は、通信端末10aaの稼動状態「オンライン」および通信状態「None」を設定し、端末管理テーブルに、通信端末10aaの端末IDおよび端末名で示されるレコードに、稼動状態および通信状態を関連付けて記憶する。これにより、端末管理テーブルには、通信端末10aaの端末ID「10aa」に、稼動状態「オンライン」および通信状態「None」が関連付けて管理されることになる。
そして、管理システム50の通信部51は、認証部52によって得られたユーザ認証の結果が示された認証結果情報を、通信ネットワーク2を介して、認証要求情報を送信してきた開始要求端末(通信端末10aa)に送信する。本実施形態では、通信端末10aaが、認証部52によって正当な利用権限を有するユーザが利用する端末であるとユーザ認証されたものとして、以下続けて説明する。
通信端末10aaにおいて、正当な利用権限を有するユーザが利用する端末であるとユーザ認証された結果が示された認証結果情報を受信すると、通信部11は、通信ネットワーク2を介して管理システム50へ、宛先リストを要求する旨を示す宛先リスト要求情報を送信するこれにより、管理システム50の通信部51は、宛先リスト要求情報を受信する。
次に、管理システム50の端末抽出部54は、開始要求端末(通信端末10aa)の端末ID「10aa」を検索キーとして、グループ管理テーブル(図9参照)を検索し、開始要求端末が通話することができる、すなわち、開始要求端末と同じグループ(ここでは、グループID「G001」のグループ)に属する宛先端末の候補の端末IDを抽出する。また、端末抽出部54は、抽出した端末IDを検索キーとして、端末管理テーブルを検索し、この端末IDに対応する端末名、すなわち宛先端末の候補の端末名を抽出する。ここでは、開始要求端末(通信端末10aa)の端末ID「10aa」に対応する宛先端末の候補(通信端末10ab、10ac、10db)のそれぞれの端末ID(「10ab」、「10ac」、「10db」)と、これらに対応する端末名(「日本 東京事業所 AB端末」、「日本 東京事業所 AC端末」、「アメリカ ワシントン事業所 DB端末」)が抽出される。
次に、管理システム50の通信部51は、端末抽出部54によって抽出された宛先端末の候補の端末IDおよび端末名を含む宛先リスト情報を、開始要求端末(通信端末10aa)に送信する。これにより、開始要求端末(通信端末10aa)では、通信部11が宛先リスト情報を受信し、記憶・読出部17が記憶部18へ宛先リスト情報を記憶する。
また、管理システム50の端末状態取得部55は、端末抽出部54によって抽出された宛先端末の候補の端末ID(「10ab」、「10ac」、「10db」)を検索キーとして、端末管理テーブルを検索する。そして、端末状態取得部55は、宛先端末の候補の端末ID毎に、対応する稼動状態および通信状態を読み出すことにより、宛先端末の候補(通信端末10ab、10ac、10db)それぞれの稼動状態および通信状態を取得する。
次に、通信部51は、ステップS30で使用された検索キーである端末IDと、対応する宛先端末の候補の稼動状態および通信状態とを含む状態情報を、通信ネットワーク2を介して開始要求端末に送信する。具体的には、通信部51は、例えば、検索キーとしての端末ID「10ab」と、宛先端末の候補(通信端末10ab)の稼動状態「オフライン」とを含む状態情報を、開始要求端末(通信端末10aa)に送信する。なお、稼動状態が「オフライン」の場合には、状態情報には、通信状態は含まれない。また、通信部51は、端末ID「10ac」と、宛先端末の候補(通信端末10ac)の稼動状態「オンライン」と、通信状態「None」とを含む状態情報等、宛先端末の候補すべてに対する状態情報それぞれを開始要求端末(通信端末10aa)へ送信する。
次に、開始要求端末(通信端末10aa)の記憶・読出部17は、順次、管理システム50から受信した状態情報を記憶部18に記憶する。したがって、開始要求端末(通信端末10aa)は、宛先端末の候補の状態情報を受信することで、通話することができる宛先端末の候補の現時点のそれぞれの稼動状態および通信状態を取得することができる。
次に、開始要求端末(通信端末10aa)の表示制御部14は、記憶部18に記憶されている宛先リスト情報、および宛先端末の候補の状態情報に基づいて、宛先端末の候補の稼動状態および通信状態を反映させた宛先リストを作成する。そして、表示制御部14は、図1に示すディスプレイ120aaに、所定のタイミングで図13に示すような宛先リストを表示する。
図14は、実施形態に係る通信システムにおける通話の開始を要求する処理の一例を示すシーケンス図である。図14を参照しながら、通信端末10が他の通信端末10との通信の開始を要求する場合の処理を説明する。なお、図14では、すべて管理情報用セッションseiによって、各種管理情報が送受信される処理が示されている。
まず、開始要求端末のユーザは、通信端末10aaの入力装置108を操作して宛先端末(通信端末10db)を選択する。
すると、通信端末10aaの通信部11は、開始要求端末(通信端末10aa)の端末ID「10aa」、および宛先端末(通信端末10db)の端末ID「10db」を含む開始要求情報を、開始要求端末のIPアドレスと共に管理システム50へ送信する。これにより、管理システム50の通信部51は、開始要求情報を受信すると共に、送信元である開始要求端末(通信端末10aa)のIPアドレス「1.2.1.3」を把握することになる。
そして、状態管理部53は、開始要求情報に含まれる開始要求端末(通信端末10aa)の端末ID「10aa」および宛先端末(通信端末10db)の端末ID「10db」に基づき、端末管理DB5002の端末管理テーブルにおいて、端末ID「10aa」および端末ID「10db」がそれぞれ含まれるレコードの通信状態のフィールド部分を変更する。具体的には、状態管理部53は、端末管理テーブルの端末ID「10aa」が含まれるレコードの通信状態を「Calling」に変更する。同様に、状態管理部53は、端末管理テーブルの端末ID「10db」が含まれるレコードの通信状態を「Ringing」に変更する。
そして、管理システム50のセッション制御部56は、開始要求端末(通信端末10aa)によって要求された宛先端末との間の通信を実行するためのセッション(コンテンツデータ用セッションsed)を識別するためのセッションID「se1」を生成する。セッション制御部56は、セッションIDを生成すると、セッションID「se1」をセッション管理テーブル(図10参照)に記憶する。
続いて、セッション制御部56は、セッション管理テーブルにおいて、セッションID「se1」が含まれるレコードの開始要求端末の端末IDおよび宛先端末の端末IDのフィールド部分に、それぞれ開始要求端末の端末ID「10aa」、宛先端末の端末ID「10db」を記憶して管理する。
次に、通信部51は、通信ネットワーク2を介して、開始要求端末(通信端末10aa)へ、セッション制御部56により生成されたセッションIDを送信する。
また、通信部51は、開始要求端末の端末ID「10aa」と、セッションID「se1」とを含む開始要求情報と、管理システム50のIPアドレスとを宛先端末へ送信する。これにより、宛先端末(通信端末10db)は、開始要求情報を受信すると共に、管理システム50のIPアドレス「1.1.1.2」を把握することになる。
図15は、実施形態に係る通信システムにおける通話の開始の要求を許可する処理の一例を示すシーケンス図である。図16は、開始要求受付画面の表示例を示す図である。図15および図16を参照しながら、開始要求情報を受信した宛先端末のユーザが、入力装置108を操作することにより、開始要求端末との間の通信の開始(セッションの確立)を許可する旨の応答が受け付けられた場合の処理について説明する。
図15に示す送受信処理の開始時には、宛先端末(通信端末10db)のディスプレイ214には、開始要求情報を受信したことを示す開始要求受付画面1200-1(図16参照)が表示されている。
宛先端末(通信端末10db)の入力装置108の操作によって「はい」ボタン1200-2が押下された場合、操作入力受付部12は、開始要求端末(通信端末10aa)との間の通信の開始(セッション確立)を許可する旨の応答を受け付ける。
次に、宛先端末の通信部11は、宛先端末の端末ID「10db」、開始要求端末の端末ID「10aa」、およびセッションID「se1」が含まれる開始応答情報を、管理システム50へ送信する。
管理システム50の通信部51が開始応答情報を受信すると、状態管理部53は、開始応答情報に含まれる開始要求端末の端末ID「10aa」および宛先端末の端末ID「10db」に基づき、端末管理テーブルにおいて、端末ID「10aa」および端末ID「10db」がそれぞれ含まれるレコードの通信状態のフィールド部分を変更する。具体的には、状態管理部53は、端末管理テーブルの端末ID「10aa」が含まれるレコードの通信状態を「Accepted」に変更する。同様に、状態管理部53は、端末管理テーブルの端末ID「10db」が含まれるレコードの通信状態も「Accepted」に変更する。
次に、通信部51は、宛先端末(通信端末10db)の端末ID「10db」、およびセッションID「se1」が含まれる開始応答情報を開始要求端末(通信端末10aa)へ送信する。
開始要求端末は、この開始応答情報を受信すると、通信部11によってセッションID「se1」を管理システム50に送信することにより、セッションを確立させる。
一方、宛先端末は、通信部11によってセッションID「se1」を管理システム50に送信することにより、セッションを確立させる。
図17は、実施形態に係る通信システムのアバター生成処理の流れの一例を示すフローチャートである。図18および図19は、アバターの表示動作を説明する図である。図17~図19を参照しながら、管理システム50においてビデオ会議に参加する参加者のアバターを生成する処理の流れについて説明する。
管理システム50の顔検出部61は、通信部51により受信されたビデオ会議に参加する各通信端末10から受信した映像データから、写り込んでいる参加者の顔画像を検出して、顔の特徴を数値化した特徴値を顔検出情報として取得する。そして、顔検出部61は、映像データにおいて検出した参加者の顔の画像の中心座標を算出する。そして、ステップS62へ移行する。
管理システム50の比較部62は、記憶部58に記憶されている後述の顔・アバター・属性対応テーブル(後述する図23参照)を参照し、顔検出部61により取得された顔検出情報が、顔・アバター・属性対応テーブルに登録されている顔認識情報と一致するか否か比較する。そして、ステップS63へ移行する。
比較部62による顔検出情報と顔認識情報との比較の結果、一致する場合(ステップS63:Yes)、ステップS65へ移行し、一致しない場合(ステップS63:No)、ステップS64へ移行する。
比較部62は、顔・アバター・属性対応テーブルにおいて、顔検出部61により取得された顔検出情報と一致する顔認識情報が存在しない場合、当該顔検出情報を新しい顔認識情報として、顔・アバター・属性対応テーブルに登録する。この時点では、顔・アバター・属性対応テーブルにおいて、新たに登録された顔認識情報のレコードには、対応する(関連付けられた)アバター情報および属性情報は登録されていない状態となる。そして、ステップS65へ移行する。
管理システム50の生成部63は、顔・アバター・属性対応テーブルにおいて、顔検出部61により検出された顔検出情報と一致する顔認識情報(ステップS64で新たに顔認識情報として登録された場合は、当該顔認識情報)に関連付けられたアバター情報が登録されているか否か検索する。関連付けられたアバター情報が登録されている場合(ステップS65:Yes)、ステップS66へ移行し、登録されていない場合(ステップS65:No)、ステップS67へ移行する。
生成部63は、顔・アバター・属性対応テーブルから、比較部62により顔検出情報と一致すると判断された顔認識情報に対応するアバター情報を取得し、当該アバター情報に基づいて、当該顔認識情報に対応する参加者を表すアバターを生成する。そして、管理システム50の表示制御部69は、生成部63により生成されたアバター(参加者の情報の一例)について、当該アバターに対応する属性情報に基づいて表示制御を行う。
顔・アバター・属性対応テーブルにおいて、顔検出部61により検出された顔検出情報と一致する顔認識情報(ステップS64で新たに顔認識情報として登録された場合は、当該顔認識情報)に関連付けられたアバター情報が登録されていない場合、生成部63は、新たにアバター情報を生成する。例えば、記憶部58にデフォルトのアバター情報が記憶されているものとし、生成部63は、新たなアバター情報として、デフォルトのアバター情報を用いるものとしてもよい。そして、生成部63は、新たに生成したアバター情報に基づいて、顔認識情報に対応する参加者を表すアバターを生成する。そして、生成部63は、顔・アバター・属性対応テーブルにおいて、生成した新たなアバター情報を、当該顔認識情報に関連付けて登録する。表示制御部69によるアバターの表示制御は、上述のステップS66で説明した動作と同様である。
図20は、実施形態に係る通信端末の音声方向特定処理の流れの一例を示すフローチャートである。図20を参照しながら、通信端末10における発話方向特定処理の流れについて説明すする。
ビデオ会議の参加者は、他拠点の参加者とコミュニケーションを取るために発話する。そして、ステップS72へ移行する。
すると、発話した参加者が利用する通信端末10のマイク114a(マイク241)は、マイクロホンアレイにより発話した音声を収音して音声信号に変換し、通信端末10の音声入力部15は、当該音声信号を入力(取得)する。そして、ステップS73へ移行する。
通信端末10の発話方向特定部20は、音声入力部15により入力された音声信号に対して音声処理を行うことにより、音声の発話方向を特定する。そして、ステップS74へ移行する。
通信端末10の通信部11は、音声入力部15により入力された音声データ(音声信号)、撮像部13により撮影された映像データ、および発話方向特定部20により特定された発話方向の情報を、管理システム50へ送信する。そして、発話方向特定処理を終了する。
図21は、実施形態に係る通信システムの属性情報取得処理の流れの一例を示すフローチャートである。図22は、属性情報の取得動作を説明する図である。図23は、顔・アバター・属性対応テーブルの一例を示す図である。図21~図23を参照しながら、通信システム1による属性情報取得処理の流れについて説明する。なお、ビデオ会議が開始され、上述の図17で説明したように、管理システム50の表示制御部69がアバターを表示する場合に用いる参加者の属性情報が、顔・アバター・属性対応テーブルに登録されていないため、属性情報要求部64によって、属性情報が登録されていない参加者の拠点の通信端末10へ、属性情報についての発話を要求するための指示を送信したものとする。この場合、通信端末10の表示制御部14は、通信部11を介して当該指示を受信すると、例えば、ディスプレイ120(ディスプレイ214)に、属性情報の発話を促すメッセージを表示させる。なお、属性情報の発話を促すメッセージの表示のほか、例えば、通信端末10の音声出力部16は、属性情報の発話を促す音声を、スピーカ114b(スピーカ242)から出力させてもよい。
通信端末10のディスプレイ120(ディスプレイ214)に表示された属性情報の発話を促すメッセージを確認したビデオ会議の参加者は、自身の名前、属する会社の社名、所属および役職等の属性情報を発話する。図22に示す例では、拠点bの参加者E、Fに対して、属性情報の発話を促すようなメッセージが表示された場合、参加者Eは、自身の属性情報を含む「AAA社、技術のBBBです。」と発話し、参加者Fは、自身の属性情報を含む「XXX社、部長のYYYです。」と発話している状態を示す。図22の例では、拠点bの参加者が発話している状態を示しているが、上述の管理システム50のアバター生成処理の際に、拠点aの参加者の属性情報が顔・アバター・属性対応テーブルに登録されていないことが確認された場合、管理システム50から拠点aの通信端末10に対しても、属性情報についての発話を要求するための指示が送信される。通信端末10の音声入力部15は、マイク114a(マイク241)により収音された参加者が発話した音声の音声データを入力(取得)する。また、通信端末10の発話方向特定部20は、音声入力部15により入力された音声データに基づいて、音声方向(発話方向)を特定する。そして、通信端末10の通信部11は、音声入力部15により入力された音声データ、および発話方向特定部20により特定された発話方向の情報を、管理システム50へ送信する。管理システム50の通信部51は、通信端末10から送信された音声データおよび発話方向の情報を受信する。そして、ステップS82へ移行する。
管理システム50のテキスト化部66は、通信部51により受信された音声データを、既知の音声認識技術によりテキスト化する。そして、ステップS83へ移行する。
管理システム50の抽出部67は、テキスト化部66によりテキスト化されたテキストと、予め属性情報を示す候補として記憶部58に登録されている登録済みワードとを比較する。そして、ステップS84へ移行する。
抽出部67によるテキストと登録済みワードとの比較の結果、一致するキーワードがある(ステップS84:Yes)、ステップS85へ移行し、一致するキーワードがない(ステップS84:No)、ステップS87へ移行する。
抽出部67は、テキスト化部66によりテキスト化されたテキストと、登録済みワードとの比較の結果、当該テキストに登録済みワードと一致するキーワードがある場合、当該キーワードを抽出する。例えば、図23に示す顔・アバター・属性対応テーブルのように属性情報として、社名、所属、役職、および名前のような属性がある場合、抽出部67は、テキストから、各属性に対応するキーワードを抽出する。そして、ステップS86へ移行する。
管理システム50の登録部68は、抽出部67により抽出されたキーワードを、テキスト化部66によりテキスト化された音声データに対応する参加者の属性情報として、顔・アバター・属性対応テーブルにおいて、比較部62により顔認識情報と一致すると判断された参加者の顔検出情報であって、発話方向に対応する参加者の顔検出情報に関連付けて登録する。例えば、図23に示す顔・アバター・属性対応テーブルでは、顔認識情報が「XXX」(M4)、および「YYY」(EL2)である参加者の属性情報として、社名「AAA」、所属「BBB」、役職「CCC」、および名前「DDD」が登録されている。そして、属性情報取得処理を終了する。
テキスト化部66によりテキスト化されたテキストと、登録済みワードとの比較の結果、当該テキストに登録済みワードと一致するキーワードがないため、管理システム50の属性情報要求部64は、属性情報が登録されていない参加者に対して、属性情報の発話を要求するための指示を、通信部51を介して通信端末10へ送信する。そして、通信端末10の表示制御部14は、通信部11を介して当該指示を受信すると、例えば、ディスプレイ120(ディスプレイ214)に、属性情報の発話を促すメッセージを表示させる。そして、ステップS81へ戻る。
図24は、実施形態に係る通信システムのアバター制御処理の流れの一例を示すフローチャートである。図25は、属性情報に基づいてアバターの配置を変更する動作を説明する図である。図26は、発話方向と発話者との対応を説明する説明する図である。図27は、発話者・発話方向対応テーブルの一例を示す図である。図24~図27を参照しながら、通信システム1によるアバター制御処理の流れについて説明する。
図17に示したアバター生成処理が実行されると、管理システム50の生成部63により生成されたアバターは、表示制御部69により、当該アバターに対応する属性情報に基づいて表示制御が行われ、映像データが生成される。表示制御部69による表示制御の詳細は、図17のステップS66で説明したとおりである。ここでは、自拠点の通信端末10が、相手拠点の参加者について生成されたアバターについて表示制御された映像データを管理システム50から受信し、当該映像データをディスプレイ120(ディスプレイ214)に表示させているものとする。
相手拠点の参加者が発話すると、相手拠点の通信端末10の通信部11は、音声入力部15により入力された音声データ、撮像部13により撮影された映像データ、および発話方向特定部20により特定された発話方向の情報を、管理システム50へ送信する。管理システム50の通信部51は、相手拠点の音声データ、映像データおよび発話方向の情報を、相手拠点の通信端末10から受信する。そして、ステップS93へ移行する。
管理システム50の対応付け部65は、通信部51を介して受信した参加者の音声の発話方向と、顔検出部61により検出された顔画像、すなわち参加者とを対応付ける。具体的には、対応付け部65は、予め記憶部58に記憶されている図27に示すような座標(顔中心座標)と、発話方向とを対応付けた発話者・発話方向対応テーブルを参照し、通信部51により受信された発話方向が、どの座標(顔中心座標)に対応するのかを特定する。ここで、例えば、図26に示すように、相手拠点の参加者がA~Dである場合、顔検出部61により参加者A~Dの顔の画像の中心座標はそれぞれ算出されている。そして、対応付け部65は、顔検出部61により算出された相手拠点の参加者の顔画像の中心座標のうち、特定した座標と一致する(または一致するとみなせる)中心座標を特定し、当該中心座標を有する顔画像に対応する参加者のアバターを特定する。そして、ステップS94へ移行する。
管理システム50の表示制御部69は、対応付け部65により特定された参加者のアバターが、通信部51により受信された音声データに合わせて、音声を発話している動作となるように反映した映像データを生成する。具体的に反映動作は、上述したとおりである。そして、管理システム50の通信部51は、相手拠点の通信端末10から受信した音声データ、および表示制御部69により生成された映像データを、自拠点の通信端末10へ送信する。自拠点の通信端末10の表示制御部14は、管理システム50から通信部11を介して音声データおよび映像データを受信すると、ディスプレイ120(ディスプレイ214)に当該映像データを表示させ、音声出力部16は、当該音声データを音声として出力する。
図28は、実施形態に係る通信システムの全体動作の流れの一例を示すシーケンス図である。図29は、音声認識による属性情報の取得を促す画面の一例を示す図である。図28および図29を参照しながら、通信システム1の全体的な動作の流れについて総括的に説明する。なお、図28においては、自拠点の通信端末を通信端末10a(第2通信端末)とし、相手拠点の通信端末を通信端末10b(第1通信端末)として説明する。
自拠点の参加者は、相手拠点の参加者とのビデオ会議を開始するために、通信端末10aの入力装置108を介して、開始するための操作(例えば、通信端末10bを宛先端末として選択する操作)を行う。これによって、上述の図14および図15に示した動作が実行され、通信端末10aと通信端末10bとの間でセッションが確立される。
セッションの確立後、通信端末10aの通信部11が、音声入力部15により入力された音声データ、および撮像部13により撮影された映像データを、管理システム50へ送信したものとする。
管理システム50は、通信端末10aから音声データおよび映像データを受信すると、図17に示したアバター生成処理を実行する。これによって、相手拠点の通信端末10bのディスプレイ120(ディスプレイ214)には、自拠点の参加者をアバターとして示す映像データが表示される。
ステップS104のアバター生成処理において、自拠点の参加者のうち少なくともいずれかの参加者の属性情報が顔・アバター・属性対応テーブルに登録されていない場合、管理システム50の属性情報要求部64は、属性情報が登録されていない参加者に対して、属性情報の発話を要求するための指示を、通信部51を介して通信端末10aへ送信する。
通信端末10aの表示制御部14は、通信部11を介して当該指示を受信すると、例えば、ディスプレイ120(ディスプレイ214)に、属性情報の発話を促すメッセージを表示させる。例えば、図29では、通信端末10aのディスプレイ214に、属性情報を促すメッセージとして「自己紹介をしてください。会社・所属・役職・名前」のように表示された例を示している。
通信端末10aのディスプレイ120(ディスプレイ214)に表示された属性情報の発話を促すメッセージを確認したビデオ会議の参加者は、自身の名前、属する会社の社名、所属および役職等の属性情報を自己紹介として発話する。すると、発話した参加者が利用する通信端末10aのマイク114a(マイク241)は、マイクロホンアレイにより発話した音声を収音して音声信号に変換し、通信端末10aの音声入力部15は、当該音声信号を入力(取得)する。
通信端末10aの発話方向特定部20は、音声入力部15により入力された音声信号に対して音声処理を行うことにより、音声の発話方向を特定する。通信端末10の通信部11は、音声入力部15により入力された音声データ(音声信号)、撮像部13により撮影された映像データ、および発話方向特定部20により特定された発話方向の情報を、管理システム50へ送信する。なお、ステップS109で発話方向の情報が管理システム50へ送信されることに限られず、ビデオ会議のコミュニケーションにおいて発話される度に、通信端末10aにおいて発話方向が特定され、当該発話方向の情報が相手拠点の通信端末10bへ送信される。
管理システム50により通信端末10aから音声データ、映像データおよび発話方向の情報が受信されると、図21に示した属性情報取得処理が実行される。これによって、自拠点の参加者の属性情報が、顔・アバター・属性対応テーブルに登録される。
そして、アバター生成処理の実行によりアバターが生成され、属性情報取得処理により自拠点の参加者の属性情報が登録されると、アバターと属性情報との対応関係が確立し、通信端末10aから管理システム50へ音声データ、映像データおよび発話方向の情報が送信されると、図24に示したアバター制御処理が実行され、音声を発話している動作が反映したアバターの映像データが、通信端末10bへ送信される。
2 通信ネットワーク
2a~2d LAN
2ab、2cd 専用線
2i インターネット
10、10a、10aa、10ab、10b、10ba、10bb、10ca、10cb、10da、10db 通信端末
11 通信部
12 操作入力受付部
13 撮像部
14 表示制御部
15 音声入力部
16 音声出力部
17 記憶・読出部
18 記憶部
19 認証要求部
20 発話方向特定部
30ab、30cb PC
50 管理システム
51 通信部
52 認証部
53 状態管理部
54 端末抽出部
55 端末状態取得部
56 セッション制御部
57 記憶・読出部
58 記憶部
61 顔検出部
62 比較部
63 生成部
64 属性情報要求部
65 対応付け部
66 テキスト化部
67 抽出部
68 登録部
69 表示制御部
70a~70d、70ab、70cd ルータ
90 プログラム提供システム
101 CPU
102 ROM
103 RAM
105 補助記憶装置
106 メディア
107 メディアドライブ
108 入力装置
110 バスライン
111 ネットワークI/F
112 カメラ
112c ケーブル
113 撮像素子I/F
114 スマートスピーカ
114a マイク
114b スピーカ
114c ケーブル
115 スピーカ
115c ケーブル
116 音声入出力I/F
117 USB I/F
119 ディスプレイI/F
120aa、120ba、120ca、120da ディスプレイ
120c ケーブル
201 CPU
202 ROM
203 RAM
204 SSD
205 ネットワークI/F
206 外部機器接続I/F
210 バスライン
211 キャプチャデバイス
212 GPU
213 ディスプレイコントローラ
214 ディスプレイ
215 センサコントローラ
216 接触センサ
217 電子ペンコントローラ
222 電源スイッチ
223 選択スイッチ
230 USBメモリ
240 スマートスピーカ
241 マイク
242 スピーカ
260 カメラ
270 PC
290 電子ペン
301 CPU
302 ROM
303 RAM
305 補助記憶装置
306 記録メディア
307 メディアドライブ
308 ディスプレイ
309 ネットワークI/F
310 バスライン
311 キーボード
312 マウス
313 DVD
314 DVDドライブ
315 USB I/F
1010 作業領域
1020 OS
1040 ブラウザ
1100-2 端末ID
1100-3 端末名
1100-4a オフラインアイコン
1100-4b 通話可能アイコン
1200-1 開始要求受付画面
1200-2 「はい」ボタン
1200-3 「いいえ」ボタン
5001 認証管理DB
5002 端末管理DB
5003 グループ管理DB
5004 セッション管理DB
A 通信アプリ
WA プログラム
Claims (15)
- 複数の通信端末がネットワークを介して音声データを送受信することによりビデオ会議が可能な通信システムであって、
前記ビデオ会議の1以上の参加者を撮影した映像データを得る撮像部と、
前記撮像部により得られた前記映像データから前記参加者を検出する検出部と、
前記参加者が発話した音声データを入力する音声入力部と、
前記音声入力部により入力された前記音声データから、前記参加者の属性情報を抽出する抽出部と、
前記抽出部により抽出された前記属性情報に基づいて、前記検出部により検出された前記参加者の情報について、第1通信端末での表示制御を行う第1制御部と、
前記第1通信端末と前記ネットワークを介して通信する第2通信端末を利用する参加者に対して前記属性情報の発話を要求する指示を、前記第2通信端末へ送信する要求部と、
前記要求部から受信した前記指示に従って、前記第2通信端末において、該第2通信端末を利用する参加者に対して前記属性情報の発話を促す処理を行う第2制御部と、
を有する通信システム。 - 前記第2制御部は、前記第2通信端末を利用する参加者に対して、前記指示を示すメッセージを該第2通信端末の表示装置に表示させる請求項1に記載の通信システム。
- 前記第2制御部は、前記第2通信端末を利用する参加者に対して、前記指示を示す音声を該第2通信端末の出力装置から出力させる請求項1に記載の通信システム。
- 参加者の顔認識情報と、属性情報とを関連付けて記憶する記憶部を、さらに有し、
前記検出部は、前記映像データから前記参加者の顔を検出して、検出した情報を顔認識情報として前記記憶部に記憶させ、
前記第1制御部は、前記検出部により検出された前記参加者の前記顔認識情報に関連付けて前記属性情報が前記記憶部に記憶されている場合、該属性情報に基づいた該参加者の情報を前記第1通信端末に表示させ、
前記要求部は、前記検出部により検出された前記参加者の前記顔認識情報に関連付けて前記属性情報が前記記憶部に記憶されていない場合、前記発話を要求する指示を、前記第2通信端末へ送信する請求項1~3のいずれか一項に記載の通信システム。 - 前記音声入力部は、前記要求部により前記発話を要求する指示が前記第2通信端末へ送信された後、該第2通信端末を利用する参加者が発話した音声データを入力し、
前記抽出部は、前記音声入力部により入力された前記第2通信端末を利用する参加者の前記音声データから該参加者の属性情報を抽出し、
前記通信システムは、前記抽出部により抽出された前記第2通信端末を利用する参加者の属性情報を、該参加者に対応する顔認識情報と関連付けて前記記憶部に登録する登録部を、さらに有する請求項4に記載の通信システム。 - 前記検出部により検出された参加者を表すアバターを生成する生成部を、さらに有し、
前記第1制御部は、前記検出部により検出された前記参加者の情報として、前記生成部により生成された該参加者に対応するアバターについて、前記第1通信端末での表示制御を行う請求項1~5のいずれか一項に記載の通信システム。 - 前記第1制御部は、前記属性情報に基づいて、該属性情報に対応するアバターの配置を変える請求項6に記載の通信システム。
- 前記第1制御部は、前記第1通信端末で表示されているアバターのうち、手前に配置されたアバターであるほど該アバターに対応する参加者の前記音声データの音圧レベルを上げて、該第1通信端末の出力装置から出力させる請求項7に記載の通信システム。
- 前記第1制御部は、前記属性情報を、該属性情報に対応するアバターの近傍に表示させる請求項6に記載の通信システム。
- 前記音声入力部により入力された前記音声データに基づいて、該音声データの音声を発話した前記参加者の発話方向を特定する第1特定部と、
前記検出部により検出された前記参加者の前記映像データ上の位置に基づいて、前記検出部により検出された前記参加者のうち、前記発話方向に対応する参加者を特定する第2特定部と、
をさらに有し、
前記第1制御部は、前記第2特定部により特定された参加者のアバターについて、前記音声データに合わせて、該音声データの音声を発話していることを示すように表示制御を行う請求項6~9のいずれか一項に記載の通信システム。 - 前記第1制御部は、前記検出部により検出された前記参加者の情報を、該参加者の拠点ごとに分けて、前記第1通信端末で表示させる請求項1~10のいずれか一項に記載の通信システム。
- 前記第1制御部は、前記検出部により検出された前記参加者の情報を、同一の拠点にいるように前記第1通信端末で表示させる請求項1~10のいずれか一項に記載の通信システム。
- ビデオ会議を行う複数の通信端末の間で音声データの送受信を中継する情報処理装置であって、
前記ビデオ会議の1以上の参加者を撮影した映像データを得た撮像部により得られた該映像データから前記参加者を検出する検出部と、
前記参加者が発話した音声データを入力した音声入力部により入力された該音声データから、前記参加者の属性情報を抽出する抽出部と、
前記抽出部により抽出された前記属性情報に基づいて、前記検出部により検出された前記参加者の情報について、第1通信端末での表示制御を行う第1制御部と、
前記第1通信端末と通信する第2通信端末を利用する参加者に対して前記属性情報の発話を要求する指示を、前記第2通信端末へ送信する要求部と、
前記要求部から受信した前記指示に従って、前記第2通信端末において、該第2通信端末を利用する参加者に対して前記属性情報の発話を促す処理を行う第2制御部と、
を有する情報処理装置。 - 複数の通信端末がネットワークを介して音声データを送受信することによりビデオ会議を実現する通信方法であって、
前記ビデオ会議の1以上の参加者を撮影した映像データを得る撮像ステップと、
前記映像データから前記参加者を検出する検出ステップと、
前記参加者が発話した音声データを入力する音声入力ステップと、
入力した前記音声データから、前記参加者の属性情報を抽出する抽出ステップと、
抽出した前記属性情報に基づいて、検出した前記参加者の情報について、第1通信端末での表示制御を行う第1制御ステップと、
前記第1通信端末と前記ネットワークを介して通信する第2通信端末を利用する参加者に対して前記属性情報の発話を要求する指示を、前記第2通信端末へ送信する要求ステップと、
前記指示に従って、前記第2通信端末において、該第2通信端末を利用する参加者に対して前記属性情報の発話を促す処理を行う第2制御ステップと、
を有する通信方法。 - ビデオ会議を行う複数の通信端末の間で音声データの送受信を中継するコンピュータに、
前記ビデオ会議の1以上の参加者を撮影した映像データを得た撮像部により得られた該映像データから前記参加者を検出する検出ステップと、
前記参加者が発話した音声データを入力した音声入力部により入力された該音声データから、前記参加者の属性情報を抽出する抽出ステップと、
抽出した前記属性情報に基づいて、検出した前記参加者の情報について、第1通信端末での表示制御を行う第1制御ステップと、
前記第1通信端末と通信する第2通信端末を利用する参加者に対して前記属性情報の発話を要求する指示を、前記第2通信端末へ送信する要求ステップと、
前記指示に従って、前記第2通信端末において、該第2通信端末を利用する参加者に対して前記属性情報の発話を促す処理を行う第2制御ステップと、
を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019129658A JP7400231B2 (ja) | 2019-07-11 | 2019-07-11 | 通信システム、情報処理装置、通信方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019129658A JP7400231B2 (ja) | 2019-07-11 | 2019-07-11 | 通信システム、情報処理装置、通信方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021016083A JP2021016083A (ja) | 2021-02-12 |
JP7400231B2 true JP7400231B2 (ja) | 2023-12-19 |
Family
ID=74531905
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019129658A Active JP7400231B2 (ja) | 2019-07-11 | 2019-07-11 | 通信システム、情報処理装置、通信方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7400231B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023068027A1 (ja) * | 2021-10-19 | 2023-04-27 | 日本電気株式会社 | アバター生成装置、アバター生成方法、及び記録媒体 |
JP7133257B1 (ja) | 2022-01-14 | 2022-09-08 | 株式会社キッズプレート | プログラム、情報処理方法、情報処理装置、および情報処理システム |
JP7131869B1 (ja) | 2022-01-14 | 2022-09-06 | 株式会社キッズプレート | プログラム、情報処理方法、情報処理装置、および情報処理システム |
CN114998977B (zh) * | 2022-07-28 | 2022-10-21 | 广东玄润数字信息科技股份有限公司 | 一种虚拟直播形象训练系统及方法 |
WO2024084855A1 (ja) * | 2022-10-17 | 2024-04-25 | パナソニックIpマネジメント株式会社 | 遠隔会話支援方法、遠隔会話支援装置、遠隔会話システム、及び、プログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002150317A (ja) | 2000-11-08 | 2002-05-24 | Minolta Co Ltd | 映像表示装置 |
JP2010219849A (ja) | 2009-03-17 | 2010-09-30 | Cellius Inc | 画像生成システム、プログラム、情報記憶媒体、サーバシステム、及びコンテンツ配信システム |
JP2019061594A (ja) | 2017-09-28 | 2019-04-18 | 株式会社野村総合研究所 | 会議支援システムおよび会議支援プログラム |
-
2019
- 2019-07-11 JP JP2019129658A patent/JP7400231B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002150317A (ja) | 2000-11-08 | 2002-05-24 | Minolta Co Ltd | 映像表示装置 |
JP2010219849A (ja) | 2009-03-17 | 2010-09-30 | Cellius Inc | 画像生成システム、プログラム、情報記憶媒体、サーバシステム、及びコンテンツ配信システム |
JP2019061594A (ja) | 2017-09-28 | 2019-04-18 | 株式会社野村総合研究所 | 会議支援システムおよび会議支援プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2021016083A (ja) | 2021-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7400231B2 (ja) | 通信システム、情報処理装置、通信方法およびプログラム | |
JP5949272B2 (ja) | 通信システムおよびプログラム | |
JP6201299B2 (ja) | 通信システム、通信方法およびプログラム | |
US9807128B2 (en) | Communication system and computer readable medium | |
JP6303324B2 (ja) | 通信システム、管理装置、通信方法およびプログラム | |
JP6136174B2 (ja) | 通信システム及び通信方法 | |
EP3410676B1 (en) | Communication terminal, communication system, display control method, and program | |
EP3206374A1 (en) | Terminal presence and availability management | |
JP6304372B2 (ja) | 管理システム、記録媒体、及び管理方法 | |
JP6288281B2 (ja) | 送信制御システム、通信端末、通信システム、送信制御方法、及びプログラム | |
JP2024107159A (ja) | 通信端末、通信システム、通信方法およびプログラム | |
JP6365763B2 (ja) | 管理システム、通信システム、及び通信制御プログラム並びに通信制御方法 | |
JP7247672B2 (ja) | 通信端末、通信システム、通信方法およびプログラム | |
JP2016034129A (ja) | 情報送信システム、通信端末、通信システム、情報送信方法、及びプログラム | |
JP2017022432A (ja) | 通信管理システム、通信システム、通信管理方法、及びプログラム | |
JP7456162B2 (ja) | プログラム、通信方法、通信端末および通信システム | |
JP7318461B2 (ja) | 通信システム、通信端末、通信方法、通信端末のプログラムおよびアプリケーションプログラム | |
JP7272223B2 (ja) | プログラム、通信方法、通信端末および通信システム | |
JP7326771B2 (ja) | 通信端末、通信システム、通信方法およびプログラム | |
JP6413215B2 (ja) | 伝送端末及びプログラム | |
JP6107015B2 (ja) | 伝送システム、伝送端末、伝送管理システムおよびプログラム | |
JP7243440B2 (ja) | 通信端末、通信システム、通信方法およびプログラム | |
JP2021022836A (ja) | 通信システム、通信端末、通信方法およびプログラム | |
JP6572655B2 (ja) | 通信管理システム、通信システム、通信管理方法、及びプログラム | |
JP7160126B2 (ja) | 第二の管理システム、プログラム、通信方法、システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220518 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230728 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231120 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7400231 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |