[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7044633B2 - 操作支援装置、操作支援システム、及び操作支援方法 - Google Patents

操作支援装置、操作支援システム、及び操作支援方法 Download PDF

Info

Publication number
JP7044633B2
JP7044633B2 JP2018101537A JP2018101537A JP7044633B2 JP 7044633 B2 JP7044633 B2 JP 7044633B2 JP 2018101537 A JP2018101537 A JP 2018101537A JP 2018101537 A JP2018101537 A JP 2018101537A JP 7044633 B2 JP7044633 B2 JP 7044633B2
Authority
JP
Japan
Prior art keywords
command
input terminal
display
application software
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018101537A
Other languages
English (en)
Other versions
JP2019121336A (ja
Inventor
昭範 大西
洋樹 棟朝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to CN201811614785.6A priority Critical patent/CN110060670B/zh
Priority to US16/233,742 priority patent/US11113027B2/en
Publication of JP2019121336A publication Critical patent/JP2019121336A/ja
Application granted granted Critical
Publication of JP7044633B2 publication Critical patent/JP7044633B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Digital Computer Display Output (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)

Description

本発明は、ユーザーによる表示機器の操作を支援する操作支援装置、操作支援システム、及び操作支援方法に関する。
音声認識技術を利用してユーザーによる操作を支援する放送受信装置が特許文献1に開示されている。特許文献1に開示された放送受信装置は、ユーザー音声に対応する外部入力装置が接続されている外部入力端子を活性化させて、ユーザー音声に対応する外部入力装置から受信する映像を表示する。具体的には、特許文献1に開示された放送受信装置は、外部入力端子と、呼出し語設定部と、保存部と、音声認識部と、制御部と、ディスプレー部とを備える。また、放送受信装置は、サーバーと通信可能に接続する。
外部入力端子には、外部入力装置が接続される。呼出し語設定部は、外部入力装置の呼出し語を設定する。保存部は、呼出し語と、呼出し語に対応する外部入力装置が接続される外部入力端子とをマッチングして保存する。音声認識部は、ユーザー音声をデジタル信号に変換して、サーバーに送信する。サーバーは、デジタル信号に基づいて、ユーザー音声に対応するテキスト情報を生成する。
制御部は、サーバーから受信したテキスト情報に基づいて、ユーザー音声に呼出し語が含まれているか否かを判断し、ユーザー音声に呼出し語が含まれている場合、呼出し語に対応する外部入力端子を活性化させ、呼出し語に対応する外部入力端子が受信する映像を表示するようにディスプレー部を制御する。特許文献1に開示されている呼出し語は、例えばビデオ、DVD、ブルーレイである。
特開2014-021493号公報
しかしながら、特許文献1に開示された放送受信装置では、アプリケーションソフトウェアがインストールされている端末機器(例えば、パーソナルコンピューター)が表示機器に接続されている場合に、そのアプリケーションソフトウェアによって生成される画像情報を、ユーザー音声に応じて表示機器に表示させることができない。
本発明は上記課題に鑑みてなされたものであり、その目的は、表示機器に接続されている端末機器にアプリケーションソフトウェアがインストールされている場合に、そのアプリケーションソフトウェアによって生成される画像情報を、ユーザー音声に応じて表示させることができる操作支援装置、操作支援システム、及び操作支援方法を提供することにある。
本発明の操作支援装置は、表示機器の操作を支援する。当該操作支援装置は、音声認識部と、コマンド生成部とを備える。前記音声認識部は、音声データをテキスト情報に変換する。前記コマンド生成部は、前記テキスト情報の内容に対応する制御コマンドを生成する。また、前記コマンド生成部は、前記テキスト情報に、アプリケーションソフトウェアを示すキーワードが含まれている場合、前記アプリケーションソフトウェアに関連付けられた入力端子を、前記表示機器が備える入力端子のうちから特定する。前記コマンド生成部は、前記制御コマンドとして、特定した前記入力端子を活性化させる切替コマンドと、前記アプリケーションソフトウェアを起動させる起動コマンドとを生成する。
本発明の操作支援システムは、表示機器と、前記表示機器の操作を支援する操作支援装置とを備える。前記操作支援装置は、音声認識部と、コマンド生成部とを備える。前記音声認識部は、音声データをテキスト情報に変換する。前記コマンド生成部は、前記テキスト情報の内容に対応する制御コマンドを生成する。また、前記コマンド生成部は、前記テキスト情報に、アプリケーションソフトウェアを示すキーワードが含まれている場合、前記アプリケーションソフトウェアに関連付けられた入力端子を、前記表示機器が備える入力端子のうちから特定する。前記コマンド生成部は、前記制御コマンドとして、特定した前記入力端子を活性化させる切替コマンドと、前記アプリケーションソフトウェアを起動させる起動コマンドとを生成する。前記表示機器は、前記切替コマンドによって活性化された前記入力端子が受信する画像情報を表示する。
本発明の操作支援方法は、表示機器の操作を支援する。当該操作支援方法は、音声データをテキスト情報に変換する音声認識ステップと、前記テキスト情報の内容に対応する制御コマンドを生成するコマンド生成ステップと、画像情報を表示する表示ステップとを含む。前記コマンド生成ステップは、前記テキスト情報に、アプリケーションソフトウェアを示すキーワードが含まれている場合に、前記アプリケーションソフトウェアに関連付けられた入力端子を、前記表示機器が備える入力端子のうちから特定するステップと、前記制御コマンドとして、特定した前記入力端子を活性化させる切替コマンドと、前記アプリケーションソフトウェアを起動させる起動コマンドとを生成するステップとを含む。前記表示ステップは、前記切替コマンドによって活性化された前記入力端子が受信する画像情報を表示するステップを含む。
本発明によれば、表示機器に接続されている端末機器にアプリケーションソフトウェアがインストールされている場合に、そのアプリケーションソフトウェアによって生成される画像情報を、ユーザー音声に応じて表示させることができる。
本発明の実施形態1に係る会議システムを示す図である。 本発明の実施形態1に係る会議支援サーバーの構成を示す図である。 本発明の実施形態1に係る第1端末機器の構成を示す図である。 本発明の実施形態1に係るマイク/スピーカ装置の構成を示す図である。 本発明の実施形態1に係る表示機器の構成を示す図である。 本発明の実施形態1に係る接続機器登録画面を示す図である。 (a)は、本発明の実施形態1に係る第1管理テーブルを示す図である。(b)は、本発明の実施形態1に係るアプリケーションテーブルを示す図である。 本発明の実施形態1に係る第1キーワード群を示す図である。 本発明の実施形態1に係る第2キーワード群を示す図である。 本発明の実施形態1に係る第3キーワード群を示す図である。 本発明の実施形態1に係る第2管理テーブルを示す図である。 本発明の実施形態1に係る登録処理を示す図である。 本発明の実施形態1に係る表示切替処理を示す図である。 本発明の実施形態1に係る表示切替処理を示す図である。 本発明の実施形態1に係る表示切替処理を示す図である。 本発明の実施形態1に係る表示切替処理の他例を示す図である。 本発明の実施形態1に係る表示画面設定処理を示す図である。 本発明の実施形態2に係る第1端末機器の構成を示す図である。 本発明の実施形態2に係る第2端末機器の構成を示す図である。 本発明の実施形態2に係る会議支援サーバーの構成を示す図である。 本発明の実施形態2に係る第1管理テーブルを示す図である。 本発明の実施形態2に係る第4キーワード群を示す図である。 本発明の実施形態2に係る表示画面設定処理を示す図である。 本発明の他の実施形態に係るメイン画面及びサブ画面を示す図である。
以下、図面を参照して本発明の実施形態を説明する。ただし、本発明は以下の実施形態に限定されない。図中、同一又は相当部分については同一の参照符号を付して説明を繰り返さない。また、説明が重複する箇所については、適宜説明を省略する場合がある。
[実施形態1]
図1は、本実施形態に係る会議システム1を示す図である。会議システム1は、会議に使用される。会議システム1は、操作支援システムの一例である。図1に示すように、会議システム1は、会議支援サーバー2、アクセスポイント3、第1端末機器4~第3端末機器6、マイク/スピーカ装置7、及び表示機器8を備える。
本実施形態において、会議支援サーバー2は、操作支援装置の一例であり、表示機器8の操作を支援する。具体的には、会議支援サーバー2は、ユーザーが発声した音声に所定のキーワードが含まれる場合、ユーザーが発声した音声に応じて表示機器8の表示画面を切り替える。なお、以下の説明において、ユーザーが発声した音声を、「ユーザー音声」と記載する場合がある。
アクセスポイント3は、インターネット回線9とLAN(Local Area Network)ケーブル10とを接続する。LANケーブル10には、第1端末機器4~第3端末機器6、及び表示機器8が接続する。会議支援サーバー2は、インターネット回線9、アクセスポイント3、及びLANケーブル10を介して、第1端末機器4との間で通信を行う。
アクセスポイント3は、無線LANを介してマイク/スピーカ装置7と接続する。会議支援サーバー2は、インターネット回線9、アクセスポイント3、及び無線LANを介して、マイク/スピーカ装置7との間で通信を行う。
なお、アクセスポイント3は、無線LANを介して第1端末機器4と接続してもよいし、LANケーブルを介してマイク/スピーカ装置7と接続してもよい。
第1端末機器4~第3端末機器6は、表示機器8に接続されて、表示機器8に画像情報を出力する。第1端末機器4は、LANケーブル10を介して、第2端末機器5、第3端末機器6、及び表示機器8との間で通信を行う。なお、第1端末機器4は、無線LANを介して、第2端末機器5、第3端末機器6、及び表示機器8との間で通信を行ってもよい。
第1端末機器4は、画像情報を出力できる限り、特に限定されない。本実施形態において、第1端末機器4は、会議室PC(パーソナルコンピューター)であり、アプリケーションソフトウェアを実装することができる。会議室PCには、汎用のパーソナルコンピューターを用いることができる。
第2端末機器5及び第3端末機器6は、画像情報を出力できる限り、特に限定されない。第2端末機器5及び第3端末機器6は、例えば、インターネット回線9を介して外部のサーバーから取得した映像情報を出力する機器であり得る。あるいは、第2端末機器5及び第3端末機器6は、汎用のパーソナルコンピューター、ビデオカメラ、DVD再生装置、又はブルーレイ再生装置であり得る。本実施形態において、第2端末機器5及び第3端末機器6は、ゲストPCであり、アプリケーションソフトウェアを実装することができる。
第1端末機器4~第3端末機器6にインストールされるアプリケーションソフトウェアは、例えば、電子黒板ソフトウェア、表計算ソフトウェア、文書作成ソフトウェア、テレビ会議ソフトウェア、ウエブ会議ソフトウェア、ビデオ会議ソフトウェア、及びプレゼンテーションソフトウェアである。
マイク/スピーカ装置7は、集音装置の一例であり、ユーザーが発声した音声を集音し、集音した音声を音声データ(デジタルデータ)に変換して、会議支援サーバー2へ送信する。また、マイク/スピーカ装置7は、会議支援サーバー2から受信した音声データ(デジタルデータ)に基づいて音声を出力する。
表示機器8は、画像情報を表示する。具体的には、表示機器8は、第1入力端子81~第3入力端子83を備える。第1入力端子81~第3入力端子83には、画像情報を出力できる機器が接続される。第1入力端子81~第3入力端子83は、例えば、D-SUB端子、HDMI(登録商標)端子、又はDisplayportである。
本実施形態において、第1入力端子81には第1端末機器4が接続される。第2入力端子82には第2端末機器5が接続される。第3入力端子83には第3端末機器6が接続される。表示機器8は、第1入力端子81~第3入力端子83のいずれかを活性化させ、第1入力端子81~第3入力端子83のうちの活性化した入力端子が受信した画像情報を表示する。例えば、第1入力端子81を活性化させた場合、第1入力端子81が第1端末機器4から受信する画像情報を表示する。
続いて図1及び図2を参照して、会議支援サーバー2の構成を説明する。図2は、会議支援サーバー2の構成を示す図である。図2に示すように、会議支援サーバー2は、通信部21、音声認識部22、記憶部23、及び制御部24を備える。
通信部21は、インターネット回線9(図1)に接続する。例えば、通信部21は、LANボード又はLANモジュールを備える。通信部21は、第1端末機器4(図1)及びマイク/スピーカ装置7(図1)との間の通信を制御する。
音声認識部22は、マイク/スピーカ装置7(図1)から受信した音声データを音声認識技術によりテキスト情報(以下、「認識結果テキスト」と記載する場合がある。)に変換する。音声認識部22は、例えば、音声認識LSI(Large Scale Integration)を備える。
記憶部23は、例えばRAM(Random Access Memory)、及びROM(Read Only Memory)のような半導体メモリーを備える。更に、記憶部23は、HDD(Hard Disk Drive)のようなストレージデバイスを備える。記憶部23は、制御部24が実行する制御プログラムを記憶する。
本実施形態において、記憶部23は、第1管理テーブル231、アプリケーションテーブル232、第1キーワード群233、第2キーワード群234、第3キーワード群235、及び第2管理テーブル236を記憶する。
第1管理テーブル231及びアプリケーションテーブル232は、第1端末機器4~第3端末機器6(図1)にインストールされている第1アプリケーションソフトウェアと、第1入力端子81~第3入力端子83(図1)に接続する機器と、第1入力端子81~第3入力端子83(図1)とを対応付ける。以下、第1アプリケーションソフトウェアを「外部アプリケーション」と記載する場合がある。
第1管理テーブル231は更に、表示機器8(図1)と、表示機器8(図1)にインストールされている第2アプリケーションソフトウェアとを対応付ける。以下、第2アプリケーションソフトウェアを「内蔵アプリケーション」と記載する場合がある。内蔵アプリケーションは、例えば図5に示すような表示機器8の記憶部87に記憶された電子黒板ソフトウェアである。
第1キーワード群233は、第1入力端子81~第3入力端子83(図1)に接続する各機器を示すキーワードを含む。本実施形態において、第1キーワード群233は、第1端末機器4~第3端末機器6(図1)を示す各キーワードを含む。第2キーワード群234は、表示機器8(図1)が表示する表示画面を1つ前の表示画面に戻すキーワードを含む。第3キーワード群235は、第1端末機器4~第3端末機器6(図1)及び表示機器8(図1)にインストールされている各アプリケーションソフトウェアを示すキーワードを含む。第2管理テーブル236は、表示機器8(図1)が表示した表示画面の履歴(履歴情報)を示す。
制御部24は、例えばCPU(Central Processing Unit)又はMPU(Micro Processing Unit)のようなプロセッサを備える。また、制御部24(コンピューター)は、記憶部23に記憶された制御プログラム(コンピュータープログラム)に基づいて、会議支援サーバー2の動作を制御する。本実施形態において、制御部24は、制御プログラムを実行することにより、コマンド生成部25及び判定部26として機能する。
コマンド生成部25は、認識結果テキストの内容に対応する制御コマンドを生成する。判定部26は、認識結果テキストに、外部アプリケーション及び内蔵アプリケーションのうちのいずれかを示すキーワードと、第1入力端子81~第3入力端子83(図1)に接続する機器のうちのいずれかを示すキーワードと、表示機器8(図1)が表示する表示画面を1つ前の表示画面に戻すキーワードとのうちのいずれが含まれるかを判定する。
詳しくは、判定部26は、第1キーワード群233~第3キーワード群235を参照して、認識結果テキストに含まれるキーワードが、第1キーワード群233に属するキーワードと、第2キーワード群234に属するキーワードと、第3キーワード群235に属するキーワードとのうちのいずれに該当するかを判定する。コマンド生成部25は、判定部26の判定結果に応じて、以下で説明する第1制御コマンド生成処理~第4制御コマンド生成処理を実行する。
[第1制御コマンド生成処理]
コマンド生成部25は、認識結果テキストに、ある外部アプリケーションを示すキーワードが含まれている場合、その外部アプリケーションに関連付けられた入力端子を、第1入力端子81~第3入力端子83(図1)のうちから特定する。
本実施形態において、コマンド生成部25は、まず、外部アプリケーションがインストールされている機器を、第1端末機器4~第3端末機器6(図1)のうちから特定する。詳しくは、コマンド生成部25は、第1管理テーブル231及びアプリケーションテーブル232を参照して、認識結果テキストのキーワードに対応する外部アプリケーションがインストールされている機器を特定する。
更に、コマンド生成部25は、特定した機器が接続されている入力端子を、第1入力端子81~第3入力端子83(図1)のうちから特定する。詳しくは、コマンド生成部25は、第1管理テーブル231を参照して、特定した機器に対応付けられた入力端子を特定する。
また、コマンド生成部25は、入力端子を特定すると、制御コマンドとして、特定した入力端子を活性化させる第1切替コマンドと、認識結果テキストのキーワードに対応する外部アプリケーションを起動させる第1起動コマンドとを生成する。第1切替コマンドは、第1入力端子81~第3入力端子83のうちのいずれかを指定して、指定した入力端子を活性化させる命令を示す。制御コマンド(第1切替コマンド及び第1起動コマンド)は、図1を参照して説明した第1端末機器4(会議室PC)に送信される。なお、以下の説明において、認識結果テキストのキーワードに対応するアプリケーションソフトウェアを、指定アプリケーションと記載する場合がある。指定アプリケーションは、ユーザー音声によって指定されたアプリケーションソフトウェアである。
[第2制御コマンド生成処理]
コマンド生成部25は、認識結果テキストに、内蔵アプリケーションを示すキーワードが含まれている場合、制御コマンドとして、第1入力端子81~第3入力端子83の全てを不活性化させる第2切替コマンドと、認識結果テキストのキーワードに対応する内蔵アプリケーションを起動させる第2起動コマンドとを生成する。制御コマンド(第2切替コマンド及び第2起動コマンド)は、図1を参照して説明した第1端末機器4(会議室PC)に送信される。
[第3制御コマンド生成処理]
コマンド生成部25は、認識結果テキストに、第1端末機器4~第3端末機器6(図1)のうちの1つを示すキーワードが含まれている場合、その機器が接続されている入力端子を、第1入力端子81~第3入力端子83(図1)のうちから特定する。
詳しくは、コマンド生成部25は、第1管理テーブル231を参照して、認識結果テキストのキーワードに対応する機器を特定する。また、第1管理テーブル231を参照して、特定した機器に対応付けられた入力端子を特定する。コマンド生成部25は、入力端子を特定すると、制御コマンドとして、第1切替コマンドを生成する。制御コマンド(第1切替コマンド)は、図1を参照して説明した第1端末機器4(会議室PC)に送信される。
[第4制御コマンド生成処理]
コマンド生成部25は、認識結果テキストに、表示機器8(図1)が表示する表示画面を1つ前の表示画面に戻すキーワードが含まれている場合、第2管理テーブル236を参照して、1つ前の表示画面を表示機器8(図1)に表示させる制御コマンドを生成する。1つ前の表示画面に戻すキーワードは、例えば「前の画面」、「元の画面」又は「さっきの画面」である。
具体的には、第2管理テーブル236は、1つ前の表示画面に表示された画像情報が、第1入力端子81~第3入力端子83(図1)のうちの1つによって受信された画像情報である場合、その入力端子によって受信された画像情報が1つ前の表示画面に表示されていたことを示す。典型的には、第2管理テーブル236は、1つ前の表示画面に表示された画像情報を受信した入力端子を示す。この場合、コマンド生成部25は、制御コマンドとして、第1切替コマンドを生成する。制御コマンド(第1切替コマンド)は、図1を参照して説明した第1端末機器4(会議室PC)に送信される。
また、1つ前の表示画面に表示された画像情報が、内蔵アプリケーションによって生成された画像情報である場合、第2管理テーブル236は、内蔵アプリケーションによって生成された画像情報が1つ前の表示画面に表示されていたことを示す。この場合、コマンド生成部25は、制御コマンドとして、第2切替コマンドと、第2起動コマンドとを生成する。制御コマンド(第2切替コマンド及び第2起動コマンド)は、図1を参照して説明した第1端末機器4(会議室PC)に送信される。
以上、第1制御コマンド生成処理~第4制御コマンド生成処理について説明した。続いて図1及び図2を参照して、制御部24が実行する音声データ出力処理について説明する。
制御部24は、認識結果テキストに含まれるキーワードが、第1キーワード群233~第3キーワード群235に属するキーワードのいずれにも該当しない場合に、音声データ出力処理を実行する。具体的には、制御部24は、所定の音声データをマイク/スピーカ装置7に送信する。所定の音声データは、記憶部23に予め記憶されている。所定の音声データは、ユーザーに再度発声してもらうためのメッセージを示す。例えば、メッセージの内容は、「もう一度話して下さい」である。
以上、図1及び図2を参照して、会議支援サーバー2について説明した。なお、図2に示す会議支援サーバー2は音声認識部22を備えたが、制御部24が音声認識部22の機能を有してもよい。この場合、音声認識部22は省略される。
続いて図1及び図3を参照して、第1端末機器4の構成について説明する。図3は、第1端末機器4(会議室PC)の構成を示す図である。図3に示すように、第1端末機器4は、出力端子41、通信部42、操作部43、表示部44、記憶部45、及び制御部46を備える。
出力端子41は、画像情報を出力する。出力端子41は、表示機器8の第1入力端子81(図1)に接続する。表示機器8の第1入力端子81(図1)が活性化している場合、出力端子41から出力された画像情報が表示機器8(図1)によって表示される。
通信部42は、LANケーブル10(図1)に接続する。通信部42は、例えば、LANボード又はLANモジュールを備える。通信部42は、会議支援サーバー2(図1)との間の通信を制御する。また、通信部42は、第2端末機器5(図1)、第3端末機器6(図1)、及び表示機器8(図1)との間の通信を制御する。
具体的には、通信部42は、会議支援サーバー2(図1)から制御コマンドを受信する。また、通信部42は、第1切替コマンド又は第2切替コマンドを表示機器8(図1)に送信する。第2切替コマンドを送信する場合、通信部42は、第2起動コマンドも表示機器8(図1)に送信する。また、通信部42は、第1起動コマンドを、指定アプリケーション(外部アプリケーション)がインストールされている機器に送信する。なお、指定アプリケーションがインストールされている機器が第1端末機器4である場合、通信部42は、自身へ向けて第1起動コマンドを送信する。
操作部43は、ユーザーによって操作されて、ユーザーからの指示を受け付ける。操作部43は、ユーザーの操作に応じた信号を制御部46に出力する。この結果、第1端末機器4は、操作部43が受け付けた操作に応じた動作を実行する。操作部43は、例えば、ポインティングデバイスと、キーボードとを備える。なお、操作部43は、タッチセンサを備えてもよい。タッチセンサは、表示部44の表示面に重畳される。
表示部44は各種の画面を表示する。本実施形態において、表示部44は、図6を参照して後述する接続機器登録画面60を表示する。接続機器登録画面60は、ユーザーインターフェイス画面であり、各種情報の登録を受け付ける。表示部44は、例えば、液晶ディスプレー又は有機EL(electroluminescence)ディスプレーである。なお、タッチセンサが表示部44の表示面に重畳される場合、表示部44は、タッチディスプレーとして機能する。
記憶部45は、例えばRAM及びROMのような半導体メモリーを備える。更に、記憶部45は、HDDのようなストレージデバイスを備える。記憶部45は、制御部46が実行する制御プログラムを記憶する。
本実施形態において、記憶部45は、表示切替制御プログラム451、アプリケーション起動指示制御プログラム452、及びアプリケーションソフトウェア453(外部アプリケーション)を記憶する。
表示切替制御プログラム451は、会議支援サーバー2(図1)から受信した第1切替コマンド又は第2切替コマンドを表示機器8(図1)に送信するためのプログラムである。アプリケーション起動指示制御プログラム452は、会議支援サーバー2(図1)から受信した第1起動コマンド又は第2起動コマンドを、指定アプリケーションがインストールされている機器に送信するためのプログラムである。
制御部46は、例えばCPUのようなプロセッサを備える。また、制御部46(コンピューター)は、記憶部45に記憶された制御プログラム(コンピュータープログラム)に基づいて、第1端末機器4の動作を制御する。
本実施形態において、制御部46は、表示切替制御プログラム451を実行することにより、会議支援サーバー2(図1)から受信した第1切替コマンド又は第2切替コマンドを表示機器8(図1)に送信する。
また、制御部46は、アプリケーション起動指示制御プログラム452を実行することにより、指定アプリケーションがインストールされている機器を特定し、会議支援サーバー2(図1)から受信した第1起動コマンド又は第2起動コマンドを、指定アプリケーションがインストールされている機器に送信する。
また、制御部46は、表示部44に表示されている画像を示す画像データを、出力端子41を介して第1入力端子81(図1)に送信する。表示機器8(図1)は、第1入力端子81が活性化している場合、表示部44に表示されている画像を表示する。例えば、表示部44は、外部アプリケーション453が現在処理の対象としているデータファイルを表示する場合がある。換言すると、表示部44は、外部アプリケーション453が開いているデータファイルを表示する場合がある。この場合、表示機器8(図1)は、外部アプリケーション453が開いているデータファイルを示す画面を表示する。データファイルは記憶部45に記憶されている。なお、制御部46は、表示部44に表示されている画像を示す画像データを、出力端子41(図1)及びLANケーブル10(図1)を介して第1入力端子81(図1)に送信して、表示部44に表示されている画像を表示機器8(図1)に表示させてもよい。
続いて図1及び図4を参照して、マイク/スピーカ装置7の構成について説明する。図4は、マイク/スピーカ装置7の構成を示す図である。図4に示すように、マイク/スピーカ装置7は、通信部71、音声入力部72、音声出力部73、記憶部74、及び制御部75を備える。
通信部71は、アクセスポイント3(図1)に接続する。通信部71は、会議支援サーバー2(図1)との間の通信を制御する。具体的には、通信部71は、音声データを会議支援サーバー2(図1)に送信する。また、通信部71は、会議支援サーバー2(図1)から音声データを受信する。通信部71は、例えば、無線LANボード又は無線LANモジュールである。
音声入力部72は、ユーザーが発声した音声を集音して、アナログ電気信号に変換する。アナログ電気信号は、制御部75に入力される。音声入力部72は、例えば、マイクロフォンである。音声出力部73は、会議支援サーバー2(図1)から受信した音声データに対応する音声を出力する。音声出力部73は、例えば、スピーカである。
記憶部74は、例えばRAM及びROMのような半導体メモリーを備える。記憶部74は更に、HDDのようなストレージデバイスを備えてもよい。記憶部74は、制御部75が実行する制御プログラムを記憶する。
制御部75は、例えばCPU又はMPUのようなプロセッサを備える。また、制御部75(コンピューター)は、記憶部74に記憶された制御プログラム(コンピュータープログラム)に基づいて、マイク/スピーカ装置7の動作を制御する。
続いて図1及び図5を参照して、表示機器8の構成について説明する。図5は、表示機器8の構成を示す図である。図5に示すように、表示機器8は、図1を参照して説明した第1入力端子81~第3入力端子83に加えて、通信部84、入力端子切替部85、表示部86、記憶部87、及び制御部88を備える。
通信部84は、LANケーブル10(図1)に接続する。通信部84は、例えば、LANボード又はLANモジュールを備える。通信部84は、第1端末機器4(図1)との間の通信を制御する。具体的には、通信部84は、第1端末機器4(図1)から第1切替コマンド又は第2切替コマンドを受信する。第2切替コマンドを受信する場合、通信部84は、第2起動コマンドも受信する。
入力端子切替部85は、第1入力端子81~第3入力端子83のうちのいずれか1つを選択して活性化させる。本実施形態において、入力端子切替部85は、第1切替コマンドに応じて、第1入力端子81~第3入力端子83のうちのいずれか1つを活性化させる。また、入力端子切替部85は、第2切替コマンドに応じて、第1入力端子81~第3入力端子83の全てを不活性化させる。
表示部86は、第1入力端子81~第3入力端子83のうち活性化した入力端子が受信する画像情報を表示する。あるいは、表示部86は、内蔵アプリケーションによって生成される画像情報を表示する。表示部86は、例えば、液晶ディスプレー又は有機ELディスプレーである。なお、表示部86は、タッチセンサを備え得る。換言すると、表示部86は、タッチディスプレーであり得る。
記憶部87は、例えばRAM及びROMのような半導体メモリーを備える。更に、記憶部87は、HDDのようなストレージデバイスを備え得る。記憶部87は、制御部88が実行する制御プログラムを記憶する。本実施形態において、記憶部87は、内蔵電子黒板ソフトウェア871を記憶する。内蔵電子黒板ソフトウェア871は、内蔵アプリケーションの一例である。
制御部88は、例えばCPU又はMPUのようなプロセッサを備える。また、制御部88(コンピューター)は、記憶部87に記憶された制御プログラム(コンピュータープログラム)に基づいて、表示機器8の動作を制御する。
本実施形態において、制御部88は、第1切替コマンド又は第2切替コマンドに応じて、入力端子切替部85を制御する。具体的には、制御部88は、第1切替コマンドを受信した場合、第1切替コマンドに基づいて、第1入力端子81~第3入力端子83のうちのいずれかを活性化させ、第2切替コマンドを受信した場合、第1入力端子81~第3入力端子83の全てを不活性化させる。また、制御部88は、第2起動コマンドに基づいて、内蔵電子黒板ソフトウェア871を起動させる。
以上、図1~図5を参照して本実施形態について説明した。なお、本実施形態では、会議支援サーバー2が音声認識処理を実行したが、マイク/スピーカ装置7が音声認識処理を実行して、認識結果テキストを会議支援サーバー2に送信してもよい。
本実施形態によれば、表示機器8に接続されている端末機器(第1端末機器4~第3端末機器6)にアプリケーションソフトウェアがインストールされている場合に、そのアプリケーションソフトウェアによって生成される画像情報を、ユーザー音声に応じて表示させることができる。
また、本実施形態によれば、各テーブル(第1管理テーブル231、アプリケーションテーブル232、及び第2管理テーブル236)を参照して制御コマンドを生成するため、制御コマンドの作成が容易となる。
更に、本実施形態によれば、第2管理テーブル236によって、表示機器8が表示した表示画面の履歴を管理することができる。したがって、ユーザーは、1つ前の画面に表示されていた画像情報の出力元を認識することなく、「前の画面」や「元の画面」、「さっきの画面」のようなキーワードによって、表示機器8が表示する画面を1つ前の画面に戻すことができる。よって、ユーザーは、より直観的に表示機器8の表示画面を切り替えることができる。
また、本実施形態によれば、表示機器8に接続する機器(第1端末機器4~第3端末機器6)にインストールされているアプリケーションソフトウェアだけではなく、表示機器8にインストールされているアプリケーションソフトウェアも、音声によって起動させることができる。したがって、ユーザーの利便性を高めることができる。
続いて図1~図3及び図6を参照して、接続機器登録画面60について説明する。図6は、本実施形態に係る接続機器登録画面60を示す図である。接続機器登録画面60は、第1端末機器4の表示部44(図3)に表示されるユーザーインターフェイス画面である。ユーザーは、第1端末機器4の操作部43(図3)を操作して、接続機器登録画面60に各種の情報を設定(登録)することができる。なお、第1端末機器4(図3)は、ユーザーインターフェイス画面の画像データを表示機器8(図5)に送信して、第1端末機器4の表示部44(図3)に表示されているユーザーインターフェイス画面を表示機器8の表示部86(図5)に表示させてもよい。
図6に示すように、本実施形態の接続機器登録画面60は、入力端子名欄61、接続機器名登録欄62、及び複数のアプリケーション情報登録欄63を表示する。また、接続機器登録画面60は、保存ボタン64及びキャンセルボタン65を表示する。
入力端子名欄61には、第1入力端子81~第3入力端子83(図1)の各々の名称として事前に設定された名称(デフォルト名)が設定される。具体的には、入力端子名欄61には、D-SUB端子、HDMI(登録商標)端子、又はDisplayport等が設定される。
接続機器名登録欄62には、第1入力端子81~第3入力端子83(図1)の各々に接続される機器の名称(機器名)が設定される。機器名は、ユーザーが任意に決定する。
アプリケーション情報登録欄63には、第1入力端子81~第3入力端子83(図1)の各々に接続される機器にインストールされているアプリケーションの情報が設定される。具体的には、アプリケーション情報登録欄63は、ユーザーが任意に決定したアプリケーションソフトウェアの名称(ユーザーラベル)、及びアプリケーション名(メーカー指定の名称)の設定を受け付ける。
保存ボタン64は、接続機器登録画面60に設定された情報を保存するためのボタンであり、ユーザーが操作部43(図3)を操作して保存ボタン64を押下する指示を入力すると、接続機器登録画面60に設定された情報が保存されて、会議支援サーバー2の制御部24(図2)が、第1管理テーブル231(図2)及びアプリケーションテーブル232(図2)を作成する。
キャンセルボタン65は、接続機器登録画面60を用いた情報登録処理をキャンセルするためのボタンであり、ユーザーが操作部43(図3)を操作してキャンセルボタン65を押下する指示を入力すると、接続機器登録画面60に設定された情報が保存されることなく、接続機器登録画面60が閉じる。
続いて図1~図3及び図7(a)を参照して、第1管理テーブル231について説明する。図7(a)は、本実施形態に係る第1管理テーブル231を示す図である。図7(a)に示すように、第1管理テーブル231は、表示機器ID欄701、第1タグ欄702、第2タグ欄703、アプリケーション情報欄704を有する。
表示機器ID欄701には、表示機器8(図1)の識別番号(デフォルト値)が設定される。表示機器8(図1)の識別番号は、予め設定される。
第1タグ欄702には、第1入力端子81~第3入力端子83(図1)の第1タグが設定される。第1入力端子81~第3入力端子83(図1)の第1タグには、第1入力端子81~第3入力端子83(図1)の各々の名称として事前に設定された名称(デフォルト名)が用いられる。詳しくは、第1タグ欄702には、図6を参照して説明した入力端子名欄61に設定された名称が反映される。具体的には、会議支援サーバー2の制御部24(図2)が、図6を参照して説明した入力端子名欄61に設定された情報に基づいて、第1タグ欄702を作成する。
更に、表示機器8(図1)に内蔵アプリケーションがインストールされている場合、その内蔵アプリケーションの第1タグが第1タグ欄702に設定される。内蔵アプリケーションの第1タグは、予め設定されてもよいし、ユーザーが第1端末機器4の操作部43(図3)を操作して事前に設定(登録)してもよい。
第2タグ欄703には、第1入力端子81~第3入力端子83(図1)の第2タグが設定される。第1入力端子81~第3入力端子83(図1)の第2タグには、第1入力端子81~第3入力端子83(図1)の各々に接続される機器(第1端末機器4~第3端末機器6)の名称(機器名)が設定される。詳しくは、第2タグ欄703には、図6を参照して説明した接続機器名登録欄62に設定された名称が反映される。具体的には、会議支援サーバー2の制御部24(図2)が、図6を参照して説明した接続機器名登録欄62に設定された情報に基づいて、第2タグ欄703を作成する。
更に、表示機器8(図1)に内蔵アプリケーションがインストールされている場合、その内蔵アプリケーションの第2タグとして、ユーザーが任意に決定したアプリケーションの名称(ユーザーラベル)が第2タグ欄703に設定される。内蔵アプリケーションのユーザーラベルは、ユーザーが第1端末機器4の操作部43(図3)を操作して事前に設定(登録)してもよい。
アプリケーション情報欄704は、第2タグ欄703に設定された各機器に外部アプリケーションがインストールされているか否かを示す。具体的には、会議支援サーバー2の制御部24(図2)が、図6を参照して説明したアプリケーション情報登録欄63に設定された情報に基づいて、アプリケーション情報欄704を作成する。ここで、アプリケーション情報欄704の「アプリケーションテーブル1」は、外部アプリケーションがインストールされていることを示すとともに、その外部アプリケーションの情報が「アプリケーションテーブル1」に設定されていることを示す。「アプリケーションテーブル2」及び「アプリケーションテーブル3」も、「アプリケーションテーブル1」と同様である。なお、外部アプリケーションがインストールされていない場合、アプリケーション情報欄704は「Null」を示す。
表示機器8(図1)に内蔵アプリケーションがインストールされている場合、その内蔵アプリケーションのアプリケーション名(メーカー指定の名称)が、アプリケーションタグとしてアプリケーション情報欄704に設定される。内蔵アプリケーションのアプリケーション名は、予め設定される。あるいは、ユーザーが第1端末機器4の操作部43(図3)を操作して、内蔵アプリケーションのアプリケーション名を事前に設定(登録)してもよい。
続いて図1~図3及び図7(b)を参照して、アプリケーションテーブル232について説明する。図7(b)は、本実施形態に係るアプリケーションテーブル232を示す図である。詳しくは、図7(b)は、「アプリケーションテーブル1」を例示している。図7(b)に示すように、アプリケーションテーブル232は、起動コマンド欄705、アプリケーションタグ欄706、及びユーザーラベルタグ欄707を有する。
起動コマンド欄705には、外部アプリケーションの起動コマンド(第1起動コマンド)が設定される。具体的には、図2を参照して説明した会議支援サーバー2の制御部24(コマンド生成部25)が、外部アプリケーションのアプリケーション名を使用して起動コマンドを生成する。詳しくは、起動コマンドとして、「exe」+「アプリケーション名」を生成し、生成した起動コマンドを起動コマンド欄705に設定する。なお、内蔵アプリケーションの起動コマンド(第2起動コマンド)も、外部アプリケーションの起動コマンドと同様に生成される。
アプリケーションタグ欄706には、外部アプリケーションのアプリケーションタグとして、外部アプリケーションのアプリケーション名が設定される。具体的には、会議支援サーバー2の制御部24(図2)が、図6を参照して説明したアプリケーション情報登録欄63に設定された情報に基づいて、アプリケーションタグ欄706を作成する。
ユーザーラベルタグ欄707には、外部アプリケーションのユーザーラベルタグとして、外部アプリケーションのユーザーラベルが設定される。具体的には、会議支援サーバー2の制御部24(図2)が、図6を参照して説明したアプリケーション情報登録欄63に設定された情報に基づいて、ユーザーラベルタグ欄707を作成する。
続いて図1、図2、図7(a)及び図8を参照して、第1キーワード群233について説明する。図8は、本実施形態に係る第1キーワード群233を示す図である。本実施形態において、第1キーワード群233は、第1入力端子81~第3入力端子83(図1)に接続する第1端末機器4~第3端末機器6(図1)の機器名を含む。具体的には、会議支援サーバー2の制御部24(図2)が、図7(a)を参照して説明した第2タグ欄703に設定された情報に基づいて、第1キーワード群233を作成する。
続いて図1、図3、及び図9を参照して、第2キーワード群234について説明する。図9は、本実施形態に係る第2キーワード群234を示す図である。本実施形態において、第2キーワード群234は、表示機器8(図1)が表示する表示画面を1つ前の表示画面に戻す各キーワードを含む。第2キーワード群234は、予め設定されてもよいし、ユーザーが第1端末機器4の操作部43(図3)を操作して事前に設定(登録)してもよい。
続いて図1~図3、図7(a)、図7(b)及び図10を参照して、第3キーワード群235について説明する。図10は、本実施形態に係る第3キーワード群235を示す図である。本実施形態において、第3キーワード群235は、第1端末機器4~第3端末機器6(図1)及び表示機器8(図1)にインストールされているアプリケーションソフトウェアのユーザーラベルを含む。具体的には、会議支援サーバー2の制御部24(図2)が、図7(a)を参照して説明したアプリケーション情報欄704に設定された情報、及び、図7(b)を参照して説明したユーザーラベルタグ欄707に設定された情報に基づいて、第3キーワード群235を作成する。
また、第3キーワード群235は、アプリケーションソフトウェアの起動を命じるキーワードを含む。図10には、「起動」及び「立ち上げ」を例示している。アプリケーションソフトウェアの起動を命じるキーワードは、予め設定されてもよいし、ユーザーが第1端末機器4の操作部43(図3)を操作して事前に設定(登録)してもよい。
以上、図6、図7(a)、図7(b)、及び図8~図10を参照して、第1管理テーブル231、アプリケーションテーブル232、及び第1キーワード群233~第3キーワード群235について説明した。本実施形態によれば、第1端末機器4~第3端末機器6を示すキーワードをユーザーが任意に決定することができる。また、外部アプリケーションを示すキーワード、及び、内蔵アプリケーションを示すキーワードをユーザーが任意に決定することができる。したがって、ユーザーは表示画面の切り替えをより容易に行うことができる。
続いて図1、図2、図7(a)、及び図11を参照して、第2管理テーブル236について説明する。図11は、本実施形態に係る第2管理テーブル236を示す図である。図11に示すように、第2管理テーブル236は、表示機器ID欄708、デフォルト設定端子欄709、「現在の表示」欄710、及び「1つ前の表示」欄711を有する。
表示機器ID欄708には、表示機器8(図1)の識別番号(デフォルト値)が設定される。表示機器8(図1)の識別番号は、予め設定される。
デフォルト設定端子欄709には、第1入力端子81~第3入力端子83(図1)のうちのいずれかの第1タグ(図7(a))が設定される。「デフォルト設定端子」は予め設定される。あるいは、ユーザーが第1端末機器4の操作部43(図3)を操作して、「デフォルト設定端子」を事前に設定(登録)してもよい。
「現在の表示」欄710及び「1つ前の表示」欄711は、表示機器8(図1)が表示する表示画面が切り替わる度に更新される。具体的には、会議支援サーバー2の制御部24(図2)が、第1管理テーブル231(図7(a))を参照して、「現在の表示」欄710及び「1つ前の表示」欄711を更新する。
例えば、表示画面に現在表示されている画像情報が、第1入力端子81~第3入力端子83(図1)のうちの1つによって受信された画像情報である場合、「現在の表示」欄710には、その入力端子の第1タグ(図7(a))が設定される。また、表示画面に現在表示されている画像情報が、内蔵アプリケーションによって生成された画像情報である場合、「現在の表示」欄710には、その内蔵アプリケーションのアプリケーションタグ(図7(a))が設定される。表示画面が切り替わると、「1つ前の表示」欄711に、「現在の表示」欄710に設定されていた情報が設定される。
続いて図1~図17を参照して、会議システム1が実行する処理(動作)について説明する。まず、図1~図12を参照して、登録処理について説明する。登録処理は、図6を参照して説明した接続機器登録画面60を用いて各種の情報を登録する処理である。図12は、本実施形態に係る登録処理を示す図である。
ユーザーが、第1端末機器4の操作部43を操作して、第1端末機器4の表示部44に接続機器登録画面60を表示させる指示を入力すると、図12に示す登録処理が開始する。
図12に示すように、ユーザーが接続機器登録画面60を表示させる指示を入力すると、第1端末機器4の制御部46は、第1端末機器4の表示部44に接続機器登録画面60を表示させる(ステップS1)。
第1端末機器4の制御部46は、第1端末機器4の表示部44に接続機器登録画面60を表示させると、接続機器登録画面60の保存ボタン64及びキャンセルボタン65のうちのいずれのボタンが押下されたのかを判定する(ステップS2)。
ユーザーが、第1端末機器4の操作部43を操作して、保存ボタン64を押下すると(ステップS2;保存)、第1端末機器4の制御部46は、接続機器登録画面60に設定された各種の情報を会議支援サーバー2へ送信して(ステップS3)、処理を終了する。また、ユーザーが、第1端末機器4の操作部43を操作して、キャンセルボタン65を押下すると(ステップS2;キャンセル)、第1端末機器4の制御部46は、接続機器登録画面60に設定された各種の情報を会議支援サーバー2へ送信することなく、処理を終了する。
会議支援サーバー2の制御部24は、第1端末機器4から受信した情報を、第1管理テーブル231及びアプリケーションテーブル232に登録する(ステップS4)。また、会議支援サーバー2の制御部24は、第1管理テーブル231及びアプリケーションテーブル232を参照して、第1キーワード群233、及び第3キーワード群235を作成すると、処理を終了する。
続いて図1~図5及び図13~図15を参照して、会議システム1が実行する表示切替処理について説明する。表示切替処理は、表示機器8の表示画面を切り替える処理である。
まず図1、図2、図4、及び図13を参照して、会議支援サーバー2及びマイク/スピーカ装置7が実行する処理について説明する。図13は、本実施形態に係る表示切替処理を示す図であり、詳しくは、会議支援サーバー2及びマイク/スピーカ装置7が実行する処理を示す。
表示切替処理は、ユーザーが音声を発声することにより開始する。図13に示すように、ユーザーが音声を発声すると、マイク/スピーカ装置7が、ユーザー音声を集音し(ステップS11)、ユーザー音声に対応する音声データを会議支援サーバー2へ送信する(ステップS12)。
会議支援サーバー2が、マイク/スピーカ装置7から音声データを受信すると(ステップS21)、会議支援サーバー2の音声認識部22が音声データをテキスト情報に変換する。この結果、会議支援サーバー2の制御部24が、認識結果テキストを取得する(ステップS22)。
会議支援サーバー2の制御部24は、認識結果テキストを取得すると、表示画面設定処理を実行する(ステップS23)。具体的には、図2を参照して説明した第1制御コマンド生成処理~第4制御コマンド生成処理のいずれかの処理を実行する。表示画面設定処理については、図17を参照して後述する。
会議支援サーバー2の制御部24は、表示画面設定処理の実行後、表示画面の設定に失敗したか否かを判定する(ステップS24)。会議支援サーバー2の制御部24は、表示画面の設定に失敗しなかったと判定した場合(ステップS24;No)、第1制御コマンド生成処理~第4制御コマンド生成処理のいずれかの処理によって生成した制御コマンドを第1端末機器4へ送信して(ステップS25)、図13に示す処理を終了する。
一方、会議支援サーバー2の制御部24は、表示画面の設定に失敗したと判定した場合(ステップS24;Yes)、図2を参照して説明した音声データ出力処理を実行して、ユーザーに再度発声してもらうためのメッセージを示す音声データを、マイク/スピーカ装置7に送信する(ステップS26)。会議支援サーバー2の制御部24は、音声データ出力処理を実行すると、図13に示す処理を終了する。
マイク/スピーカ装置7は、音声データを送信した後(ステップS12)、会議支援サーバー2から音声データを受信したか否かを判定する(ステップS13)。マイク/スピーカ装置7は、会議支援サーバー2から音声データを受信しなかった場合(ステップS13;No)、図13に示す処理を終了する。
一方、マイク/スピーカ装置7は、会議支援サーバー2から音声データを受信した場合(ステップS13;Yes)、会議支援サーバー2から受信した音声データに対応する音声を出力して(ステップS14)、図13に示す処理を終了する。したがって、ユーザーは、再度、表示画面を所望の画面に切り替える指示を音声によって行うことができる。
続いて図1、図3、図5、及び図14を参照して、第1端末機器4(会議室PC)及び表示機器8が実行する処理について説明する。図14は、本実施形態に係る表示切替処理を示す図であり、詳しくは、第1端末機器4(会議室PC)及び表示機器8が実行する処理を示す。
図14に示すように、第1端末機器4の制御部46は、会議支援サーバー2から制御コマンドを受信すると(ステップS31)、制御コマンドに含まれる切替コマンド(第1切替コマンド又は第2切替コマンド)を表示機器8へ送信する(ステップS32)。
表示機器8の制御部88は、第1端末機器4から切替コマンド(第1切替コマンド又は第2切替コマンド)を受信すると(ステップS41)、切替コマンドに従って切替処理を実行する(ステップS42)。具体的には、切替コマンドが第1切替コマンドである場合、表示機器8の制御部88は、第1入力端子81~第3入力端子83のうち、第1切替コマンドによって指定された入力端子を活性化させる。また、切替コマンドが第2切替コマンドである場合、表示機器8の制御部88は、第1入力端子81~第3入力端子83の全てを不活性化させる。
表示機器8の制御部88は、切替処理を実行した後、応答信号を第1端末機器4へ送信して(ステップS43)、図14に示す処理を終了する。応答信号は、切替処理が完了したことを示す。
第1端末機器4の制御部46は、表示機器8から応答信号を受信すると(ステップS33)、会議支援サーバー2から受信した制御コマンドが起動コマンド(第1起動コマンド又は第2起動コマンド)を含むか否かを判定する(ステップS34)。
第1端末機器4の制御部46は、制御コマンドが起動コマンドを含まないと判定すると(ステップS34;No)、図14に示す処理を終了する。一方、第1端末機器4の制御部46は、制御コマンドが起動コマンドを含むと判定すると(ステップS34;Yes)、指定アプリケーションがインストールされている機器へ起動コマンド(第1起動コマンド又は第2起動コマンド)を送信して(ステップS35)、図14に示す処理を終了する。
続いて図1及び図15を参照して、起動コマンド(第1起動コマンド又は第2起動コマンド)を受信した機器Xが実行する処理について説明する。図15は、本実施形態に係る表示切替処理を示す図であり、詳しくは、起動コマンド(第1起動コマンド又は第2起動コマンド)を受信した機器Xが実行する処理を示す。
第1端末機器4が起動コマンドを送信すると、機器Xが起動コマンドを受信する(ステップS51)。具体的には、起動コマンドが第1起動コマンドである場合、第1端末機器4~第3端末機器6のいずれかによって第1起動コマンドが受信される(ステップS51)。一方、起動コマンドが第2起動コマンドである場合、表示機器8によって第2起動コマンドが受信される(ステップS51)。機器Xの制御部は、起動コマンドを受信すると、指定アプリケーションを起動して(ステップS52)、図15に示す処理を終了する。
続いて図16を参照して、表示切替処理の他例を説明する。図16は、本実施形態に係る表示切替処理の他例を示す図である。詳しくは、第1端末機器4(会議室PC)が実行する処理の他例を示す。
図16に示すように、第1端末機器4の制御部46は、会議支援サーバー2から制御コマンドを受信すると(ステップS311)、制御コマンドが起動コマンド(第1起動コマンド又は第2起動コマンド)を含むか否かを判定する(ステップS312)。
第1端末機器4の制御部46は、制御コマンドが起動コマンドを含むと判定すると(ステップS312;Yes)、指定アプリケーションがインストールされている機器へ起動コマンド(第1起動コマンド又は第2起動コマンド)を送信する(ステップS313)。その後、第1端末機器4の制御部46は、切替コマンド(第1切替コマンド又は第2切替コマンド)を表示機器8へ送信して(ステップS314)、図16に示す処理を終了する。
一方、第1端末機器4の制御部46は、制御コマンドが起動コマンドを含まないと判定すると(ステップS312;No)、起動コマンドを送信することなく、切替コマンド(第1切替コマンド又は第2切替コマンド)を表示機器8へ送信して(ステップS314)、図16に示す処理を終了する。
以上、図16を参照して、表示切替処理の他例を説明した。図16に示す処理によれば、アプリケーションソフトウェアを起動させた後に、表示画面を切り替えることができる。したがって、表示画面が一瞬真っ黒になる不具合が発生し難くなる。
すなわち、アプリケーションソフトウェアの起動が遅い場合、切替コマンドを送信した後に起動コマンドを送信すると、アプリケーションソフトウェアが起動する前に、例えば入力端子の切り替えが実行されて、表示画面が一瞬真っ黒になる可能性がある。これに対し、起動コマンドを送信した後に切替コマンドを送信することにより、アプリケーションソフトウェアの起動が遅い場合であっても、表示画面が一瞬真っ黒になる不具合が発生し難くなる。
なお、切替コマンドは、起動コマンドが送信されてから所定期間経過後に送信することが好ましい。これにより、表示画面が一瞬真っ黒になる不具合がより発生し難くなる。より好ましくは、アプリケーションソフトウェアの起動時間経過後に、切替コマンドの送信を実行する。これにより、表示画面が一瞬真っ黒になる不具合を防止することができる。
続いて図1、図2、図7~図11、及び図17を参照して、表示画面設定処理(図13のステップS23)について説明する。図17は、本実施形態に係る表示画面設定処理を示す図である。
図17に示すように、会議支援サーバー2の制御部24は、認識結果テキストを取得すると、認識結果テキストが第1キーワード群233のキーワードを含むか否かを判定する(ステップS201)。詳しくは、認識結果テキストが、キーワード「第1端末」、キーワード「第2端末」、及びキーワード「第3端末」のいずれかを含むか否かを判定する。
会議支援サーバー2の制御部24は、認識結果テキストが第1キーワード群233のキーワードを含むと判定した場合(ステップS201;Yes)、第1管理テーブル231を参照して、制御コマンドを生成する(ステップS202)。例えば、認識結果テキストがキーワード「第1端末」を含む場合、第2タグ「第1端末」を第1管理テーブル231において探索し、第2タグ「第1端末」に対応する第1タグ「第1入力端子」を探索する。そして、会議支援サーバー2の制御部24は、第1入力端子81を活性化させる切替コマンド(第1切替コマンド)を生成する。会議支援サーバー2の制御部24は、制御コマンドを生成すると、図13の処理に戻る。
会議支援サーバー2の制御部24は、認識結果テキストが第1キーワード群233のキーワードを含まないと判定した場合(ステップS201;No)、認識結果テキストが第2キーワード群234のキーワードを含むか否かを判定する(ステップS203)。換言すると、認識結果テキストが、表示画面を1つ前の表示画面に戻すキーワードを含むか否かを判定する。
会議支援サーバー2の制御部24は、認識結果テキストが第2キーワード群234のキーワードを含むと判定した場合(ステップS203;Yes)、第2管理テーブル236を参照して、制御コマンドを生成する(ステップS202)。例えば、第2管理テーブル236の「1つ前の表示」欄711に、第1タグ「第1入力端子」が設定されている場合、会議支援サーバー2の制御部24は、第1入力端子81を活性化させる切替コマンド(第1切替コマンド)を生成する。会議支援サーバー2の制御部24は、制御コマンドを生成すると、図13の処理に戻る。
会議支援サーバー2の制御部24は、認識結果テキストが第2キーワード群234のキーワードを含まないと判定した場合(ステップS203;No)、認識結果テキストが第3キーワード群235のキーワードを含むか否かを判定する(ステップS204)。換言すると、認識結果テキストが、アプリケーションソフトウェアを示キーワード、及び、アプリケーションソフトウェアの起動を指示するキーワードを含むか否かを判定する。
会議支援サーバー2の制御部24は、認識結果テキストが第3キーワード群235のキーワードを含むと判定した場合(ステップS204;Yes)、認識結果テキストに含まれるキーワードに対応するユーザーラベルタグ(以下、ターゲットタグと記載する場合がある。)が、第1管理テーブル231の第2タグ欄703及びアプリケーションテーブル232のユーザーラベルタグ欄707に存在するか否かを判定する(ステップS205)。詳しくは、会議支援サーバー2の制御部24は、第1管理テーブル231のアプリケーション情報欄704を参照して、各アプリケーションテーブル232(「アプリケーションテーブル1」~「アプリケーションテーブル3」)のユーザーラベルタグ欄707を探索する。また、ターゲットタグが、ユーザーラベルタグ欄707に存在しない場合、第1管理テーブル231の第2タグ欄703にターゲットタグが存在するか否かを判定する。
会議支援サーバー2の制御部24は、ターゲットタグが存在すると判定した場合(ステップS205;Yes)、第1管理テーブル231及びアプリケーションテーブル232を参照して、制御コマンドを生成する(ステップS202)。会議支援サーバー2の制御部24は、制御コマンドを生成すると、図13の処理に戻る。
例えば、会議支援サーバー2の制御部24は、「アプリケーションテーブル1」のユーザーラベルタグ欄707にターゲットタグが存在した場合、「アプリケーションテーブル1」に設定されている起動コマンドを参照して、起動コマンドを生成する。また、第1管理テーブル231の「アプリケーションテーブル1」が含まれる行から第1タグ「第1入力端子」を探索する。そして、会議支援サーバー2の制御部24は、第1入力端子81を活性化させる切替コマンド(第1切替コマンド)を生成する。
また例えば、会議支援サーバー2の制御部24は、第1管理テーブル231の第2タグ欄703にターゲットタグが存在する場合、第2切替コマンドを生成する。また、ターゲットタグが存在する行に含まれるアプリケーション情報(アプリケーション名)を用いて起動コマンドを生成する。
会議支援サーバー2の制御部24は、認識結果テキストが第3キーワード群235のキーワードを含まないと判定した場合(ステップS204;No)、表示画面の設定に失敗したことを示すフラグを設定して(ステップS206)、図13に示す処理に戻る。また、会議支援サーバー2の制御部24は、ターゲットタグが存在しないと判定した場合(ステップS205;No)、表示画面の設定に失敗したことを示すフラグを設定して(ステップS206)、図13に示す処理に戻る。
[実施形態2]
続いて図1及び図18~図23を参照して本発明の実施形態2について説明する。但し、実施形態1と異なる事項を説明し、実施形態1と同じ事項についての説明は割愛する。実施形態2は、第1端末機器4~第3端末機器6にインストールされているアプリケーションソフトウェアが現在処理の対象としているデータファイルのファイル名をユーザーが発声すると、表示機器8がそのデータファイルを表示する点で、実施形態1と異なる。
まず図1及び図18を参照して、本実施形態の第1端末機器4(会議室PC)について説明する。図18は、本実施形態に係る第1端末機器4の構成を示す図である。
図18に示すように、本実施形態の記憶部45は、データファイル名通知プログラム454を更に記憶する。また、記憶部45は、外部アプリケーション453の処理の対象であるデータファイルと、そのデータファイルのファイル名を示す情報とを関連付けて記憶している。以下、ファイル名を示す情報を「ファイル名情報」と記載する場合がある。
本実施形態の制御部46は、データファイル名通知プログラム454を実行することにより、表示部44が現在表示しているデータファイルのファイル名情報を会議支援サーバー2(図1)に送信する。換言すると、制御部46は、外部アプリケーション453が開いているデータファイルのファイル名情報を会議支援サーバー2(図1)に送信する。
より具体的には、制御部46は、表示部44において最前面に表示されているデータファイルのファイル名情報を通信部42に送信させる。したがって、制御部46は、最前面に表示されるデータファイルが切り替わると、ファイル名情報を会議支援サーバー2(図1)に送信する。
例えば、ユーザーによる操作部43の操作に応じて、外部アプリケーション453がデータファイルを開くと、制御部46が通信部42にファイル名情報を送信させる。あるいは、表示部44が複数のデータファイルを表示している場合に、ユーザーによる操作部43の操作に応じて、最前面に表示されるデータファイルが入れ替わると、制御部46が通信部42にファイル名情報を送信させる。あるいは、表示部44が複数のデータファイルを表示している場合に、ユーザーによる操作部43の操作に応じて、最前面に表示されていたデータファイルが閉じると、制御部46が通信部42にファイル名情報を送信させる。あるいは、ユーザーによる操作部43の操作に応じて、最小化されていたデータファイルが拡大すると、制御部46が通信部42にファイル名情報を送信させる。なお、制御部46は、ユーザーによる操作部43の操作に応じて、表示部44に表示されていた全てのデータファイルを閉じると、データファイルが表示されていないことを示す情報を会議支援サーバー2(図1)に送信する。
続いて図1及び図19を参照して、本実施形態の第2端末機器5(ゲストPC)の構成について説明する。図19は、本実施形態に係る第2端末機器5の構成を示す図である。図19に示すように、第2端末機器5は、出力端子51、通信部52、操作部53、表示部54、記憶部55、及び制御部56を備える。
出力端子51は、画像情報を出力する。出力端子51は、表示機器8の第2入力端子82(図1)に接続する。表示機器8の第2入力端子82(図1)が活性化している場合、出力端子51から出力された画像情報が表示機器8(図1)によって表示される。
通信部52は、LANケーブル10(図1)に接続する。通信部52は、例えば、LANボード又はLANモジュールを備える。通信部52は、会議支援サーバー2(図1)との間の通信を制御する。具体的には、通信部52は、会議支援サーバー2(図1)にファイル名情報を送信する。また、通信部52は、データファイルが表示されていないことを示す情報を会議支援サーバー2(図1)に送信する。
操作部53は、ユーザーによって操作されて、ユーザーからの指示を受け付ける。操作部53は、ユーザーの操作に応じた信号を制御部56に出力する。この結果、第2端末機器5は、操作部53が受け付けた操作に応じた動作を実行する。操作部53は、例えば、ポインティングデバイスと、キーボードとを備える。なお、操作部53は、タッチセンサを備えてもよい。タッチセンサは、表示部54の表示面に重畳される。
表示部54は各種の画面を表示する。本実施形態において、表示部54は、第2端末機器5にインストールされている外部アプリケーション453が現在処理の対象としている(現在開いている)データファイルを表示する。換言すると、表示部54は、外部アプリケーション453が開いているデータファイルを表示する。表示部54は、例えば、液晶ディスプレー又は有機ELディスプレーである。なお、タッチセンサが表示部54の表示面に重畳される場合、表示部54は、タッチディスプレーとして機能する。
記憶部55は、例えばRAM及びROMのような半導体メモリーを備える。更に、記憶部55は、HDDのようなストレージデバイスを備える。記憶部55は、制御部56が実行する制御プログラムを記憶する。また、記憶部55は、第1端末機器4と同様に、外部アプリケーション453、外部アプリケーション453の処理の対象であるデータファイル、ファイル名情報、及びデータファイル名通知プログラム454を記憶する。
制御部56は、例えばCPUのようなプロセッサを備える。また、制御部56(コンピューター)は、記憶部55に記憶された制御プログラム(コンピュータープログラム)に基づいて、第2端末機器5の動作を制御する。
本実施形態において、制御部56は、データファイル名通知プログラム454を実行することにより、図18を参照して説明した第1端末機器4の制御部46と同様に、表示部54が現在表示しているデータファイルのファイル名情報を会議支援サーバー2(図1)に送信する。また、制御部56は、データファイル名通知プログラム454を実行することにより、図18を参照して説明した第1端末機器4の制御部46と同様に、データファイルが表示されていないことを示す情報を会議支援サーバー2に送信する。
以上、本実施形態の第2端末機器5について説明した。なお、本実施形態の第3端末機器6の構成は第2端末機器5と同様であるため、その説明は割愛する。
続いて図1及び図20を参照して、本実施形態の会議支援サーバー2について説明する。図20は、本実施形態に係る会議支援サーバー2の構成を示す図である。
まず、通信部21について説明する。本実施形態において、通信部21は、第1端末機器4~第3端末機器6(図1)及びマイク/スピーカ装置7(図1)との間の通信を制御する。本実施形態の通信部21は、第1端末機器4~第3端末機器6(図1)から、ファイル名情報を受信する。また、通信部21は、第1端末機器4~第3端末機器6(図1)から、データファイルが表示されていないことを示す情報を受信する。
続いて、記憶部23について説明する。本実施形態の記憶部23は、図20に示すように、第1管理テーブル231、アプリケーションテーブル232、第1キーワード群233、第2キーワード群234、第3キーワード群235、及び第2管理テーブル236に加えて、第4キーワード群237を更に記憶する。
本実施形態の第1管理テーブル231は、第1端末機器4~第3端末機器6(図1)が現在表示しているデータファイルのファイル名と、第1入力端子81~第3入力端子83(図1)に接続する機器と、第1入力端子81~第3入力端子83(図1)とを更に対応付ける点で、実施形態1で説明した第1管理テーブル231と異なる。より具体的には、第1端末機器4~第3端末機器6(図1)の各々の表示部において最前面に表示されているデータファイルのファイル名が、第1管理テーブル231に登録される。
第4キーワード群237は、第1端末機器4~第3端末機器6(図1)が現在表示しているデータファイルのファイル名を示すキーワードを含む。より具体的には、第4キーワード群237は、第1端末機器4~第3端末機器6(図1)の各々の表示部において最前面に表示されているデータファイルのファイル名を示すキーワードを含む。
続いて、本実施形態の判定部26及びコマンド生成部25について説明する。本実施形態において、判定部26は、第1キーワード群233~第4キーワード群237を参照して、認識結果テキストに含まれるキーワードが、第1キーワード群233に属するキーワードと、第2キーワード群234に属するキーワードと、第3キーワード群235に属するキーワードと、第4キーワード群237に属するキーワードとのうちのいずれに該当するかを判定する。コマンド生成部25は、判定部26の判定結果に応じて、第1制御コマンド生成処理~第5制御コマンド生成処理のいずれかを実行する。なお、第1制御コマンド生成処理~第4制御コマンド生成処理は、実施形態1において既に説明しているため、ここでの説明は割愛する。以下、第5制御コマンド生成処理について説明する。
[第5制御コマンド生成処理]
コマンド生成部25は、認識結果テキストに、あるファイル名を示すキーワードが含まれている場合、そのファイル名に関連付けられた入力端子を、第1入力端子81~第3入力端子83(図1)のうちから特定する。
詳しくは、コマンド生成部25は、第1管理テーブル231を参照して、認識結果テキストのキーワードに対応する機器を特定する。更に、コマンド生成部25は、第1管理テーブル231を参照して、特定した機器に対応付けられた入力端子を特定する。
また、コマンド生成部25は、入力端子を特定すると、制御コマンドとして、特定した入力端子を活性化させる第1切替コマンドを生成する。制御コマンド(第1切替コマンド)は、図1を参照して説明した第1端末機器4(会議室PC)に送信される。
以上、図1及び図18~図20を参照して本実施形態について説明した。本実施形態によれば、表示機器8に接続されている端末機器(第1端末機器4~第3端末機器6)にアプリケーションソフトウェアがインストールされている場合に、そのアプリケーションソフトウェアによって生成される画像情報を、ユーザー音声に応じて表示させることができる。
具体的には、アプリケーションソフトウェアが開いているデータファイルのファイル名をユーザーが発声すると、表示機器8にそのデータファイルが表示される。より具体的には、表示機器8に接続されている端末機器の表示部において最前面に表示されているデータファイルのファイル名をユーザーが発声すると、表示機器8にそのデータファイルが表示される。本実施形態によれば、ユーザーは、表示機器8に表示させたいデータファイルを記憶している端末機器を特定することなく、所望のデータファイルを表示機器8に表示させることができる。換言すると、ユーザーは、所望のデータファイルを記憶している端末機器を知らなくても、所望のデータファイルを表示機器8に表示させることができる。
続いて図1、図20及び図21を参照して、本実施形態の第1管理テーブル231について説明する。図21は、本実施形態に係る第1管理テーブル231を示す図である。図21に示すように、本実施形態の第1管理テーブル231は、データファイル名欄712を更に有する。
データファイル名欄712は、第2タグ欄703に設定された各機器の表示部が現在表示しているデータファイルのファイル名を示す。具体的には、データファイル名欄712は、各機器の表示部において最前面に表示されているデータファイルのファイル名を示す。
詳しくは、会議支援サーバー2の制御部24(図20)が、第1端末機器4~第3端末機器6(図1)から受信するファイル名情報に基づいて、データファイル名欄712にファイル名を登録する。換言すると、会議支援サーバー2の制御部24(図20)は、第1端末機器4~第3端末機器6(図1)から受信するファイル名情報に基づいて、データファイル名欄712を更新する。また、会議支援サーバー2の制御部24(図20)は、ある機器から、データファイルが表示されていないことを示す情報を受信すると、その機器に対応するデータファイル名欄712に「Null」を設定する。なお、図21には、拡張子付きのファイル名を例示しているが、拡張子は省略されてもよい。
続いて図1及び図20~図22を参照して、第4キーワード群237について説明する。図22は、本実施形態に係る第4キーワード群237を示す図である。第4キーワード群237は、第1端末機器4~第3端末機器6(図1)のそれぞれの表示部が現在表示しているデータファイルのファイル名を示すキーワードを含む。具体的には、第4キーワード群237は、表示部において最前面に表示されているデータファイルのファイル名を示すキーワードを含む。
詳しくは、会議支援サーバー2の制御部24(図20)が、図21を参照して説明したデータファイル名欄712に設定された情報に基づいて、第4キーワード群237を作成する。換言すると、会議支援サーバー2の制御部24(図20)は、データファイル名欄712を更新すると、第4キーワード群237を更新する。なお、図22には、拡張子が付いていないキーワードを例示しているが、拡張子付きのキーワードが作成されてもよい。
続いて図20~図23を参照して、本実施形態の表示画面設定処理(図13のステップS23)について説明する。図23は、本実施形態に係る表示画面設定処理を示す図である。図23に示す処理は、ステップS207を含む点で、図17に示す表示画面設定処理と異なる。
会議支援サーバー2の制御部24は、認識結果テキストが第3キーワード群235のキーワードを含まないと判定した場合(ステップS204;No)、認識結果テキストが第4キーワード群237のキーワードを含むか否かを判定する(ステップS207)。換言すると、認識結果テキストが、ファイル名を示すキーワードを含むか否かを判定する。
会議支援サーバー2の制御部24は、認識結果テキストが第4キーワード群237のキーワードを含むと判定した場合(ステップS207;Yes)、第1管理テーブル231を参照して、制御コマンドを生成する(ステップS202)。例えば、認識結果テキストがキーワード「1111」(図22)を含む場合、キーワード「1111」を含むファイル名をデータファイル名欄712(図21)において探索する。そして、会議支援サーバー2の制御部24は、第1入力端子81を活性化させる切替コマンド(第1切替コマンド)を生成する。会議支援サーバー2の制御部24は、制御コマンドを生成すると、図13の処理に戻る。
会議支援サーバー2の制御部24は、認識結果テキストが第4キーワード群237のキーワードを含まないと判定した場合(ステップS207;No)、表示画面の設定に失敗したことを示すフラグを設定して(ステップS206)、図13に示す処理に戻る。
以上、図1及び図18~図23を参照して本発明の実施形態2について説明した。なお、本実施形態において、会議支援サーバー2の記憶部23は、入力端子と、入力端子に接続されている機器と、ファイル名とを対応付けるテーブル(第1管理テーブル231)を記憶したが、会議支援サーバー2の記憶部23は、ファイル名と入力端子とを関連付けて記憶してもよい。また、本実施形態では、外部アプリケーション453が開いているデータファイルを表示機器8に表示させたが、表示機器8に表示させるデータファイルは、表示機器8に接続している機器が表示中のデータファイルである限り、外部アプリケーション453が開いているデータファイルに限定されない。
以上、本発明の実施形態について図面を参照しながら説明した。但し、本発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲で種々の態様において実施することが可能である。
例えば、表示機器8は、ユーザー音声に基づいて活性化させた入力端子をユーザーに通知する画像を表示してもよい。活性化させた入力端子をユーザーに通知する画像は、例えば、活性化させた入力端子の名称(D-SUB端子、HDMI(登録商標)端子、及びDisplayport等)を示す。もしくは、表示機器8は、ユーザー音声に基づいて活性化させた入力端子に接続されている端末機器をユーザーに通知する画像を表示してもよい。活性化させた入力端子に接続されている端末機器をユーザーに通知する画像は、例えば、端末機器の名称(第1端末、第2端末等)を示す。
また、本発明の実施形態では、会議システム1を説明したが、本発明が適用されるシステムは、表示機器を備えるシステムである限り、特に限定されない。例えば、本発明は、塾又は学校で使用される講義システム、家庭で使用される表示システムに適用することができる。
また、本発明の実施形態では、マイク/スピーカ装置7が使用されたが、第1端末機器4(会議室PC)又は表示機器8が、マイク/スピーカ装置7の機能を有してもよい。
また、本発明の実施形態では、会議支援サーバー2が表示機器8の表示画面の切り替えを支援する構成について説明したが、会議支援サーバー2は表示機器8の音量操作を支援してもよい。例えば、会議支援サーバー2の記憶部23は、「音量」、「ボリューム」、「下げる」及び「上げる」のような音量に関するキーワード群を更に記憶してもよい。会議支援サーバー2の記憶部23が音量に関するキーワード群を記憶することにより、ユーザー音声に応じた音量の制御が可能となる。
また、本発明の実施形態では、会議支援サーバー2の制御部24(コマンド生成部25)が、アプリケーション名を使用して起動コマンド(第1起動コマンド)を生成したが、ユーザーが第1端末機器4の操作部43を操作して、起動コマンドを登録してもよい。
また、本発明の実施形態では、操作支援装置として会議支援サーバー2が使用されたが、操作支援装置として第1端末機器4(会議室PC)が使用されてもよいし、表示機器8が使用されてもよい。
また、本発明の実施形態では、会議支援サーバー2から送信された制御コマンドを、第1端末機器4が、第1端末機器4~第3端末機器6及び表示機器8へ送信したが、会議支援サーバー2が制御コマンドを第1端末機器4~第3端末機器6及び表示機器8へ送信してもよい。
また、本発明の実施形態において、表示機器8は3つの入力端子(第1入力端子81~第3入力端子83)を備えたが、表示機器8が備える入力端子の数は3つに限定されるものではなく、表示機器8は複数の入力端子を備えていればよい。
また、本発明の実施形態では、ユーザー音声を取得するために、音声を集音する機能と音声を出力する機能とを備えた装置(マイク/スピーカ装置7)が使用されたが、音声を集音する機能と音声を出力する機能とのうちの音声を集音する機能のみを備えた装置が使用されてもよい。
また、本発明の実施形態において、会議支援サーバー2の記憶部23は、入力端子と、入力端子に接続されている機器と、外部アプリケーションとを対応付けるテーブル(第1管理テーブル231)を記憶したが、会議支援サーバー2の記憶部23は、外部アプリケーションと入力端子とを直接対応付けるテーブルを記憶してもよい。
また、本発明の実施形態において、表示機器8は、1つの入力端子を活性化させたが、同時に2つの入力端子を活性化させてもよい。具体的には、表示機器8は、図24に示すように、メイン画面181と、メイン画面181よりも画面サイズが小さいサブ画面182とを同時に表示してもよい。
また、図24に示すように、メイン画面181及びサブ画面182を同時に表示する場合、会議支援サーバー2の記憶部23が、「入れ替え」、「メイン」、及び「サブ」のようなキーワード群を更に記憶することにより、メイン画面181に表示されている第1画像情報と、サブ画面182に表示されている第2画像情報とのうちの少なくとも一方を変更する制御コマンドを生成することができる。
例えば、第1入力端子81が受信する画像情報がメイン画面181に表示されており、第2入力端子82が受信する画像情報がサブ画面182に表示されている状態において、認識結果テキストに、キーワード「入れ替え」が含まれていた場合、コマンド生成部25は、第1入力端子81が受信する画像情報をサブ画面182に表示させ、第2入力端子82が受信する画像情報がメイン画面181を表示させる制御コマンドを生成することができる。
また例えば、第1入力端子81が受信する画像情報がメイン画面181に表示されており、第2入力端子82が受信する画像情報がサブ画面182に表示されている状態において、認識結果テキストに、キーワード「メイン」及びキーワード「第3端末」が含まれていた場合、コマンド生成部25は、第3入力端子83が受信する画像情報をメイン画面181に表示させる制御コマンドを生成することができる。
本発明は、会議システム、講義システム、及び授業システムのような表示機器を使用するシステムに有用である。
1 会議システム
2 会議支援サーバー
4 第1端末機器
5 第2端末機器
6 第3端末機器
7 マイク/スピーカ装置
8 表示機器
60 接続機器登録画面
181 メイン画面
182 サブ画面
231 第1管理テーブル
232 アプリケーションテーブル
233 第1キーワード群
234 第2キーワード群
235 第3キーワード群
236 第2管理テーブル

Claims (13)

  1. 表示機器の操作を支援する操作支援装置であって、
    音声データをテキスト情報に変換する音声認識部と、
    前記テキスト情報の内容に対応する制御コマンドを生成するコマンド生成部と
    を備え、
    前記コマンド生成部は、
    前記テキスト情報に、アプリケーションソフトウェアを示すキーワードが含まれている場合、前記アプリケーションソフトウェアに関連付けられた入力端子を、前記表示機器が備える入力端子のうちから特定し、
    前記制御コマンドとして、特定した前記入力端子を活性化させる切替コマンドと、前記アプリケーションソフトウェアを起動させる起動コマンドとを生成する、操作支援装置。
  2. 前記コマンド生成部は、前記起動コマンドを送信した後に、前記切替コマンドを生成する、請求項1に記載の操作支援装置。
  3. 前記アプリケーションソフトウェアに対してユーザーが任意に設定した名称を記憶する記憶部を備え、
    前記コマンド生成部は、前記テキスト情報に前記名称が含まれている場合、前記名称に対応する前記アプリケーションソフトウェアに関連付けられた入力端子を特定する、請求項1又は請求項2に記載の操作支援装置。
  4. 前記表示機器が表示した表示画面の履歴を示す履歴情報を記憶する記憶部を備え、
    前記コマンド生成部は、前記テキスト情報に、前記表示機器が表示する表示画面を1つ前の表示画面に戻すキーワードが含まれている場合に、前記履歴情報を参照して、前記1つ前の表示画面を前記表示機器に表示させる前記制御コマンドを生成する、請求項1から請求項3のいずれか1項に記載の操作支援装置。
  5. データファイルのファイル名と、入力端子とを関連付けて記憶する記憶部を備え、
    前記テキスト情報に前記ファイル名を示すキーワードが含まれている場合、前記コマンド生成部は、前記ファイル名に関連付けられた前記入力端子を、前記表示機器が備える入力端子のうちから特定して、前記切替コマンドを生成する、請求項1から請求項4のいずれか1項に記載の操作支援装置。
  6. 前記データファイルは、前記アプリケーションソフトウェアが現在処理の対象としているデータファイルである、請求項5に記載の操作支援装置。
  7. 前記データファイルは、前記入力端子に接続されている機器が表示しているデータファイルである、請求項5又は請求項6に記載の操作支援装置。
  8. 前記入力端子に接続されている機器と、前記機器にインストールされている前記アプリケーションソフトウェアと、前記入力端子とを対応付ける管理テーブルを記憶する記憶部を備え、
    前記コマンド生成部は、
    前記管理テーブルを参照して、前記アプリケーションソフトウェアがインストールされている前記機器を特定し、
    前記管理テーブルを参照して、特定した前記機器が接続されている前記入力端子を特定する、請求項1から請求項7のいずれか1項に記載の操作支援装置。
  9. 前記テキスト情報に、前記アプリケーションソフトウェアを示すキーワードと、前記入力端子に接続されている機器を示すキーワードとのうちのいずれが含まれるかを判定する判定部を備え、
    前記コマンド生成部は、
    前記テキスト情報に含まれるキーワードが、前記アプリケーションソフトウェアを示すキーワードである場合、前記制御コマンドとして、前記切替コマンドと、前記起動コマンドとを生成し、
    前記テキスト情報に含まれるキーワードが、前記機器を示すキーワードである場合、前記機器が接続されている入力端子を、前記表示機器が備える入力端子のうちから特定し、
    前記制御コマンドとして、特定した前記入力端子を活性化させる前記切替コマンドを生成する、請求項1から請求項8のいずれか1項に記載の操作支援装置。
  10. 前記アプリケーションソフトウェアは、前記入力端子に関連付けられた第1アプリケーションソフトウェアと、前記表示機器にインストールされている第2アプリケーションソフトウェアとを含み、
    前記コマンド生成部は、前記テキスト情報に、前記第2アプリケーションソフトウェアを示すキーワードが含まれている場合、前記制御コマンドとして、前記第2アプリケーションソフトウェアを起動させる前記起動コマンドを生成する、請求項1から請求項9のいずれか1項に記載の操作支援装置。
  11. 前記表示機器は、メイン画面と、メイン画面よりも画面サイズが小さいサブ画面とを表示し、
    前記コマンド生成部は、前記テキスト情報に、前記メイン画面に表示されている第1画像情報と、前記サブ画面に表示されている第2画像情報とのうちの少なくとも一方を変更するキーワードが含まれる場合、前記キーワードに応じて、前記第1画像情報と前記第2画像情報とのうちの少なくとも一方を変更する前記制御コマンドを生成する、請求項1から請求項10のいずれか1項に記載の操作支援装置。
  12. 表示機器と、前記表示機器の操作を支援する操作支援装置とを備えた操作支援システムであって、
    前記操作支援装置は、
    音声データをテキスト情報に変換する音声認識部と、
    前記テキスト情報の内容に対応する制御コマンドを生成するコマンド生成部と
    を備え、
    前記コマンド生成部は、
    前記テキスト情報に、アプリケーションソフトウェアを示すキーワードが含まれている場合、前記アプリケーションソフトウェアに関連付けられた入力端子を、前記表示機器が備える入力端子のうちから特定し、
    前記制御コマンドとして、特定した前記入力端子を活性化させる切替コマンドと、前記アプリケーションソフトウェアを起動させる起動コマンドとを生成し、
    前記表示機器は、前記切替コマンドによって活性化された前記入力端子が受信する画像情報を表示する、操作支援システム。
  13. 表示機器の操作を支援する操作支援方法であって、
    音声データをテキスト情報に変換する音声認識ステップと、
    前記テキスト情報の内容に対応する制御コマンドを生成するコマンド生成ステップと、
    画像情報を表示する表示ステップと
    を含み、
    前記コマンド生成ステップは、
    前記テキスト情報に、アプリケーションソフトウェアを示すキーワードが含まれている場合に、前記アプリケーションソフトウェアに関連付けられた入力端子を、前記表示機器が備える入力端子のうちから特定するステップと、
    前記制御コマンドとして、特定した前記入力端子を活性化させる切替コマンドと、前記アプリケーションソフトウェアを起動させる起動コマンドとを生成するステップと
    を含み、
    前記表示ステップは、前記切替コマンドによって活性化された前記入力端子が受信する画像情報を表示するステップを含む、操作支援方法。
JP2018101537A 2017-12-28 2018-05-28 操作支援装置、操作支援システム、及び操作支援方法 Active JP7044633B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201811614785.6A CN110060670B (zh) 2017-12-28 2018-12-27 操作辅助装置、操作辅助系统以及操作辅助方法
US16/233,742 US11113027B2 (en) 2017-12-28 2018-12-27 Apparatus, system, and method that support operation to switch to input terminal to be activated among input terminals included in display apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017253528 2017-12-28
JP2017253528 2017-12-28

Publications (2)

Publication Number Publication Date
JP2019121336A JP2019121336A (ja) 2019-07-22
JP7044633B2 true JP7044633B2 (ja) 2022-03-30

Family

ID=67306376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018101537A Active JP7044633B2 (ja) 2017-12-28 2018-05-28 操作支援装置、操作支援システム、及び操作支援方法

Country Status (2)

Country Link
JP (1) JP7044633B2 (ja)
CN (1) CN110060670B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7290524B2 (ja) * 2019-09-18 2023-06-13 シャープ株式会社 情報処理システム、情報処理方法、及び情報処理プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099076A (ja) 1998-09-25 2000-04-07 Fujitsu Ltd 音声認識を活用した実行環境設定装置及び方法
JP2004013849A (ja) 2002-06-11 2004-01-15 Nec Viewtechnology Ltd プロジェクタシステム
JP2004343232A (ja) 2003-05-13 2004-12-02 Nec Corp 通信装置及び通信方法
JP2006208696A (ja) 2005-01-27 2006-08-10 Sony Corp プレゼンテーション用アプリケーションをリモートコントロールするための装置,方法,プログラム及び記録媒体
JP2014021493A (ja) 2012-07-12 2014-02-03 Samsung Electronics Co Ltd 外部入力制御方法及びそれを適用した放送受信装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5704009A (en) * 1995-06-30 1997-12-30 International Business Machines Corporation Method and apparatus for transmitting a voice sample to a voice activated data processing system
JP4378284B2 (ja) * 2002-09-27 2009-12-02 インターナショナル・ビジネス・マシーンズ・コーポレーション ワールド・ワイド・ウェブからの情報を使用してライブ・スピーチの機能を拡張するためのシステムおよび方法
US20050021344A1 (en) * 2003-07-24 2005-01-27 International Business Machines Corporation Access to enhanced conferencing services using the tele-chat system
JP2006330576A (ja) * 2005-05-30 2006-12-07 Sharp Corp 機器操作システム、音声認識装置、電子機器、情報処理装置、プログラム、及び記録媒体
US7640160B2 (en) * 2005-08-05 2009-12-29 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
US7830408B2 (en) * 2005-12-21 2010-11-09 Cisco Technology, Inc. Conference captioning
JP4867804B2 (ja) * 2007-06-12 2012-02-01 ヤマハ株式会社 音声認識装置及び会議システム
JP2011043716A (ja) * 2009-08-21 2011-03-03 Sharp Corp 情報処理装置、会議システム、情報処理方法及びコンピュータプログラム
JP5094804B2 (ja) * 2009-08-31 2012-12-12 シャープ株式会社 会議中継装置及びコンピュータプログラム
JP5143148B2 (ja) * 2010-01-18 2013-02-13 シャープ株式会社 情報処理装置及び通信会議システム
JP5014449B2 (ja) * 2010-02-26 2012-08-29 シャープ株式会社 会議システム、情報処理装置、会議支援方法、情報処理方法、及びコンピュータプログラム
CN103165131A (zh) * 2011-12-17 2013-06-19 富泰华工业(深圳)有限公司 语音处理系统及语音处理方法
JP5871876B2 (ja) * 2013-09-30 2016-03-01 シャープ株式会社 情報処理装置及び電子会議システム
CN103561183B (zh) * 2013-11-22 2015-11-18 重庆昇通科技有限公司 一种电话会议合并业务控制系统及其合并、拆分控制方法
JP6244560B2 (ja) * 2013-12-26 2017-12-13 パナソニックIpマネジメント株式会社 音声認識処理装置、音声認識処理方法、および表示装置
JP6348831B2 (ja) * 2014-12-12 2018-06-27 クラリオン株式会社 音声入力補助装置、音声入力補助システムおよび音声入力方法
JP2017169108A (ja) * 2016-03-17 2017-09-21 株式会社リコー 情報処理装置とそのプログラム及び会議支援システム
CN106740901B (zh) * 2016-12-01 2019-03-22 中车青岛四方机车车辆股份有限公司 车载显示装置的控制系统、方法和轨道车辆
CN106683671A (zh) * 2016-12-21 2017-05-17 深圳启益新科技有限公司 一种中控语音交互控制系统及控制方法
CN107172382A (zh) * 2017-06-29 2017-09-15 深圳双猴科技有限公司 一种智能会议系统及方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099076A (ja) 1998-09-25 2000-04-07 Fujitsu Ltd 音声認識を活用した実行環境設定装置及び方法
JP2004013849A (ja) 2002-06-11 2004-01-15 Nec Viewtechnology Ltd プロジェクタシステム
JP2004343232A (ja) 2003-05-13 2004-12-02 Nec Corp 通信装置及び通信方法
JP2006208696A (ja) 2005-01-27 2006-08-10 Sony Corp プレゼンテーション用アプリケーションをリモートコントロールするための装置,方法,プログラム及び記録媒体
JP2014021493A (ja) 2012-07-12 2014-02-03 Samsung Electronics Co Ltd 外部入力制御方法及びそれを適用した放送受信装置

Also Published As

Publication number Publication date
CN110060670B (zh) 2023-05-30
JP2019121336A (ja) 2019-07-22
CN110060670A (zh) 2019-07-26

Similar Documents

Publication Publication Date Title
US11868680B2 (en) Electronic device and method for generating short cut of quick command
JP7541091B2 (ja) アプリケーション共有方法、電子機器及びコンピュータ可読記憶媒体
JP2019185733A (ja) 音声制御方法、端末機器、クラウドサーバ及びシステム
CN117056622A (zh) 语音控制方法及显示设备
KR20100120958A (ko) 입력 신호 종류 별 사용자 기능 활성화 방법 및 이를 지원하는 휴대 단말기
US20220043564A1 (en) Method for inputting content and terminal device
CN112165642B (zh) 一种显示设备
CN111526402A (zh) 多屏显示设备的语音搜索视频资源的方法及显示设备
US20220083205A1 (en) Icon management method and terminal device
US11113027B2 (en) Apparatus, system, and method that support operation to switch to input terminal to be activated among input terminals included in display apparatus
CN112165641A (zh) 一种显示设备
US11037569B2 (en) Operational support apparatus, operational support system, and operational support method
US10996923B2 (en) Display control device, display control system, and display control method
JP7044633B2 (ja) 操作支援装置、操作支援システム、及び操作支援方法
CN107948756B (zh) 视频合成控制方法、装置及相应的终端
WO2019096043A1 (zh) 应用图标管理方法及移动终端
CN110851106B (zh) 一种音频输出方法及电子设备
CN112040326A (zh) 弹幕控制方法、系统、电视机及存储介质
KR20130108748A (ko) 메뉴 설정 서비스를 제공하기 위한 방법 및 그 전자 장치
CN114005431A (zh) 语音系统的配置方法、装置、设备以及可读存储介质
US20100082845A1 (en) Display apparatus operated in multiple modes and mode changing method thereof
KR20160103698A (ko) 외부음향에 따른 맞춤 정보를 표시하는 전자책
KR20200054699A (ko) 전자 펜에 의한 터치 입력을 수신하는 터치 스크린을 포함하는 디바이스 및 그 동작 방법
CN117271017A (zh) 一种显示设备、媒资详情页的显示方法及存储介质
KR100672843B1 (ko) 서비스 이력을 디스플레이하는 이동통신 단말기 및 이를이용한 서비스 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220317

R150 Certificate of patent or registration of utility model

Ref document number: 7044633

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150