JP7258686B2 - Information processing system, information processing method, and program - Google Patents
Information processing system, information processing method, and program Download PDFInfo
- Publication number
- JP7258686B2 JP7258686B2 JP2019134713A JP2019134713A JP7258686B2 JP 7258686 B2 JP7258686 B2 JP 7258686B2 JP 2019134713 A JP2019134713 A JP 2019134713A JP 2019134713 A JP2019134713 A JP 2019134713A JP 7258686 B2 JP7258686 B2 JP 7258686B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- speaker device
- response content
- response
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 18
- 238000003672 processing method Methods 0.000 title claims description 4
- 230000004044 response Effects 0.000 claims description 200
- 230000005540 biological transmission Effects 0.000 claims description 27
- 239000000463 material Substances 0.000 claims description 17
- 238000004458 analytical method Methods 0.000 claims description 15
- 230000008451 emotion Effects 0.000 claims description 11
- 238000012790 confirmation Methods 0.000 claims 1
- 230000006870 function Effects 0.000 description 26
- 238000012545 processing Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000000034 method Methods 0.000 description 7
- 238000009434 installation Methods 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000008450 motivation Effects 0.000 description 2
- 230000009118 appropriate response Effects 0.000 description 1
- 230000001914 calming effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、情報処理システム、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing system, an information processing method, and a program.
画像センサで検知された画像情報に基づいてスピーカに音声出力させるか否かを決定する決定装置が開示されている(特許文献1)。 A decision device is disclosed that decides whether or not to output sound from a speaker based on image information detected by an image sensor (Patent Document 1).
特許文献1には、ユーザの居住内に設けられたスピーカにおける音声出力のタイミングを画像情報に基づいて決定する決定装置が開示されている。また、特許文献1に記載の決定装置は、音声情報が途切れたタイミングにおいてスピーカに音声出力させる。特許文献1の決定装置によれば居住内の状況に応じてスピーカに音声出力させることができる。しかしながら、特許文献1に記載の決定装置では、スピーカからユーザに対して能動的に音声出力させることができないため、会議などを円滑に進行させるには不十分であるという問題があった。
本発明の目的は、上記のような問題に鑑みてなされたものであり、スピーカを使用するユーザのユーザ情報に基づいて能動的に音声出力するシステムを提供することにある。 SUMMARY OF THE INVENTION An object of the present invention is to provide a system for actively outputting sound based on user information of a user using a speaker.
本発明の一態様に係る情報処理システムは、マイクロフォンとスピーカとを備えるスピーカ装置を使用するユーザに関するユーザ情報を取得するユーザ情報取得部と、前記ユーザ情報取得部で取得された前記ユーザ情報に基づいて、所定の応答内容を特定する応答内容特定部と、前記スピーカ装置に前記所定の応答内容に沿って音声出力させるべく、前記特定部で特定された前記所定の応答内容に基づく音声情報を、前記スピーカ装置に送信する送信部と、を備える。 An information processing system according to an aspect of the present invention includes a user information acquisition unit that acquires user information about a user using a speaker device that includes a microphone and a speaker, and based on the user information acquired by the user information acquisition unit: a response content identifying unit that identifies predetermined response content; and audio information based on the predetermined response content identified by the identifying unit so as to cause the speaker device to output voice along with the predetermined response content, and a transmission unit that transmits to the speaker device.
本発明の一態様に係る情報処置方法は、コンピュータが、マイクロフォンとスピーカとを備えるスピーカ装置を使用するユーザに関するユーザ情報を取得するユーザ情報取得ステップと、前記ユーザ情報取得ステップで取得された前記ユーザ情報に基づいて、所定の応答内容を特定する応答内容特定ステップと、前記スピーカ装置に前記所定の応答内容に沿って音声出力させるべく、前記応答内容特定ステップで特定された前記所定の応答内容に基づく音声情報を、前記スピーカ装置に送信する送信ステップと、を実現する。 An information processing method according to an aspect of the present invention includes a user information acquisition step in which a computer acquires user information about a user who uses a speaker device including a microphone and a speaker; a response content specifying step of specifying predetermined response content based on the information; and a transmission step of transmitting the audio information based on the above to the speaker device.
本発明の一態様に係るプログラムは、コンピュータに、マイクロフォンとスピーカとを備えるスピーカ装置を使用するユーザに関するユーザ情報を取得させることと、前記ユーザ情報に基づいて、所定の応答内容を特定させることと、前記スピーカ装置に前記所定の応答内容に沿って音声出力させるべく、特定された前記所定の応答内容に基づく音声情報を、前記スピーカ装置に送信させることと、を実現させる。 A program according to an aspect of the present invention causes a computer to acquire user information about a user who uses a speaker device including a microphone and a speaker, and to specify predetermined response content based on the user information. and causing the speaker device to transmit voice information based on the specified predetermined response content so as to cause the speaker device to output voice along with the predetermined response content.
本発明によれば、ユーザ情報に基づき能動的にユーザに対して音声出力することで、ユーザの発言を促すことができる。 According to the present invention, it is possible to encourage the user to speak by actively outputting voice to the user based on the user information.
以下に、本発明の一実施形態における音声通知システム1について、図面を参照して詳細に説明する。ただし、以下に説明する実施形態は、あくまでも例示であり、以下に明示しない種々の変形や技術の適用を排除する意図はない。即ち、本発明は、その趣旨を逸脱しない範囲で種々変形し、又は各実施例を組み合わせる等して実施することができる。また、以下の図面の記載において、同一または類似の部分には同一または類似の符号を付して表している。
==構成==
A
==Configuration==
図1は、音声通知システム1の構成の一例を示す図である。図1に示すように、音声通知システム1は、例えば、応答サーバ装置10、スピーカ装置20、ユーザ端末装置30を含む。なお、応答サーバ装置10とスピーカ装置20の機能を一のシステムで実現してもよい。また、応答サーバ装置10とスピーカ装置20のそれぞれの機能を、他の複数の装置で実現してもよい。以下、音声通知システム1の各構成要素について説明する。
FIG. 1 is a diagram showing an example of the configuration of a
応答サーバ装置10は、スピーカ装置20に所定の音声情報を送信することで、ユーザに対してスピーカ装置20から能動的に発話させる装置である。応答サーバ装置10は、例えばサーバコンピュータなどの情報処理装置で構成され、ネットワーク200を介して、スピーカ装置20、ユーザ端末装置30と接続される。応答サーバ装置10と他の装置との間の各種データの送受信については後述する。
The
なお、音声通知システム1には音声認識サーバ装置(不図示)が含まれていてもよい。この場合、応答サーバ装置10は、音声認識サーバ装置において様々な従来技術を用いてユーザの音声を認識して、ユーザの音声を解析して所定の応答を実行する際の、バックエンドとして機能する。すなわち、後述するスピーカ装置20は、応答サーバ装置10が提供する機能をAPI(Application Programming Interface)で呼び出すことで、応答サーバ装置10の機能を利用してもよい。以下では音声認識サーバ装置の有する機能については適宜省略して説明する。
Note that the
スピーカ装置20は、ユーザからの音声を取得し、該音声を音声情報に変換して応答サーバ装置10に送信する装置である。また、スピーカ装置20から取得した音声情報に基づき発話する。スピーカ装置20は所謂スマートスピーカである。ここで、以下説明の理解を助けるために、スピーカ装置20のハードウェア構成の一例について説明する。スピーカ装置20は、例えば、音声を検出して電気信号に変換するマイクロフォン、応答サーバ装置10から取得する音声情報を音声出力するスピーカ、外部の装置と通信するための通信モジュール、視覚的にスピーカ装置20のステータスを示す表示部、各種操作指示を行うための操作ボタン、サポートオペレータと通信するためのサポートボタン、各構成要素を制御する制御部を備える。なお、サポートボタンの機能については後述する。スピーカ装置20については、様々の種類のものが存在し、例えば、複数マイクロフォン及び複数スピーカを有するものや、上面の外周部に等間隔にマイクロフォンを配設したものや、側面の外周部に等間隔にスピーカを配設したものなどが存在し、その仕様が限定されるものではない。
The
ユーザ端末装置30は、ユーザの端末装置であり例えばスマートフォンである。ユーザ端末装置30は、ネットワーク200を介して応答サーバ装置10に接続され、応答サーバ装置10から送信される各種情報を、図13に示す表示装置107に表示する。ユーザは、ユーザ端末装置30を用いて応答サーバ装置10に各種要求を行う。なお、ユーザ端末装置30は近距離無線通信にてスピーカ装置20に接続されてもよい。
==音声通知システム1の概要==
The
==Overview of
図2は、音声通知システム1における処理の概要を示す図である。図2を参照して、音声通知システム1の動作の概要を説明する。
FIG. 2 is a diagram showing an outline of processing in the
まず、S1において、スピーカ装置20は、スピーカ装置20を識別するためのスピーカ情報を応答サーバ装置10に送信する。これにより応答サーバ装置10においてスピーカ装置20の設置場所や機能などを把握できる。
First, in S<b>1 , the
次に、S2において、ユーザ端末装置30は、スピーカ装置20を介してまたは応答サーバ装置10に直接、ユーザ端末装置30を識別するためのユーザ情報を送信する。これにより応答サーバにおいてユーザ端末装置30がどのスピーカ装置20と関連付けられているかを特定される。
Next, in S<b>2 , the
次に、S3において、応答サーバ装置10は、スピーカ情報とユーザ情報とに基づいて、所定の条件で特定された音声情報をスピーカ装置20に送信する。これにより、スピーカ装置20は、ユーザがスピーカ装置20に対して発話する前に、ユーザにとって適切なタイミングで適切な内容の音声を、スピーカ装置20からユーザに対して発話する。スピーカ装置20から出力される音声の内容やタイミングなどについては後述する。
Next, in S<b>3 , the
次に、S4において、応答サーバ装置10はスピーカ装置20を介してユーザの音声を音声情報として取得し、該音声情報に基づき特定された音声情報をスピーカ装置20に送信する。これによりユーザにはスピーカ装置20を介して音声にて様々な情報が提供される。提供される情報については後述する。
==音声通知システム1の構成==
Next, in S<b>4 , the
== Configuration of
以下、応答サーバ装置10、スピーカ装置20、ユーザ端末装置30が備える機能について説明する。なお、以下説明においては、理解を容易にするために、一例として、予約管理システム(不図示)にて予約済の会議において、ユーザが所定の会議室に設置されたスピーカ装置20の使用を想定する。
<<応答サーバ装置10>>
Functions of the
<<
図3を参照して、応答サーバ装置10の機能構成について説明する。図3は、応答サーバ装置10の機能構成の一例を示す図である。図3に示すとおり、応答サーバ装置10は、記憶部11、スピーカ情報取得部12a、ユーザ情報取得部12b、予約情報取得部12c、認識部13、議事録特定部14、画像特定部15、応答内容特定部16、分析部17、送信部18の機能を有する。応答サーバ装置10が有する機能は、図13に示すプロセッサ101が、記憶装置103に記憶されたコンピュータプログラムを読み込み、実行し、応答サーバ装置10の各構成を制御すること等により実現される。
A functional configuration of the
記憶部11は、例えば、スピーカ情報テーブル11a、ユーザ情報テーブル11b、議事録情報テーブル11c、画像情報テーブル11d、応答内容テーブル11eを有する。各テーブルは一例を示すものであり、その内容が特に限定されるものではない。
The
スピーカ情報テーブル11aは、スピーカ情報を格納したテーブルである。図4に示すように、スピーカ情報テーブル11aのデータ構造は、例えばスピーカIDなどの適宜な項目を主キーとして、設置場所、仕様などのデータから成るレコードの集合体である。ここで、スピーカIDとはスピーカを識別する識別符号である。識別符号はユニークな番号であればよい。設置場所とは該スピーカ装置20が設置されている場所であり例えば会議室番号などである。仕様とは該スピーカ装置20の機能仕様である。スピーカ情報テーブル11aの内容は例えば応答サーバ装置10の管理者により適宜更新される。応答サーバ装置10はスピーカ情報テーブル11aを参照することでスピーカ装置20を特定できる。
The speaker information table 11a is a table storing speaker information. As shown in FIG. 4, the data structure of the speaker information table 11a is a collection of records consisting of data such as installation location and specifications, with appropriate items such as speaker IDs as primary keys. Here, the speaker ID is an identification code for identifying the speaker. The identification code may be any unique number. The installation location is the location where the
ユーザ情報テーブル11bは、ユーザ情報を格納したテーブルである。図5に示すように、ユーザ情報テーブル11bのデータ構造は、例えばユーザIDなどの適宜な項目を主キーとして、氏名、役職などのデータから成るレコードの集合体である。ここで、ユーザIDとはユーザを識別する識別符号であり、例えば、ユニークな任意の番号、携帯番号、MAC(Media Access Control)アドレス、BD(Bluetooth(登録商標) Device)アドレスなどである。氏名とはユーザの氏名を示す。役職とはユーザの役職を示す。ユーザ情報テーブル11bの内容は例えば応答サーバ装置10の管理者により適宜更新される。応答サーバ装置10はユーザ情報テーブル11bを参照することでスピーカ装置20を使用するユーザを特定できる。
The user information table 11b is a table that stores user information. As shown in FIG. 5, the data structure of the user information table 11b is a collection of records consisting of data such as names and positions, with appropriate items such as user IDs as primary keys. Here, the user ID is an identification code that identifies a user, and includes, for example, a unique arbitrary number, mobile phone number, MAC (Media Access Control) address, BD (Bluetooth (registered trademark) Device) address, and the like. The name indicates the name of the user. The job title indicates the job title of the user. The contents of the user information table 11b are appropriately updated by the administrator of the
議事録情報テーブル11cは、過去の議事録を示す議事録情報を格納したテーブルである。図6に示すように、議事録情報テーブル11cのデータ構造は、例えば議事録IDなどの適宜な項目を主キーとして、議事録内容、会議IDなどのデータから成るレコードの集合体である。ここで、議事録IDとは議事録を識別する識別符号である。議事録内容とは過去の会議における議事録の内容を記録したデータである。会議IDは該議事録に対応する会議を識別する識別符号である。議事録情報テーブル11cの内容は会議終了時に自動的に更新される。応答サーバ装置10は議事録情報テーブル11cを参照することで会議に対応する過去の会議における議事録をユーザに提示することができるため、円滑な会議運営を実現できる。
The minutes information table 11c is a table that stores minutes information indicating past minutes. As shown in FIG. 6, the data structure of the minutes information table 11c is a set of records composed of data such as minutes content and meeting ID, with appropriate items such as minutes ID as a primary key. Here, the minutes ID is an identification code for identifying the minutes. The contents of minutes are data recording the contents of the minutes of past meetings. The conference ID is an identification code that identifies the conference corresponding to the minutes. The contents of the minutes information table 11c are automatically updated at the end of the conference. By referring to the minutes information table 11c, the
画像情報テーブル11dは、例えば円滑な会議運営に要する画像を格納したテーブルである。図7に示すように、画像情報テーブル11dのデータ構造は、例えば画像IDなどの適宜な項目を主キーとして、画像(動画含む)などのデータから成るレコードの集合体である。ここで、画像とは静止画像または動画像などである。画像には会議で使用されるプレゼンテーション資料などが含まれていてもよい。画像情報テーブル11dの内容は例えば応答サーバ装置10の管理者により適宜更新される。応答サーバ装置10は画像情報テーブル11dを参照することで会議に対応する画像をユーザに提示することができるため、円滑な会議運営を実現できる。
The image information table 11d is a table storing images required for smooth conference management, for example. As shown in FIG. 7, the data structure of the image information table 11d is a collection of records composed of data such as images (including moving images), with appropriate items such as image IDs as primary keys. Here, an image is a still image, a moving image, or the like. The images may include presentation materials and the like used in meetings. The contents of the image information table 11d are appropriately updated by the administrator of the
応答内容テーブル11eは、例えばユーザ情報や音声情報に対応する応答内容を格納したテーブルである。図8に示すように、応答内容テーブル11eのデータ構造は、例えば応答内容IDなどの適宜な項目を主キーとして、スピーカID、ユーザID、画像ID、議事録ID、キーワード、応答内容などのデータから成るレコードの集合体である。具体的には、応答内容IDには画像IDや議事録IDなど関連付けられている。例えば、応答サーバ装置10は、所定の会議において使用されるスピーカ装置20のスピーカID、会議室で特定されたユーザ端末装置30のユーザIDなどを特定し、それに対応する応答内容IDを特定する。これにより応答内容IDに対応する応答内容を特定する。ここで、応答内容とは、会議、音声情報、ユーザ情報に対応する単文または複文である。応答内容には、音声、画像、議事録などが示され、スピーカ装置20に送信する応答内容が示される。また、キーワードとは、音声情報を変換したテキスト情報における単語などである。応答サーバ装置10は、キーワードに基づいて応答内容を特定することもできる。応答内容テーブル11eの内容は例えば応答サーバ装置10の管理者により適宜更新される。応答サーバ装置10は、応答内容テーブル11eを参照することで、会議またはユーザに対応する音声をスピーカ装置20から出力させることができ、円滑な会議運営を実現できる。
The response content table 11e is a table storing response content corresponding to, for example, user information and voice information. As shown in FIG. 8, the data structure of the response content table 11e includes data such as speaker IDs, user IDs, image IDs, minutes IDs, keywords, and response content, with appropriate items such as response content IDs as primary keys. is a set of records consisting of Specifically, the response content ID is associated with an image ID, minutes ID, and the like. For example, the
スピーカ情報取得部12aは、スピーカ装置20から送信されたスピーカ情報を取得する。取得されたスピーカ情報はスピーカ情報テーブル11aに格納される。
The speaker
ユーザ情報取得部12bは、所定のスピーカ装置20を使用するユーザ端末装置30から送信されたユーザ情報を取得する。ユーザ情報には例えばユーザが使用するスピーカ装置20のスピーカ情報が関連付けられている。ここで、ユーザ情報取得部12bは、ユーザ情報を、ユーザ端末装置30から直接に取得してもよいし、スピーカ装置20を介して取得してもよい。
The user
具体的には、図9Aに示すように、応答サーバ装置10がユーザ端末装置30から直接、ユーザ情報を取得する場合、例えば、会議室に掲示されるQRコード(登録商標)または表示装置300に表示されるQRコードをユーザ端末装置30の読取機能で読み取ることで、ユーザ情報に該QRコードに含まれるスピーカ情報が付加され、該ユーザ情報が応答サーバ装置10に送信される。
Specifically, as shown in FIG. 9A, when the
また、図9Bに示すように、応答サーバ装置10がスピーカ装置20を介してユーザ情報を取得する場合、例えば、ユーザ端末装置30はユーザ情報として自己のMACアドレスまたはBDアドレスをスピーカ装置20に送信することで、ユーザ情報とスピーカ情報とが関連付けられ、それらの情報が応答サーバ装置10に送信される。
9B, when the
予約情報取得部12cは、予約管理システム(不図示)から、会議室の予約状況を示す予約情報を取得する。予約情報には、例えば、日時、利用者、会議室、利用目的に関する情報が含まれる。これにより、応答サーバ装置10は、例えば、いつ、どのユーザが、どの会議室を、どのような目的で使用するかを特定できる。
The reservation
認識部13は、ユーザ情報取得部12bで取得されたユーザ情報に基づき、スピーカ情報テーブル11aを参照して、ユーザ端末装置30とユーザが使用するスピーカ装置20とを関連付けて認識する。これにより、応答サーバ装置10は、どのユーザがどこの会議室でどのスピーカを使用する状況であるかを特定できる。ここで、応答サーバ装置10は、認識部13で認識されたユーザ情報に対応するユーザにつき、スピーカ装置20に接続された表示装置300に出力してもよい。これにより会議における参加者の出席状況を把握できる。
The
議事録特定部14は、後述する応答内容特定部16で議事録を使用すると特定された場合、応答内容特定部の応答内容に応じて、議事録情報テーブル11cを参照して、過去の会議で作成された所定の議事録を特定する。議事録特定部14は、送信部18を介して特定された所定の議事録をスピーカ装置20に接続された表示装置300に出力してもよい。これにより、ユーザは表示装置300に出力された以前の会議の議事録を確認できるため会議を円滑に進行できる。
The
画像特定部15は、後述する応答内容特定部16で画像を使用すると特定された場合、応答内容特定部の応答内容に応じて、画像情報テーブル11dを参照して、所定の画像を特定する。画像特定部15は、送信部18を介して特定された所定の画像をスピーカ装置20に接続された表示装置300に出力してもよい。これにより会議における議論を円滑に進行できる。
When the response content specifying unit 16 (to be described later) specifies that an image is to be used, the
応答内容特定部16は、応答内容テーブル11eを参照して、スピーカ情報と関連付くユーザ情報に基づいて、応答内容を特定する。具体的に述べると、ユーザ情報に基づいて会議室に存在するユーザを特定し、該ユーザに対する適当な応答内容を特定する。例えば、予約情報に基づき特定される会議に参加する予定のユーザが、会議室に入室した際に、ユーザ情報取得部12bで取得されるユーザ情報に基づいて、応答内容テーブル11eを参照して、例えば該ユーザの名前を確認する応答内容を特定する。特定された応答内容に基づき生成される音声情報を、送信部18を介してスピーカ装置20に送信する。これによりスピーカ装置20を介して能動的にユーザに向けて音声を出力できる。
The response
応答内容特定部16は、その後、例えば取得されたユーザ情報と予約情報とに基づいて、会議に参加予定のユーザが揃ったことが特定された時点で、応答内容テーブル11eを参照して、参加者の氏名を確認する応答内容を特定する。さらに、例えば会議の終了時間が迫っていることが特定された時点で、応答内容テーブル11eを参照して、会議室の利用時間を延長するか否かを問い合わせる応答内容を特定する。特定された応答内容に基づき生成される音声情報をスピーカ装置20に送信する。
After that, when it is specified that all the users scheduled to participate in the conference are present, for example, based on the acquired user information and reservation information, the response
また、応答内容特定部16は、特定された応答内容に基づいて、過去の議事録を示す議事録情報または会議に対応する画像を使用するか否かを判定する。
Further, the response
分析部17は、会議においてユーザが発言した音声に関する音声情報を分析する。具体的に述べると、例えば、分析部17は音声情報に基づいて会議の参加者が使用した感情を分析する。分析部17は、例えば感情を示すタグ付きコーパスに基づいて、分類器を学習させる。分析部17は、ユーザの音声情報をテキスト情報に変換し、例えば所定の自然言語解析手法を用いて単語(形態素)に分解する。該単語を分類器に入力することで音声情報に含まれる感情が分析される。
The
分析部17は、例えば感情を分析した結果に基づいて会議に点数を付与する機能を有していてもよい。例えば、会議全体につきプラスの感情、例えば「喜び」「楽しみ」「期待」などの感情の割合が相対的に多い場合は点数を高く評価し、例えば「嫌悪」「絶望」「落胆」などの感情の割合が相対的に多い場合は点数を低く評価する。評価した結果を示す情報をスピーカ装置20に送信するよう、処理を実行させる。これにより会議の内容を改善する動機をユーザに与える。すなわち応答サーバ装置10はスピーカ装置20を介して会議に能動的に参加し、会議の効率化を図ることができる。
The
また、分析部17は、例えば感情を分析した結果に基づいて会議の雰囲気に適当な音楽を出力する。例えば、会議全体につきマイナスの感情、例えば「嫌悪」「絶望」「落胆」などの感情の割合が相対的に多い場合は心が明るくなるようなジャズ音楽に関する情報をスピーカ装置20に送信し、例えば「怒り」などの感情の割合が相対的に多い場合は心が落ち着くようなクラシック音楽に関する情報をスピーカ装置20に送信するよう、処理を実行させる。これにより会議の内容を改善する動機をユーザに与える。すなわち応答サーバ装置10はスピーカ装置20を介して会議の雰囲気を能動的に改善するよう機能し、会議の効率化を図ることができる。
Also, the
また、分析部17は、例えば、ユーザ情報テーブル11bを参照して、ユーザの音声情報を分析することで、役職の高いユーザの発言が相対的に多いと分析された場合、前述の応答内容特定部16において、役職の高いユーザの発言を控える応答内容を特定し、該応答内容に基づき生成される音声情報をスピーカ装置20に送信するよう、処理を実行させる。これにより会議を活発化し多様な意見を抽出できる。
For example, the
送信部18は、音声情報など各種情報をスピーカ装置20に送信する。
<<スピーカ装置20>>
The
<<
次に、図10を参照して、スピーカ装置20の機能構成について説明する。図10は、スピーカ装置20の機能構成の一例を示す図である。図10に示すとおり、スピーカ装置20は、送受信部21、表示制御部22、およびサポート部23の機能を有する。スピーカ装置20が有する機能は、図13に示す、スピーカ装置20の制御部(プロセッサ101)が、記憶装置103に記憶されたコンピュータプログラムを読み込み、実行し、スピーカ装置20の各構成を制御すること等により実現される。
Next, referring to FIG. 10, the functional configuration of the
送受信部21は、スピーカ装置20におけるデータの送受信を制御する。例えば、送受信部21は、上述したマイクロフォンに入力された音声に関する音声情報を応答サーバ装置10などの外部装置に送信する。また、送受信部21は、応答サーバ装置10などの外部装置からの各種情報を受信する。
The transmission/
表示制御部22は、スピーカ装置20が備える、またはスピーカ装置20に接続された表示装置107(表示装置300)の表示を制御する。例えば、表示制御部22は、管理者の設定操作に必要な各種の画面(ユーザインタフェース)を生成し、表示装置107へ表示することを制御する。
The
サポート部23は、上述したサポートボタンが押下されたことを契機に、スピーカ装置20に不具合が生じたことを示すサポート情報を生成する。サポート部23は、送受信部21を介してサポート情報をサポートセンター(不図示)に送信する。これにより、スピーカ装置20に不具合が生じた場合、管理者が迅速に障害対応できる。
<<ユーザ端末装置30>>
The
<<
次に、図11を参照して、ユーザ端末装置30の機能構成について説明する。図11は、ユーザ端末装置30の機能構成の一例を示す図である。図11に示すとおり、ユーザ端末装置30は、入力部31、送受信部32、および表示制御部33の機能を有する。ユーザ端末装置30が有する機能は、図13に示す、ユーザ端末装置30の制御部(プロセッサ101)が、記憶装置103に記憶されたコンピュータプログラムを読み込み、実行し、ユーザ端末装置30の各構成を制御すること等により実現される。
Next, referring to FIG. 11, the functional configuration of the
入力部31は、ユーザによるユーザ端末装置30に対する操作に応じて各種の情報を受け付ける。例えば、入力部31は、ユーザによる操作に応じて、応答サーバ装置10にアクセスするための入力を受け付ける。
The
送受信部32は、ユーザ端末装置30におけるデータの送受信を制御する。例えば、送受信部32は、入力部31により入力された情報を応答サーバ装置10などの外部装置に送信する。また、送受信部32は、応答サーバ装置10などの外部装置からの通知や各種情報を受信する。
The transmission/
表示制御部33は、ユーザ端末装置30が備える、またはユーザ端末装置30に接続された表示装置107の表示を制御する。例えば、表示制御部33は、管理者の各種操作に必要な各種の画面(ユーザインタフェース)を生成し、表示装置107へ表示することを制御する。
==動作フロー==
The
== Operation flow ==
図12は、応答サーバ装置10の処理の一例を示すフロー図である。図12を参照して、応答サーバ装置10により実行される処理の一例を説明する。
FIG. 12 is a flowchart showing an example of processing of the
まず、S100において、応答サーバ装置10はスピーカ装置20からスピーカ情報を取得する。
First, in S<b>100 , the
次に、S101において、応答サーバ装置10はユーザ端末装置30またはスピーカ装置20からユーザ情報を取得する。これにより応答サーバ装置10はユーザがいずれの会議室にいるか認識できる。
Next, in S<b>101 , the
次に、S102において、応答サーバ装置10はユーザ情報に基づき予約管理システムから予約情報を取得する。これにより応答サーバ装置10はユーザが存在する会議室の予約状況を認識できる。
Next, in S102, the
次に、S103において、応答サーバ装置10は、予約情報に基づいて、会議目的に応じた応答内容を特定する。特定された応答内容に基づき、議事録情報テーブル11cまたは画像情報テーブル11dを参照して、会議目的に応じた議事録情報または画像情報を特定する。
Next, in S103, the
次に、S104において、応答サーバ装置10は、応答内容テーブル11eを参照して、ユーザ情報に基づく応答内容を特定する。
Next, in S104, the
次に、S105において、応答サーバ装置10は、特定された応答内容に関する音声情報をスピーカ装置20に送信する。例えば、スピーカ装置20を介して、会議の冒頭に参加者の氏名を読み上げて出席確認をすることや、会議の目的を音声通知することなどを実行する。これによりスピーカ装置20からユーザに対して能動的に発話するため、会議を円滑に進行できる。
Next, in S<b>105 , the
次に、S106において、応答サーバ装置10は、議事録情報と画像情報とをスピーカ装置20に送信する。スピーカ装置20は取得した議事録情報と画像情報を表示装置300に出力する。例えば、スピーカ装置20を介して表示装置300に前回の議事録を表示し、会議の目的に応じた写真やグラフなどを表示する。これにより応答サーバ装置10は会議を円滑に進行するために過去の議事録と会議に要する画像をユーザに提供できる。
Next, in S<b>106 , the
次に、S107において、応答サーバ装置10は会議が終了したか否かを判定する。具体的に述べると、応答サーバ装置10は所定の時間になると会議が終了されたか否かを問いかける音声情報をスピーカ装置20に送信する。例えば、スピーカ装置20から「会議時間が終了します。延長しますか?」という音声を出力する。スピーカ装置20から出力された音声に応じてユーザからの応答を示す音声情報を、スピーカ装置20を介して取得する。例えば、スピーカ装置20を介して、ユーザから「30分延長してください」という音声情報を取得すると、応答サーバ装置10は送信部18を介して予約管理システムに対して会議室の予約時間を30分延長する延長情報を送信する。その後、応答サーバ装置10は、ユーザの音声情報に基づいて、応答内容テーブル11eを参照して、会議が終了したか否かを判定する。
Next, in S107, the
会議が終了したと判定した場合(S107:NO)、S104から処理を繰り返す。これによりユーザの音声情報に応じた応答内容を特定する。 If it is determined that the conference has ended (S107: NO), the process is repeated from S104. Thereby, the content of the response corresponding to the user's voice information is specified.
会議が終了したと判定した場合(S107:YES)、会議内容を分析する(S108)。分析結果をスピーカ装置20に送信する。これによりユーザそれぞれが会議において改善すべき点を把握できる。例えば、「本日の会議は70点です」や「B部長話しすぎです」という音声を出力する。
==音声通知システム1のハードウェア構成==
If it is determined that the conference has ended (S107: YES), the content of the conference is analyzed (S108). The analysis result is transmitted to the
==Hardware Configuration of
図13を参照して、応答サーバ装置10、スピーカ装置20およびユーザ端末装置30をコンピュータ100により実現する場合のハードウェア構成の一例を説明する。なお、それぞれの装置の機能は、複数台の装置に分けて実現することもできる。また、スピーカ装置20における一部のハードウェア構成については上述したとおりである。
An example of a hardware configuration when the
図13は、コンピュータのハードウェア構成の一例を示す図である。図13に示すように、コンピュータ100は、プロセッサ101と、メモリ102と、記憶装置103と、入力I/F部104と、データI/F部105と、通信I/F部106、及び表示装置107を含む。
FIG. 13 is a diagram illustrating an example of the hardware configuration of a computer; As shown in FIG. 13, the
プロセッサ101は、メモリ102に記憶されているプログラムを実行することによりコンピュータ100における各種の処理を制御する制御部である。
The
メモリ102は、例えばRAM(Random Access Memory)等の記憶媒体である。メモリ102は、プロセッサ101によって実行されるプログラムのプログラムコードや、プログラムの実行時に必要となるデータを一時的に記憶する。
The
記憶装置103は、例えばハードディスクドライブ(HDD)やフラッシュメモリ等の不揮発性の記憶媒体である。記憶装置103は、オペレーティングシステムや、上記各構成を実現するための各種プログラムを記憶する。
The
入力I/F部104は、ユーザからの入力を受け付けるためのデバイスである。入力I/F部104の具体例としては、キーボードやマウス、タッチパネル、各種センサ、ウェアラブル・デバイス等が挙げられる。入力I/F部104は、例えばUSB(Universal Serial Bus)等のインタフェースを介してコンピュータ100に接続されても良い。
The input I/
データI/F部105は、コンピュータ100の外部からデータを入力するためのデバイスである。データI/F部105の具体例としては、各種記憶媒体に記憶されているデータを読み取るためのドライブ装置等がある。データI/F部105は、コンピュータ100の外部に設けられることも考えられる。その場合、データI/F部105は、例えばUSB等のインタフェースを介してコンピュータ100へと接続される。
A data I/
通信I/F部106は、コンピュータ100の外部の装置と有線又は無線により、インターネットNを介したデータ通信を行うためのデバイスである。通信I/F部106は、コンピュータ100の外部に設けられることも考えられる。その場合、通信I/F部106は、例えばUSB等のインタフェースを介してコンピュータ100に接続される。
The communication I/
表示装置107は、各種情報を表示するためのデバイスである。表示装置107の具体例としては、例えば液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ、ウェアラブル・デバイスのディスプレイ等が挙げられる。表示装置107は、コンピュータ100の外部に設けられても良い。その場合、表示装置107は、例えばディスプレイケーブル等を介してコンピュータ100に接続される。また、入力I/F部104としてタッチパネルが採用される場合には、表示装置107は、入力I/F部104と一体化して構成することが可能である。
==他の実施形態==
The
==Other Embodiments==
応答内容特定部16は、例えば会議室の予約管理を行ってもよい。例えば、応答内容特定部16は、予約情報に基づいて、応答内容テーブル11eを参照して、スピーカ装置20を介して会議室にユーザがいるか否かを問いかける応答内容を特定する。これにつき、図14を参照して具体的に述べると、まず、応答サーバ装置10は予約管理システムから予約情報を取得する(S200)。次に、応答サーバ装置10は、現時点において会議室が予約されているか否かを判定する(S201)。会議室が予約されていると判定した場合(S201:YES)、スピーカ装置20から音声情報を取得することで、会議室に人がいるか否かを判定する(S202)。会議室に人がいると判定した場合(S202:YES)、応答内容特定部16は、予約情報に基づいて、応答内容テーブル11eを参照して、会議室を予約した人の氏名を問いかける応答内容(「あなたは誰ですか?」など)を特定し、送信部18を介して該応答内容に関する音声情報をスピーカ装置20に送信する(S203)。一方、会議室に人がいないと判定した場合(S202:NO)、応答内容特定部16は誰かがいるかを問いかける応答内容(「誰かいますか?」など)を特定し、送信部18を介して該応答内容に関する音声情報をスピーカ装置20に送信する。ここで、スピーカ装置20からの問いかけに対して返答がなかった場合、予約管理システムの予約をキャンセルする(S204)。また、会議室が予約されていない場合(S201:NO)、スピーカ装置20から音声情報を取得することで、会議室に人がいるか否かを判定する(S205)。会議室に人がいると判定した場合(S205:YES)、応答内容特定部16は予約するか否かを問いかける応答内容(「予約しますか?」など)を特定し、送信部18を介して該応答内容に関する音声情報をスピーカ装置20に送信する(S206)。これにより応答サーバ装置10は会議室の予約状況に対して能動的に機能するため、会議室の有効活用を図ることができる。
The response
応答サーバ装置10は、プレゼン特定実行部(不図示)の機能をさらに有していてもよい。プレゼン特定実行部は、例えばクラウド上で公開されているプレゼン資料データベース(不図示)を参照し、ユーザ情報に基づき応答内容特定部16で特定された応答内容に基づいて、プレゼン資料を特定する。例えば、応答内容における所定のキーワードを特定し、該キーワードに関するプレゼン資料を特定する。プレゼン特定実行部は、送信部18を介して、特定されたプレゼン資料に関する情報をスピーカ装置20に送信するとともに、プレゼン資料に記載されているテキスト情報を音声情報に変換し、該音声情報をスピーカ装置20に送信する。これにより応答サーバ装置10はスピーカ装置20を介してユーザに対して能動的にプレゼン資料を提供するとともに、プレゼン資料の内容につき音声案内することができるため、会議の効率化を図ることができる。
The
また、プレゼン特定実行部(不図示)は、予約情報に基づいて、会議室の利用目的におけるキーワードを特定し、該キーワードに関するプレゼン資料を特定してもよい。プレゼン特定実行部は、送信部18を介して特定されたプレゼン資料に関する情報をスピーカ装置20に送信する。そして、プレゼン資料に記載されているテキスト情報を音声情報に変換し、送信部18を介して該音声情報をスピーカ装置20に送信する。これにより応答サーバ装置10において会議の目的に適したプレゼン資料を自動的に特定されるため、会議を円滑に進行できる。
Also, the presentation identification execution unit (not shown) may identify a keyword for the purpose of using the conference room based on the reservation information, and identify the presentation materials related to the keyword. The presentation identification execution unit transmits information about the identified presentation material to the
応答内容特定部16は、例えばスピーカ装置20を介してプレゼン実行中におけるユーザの質問に応答する応答内容を特定する機能を有していてもよい。まず、応答内容特定部16は質問に関する音声情報をテキスト情報に変換する。次に、応答内容特定部16は該テキスト情報に対応する応答内容を応答内容テーブル11eから取得する。具体的に述べると、例えばテキスト情報を解析してキーワードを抽出する。抽出されたキーワードに基づいて、応答内容テーブル11eを検索するとともに、質問の種別(人名、地名、数量など)を特定する。検索により応答内容テーブル11eから抽出された応答内容の中から、特定された質問の種別に対応する言葉を特定することで、回答を特定する。これにより応答サーバ装置10は能動的にプレゼンを実行するとともに、ユーザの質問に対する回答をも行うため会議を円滑に進行できる。
The response
応答サーバ装置10は、例えば会議の議事録を作成する議事録作成部(不図示)の機能をさらに有していてもよい。議事録作成部は、例えばスピーカ装置20を介して取得したユーザの音声情報をテキスト情報に変換し、所定の様式に議事録として該テキスト情報を入力する。テキスト情報が入力された所定の様式を示す情報をユーザ端末装置30に送信するよう、処理を実行させる。これによりユーザにおいて議事録作成にかかる作業を軽減できる。
The
応答サーバ装置10は、例えばユーザ端末装置30からユーザ情報を取得することに代えてスピーカ装置20で取得するユーザの音声をユーザ情報として取得してもよい。この場合、応答サーバ装置10はユーザごとの声紋に関する声紋情報を格納する声紋情報データベース(不図示)を備え、取得した音声情報と声紋情報とを照合してユーザを特定する。これによりユーザ端末装置30を所持していないユーザを認識できるため、音声通知システム1の確実な運用を実現できる。
For example, instead of acquiring user information from the
応答サーバ装置10は、例えばユーザ端末装置30からユーザ情報を取得することに代えてカメラ装置(不図示)から取得するユーザの顔に関する顔情報をユーザ情報として取得してもよい。この場合、応答サーバ装置10はユーザごとの顔情報を格納する顔情報データベース(不図示)を備え、取得した顔情報と顔情報データベースに格納されている顔情報とを照合してユーザを特定する。これによりユーザ端末装置30を所持していないユーザを認識できるため、音声通知システム1の確実な運用を実現できる。
For example, instead of acquiring user information from the
応答サーバ装置10は、例えば各種機能を実行するタイミングを計る計時部(不図示)をさらに有していてもよい。計時部において所定の時間や所定の時間経過を計ることで、応答サーバ装置10は所定の時間に所定の機能を実行し所定の時間経過時に所定の機能を実行することができる。これにより応答サーバ装置10は適切なタイミングで能動的に機能を発揮できるため、会議を円滑に進行できる。
The
上記において、スピーカ装置20は会議室に設置されているものとして説明したがこれに限定されない。スピーカ装置20を不特定多数のユーザが利用する場所に設置できる。これにより、音声通知システム1は、例えば、個人宅、集合住宅のエントランス、お店、集会場など様々な場所において、能動的にユーザに対して発話する。様々な場所でユーザに対して能動的に音声出力することで、ユーザの発言を促すことができる。
In the above description, the
なお、述した実施の形態は本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明はその趣旨を逸脱することなく変更、改良され得るとともに、本発明にはその等価物も含まれる。 It should be noted that the above-described embodiment is for facilitating understanding of the present invention, and is not for limiting interpretation of the present invention. The present invention may be modified and improved without departing from its spirit, and the present invention also includes equivalents thereof.
1…音声通知システム、10…応答サーバ装置、11…記憶部、12a…スピーカ情報取得部、12b…ユーザ情報取得部、12c…予約情報取得部、13…認識部、14…議事録特定部、15…画像特定部、16…応答内容特定部、17…分析部、18…送信部、20…スピーカ装置、30…ユーザ端末装置
DESCRIPTION OF
Claims (9)
前記取得部で取得される前記ユーザ情報と前記予約情報とに基づき前記会議室の会議に参加予定のユーザが揃ったことを特定して、揃ったことが特定された時点で前記会議の参加者の氏名を確認することを示す応答内容を特定する応答内容特定部と、
前記スピーカ装置に前記応答内容に沿って音声出力させるべく、前記応答内容特定部で特定された前記応答内容に基づく音声情報を、前記スピーカ装置に送信する送信部と、
を備える情報処理システム。 User information that can identify a user who has accessed the speaker device is acquired from a speaker device having a microphone and a speaker when the user enters a conference room, and the conference room is reserved based on the user information. an acquisition unit that acquires reservation information regarding the reservation status of the conference room from a reservation management system that manages the
based on the user information and the reservation information acquired by the acquisition unit, specifying that users scheduled to participate in the conference in the conference room have gathered, and when it is specified that the users have gathered, the conference will be held; a response content identification unit that identifies the content of the response indicating that the name of the participant is to be confirmed ;
a transmitting unit configured to transmit audio information based on the response content specified by the response content specifying unit to the speaker device so as to cause the speaker device to output voice along with the response content;
An information processing system comprising
請求項1に記載の情報処理システム。 The response content identifying unit is configured to inquire whether or not to extend the usage time of the conference room at a time when it is identified that the meeting ends at a predetermined time before the end time of the conference room. identify the
The information processing system according to claim 1 .
前記情報処理システムは、
前記ユーザの音声に関するユーザ情報に基づき前記会議室の会議に参加したユーザの発言に含まれる感情を分析して、前記分析した感情に基づいて、前記会議室の会議に対して点数を付与する分析部をさらに備え、
前記送信部は、前記分析部で分析された結果である点数を示す分析情報を、前記スピーカ装置に送信する、
ことを特徴とする請求項1または請求項2に記載の情報処理システム。 The acquisition unit acquires the user information related to the user's voice from the speaker device,
The information processing system is
Analysis for analyzing emotions included in speeches of users participating in the conference in the conference room based on user information about the user's voice, and giving points to the conference in the conference room based on the analyzed emotions. further comprising the
The transmission unit transmits analysis information indicating a score, which is the result of analysis by the analysis unit, to the speaker device.
3. The information processing system according to claim 1 , wherein:
前記情報処理システムは、
前記応答内容特定部で特定された前記画像応答内容に基づいて、前記所定の画像を特定する画像特定部をさらに備え、
前記送信部は、前記スピーカ装置に、前記スピーカ装置に接続された表示装置に前記所定の画像を出力させるべく、前記所定の画像に関する画像情報を送信する、
ことを特徴とする請求項1から請求項3の何れか一項に記載の情報処理システム。 The response content identification unit identifies image response content, which is response content indicating that a predetermined image is to be used, based on the reservation information,
The information processing system is
further comprising an image specifying unit that specifies the predetermined image based on the image response content specified by the response content specifying unit;
The transmitting unit transmits image information regarding the predetermined image to the speaker device so as to output the predetermined image to a display device connected to the speaker device.
4. The information processing system according to any one of claims 1 to 3 , characterized by:
前記情報処理システムは、
前記応答内容特定部で特定された応答内容に基づいて、前記過去の議事録に関する議事録情報を保持する過去データベースから、所定の議事録情報を特定する議事録特定部をさらに備え、
前記送信部は、前記スピーカ装置に、前記スピーカ装置に接続された表示装置に前記議事録を出力させるべく、前記議事録情報を送信する、
ことを特徴とする請求項1から請求項4の何れか一項に記載の情報処理システム。 The response content identification unit identifies, based on the reservation information, minutes response content, which is response content indicating use of past minutes,
The information processing system is
Further comprising a minutes identification unit that identifies predetermined minutes information from a past database holding minutes information related to the past minutes based on the response content identified by the response content identification unit,
The transmission unit transmits the minutes information to the speaker device so as to output the minutes to a display device connected to the speaker device.
5. The information processing system according to any one of claims 1 to 4 , characterized by:
前記プレゼン応答内容に基づいて、所定のデータベースから、プレゼン資料を示すプレゼン資料情報を特定するプレゼン特定実行部、
をさらに備え、
前記送信部は、前記スピーカ装置に、前記スピーカ装置に接続された表示装置に前記プレゼン資料を出力させるべく、前記プレゼン資料情報を送信する、
ことを特徴とする請求項1から請求項5の何れか一項に記載の情報処理システム。 The response content specifying unit specifies presentation response content, which is response content indicating that a predetermined presentation material is to be used, based on the reservation information,
a presentation identification execution unit that identifies presentation material information indicating presentation materials from a predetermined database based on the content of the presentation response;
further comprising
The transmission unit transmits the presentation material information so that the speaker device outputs the presentation material to a display device connected to the speaker device.
6. The information processing system according to any one of claims 1 to 5 , characterized by:
をさらに備えることを特徴とする請求項1から請求項6のいずれか一項に記載の情報処理システム。 The information processing system according to any one of claims 1 to 6 , further comprising the speaker device.
マイクロフォンとスピーカとを備えるスピーカ装置から、前記スピーカ装置にアクセスしたユーザを識別可能なユーザ情報を、前記ユーザが会議室に入室した際に取得し、前記ユーザ情報に基づいて、前記会議室の予約を管理する予約管理システムから、前記会議室の予約状況に関する予約情報を取得する取得ステップと、
前記取得ステップで取得される前記ユーザ情報と前記予約情報とに基づき前記会議室の会議に参加予定のユーザが揃ったことを特定して、揃ったことが特定された時点で前記会議の参加者の氏名を確認することを示す応答内容を特定する応答内容特定ステップと、
前記スピーカ装置に前記応答内容に沿って音声出力させるべく、前記応答内容特定ステップで特定された前記応答内容に基づく音声情報を、前記スピーカ装置に送信する送信ステップと、
を実行する情報処理方法。 the computer
User information that can identify a user who has accessed the speaker device is acquired from a speaker device having a microphone and a speaker when the user enters a conference room, and the conference room is reserved based on the user information. an acquisition step of acquiring reservation information regarding the reservation status of the conference room from a reservation management system that manages the
Based on the user information and the reservation information acquired in the acquiring step, it is specified that users scheduled to participate in the conference in the conference room have gathered, and when it is specified that the users have gathered, the conference is held. a response content identification step of identifying response content indicating confirmation of the name of the participant ;
a transmission step of transmitting audio information based on the response content specified in the response content specifying step to the speaker device so as to cause the speaker device to output voice along with the response content;
Information processing method that performs
マイクロフォンとスピーカとを備えるスピーカ装置から、前記スピーカ装置にアクセスしたユーザを識別可能なユーザ情報を、前記ユーザが会議室に入室した際に取得し、前記ユーザ情報に基づいて、前記会議室の予約を管理する予約管理システムから、前記会議室の予約状況に関する予約情報を取得させることと、
前記ユーザ情報と前記予約情報とに基づき前記会議室の会議に参加予定のユーザが揃ったことを特定して、揃ったことが特定された時点で前記会議の参加者の氏名を確認することを示す応答内容を特定させることと、
前記スピーカ装置に前記応答内容に沿って音声出力させるべく、特定された前記応答内容に基づく音声情報を、前記スピーカ装置に送信させることと、
を実行させるプログラム。 to the computer,
User information that can identify a user who has accessed the speaker device is acquired from a speaker device having a microphone and a speaker when the user enters a conference room, and the conference room is reserved based on the user information. Acquiring reservation information regarding the reservation status of the conference room from a reservation management system that manages the
Based on the user information and the reservation information, it is specified that the users scheduled to participate in the conference in the conference room are present, and when it is specified that the users are present, the names of the participants of the conference are confirmed. specifying the content of the response indicating that
causing the speaker device to transmit audio information based on the identified response content in order to cause the speaker device to output audio along with the response content;
program to run.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019134713A JP7258686B2 (en) | 2019-07-22 | 2019-07-22 | Information processing system, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019134713A JP7258686B2 (en) | 2019-07-22 | 2019-07-22 | Information processing system, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021018664A JP2021018664A (en) | 2021-02-15 |
JP7258686B2 true JP7258686B2 (en) | 2023-04-17 |
Family
ID=74564307
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019134713A Active JP7258686B2 (en) | 2019-07-22 | 2019-07-22 | Information processing system, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7258686B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024004131A1 (en) * | 2022-06-30 | 2024-01-04 | 株式会社大正スカイビル | Management system for handing inquiry |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000029932A (en) | 1998-07-08 | 2000-01-28 | Nippon Telegr & Teleph Corp <Ntt> | Information guidance method using user detecting function and information guidance system having the same function and storage medium for storing information guidance program |
JP2009086871A (en) | 2007-09-28 | 2009-04-23 | Fuji Xerox Co Ltd | Information processing system and information processing program |
WO2016157662A1 (en) | 2015-03-31 | 2016-10-06 | ソニー株式会社 | Information processing device, control method, and program |
JP2017174237A (en) | 2016-03-24 | 2017-09-28 | 富士通株式会社 | Schedule guide device, schedule guide method and schedule guide program |
WO2019026617A1 (en) | 2017-08-01 | 2019-02-07 | ソニー株式会社 | Information processing device and information processing method |
-
2019
- 2019-07-22 JP JP2019134713A patent/JP7258686B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000029932A (en) | 1998-07-08 | 2000-01-28 | Nippon Telegr & Teleph Corp <Ntt> | Information guidance method using user detecting function and information guidance system having the same function and storage medium for storing information guidance program |
JP2009086871A (en) | 2007-09-28 | 2009-04-23 | Fuji Xerox Co Ltd | Information processing system and information processing program |
WO2016157662A1 (en) | 2015-03-31 | 2016-10-06 | ソニー株式会社 | Information processing device, control method, and program |
JP2017174237A (en) | 2016-03-24 | 2017-09-28 | 富士通株式会社 | Schedule guide device, schedule guide method and schedule guide program |
WO2019026617A1 (en) | 2017-08-01 | 2019-02-07 | ソニー株式会社 | Information processing device and information processing method |
Non-Patent Citations (1)
Title |
---|
清水 圭一,総務の引き出し ICT スマートスピーカーで働き方が変わる,月刊総務 第56巻 第7号 ,ウィズワークス(株),第56巻,p.34-35 |
Also Published As
Publication number | Publication date |
---|---|
JP2021018664A (en) | 2021-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110741433B (en) | Intercom communication using multiple computing devices | |
TWI536365B (en) | Voice print identification | |
KR101726945B1 (en) | Reducing the need for manual start/end-pointing and trigger phrases | |
US10244111B1 (en) | System for providing data to an interactive response system | |
US20190392835A1 (en) | Information processing device | |
JP2004533640A (en) | Method and apparatus for managing information about a person | |
KR20190100512A (en) | Electronic device and method for communicating with chatbot | |
KR102472010B1 (en) | Electronic device and method for executing function of electronic device | |
KR102548365B1 (en) | Method for generating conference record automatically and apparatus thereof | |
JP2007529831A (en) | Voice interactive messaging method and apparatus | |
JP2013195823A (en) | Interaction support device, interaction support method and interaction support program | |
KR20190068133A (en) | Electronic device and method for speech recognition | |
JP4469867B2 (en) | Apparatus, method and program for managing communication status | |
JP7258686B2 (en) | Information processing system, information processing method, and program | |
JP2011248444A (en) | Display controller and presentation method used therewith | |
EP3677392B1 (en) | Robot and method of controlling the same | |
JP7452299B2 (en) | Conversation support system, conversation support method and program | |
JP2006264859A (en) | Information providing device for elevator | |
JP4079275B2 (en) | Conversation support device | |
KR102528621B1 (en) | Apparatus for managing council and method thereof | |
KR102695646B1 (en) | Computer program, electronic device, and system for controlling conference | |
Long et al. | AI and Design Opportunities for Smart Speakers | |
CN113132927B (en) | Incoming call processing method, device, equipment and machine readable medium | |
JP2014225119A (en) | Entering/leaving management device, information system, information processing method and program | |
JP2023169093A (en) | Program, information processing device, information processing system, information processing method, and information processing terminal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210312 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220203 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220603 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221014 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230405 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7258686 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |