JP7143847B2 - 情報処理システム、情報処理方法、およびプログラム - Google Patents
情報処理システム、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP7143847B2 JP7143847B2 JP2019525169A JP2019525169A JP7143847B2 JP 7143847 B2 JP7143847 B2 JP 7143847B2 JP 2019525169 A JP2019525169 A JP 2019525169A JP 2019525169 A JP2019525169 A JP 2019525169A JP 7143847 B2 JP7143847 B2 JP 7143847B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- location
- information
- hand
- virtual position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/56—Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
- H04M3/567—Multimedia conference systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
Description
1.情報処理システムの構成
2.第1の実施形態
3.第2の実施形態
4.第3の実施形態
5.第4の実施形態
6.第5の実施形態
7.第6の実施形態
8.第7の実施形態
9.第8の実施形態
10.第9の実施形態
11.第10の実施形態
12.第11の実施形態
13.第12の実施形態
14.第13の実施形態
15.第14の実施形態
16.第15の実施形態
17.第16の実施形態
18.第17の実施形態
19.第18の実施形態
20.第19の実施形態
21.第20の実施形態
22.ハードウェア構成
23.変形例
まず、本開示の各実施形態に共通する情報処理システムの構成例について、図1を参照して説明する。各実施形態では、地点ごとに情報処理システム10が設置されている場面を想定する。ここで、地点は、本開示に係る「場所」の一例である。例えば、図1に示したように、複数の地点(例えば3地点以上)の各々に情報処理システム10が設置されている。そして、各地点の情報処理システム10は、後述する通信網22を介して互いに通信可能に接続され得る。
通信網22は、通信網22に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網22は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網22は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。
図2は、各実施形態に係る情報処理システム10の一構成例を示す図である。図2を参照すると、各実施形態に係る情報処理システム10aは、入力部120aおよび出力部124aを備える。
出力部124aは、各種の情報をテーブル90a上に表示する。出力部124aは、投影部(プロジェクタ)を含み得る。例えば、図2に示したように、出力部124aは、テーブル90aの上方に、天井から吊り下げられた状態でテーブル90aと所定の距離離隔して配置され得る。この場合、出力部124aは、テーブル90aの天面に情報を投影し得る。例えば、出力部124aは、ペンダントライトやデスクスタンドライトであってもよい。このように上方からテーブル90aの天面に情報を表示する方式を「プロジェクション型」とも呼称する。また、以下では、テーブル90の天面をスクリーン20と称する場合がある。スクリーン20は、出力部124による投影の対象となる面(表示面)を含む。
入力部120aは、例えば、1つのレンズでテーブル90aを撮像するカメラを含む。または、入力部120aは、2つのレンズでテーブル90aを撮像することにより、奥行き方向の情報を記録することが可能なステレオカメラを含み得る。ステレオカメラとしては、例えば可視光カメラや、赤外線等の不可視光を検出可能な不可視光カメラ等が用いられ得る。また、入力部120aは、ユーザが発する音声や、周囲の環境の環境音を収音するマイクロフォン等の音声入力装置をさらに含み得る。
以上、各実施形態に係る情報処理システム10aの構成について説明した。なお、各実施形態に係る情報処理システム10の構成は図2に示した例に限定されず、例えば図3~図5に示したような構成であってもよい。
図3は、各実施形態に係る情報処理システム10の別の構成例(情報処理システム10b)を示す図である。図3に示したように、情報処理システム10bでは、テーブル90bの下方に出力部124bが配置される。出力部124bは、例えばプロジェクタであり、当該テーブル90bの天板に向かって下側から情報を投影する。例えば、テーブル90bの天板は、ガラス板や透明プラスチック板等の透明な材質で形成される。そして、出力部124bによって投影された情報は、(当該天板を透過して)テーブル90bの天面(スクリーン20b)に表示される。このようにテーブル90bの下から情報を出力部124bに投影させることによりスクリーン20bに情報を表示する方式を「リアプロジェクション型」とも称する。
図4は、各実施形態に係る情報処理システム10のさらに別の構成例(情報処理システム10c)を示す図である。図4に示したように、情報処理システム10cでは、タッチパネル式のディスプレイが、その表示面を上方に向けた状態でテーブル90c上に設置される。情報処理システム10cでは、入力部120c及び出力部124cは、当該タッチパネル式のディスプレイとして一体的に構成され得る。つまり、ディスプレイの表示画面(スクリーン20c)に各種の情報が表示され、そして、当該ディスプレイの表示画面に対する操作体の接触がタッチパネルによって検出されることにより、ユーザによる操作入力が行われる。なお、情報処理システム10cにおいても、図2に示した情報処理システム10aと同様に、出力部124cの上方にカメラ(入力部120cの一例)が設置されてもよい。この場合、当該カメラによる撮影画像に基づいて、テーブル90cの周囲に位置する個々のユーザの位置等が検出され得る。
図5は、各実施形態に係る情報処理システム10のさらに別の構成例(情報処理システム10d)を示す図である。図5に示したように、情報処理システム10dは、例えばHMD(Head Mounted Display)などの頭部装着型デバイス(例えば眼鏡型デバイスなど)として構成され得る。当該頭部装着型デバイスは、入力部120d(図示省略)及び出力部124d(図示省略)を含み得る。出力部124dは、透過型の表示装置として構成されてもよい。この場合、出力部124dは、頭部装着型デバイスに含まれる右目用レンズおよび左目用レンズの各々(または、ゴーグル型レンズ)の少なくとも一部の領域を投影面(スクリーン20d)として映像を投影し得る。
以上、各実施形態に係る情報処理システム10の構成について説明した。ところで、異なる地点に位置するユーザ間で、それぞれの地点の入力部120により取得される情報に基づいてコミュニケーション可能であることが望まれる。
<2-1.機能構成>
まず、第1の実施形態に係る機能構成について詳細に説明する。図9は、第1の実施形態に係る情報処理システム10の機能構成を示したブロック図である。図9に示すように、情報処理システム10は、処理部100、入力部120、表示処理部122、出力部124、通信部126、および、記憶部128を含む。なお、以下では、上記の説明と同様の内容については説明を省略する。
表示処理部122は、一または複数の処理回路(例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unitなど)を含んで構成され得る。表示処理部122は、入力部120が取得した入力情報に基づき、出力部124により表示されるグラフィックスに関する処理を行う。例えば、表示処理部122は、ウィンドウなどの表示オブジェクトの描画制御を行ったり、個々の表示オブジェクトに対するユーザの操作に応じた描画処理などを行う。
処理部100は、一または複数の処理回路(例えば、後述するCPU150など)を含んで構成され得る。処理部100は、入力部120が取得した入力情報に基づいて各種の処理を行う。
情報生成部102は、入力部120が取得した各種の情報に基づいて、他地点に位置する他のユーザとのコミュニケーションのための伝達情報を生成する。
例えば、当該操作体がユーザの手である場合には、情報生成部102は、入力部120が取得した入力情報(撮像画像など)と、後述する情報生成再現規則DB130とに基づいて、当該伝達情報を生成する。ここで、情報生成再現規則DB130は、伝達情報の生成時のルールと、他地点から伝達情報が受信された際の当該伝達情報の再現(例えば当該伝達情報に応じた映像の表示)時のルールとが登録されているデータベースである。図11は、情報生成再現規則DB130の構成例を示した図である。図11に示したように、情報生成再現規則DB130では、例えば、ID1300、情報タイプ1302、生成時条件1304、生成時処理1306、および、再現時処理1308が関連付けられている。ID1300には、伝達情報に含まれ得る個々の情報タイプの識別情報が記録される。情報タイプ1302には、該当のIDに対応する情報の種類(タイプ)が記録される。生成時条件1304には、情報生成部102が該当の情報タイプの情報を生成する際の条件が記録される。生成時処理1306には、該当の情報タイプの情報の生成時に情報生成部102が行う処理の内容が記録される。再現時処理1308には、伝達情報が他地点で受信された際に、当該伝達情報に含まれる該当の情報タイプの情報を再現する際の処理内容が記録される。
または、当該操作体が操作用デバイスである場合には、情報生成部102は、当該操作用デバイスから取得される操作情報と、情報生成再現規則DB130とに基づいて、当該伝達情報を生成する。例えば、情報生成部102は、少なくとも当該操作用デバイスのポインティング位置を含むように当該伝達情報を生成する。
送信制御部104は、他地点に対する、情報生成部102により生成された伝達情報の送信を制御する。例えば、送信制御部104は、現在通信中の個々の他地点の情報処理システム10に対して、生成された伝達情報を、後述する通信部126に送信させる。
情報取得部106は、通信部126により他地点から受信される伝達情報を受信又は読出し処理などを行うことにより通信部126から取得する。
出力制御部108は、情報取得部106により取得された伝達情報に基づいて、出力部124に対する各種の情報の出力の制御を行う。例えば、出力制御部108は、取得された伝達情報に基づいて特定される、自地点(つまり、該当の情報処理システム10が位置する地点)における、当該伝達情報に対応する操作体(例えば当該伝達情報の送信元(の地点内)のユーザの手など)のポインティング位置と、自地点における、当該伝達情報の送信元のユーザの腕位置とに基づいて生成される当該操作体に対応する画像を、自地点内のスクリーン20(表示面)に表示させる。
通信部126は、送信制御部104の制御に従って、他地点の情報処理システムとの間で各種の情報を送受信する。例えば、通信部126は、送信制御部104の制御に従って、情報生成部102により生成された伝達情報を、現在通信中の他地点の各々の情報処理システム10へ送信する。また、通信部126は、他地点の情報処理システム10により生成された伝達情報を当該他地点から受信する。
記憶部128は、各種のデータや各種のソフトウェアを記憶する。例えば、記憶部128は、情報生成再現規則DB130および情報適合規則DB132を記憶する。情報適合規則DB132は、他地点から受信された伝達情報をユーザに提示することの妥当性を判断するための規則が登録されているデータベースである。情報適合規則DB132は、例えば、リレーショナルデータベースやルックアップテーブルのような形状で実現され得る。
以上、第1の実施形態に係る機能構成について説明した。次に、第1の実施形態に係る処理の流れについて、「2-2-1.伝達情報生成時の処理の流れ」および「2-2-2.伝達情報再現時の処理の流れ」において説明する。なお、各地点における情報処理システム10は、基本的に、「伝達情報生成時の処理の流れ」および「伝達情報再現時の処理の流れ」を並行的に実行し得る。
(2-2-1-1.全体的な流れ)
まず、図14および図15を参照して、「伝達情報生成時の処理の流れ」について説明する。図14は、第1の実施形態に係る「伝達情報生成時の処理」の全体的な流れを示したフローチャートである。
ここで、図15を参照して、S103(「伝達情報の生成処理」)の内容について詳細に説明する。図15に示したように、まず、情報生成部102は、処理対象の生成規則の番号を示す変数Iに「1」を設定する(S151)。そして、情報生成部102は、情報生成再現規則DB130に格納されている生成規則の総数をNに設定する(S153)。
(2-2-2-1.全体的な流れ)
次に、図16~図18を参照して、「伝達情報再現時の処理の流れ」について説明する。図16は、第1の実施形態に係る「伝達情報再現時の処理」の全体的な流れを示したフローチャートである。
ここで、図17を参照して、S203(「伝達情報のチェック処理」)の内容について詳細に説明する。図17に示したように、まず、出力制御部108は、処理対象の適合規則の番号を示す変数Iに「1」を設定する(S221)。そして、出力制御部108は、情報適合規則DB132に格納されている適合規則の総数をNに設定する(S223)。
ここで、図18を参照して、S205(「伝達情報に基づいた出力処理」)の内容について詳細に説明する。図18に示したように、まず、出力制御部108は、処理対象の再現規則の番号を示す変数Iに「1」を設定する(S251)。そして、出力制御部108は、情報生成再現規則DB130に格納されている再現規則の総数をNに設定する(S253)。
{2-3-1.効果1}
以上説明したように、第1の実施形態に係る情報処理システム10は、他地点に位置する第1のユーザに関連する操作体の操作に応じた、自地点に位置する第2のユーザとのコミュニケーションのための第1の伝達情報を取得し、そして、当該第1の伝達情報に基づいて特定される、自地点における当該操作体のポインティング位置と、自地点における当該第1のユーザの腕位置とに基づいて生成される当該操作体に対応する画像を自地点内の表示面に表示させる。このため、異なる地点間で円滑なコミュニケーションを実現可能としつつ、当該地点間で伝送される情報量を削減することができる。
また、情報処理システム10は、他地点のユーザの手指、手、および、腕の各々の位置情報に基づいて、自地点における当該他地点のユーザの手指、手、および、腕の各々の位置情報を特定し、そして、これらの位置情報に基づいて当該他地点のユーザの手を示す画像を生成し、そして、自地点内の表示面に表示させることが可能である。このため、他地点のユーザの手の動きを自地点において自然に再現することができる。その結果、例えば、他地点のユーザが情報を操作する過程を自地点のユーザが理解することができる。
以上、第1の実施形態について説明した。次に、本開示に係る第2の実施形態について説明する。第2の実施形態では、異なる地点に位置するユーザ間でブレインストーミングを行う場面を想定する。後述するように、第2の実施形態によれば、異なる地点間でユーザがオブジェクトを操作して議論する際に、誰がどのオブジェクトを操作しているかをユーザは明確に理解することができる。
第2の実施形態に係る情報処理システム10に含まれる構成要素は、(図9に示した)第1の実施形態と同一であってよい。なお、後述する第2の実施形態~第19の実施形態に関しても同様であり得る。以下では、第1の実施形態とは異なる機能を有する構成要素についてのみ説明を行う。
第2の実施形態に係る情報生成再現規則DB130では、図11に示した登録内容に加えて、図19に示した登録内容がさらに追加され得る。
第2の実施形態に係る情報生成部102は、スクリーン20上の例えばオブジェクトが配置されていない領域において手をスライドさせる操作(以下、書き込み操作と称する場合がある)が行われたことが検出された場合には、当該書き込み操作に対応するユーザの手のポインティング位置の並びを点群として、送信対象の伝達情報内にさらに格納する。
第2の実施形態に係る出力制御部108は、他地点から受信された伝達情報に基づいて当該他地点において少なくとも一つのオブジェクトを移動させる操作が特定された場合には、当該少なくとも一つのオブジェクトに対応する画像の、スクリーン20上の表示位置を、特定された操作に応じて移動させる。例えば、他地点のユーザの手が当該他地点において少なくとも一つのオブジェクトに接触しながらスライドされることが当該伝達情報に基づいて特定された場合には、出力制御部108は、当該少なくとも一つのオブジェクトに対応する画像の表示位置を、特定されたスライドに応じて移動させる。ここで、オブジェクトは、実オブジェクトであってもよいし、例えばスクリーン20に表示されている仮想オブジェクトであってもよい。
そして、当該複数の付箋のうちの一枚を当該他地点のユーザが指1本でドラッグする操作が当該他地点において検出されたとする。この場合、出力制御部108は、まず、当該他地点から取得された伝達情報に基づいて当該指のドラッグ操作を特定し得る。そして、図20Aに示したように、出力制御部108は、当該ドラッグ操作の対象の付箋の画像32の表示位置を、特定されたドラッグ操作に応じて移動させ得る。
または、当該複数の付箋のうちの複数枚のグループを当該他地点のユーザが手の平でドラッグする操作が当該他地点において検出されたとする。この場合、出力制御部108は、まず、当該他地点から取得された伝達情報に基づいて当該手の平のドラッグ操作を特定し得る。そして、図20Bに示したように、出力制御部108は、当該ドラッグ操作の対象の付箋のグループの画像34の表示位置を、特定されたドラッグ操作に応じて移動させ得る。
または、当該他地点のスクリーン20上の、付箋が存在しない領域において当該他地点のユーザがドラッグする操作(書き込み操作)が当該他地点において検出されたとする。この場合、出力制御部108は、まず、当該他地点から取得された伝達情報に基づいて、当該他地点において現在までに書き込みされた情報(点群)を特定し得る。そして、図20Cまたは図20Dに示したように、出力制御部108は、特定された点群を順に結んだ線分36を自地点のスクリーン20‐2上に表示(投影など)させ得る。例えば、出力制御部108は、当該他地点における書き込み操作に追従させて、書き込まれた点群から構成される線分36をリアルタイムに更新し、そして、更新された線分36を自地点のスクリーン20‐2上に表示させる。
以上説明したように、第2の実施形態によれば、異なる地点間でユーザが付箋を操作して議論する際に、誰がどの付箋を操作しているかをユーザは明確に理解することができる。
以上、第2の実施形態について説明した。次に、本開示に係る第3の実施形態について説明する。図22Aおよび図22Bは、第1の実施形態に係る出力制御部108により表示される手の画像30の例を示した図である。図22Bでは、送信元の地点において誤検出や通信エラーなどが発生したことにより、受信された伝達情報内に手の位置情報Phとして不正確な値が格納されており、そして、当該伝達情報に基づいて手の画像が生成された例を示している。
{4-1-1.情報適合規則DB132}
図21は、第3の実施形態に係る情報適合規則DB132の構成例を示した図である。図21に示した例では、適合規則が一つだけ定められており、そして、当該適合規則では、他地点から受信される伝達情報に基づいて特定される、他地点のユーザの指位置と手位置とがなす直線と、当該ユーザの手位置と腕位置とがなす直線との間の角度がチェック対象として定められている。さらに、当該適合規則では、当該角度が「-30度以上30度以下である場合」が適合であると定められている。
(4-1-2-1.伝達情報の補正)
第3の実施形態に係る出力制御部108は、他地点から取得される伝達情報に基づいて特定される、当該他地点のユーザの手のポインティング位置、自地点における当該他地点のユーザの手位置、および、自地点における当該他地点のユーザの腕位置の関係が所定の関係になった場合には、当該他地点のユーザの腕位置および/または手位置を当該他地点のユーザの手のポインティング位置に基づいて補正することが可能である。
さらに、出力制御部108は、上記の補正後に、該当の他地点のユーザの手のポインティング位置と、補正後の当該ユーザの手位置と、補正後の当該ユーザの腕位置とに基づいて、当該他地点のユーザの手に対応する画像を生成する。そして、出力制御部108は、図22Cに示したように、生成した画像を自地点内のスクリーン20に表示させる。
以上説明したように、第3の実施形態によれば、他地点から受信される伝達情報に基づいて、より自然な形状の手の画像を表示させることができる。例えば、他地点から受信される伝達情報に対応するユーザのポインティング位置を変えることなく、当該ユーザの手(手首など)の形状がより自然となるように当該ユーザの手位置および腕位置を補正することができる。
以上、第3の実施形態について説明した。次に、本開示に係る第4の実施形態について説明する。後述するように、第4の実施形態によれば、他地点から受信される伝達情報に基づいて、より単純化、または、より匿名化した手の画像を表示させることができる。
{5-1-1.情報生成再現規則DB130}
第4の実施形態に係る情報生成再現規則DB130では、図11に示した登録内容に加えて、図23に示した登録内容が追加され得る。図23では、個々のユーザに対応する手の画像を、個々のユーザの職種に対応する色で描画することが再現時処理として定義されている例を示している。
第4の実施形態に係る情報生成部102は、自地点の個々のユーザに関して、当該ユーザの属性情報(例えば職種や性別など)を、当該ユーザに対応する伝達情報内にさらに格納する。
第4の実施形態に係る出力制御部108は、他地点から取得される伝達情報に基づいて生成される、当該伝達情報に対応するユーザの手の画像の表示パラメータの値を、当該伝達情報に含まれる当該ユーザの属性情報に応じて変更する。当該表示パラメータは、例えば、表示色、描画される線の太さ、または、描画される線種などであってもよい。
以上説明したように、第4の実施形態によれば、他地点から取得される伝達情報に対応するユーザの手の画像の表示色を、当該伝達情報に含まれる当該ユーザの職種に応じて変更する。このため、ユーザの手の画像をより単純化、または、より匿名化して表示させることができる。例えば、ユーザごとに色分けされる場合や、地点ごとに色分けされる場合と比較して、表示される画像が単純化され、かつ、匿名化され得る。その結果、異なる地点のユーザ間の議論がより円滑化することや、異なる地点に位置するユーザ同士が互いの意図を理解しやすくなることが期待できる。
以上、第4の実施形態について説明した。次に、本開示に係る第5の実施形態について説明する。まず、第5の実施形態を創作するに至った背景について、図25Aおよび図25Bを参照して説明する。図25Aの左図は、スクリーン20におけるユーザの胴体から比較的近くの位置を当該ユーザが手でポインティング(指差し)している例を示した図である。図25Bの左図は、スクリーン20におけるユーザの胴体から遠くの位置を当該ユーザが手でポインティングしている例を示した図である。
{6-1-1.情報適合規則DB132}
第5の実施形態に係る情報適合規則DB132では、図21に示した適合規則に加えて(または代わりに)、図26に示した適合規則が登録され得る。図26に示した適合規則では、他地点から受信される伝達情報に基づいて特定される当該他地点のユーザの手位置と腕位置との間の距離がチェック対象として定められている。さらに、当該適合規則では、当該距離が「300ピクセル」以下である場合が適合であると定められている。
(6-1-2-1.伝達情報の補正)
第5の実施形態に係る出力制御部108は、他地点から取得される伝達情報に基づいて特定される、当該他地点のユーザの手位置と当該ユーザの腕位置との間の距離が所定の距離よりも大きくなった場合には、当該ユーザの指位置および当該ユーザの手位置を、自地点における当該ユーザの腕位置に基づいて補正することが可能である。
さらに、出力制御部108は、上記の補正後に、図27の右図に示したように、新たに設定された指位置Pvfと、補正後の当該ユーザの手位置Pvhと、当該ユーザの腕位置Paとに基づいて、当該ユーザの手に対応する画像を生成する。そして、出力制御部108は、生成した手の画像を自地点内のスクリーン20に表示させる。同時に、出力制御部108は、当該ユーザの手のポインティング位置Pfを示す画像38(例えば点の画像など)を当該手の画像と関連付けてスクリーン20に表示させる。例えば、図27の右図に示したように、出力制御部108は、当該手の画像30のうちの指位置Pvfと当該ポインティング位置Pfとを結ぶ線分をスクリーン20にさらに表示させる。
以上説明したように、第5の実施形態によれば、他地点内のユーザの胴体から遠くの位置を当該ユーザがポインティングする場合であっても、当該ポインティング時の伝達情報に基づいて、より自然な形状の手の画像を表示させることができる。さらに、当該手の画像のサイズを抑制することができるので、コミュニケーションの邪魔になることを防止できる。
以上、第5の実施形態について説明した。次に、本開示に係る第6の実施形態について説明する。まず、第6の実施形態を創作するに至った背景について図28を参照して説明する。図28は、他地点のユーザが付箋32に対して手を伸ばしている状況における、第1の実施形態に係る出力制御部108による当該ユーザの手の画像30の表示例を示した図である。第1の実施形態では、基本的に当該ユーザの指の高さ情報(以下「z座標」とも称する)が考慮されずに、当該ユーザの手の画像がスクリーン20に表示される。このため、図28に示したように、例えば画像30aの表示時や画像30bの表示時において、付箋32をポインティングするために当該ユーザが手を伸ばしている途中であるのか、あるいは、すでに当該ユーザは付箋32をポインティングしているのかを画像30を閲覧中のユーザは判別し難い。
{7-1-1.情報生成再現規則DB130}
第6の実施形態に係る情報生成再現規則DB130では、図11に示した登録内容に加えて、図29に示した登録内容が追加され得る。図29では、他地点から取得される伝達情報に含まれるz座標に応じて、当該伝達情報に対応する手の画像の透明度を変更することが再現時処理として定義されている例を示している。
第6の実施形態に係る情報生成部102は、入力部120により取得された入力情報から特定される、自地点のスクリーン20を基準としたユーザの手の高さのセンシング結果を、当該ユーザに対応する伝達情報内にさらに格納する。
第6の実施形態に係る出力制御部108は、他地点から取得される伝達情報に基づいて生成される、当該伝達情報に対応するユーザの手の画像の表示パラメータの値を、当該伝達情報に含まれる当該ユーザの手の高さ情報に応じて変更する。当該表示パラメータは、例えば、透明度、表示色、または、手の画像の輪郭線のぼかしの度合いなどであってもよい。
以上説明したように、第6の実施形態によれば、他地点のユーザが手を伸ばしている途中において、当該ユーザが何らかのオブジェクトをポインティングしているか否かを区別可能なように当該ユーザの手の画像を表示させることができる。このため、他地点のユーザの意図がより容易に理解可能になる。
以上、第6の実施形態について説明した。次に、本開示に係る第7の実施形態について説明する。まず、第7の実施形態を創作するに至った背景について、図31A~図31Dを参照して説明する。
{8-1-1.情報適合規則DB132}
第7の実施形態に係る情報適合規則DB132では、図21に示した適合規則に加えて(または代わりに)、図32に示した適合規則が登録され得る。図32に示した適合規則では、自地点のスクリーンの一辺に存在する(他地点の各ユーザの)腕位置の個数がチェック対象として定められている。さらに、当該適合規則では、当該腕位置の個数が「2個」以下である場合が適合であると定められている。
(8-1-2-1.表示位置の変更)
第7の実施形態に係る出力制御部108は、複数の他地点から取得される個々の伝達情報に基づいて、当該伝達情報に対応するユーザの、自地点における手のポインティング位置と、当該ユーザの手位置と、当該ユーザの腕位置とを特定する。さらに、特定された個々のユーザの腕位置の関係が所定の関係になった場合には、出力制御部108は、当該個々のユーザの手に対応する画像の表示位置を当該ユーザが位置する地点に応じて変更する。
さらに、出力制御部108は、例えば図33に示したように、個々のユーザが位置する地点ごとに、当該個々のユーザの手の画像30の表示色を異ならせてもよい。なお、図33では、画像30aおよび画像30bがそれぞれ、(図31Aに示した)「地点A」の各ユーザ4に対応する手の画像を示している。また、画像30cが、(図31Bに示した)「地点B」のユーザ4cに対応する手の画像を示している。また、画像30dおよび画像30eがそれぞれ、(図31Cに示した)「地点C」の各ユーザ4に対応する手の画像を示している。
以上説明したように、第7の実施形態によれば、各地点の各ユーザのポインティング位置を維持しつつ、各ユーザの手の画像を視認性高く表示させることができる。そして、ユーザビリティを向上させることができる。
以上、第7の実施形態について説明した。次に、本開示に係る第8の実施形態について説明する。まず、第8の実施形態を創作するに至った背景について、図34Aおよび図34Bを参照して説明する。
{9-1-1.情報適合規則DB132}
第8の実施形態に係る情報適合規則DB132では、図21に示した適合規則に加えて(または代わりに)、図35に示した適合規則が登録され得る。図35に示した適合規則では、自地点のスクリーンの一辺に存在する(他地点の各ユーザの)腕位置の個数がチェック対象として定められている。さらに、当該適合規則では、当該腕位置の個数が「1個」以下である場合が適合であると定められている。
(9-1-2-1.伝達情報の補正)
第8の実施形態に係る出力制御部108は、他地点から取得される伝達情報に基づいて特定される、自地点における当該他地点のユーザの腕位置と自地点のユーザの腕位置との関係が所定の関係になった場合には、当該他地点のユーザの腕位置を、自地点のユーザの腕位置と当該他地点のユーザの手のポインティング位置とに基づいて補正する。
さらに、出力制御部108は、上記の補正後に、図36Bに示したように、該当の他地点のユーザ(図36Bに示した例では「教師」)の手のポインティング位置と、補正後の当該ユーザの手位置と、補正後の当該ユーザの腕位置とに基づいて、当該ユーザの手に対応する画像を生成する。そして、出力制御部108は、生成した画像を自地点内のスクリーン20に表示させる。
以上説明したように、第8の実施形態によれば、遠隔地の教師のポインティング位置を維持しつつ、教師の手の画像を視認性高く表示させることができる。例えば、生徒と教師の双方が実際には同じ方向から教材を見ながらも、あたかも教師が対面して指導しているような映像を生徒に対して提示することができる。
以上、第8の実施形態について説明した。次に、本開示に係る第9の実施形態について説明する。第9の実施形態では、少なくとも一つの地点のユーザが例えばマウスなどの操作用デバイスを使用することにより、他の地点のユーザとコミュニケーションする場面を想定する。このような場合、操作体として手が用いられる地点では、ユーザの手位置や腕位置が取得可能であるのに対して、操作体としてマウスが使用される地点では、通常、マウスのカーソル位置の情報だけしか取得できない。
{10-1-1.情報生成再現規則DB130}
第9の実施形態に係る情報生成再現規則DB130では、図11に示した登録内容に加えて、図37に示した登録内容が追加され得る。図37では、他の地点から取得される伝達情報に含まれるカーソル位置の情報に基づいて手の画像を生成することが再現時処理として定義されている例を示している。
第9の実施形態に係る情報生成部102は、ユーザが操作用デバイスを使用している場合には、入力部120により取得された入力情報から特定される、当該操作用デバイスのポインティング位置の情報(例えばx座標およびy座標など)を、当該ユーザに対応する伝達情報内にさらに格納する。なお、入力部120は当該操作用デバイスを含んでもよい。また、入力部120と当該操作用デバイスとは有線通信または無線通信により通信可能に構成されていてもよい。
(10-1-3-1.手の画像の生成)
第9の実施形態に係る出力制御部108は、他地点から取得される伝達情報内に操作用デバイスのポインティング位置の情報が含まれる場合には、当該ポインティング位置の情報から特定される自地点におけるポインティング位置と、自地点のスクリーンの各辺との位置関係に基づいて、自地点における当該他地点のユーザの仮想的な手位置および当該ユーザの仮想的な腕位置を決定する。そして、出力制御部108は、自地点におけるポインティング位置と、決定された仮想的な手位置と、決定された仮想的な腕位置とに基づいて、当該他地点のユーザの手の画像を生成する。
さらに、出力制御部108は、生成された手の画像をスクリーン20上に表示させる。
以上説明したように、第9の実施形態によれば、他地点のユーザが操作用デバイスを使用する場合であっても、当該他地点から取得される伝達情報に応じて、当該ユーザに対応する手が自然に動く画像をスクリーン20に表示させることができる。これにより、全てのユーザが手で操作しているような映像を各地点で提示することができるので、コミュニケーションの円滑化につながる。
以上、第9の実施形態について説明した。次に、本開示に係る第10の実施形態について説明する。一般的に、異なる地点間のユーザが初めてミーティングを行う場面では、当該異なる地点に位置する個々のユーザは、自己の全ての情報を他のユーザに開示することに関して抵抗感を抱き得る。
{11-1-1.情報生成再現規則DB130}
図39は、第10の実施形態に係る情報生成再現規則DB130の構成例を示した図である。図39では、図11に示した情報生成再現規則DB130aと比較して、ユーザの性別情報、手の大きさ、および、腕の太さが情報タイプとしてさらに定義されている例を示している。
第10の実施形態に係る情報生成部102は、入力部120により取得された入力情報から特定される、例えばユーザの性別情報、手の大きさ、および、腕の太さなどを当該ユーザに対応する伝達情報内にさらに格納する。
第10の実施形態に係る情報取得部106は、他地点の個々のユーザと自地点のユーザとの親交度を示す情報をさらに取得し得る。ここで、当該親交度を示す情報は、例えば、異なる地点のユーザ間で行われた所定の行動に応じて特定されてもよい。例えば、当該ユーザ間で自己紹介や、アイスブレーキング(ice breaking)を目的とした簡単なゲームなどが行われたことが検出された場合には、当該ユーザ間の親交度が所定の閾値(図39に示した例では「親交レベルが2」)以上に達したと特定されてもよい。または、図40Cに示したように、自地点のスクリーン20上に表示された他地点のユーザの手の画像と、自地点のユーザの手との間で握手のような動作が行われたことが検出された場合には、当該ユーザ間の親交度が当該所定の閾値以上に達したと特定されてもよい。
第10の実施形態に係る出力制御部108は、他地点の各ユーザの手の画像の表示態様を、当該各ユーザと自地点のユーザとの親交度に応じて変更する。例えば、他地点のユーザと自地点のユーザとの親交度が当該所定の閾値未満である間は、出力制御部108は、当該他地点のユーザの身体的特徴および性別を反映させずに、当該他地点のユーザの手の画像を表示させる。この場合、例えば図40Aに示したように、出力制御部108は、他地点における該当のユーザの指位置、手位置、腕位置、および、手形状のみが反映された手の画像を表示させてもよい。この表示例によれば、ユーザ間の親交度が低い場合には、各ユーザの身体的な情報は互いに伝達されないので、各ユーザの心理的抵抗は小さくなり得る。
以上説明したように、第10の実施形態によれば、他地点のユーザとの親交度に応じて、当該他地点のユーザに開示される情報量(情報の種類など)を増減させることができる。その結果、各ユーザが当該システムをより気軽に利用できることが期待できる。
以上、第10の実施形態について説明した。次に、本開示に係る第11の実施形態について説明する。
{12-1-1.情報生成再現規則DB130}
第11の実施形態に係る情報生成再現規則DB130では、図11に示した登録内容に加えて、図41に示した登録内容がさらに追加され得る。
第11の実施形態に係る情報生成部102は、入力部120により取得されたユーザの発話の収音結果を当該ユーザに対応する伝達情報内にさらに格納する。
第11の実施形態に係る出力制御部108は、他地点から取得される伝達情報に含まれるユーザの発話の収音結果に応じて、当該ユーザの手の画像の表示態様を変更する。例えば、図41に示したように、出力制御部108は、収音された発話の音量に応じて、当該ユーザの手の画像の透明度や表示色を変化させてもよい。
以上説明したように、第11の実施形態によれば、他地点のユーザの発話の収音結果に応じて、当該他地点のユーザの手の画像の表示態様を変更することができる。このため、例えば「コレを見て下さい」などの代名詞を用いて他地点のユーザが発話した場合であっても、当該ユーザがどのオブジェクト(項目等)をポインティングしているのかを、自地点のユーザは容易に理解することができる。
以上、第11の実施形態について説明した。次に、本開示に係る第12の実施形態について説明する。第12の実施形態では、各地点において、入力部120はマイクロフォン(音声入力装置)を複数台含むことを想定する。例えば、当該複数のマイクロフォンは、マイクアレイとして構成されている。また、各地点において、主に複数のユーザが位置することを想定する。
{13-1-1.情報生成再現規則DB130}
第12の実施形態に係る情報生成再現規則DB130では、図11に示した登録内容に加えて、図43に示した登録内容がさらに追加され得る。
第12の実施形態に係る情報生成部102は、入力部120によりセンシングされた(自地点における)音量の空間的分布を示す情報を伝達情報内にさらに格納する。
第12の実施形態に係る出力制御部108は、他地点から取得された伝達情報に含まれる、当該他地点においてセンシングされた音量の空間的分布を示す情報と、当該伝達情報に基づいて特定された、当該伝達情報に対応するユーザの腕位置とに応じて、当該ユーザの発話状況を示す画像をスクリーン20上にさらに表示させることが可能である。
以上説明したように、第12の実施形態によれば、他地点においてセンシングされた音量の空間的分布に応じて、当該他地点のユーザの手の画像の表示態様を変更することができる。
以上、第12の実施形態について説明した。次に、本開示に係る第13の実施形態について説明する。第13の実施形態では、(第12の実施形態と同様に)各地点において、入力部120はマイクロフォン(音声入力装置)を複数台含むことを想定する。
{14-1-1.情報生成再現規則DB130}
第13の実施形態に係る情報生成再現規則DB130では、図11に示した登録内容に加えて、図45に示した登録内容がさらに追加され得る。
第13の実施形態に係る情報生成部102は、入力部120により取得されたユーザの発話の収音結果を音声認識し得る。そして、情報生成部102は、入力部120によりセンシングされた(自地点における)音量の空間的分布を示す情報と、当該発話の音声認識結果の文字列と、収音された音データとを伝達情報内にさらに格納する。
(14-1-3-1.表示例1)
第13の実施形態に係る出力制御部108は、他地点から取得された伝達情報に含まれる発話の音声認識結果の文字列を、当該伝達情報に対応するユーザの手の画像と関連付けてスクリーン20に表示させる。例えば、出力制御部108は、取得された伝達情報に基づいて特定される、ユーザの発話時において、当該発話の音声認識結果の文字列を当該ユーザの手の画像と関連付けてスクリーン20に表示させる。
さらに、出力制御部108は、当該音声認識結果の文字列に対する形態素解析の結果から得られる一以上のキーワード(例えば名詞など)をタグ情報としてスクリーン20上にさらに表示させてもよい。例えば、出力制御部108は、まず、当該音声認識結果の文字列に対する形態素解析を行う。そして、図46Bに示したように、出力制御部108は、当該音声認識結果の文字列50、および、当該形態素解析の結果から得られた一以上のキーワード52を、当該ユーザのポインティング先のオブジェクト32と関連付けて表示させてもよい。
以上説明したように、第13の実施形態によれば、他地点のユーザの発話の音声認識結果を、当該他地点のユーザの手の画像とともに表示させることができる。
以上、第13の実施形態について説明した。次に、本開示に係る第14の実施形態について説明する。第14の実施形態では、各地点において、入力部120はマイクロフォン(音声入力装置)を複数台含み、かつ、出力部124はスピーカー(音声出力装置)を複数台含むことを想定する。
{15-1-1.情報生成再現規則DB130}
第14の実施形態に係る情報生成再現規則DB130では、図11に示した登録内容に加えて、図47に示した登録内容がさらに追加され得る。
第14の実施形態に係る情報生成部102は、(第13の実施形態と同様に)入力部120によりセンシングされた(自地点における)音量の空間的分布を示す情報と、収音された音データとを伝達情報内にさらに格納する。
第14の実施形態に係る出力制御部108は、取得された伝達情報に含まれる、センシングされた音量の空間的分布を示す情報に基づいて、当該伝達情報に含まれる音データを、出力部124に含まれる複数のマイクロフォンに出力させる。例えば、出力制御部108は、図48に示したように、当該音量の空間的分布を示す情報が示す音量強度が最も大きい方向(角度)に当該発話の音を定位させるように、当該複数のマイクロフォンの出力を制御する。これにより、当該他地点においてユーザが発話した向きと同じ向きから、自地点において当該発話の音が聞こえるような表現を実現することができる。
以上説明したように、第14の実施形態によれば、他地点において収音されたユーザの発話の音像を、自地点における当該ユーザの腕位置付近に定位させることができる
以上、第14の実施形態について説明した。次に、本開示に係る第15の実施形態について説明する。後述するように、第15の実施形態によれば、いずれかの他地点のユーザが発話したことが検出された際に、当該他地点において配置されたオブジェクトを強調して表示させることができる。例えば当該オブジェクトをフォーカスして表示させることができる。
{16-1-1.情報生成再現規則DB130}
第15の実施形態に係る情報生成再現規則DB130では、図11に示した登録内容に加えて、図49に示した登録内容がさらに追加され得る。
第15の実施形態に係る情報生成部102は、(第11の実施形態と同様に)入力部120により取得されたユーザの発話の収音結果を当該ユーザに対応する伝達情報内にさらに格納する。
第15の実施形態に係る出力制御部108は、例えば現在通信中の複数の他地点の各々から取得された伝達情報に基づいて、当該伝達情報に対応するユーザが発話したことが特定された際には、記憶部128に記憶されている、当該伝達情報に対応する地点において予め配置されたオブジェクト(および/または、当該他地点のユーザの手の画像)を強調して表示させる。例えば、「地点A」内のユーザが発話したことが検出された際には、出力制御部108は、図50Cに示したように、「地点A」において予め配置された付箋32aの画像をそのまま表示させ、かつ、その他のオブジェクト(図50Cに示した例では付箋32bおよび付箋32c)の画像をぼかして表示させてもよい。または、出力制御部108は、その他のオブジェクトの画像をそのまま表示させながら、付箋32aの画像をより強調して表示させてもよい(例えば点滅させたり、輝度を上げるなど)。
以上説明したように、第15の実施形態によれば、いずれかの他地点のユーザが発話したことが検出された際に、当該他地点において配置されたオブジェクトを強調して表示させることができる。
以上、第15の実施形態について説明した。次に、本開示に係る第16の実施形態について説明する。後述するように、第16の実施形態によれば、ユーザがオブジェクトをポインティングした回数に応じて、当該オブジェクトに対応する画像の表示態様を変更することができる。
{17-1-1.処理部100}
第16の実施形態に係る処理部100は、スクリーン上に配置(または表示)されているオブジェクトごとに、少なくとも一人のユーザが当該オブジェクトをポインティングした回数を記録し、そして、当該回数を例えば記憶部128に保存する。
第16の実施形態に係る出力制御部108は、オブジェクトごとの、当該オブジェクトがポインティングされた累計回数に応じて、当該オブジェクトに対応する画像の表示態様を変更する。例えば、出力制御部108は、ポインティングされた回数が多いオブジェクトほど目立たせるように、個々のオブジェクトに対応する画像の表示態様を変更する。
以上説明したように、第16の実施形態によれば、ユーザがオブジェクトをポインティングした回数に応じて、当該オブジェクトに対応する画像の表示態様を変更することができる。これにより、個々のオブジェクトに対応する画像を見るだけで、ユーザは、個々のオブジェクトの重要度を把握することができる。
以上、第16の実施形態について説明した。次に、本開示に係る第17の実施形態について説明する。後述するように、第17の実施形態によれば、他地点のスクリーン上に配置(または表示)されているオブジェクトに対応する画像を自地点のスクリーン上に表示させる際に、自地点のユーザの属性情報に応じて当該画像の表示態様を適切に変更することができる。
{18-1-1.出力制御部108}
第17の実施形態に係る出力制御部108は、他地点のスクリーン上に配置(または表示)されているオブジェクトに対応する画像を自地点のスクリーン上に表示させる際に、自地点のユーザの属性情報に応じて当該画像の表示態様を変更する。
以上説明したように、第17の実施形態によれば、他地点のスクリーン上に配置(または表示)されているオブジェクトに対応する画像を自地点のスクリーン上に表示させる際に、自地点のユーザの属性情報に応じて当該画像の表示態様を適切に変更することができる。これにより、例えば、異なる地点間の会議時において、地点ごとのユーザの知識レベルや認識レベルが異なっていたり、または、使用言語が異なる場合であっても、上記の処理がリアルタイムに行わることにより、各ユーザはストレスなくディスカッションすることができる。
以上、第17の実施形態について説明した。次に、本開示に係る第18の実施形態について説明する。後述するように、第18の実施形態によれば、異なる地点間の議論の記録データを時間方向または空間方向に分割したり、結合することができる。
ここで、図53A~図53Dを参照して、第18の実施形態に係る異なる地点間の議論の記録データを時間方向に分割および結合する例について説明する。図53Aおよび図53Bは、複数の地点間で行われた議論中に取得された、当該複数の地点のスクリーン20上に配置されている個々のオブジェクト32の位置関係の例を示した図である。例えば、図53Aは、当該議論の開始時のオブジェクト32の位置関係を示している。また、図53Bは、当該議論の終了時のオブジェクト32の位置関係を示している。
次に、図54A~図54Dを参照して、第18の実施形態に係る異なる地点間の議論の記録データを空間方向に分割および結合する例について説明する。例えば、まず、複数の地点間で一緒に議論を行う。図54Bは、当該複数の地点間で行われた議論中に取得された、当該複数の地点のスクリーン20上に配置されている個々のオブジェクト32の位置関係の例を示した図である。
さらに、合成された記録データに関して、出力制御部108は、各オブジェクトを操作したグループや、オブジェクトごとの重要度などに応じて、各オブジェクトに対応する画像の表示態様を変更してもよい。例えば、出力制御部108は、より多くのグループで重要と判断されたオブジェクトの画像を、他のオブジェクトの画像よりも強調して表示させてもよい。
以上説明したように、第18の実施形態によれば、異なる地点間の議論の記録データを時間方向または空間方向に分割したり、結合することができる。
以上、第18の実施形態について説明した。次に、本開示に係る第19の実施形態について説明する。後述するように、第19の実施形態によれば、異なる地点間でコミュニケーションを行う場面において、自地点の情報を所望のタイミングだけ他地点と共有したり、または、所望のタイミングだけ他地点と共有しないようにユーザがコントロールすることができる。
{20-1-1.送信制御部104}
(20-1-1-1.共有されるオブジェクトの指示)
第19の実施形態に係る送信制御部104は、自地点のスクリーン20上に配置(または表示)されている一以上のオブジェクトのうち、ユーザにより指定されたオブジェクトの情報だけを他地点の情報処理システム10へ通信部126に送信させる。
さらに、送信制御部104は、他地点と共有される画面に関する表示指示情報を、ユーザの指定に基づいて当該他地点へ通信部126に送信させることが可能である。当該他地点と共有される画面は、自地点のスクリーン20の撮像画像に応じた画面であり得る。
以上説明したように、第19の実施形態によれば、異なる地点間でコミュニケーションを行う場面において、自地点の情報を所望のタイミングだけ他地点と共有したり、または、所望のタイミングだけ他地点と共有しないようにユーザがコントロールすることができる。
以上、第19の実施形態について説明した。ところで、ある場所に位置するユーザが操作体(例えばユーザの手など)を操作する際に、当該操作体に対応する画像とともに、操作時の当該ユーザの撮像映像を別の場所に表示可能であると、臨場感がさらに向上し得る。
まず、第20の実施形態に係るシステムの構成例について、図57および図58を参照して説明する。図57に示したように、第20の実施形態では、地点(場所)ごとに、情報処理システム10(図57では図示省略)およびテレプレゼンスシステム80が設置されていることを想定する。テレプレゼンスシステム80は、例えばビデオ会議システムである。
以上、第20の実施形態に係るシステムの構成例について説明した。次に、第20の実施形態に係る機能構成について詳細に説明する。図59は、第20の実施形態に係る情報処理システム10およびテレプレゼンスシステム80の機能構成の例を示したブロック図である。なお、図59に示した機能構成を有する情報処理システム10およびテレプレゼンスシステム80は、各地点にそれぞれ設置され得る。
第20の実施形態に係る情報処理システム10の機能構成は、前述した第1~第19の実施形態のうちの一以上と同様であり得る。例えば、第20の実施形態に係る情報処理システム10は、図1~図56Bを参照して説明した全ての機能や処理を同様に実行可能であってよい。
図59に示したように、第20の実施形態に係るテレプレゼンスシステム80は、処理部800、撮像部820、収音部822、出力部824、および、通信部826を含む。
処理部800(出力制御部と称する場合もある)は、一または複数の処理回路(例えばCPUやGPUなど)を含んで構成され得る。処理部800は、テレプレゼンスシステム80を統括的に制御する。
撮像部820は、外光をレンズを通して例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子に結像させることにより、画像(動画像など)を撮影する。例えば、撮像部820は、自地点(つまり、該当のテレプレゼンスシステム80が設置されている地点)に位置する一以上のユーザの外観および当該一以上のユーザの周囲の空間を撮像する。
収音部822は、例えばマイクロフォン等の音声入力装置から構成される。収音部822は、自地点で発せられる音(例えば自地点内のユーザの発話など)を収音する。
出力部824は、例えばプロジェクタ、LCD、または、OLEDなどの表示装置を含み得る。さらに、出力部824は、例えばスピーカーなどの音声出力装置を含み得る。出力部824は、処理部800の制御に従って、映像を表示(投影など)したり、音を出力する。
通信部826は、他地点のテレプレゼンスシステム80との間で各種の情報を送受信する。例えば、通信部826は、処理部800の制御に従って、撮像部820により撮像された映像や、収音部822により収音された音データなどを他地点のテレプレゼンスシステム80へ送信する。また、通信部826は、他地点で撮影された映像などを当該他地点のテレプレゼンスシステム80から受信する。
なお、第20の実施形態に係る機能構成は、前述した例に限定されない。例えば、情報処理システム10とテレプレゼンスシステム80とは別々に設けられる代わりに、一体的に構成されてもよい。一例として、処理部800が設けられる代わりに、前述した処理部800の全ての機能を処理部100が有してもよい。同様に、入力部120、撮像部820、および、収音部822は一体的に構成されてもよい。また、出力部124と出力部824とは一体的に構成されてもよい。また、通信部126と通信部826とは一体的に構成されてもよい。
以上説明したように、第20の実施形態によれば、ある場所に位置するユーザが操作体を操作する際に、当該操作体に対応する画像と、当該ユーザを含む空間の撮像映像とを別の場所に同時に表示させることが可能である。このため、異なる地点間のユーザ同士で、さらに臨場感高くコミュニケーションを行うことができる。
以上、第20の実施形態について説明した。次に、各実施形態に共通する情報処理システム10のハードウェア構成について、図60を参照して説明する。図60に示すように、情報処理システム10は、CPU150、ROM(Read Only Memory)152、RAM(Random Access Memory)154、バス156、インターフェース158、入力装置160、出力装置162、ストレージ装置164、および、通信装置166を備える。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
各実施形態に係る情報処理システム10の構成は前述した例に限定されない。例えば、図9では、表示処理部122と処理部100とが別々に設けられる例を示したが、かかる例に限定されず、表示処理部122と処理部100とは一体的に構成されてもよい。
各実施形態に係る処理部100を含む装置(情報処理装置)は、入力部120、表示処理部122、または、出力部124のうちの一以上を含んでもよい。例えば、当該情報処理装置は、処理部100、表示処理部122、および、出力部124を含むプロジェクタであってもよい。
前述した処理の流れにおける各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並行的に又は個別的に処理されてもよい。また、記載されたステップのうちの一部が省略されたり、または、別のステップがさらに追加されてもよい。
(1)
第1の場所に位置する第1のユーザに関連する操作体の操作に応じた、第2の場所に位置する第2のユーザとのコミュニケーションのための第1の伝達情報を取得する情報取得部と、
前記第1の伝達情報に基づいて特定される、前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる出力制御部と、
を備える、情報処理システム。
(2)
前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置との間の前記第1のユーザの第2の仮想的な位置が、前記第1の伝達情報に基づいてさらに特定され、
前記操作体に対応する画像は、前記第1のユーザの第2の仮想的な位置にさらに基づいて生成される、前記(1)に記載の情報処理システム。
(3)
前記情報取得部は、前記第1の場所内の表示面上に位置する少なくとも一つのオブジェクトのセンシング結果をさらに取得し、
前記出力制御部は、前記少なくとも一つのオブジェクトに対応する画像を前記第2の場所内の表示面にさらに表示させる、前記(2)に記載の情報処理システム。
(4)
前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
前記少なくとも一つのオブジェクトを移動させる操作が前記第1の伝達情報に基づいて特定された場合には、前記出力制御部は、前記少なくとも一つのオブジェクトに対応する画像の表示位置を、特定された前記操作に応じて移動させる、前記(3)に記載の情報処理システム。
(5)
前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
前記操作体のポインティング位置は、前記第1のユーザの手のポインティング位置であり、
前記第1の場所内の表示面上で前記第1のユーザの手がスライドされたことが前記第1の伝達情報に基づいて特定された場合には、前記出力制御部は、当該スライド中の前記第1のユーザの手のポインティング位置の軌跡を示す画像を前記第2の場所内の表示面にさらに表示させる、前記(2)または(3)に記載の情報処理システム。
(6)
前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
前記操作体のポインティング位置は、前記第1のユーザの手のポインティング位置であり、
前記第1のユーザの手のポインティング位置と、前記第1のユーザの第2の仮想的な位置と、前記第1のユーザの第1の仮想的な位置との関係が所定の関係になった場合には、前記第1のユーザの第1の仮想的な位置、および/または、前記第1のユーザの第2の仮想的な位置は、前記第1のユーザの手のポインティング位置に基づいて補正され、かつ、
前記出力制御部は、前記第1のユーザの手のポインティング位置と、補正後の前記第1のユーザの第2の仮想的な位置と、補正後の前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる、前記(2)~(5)のいずれか一項に記載の情報処理システム。
(7)
前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
前記操作体のポインティング位置は、前記第1のユーザの手のポインティング位置であり、
前記第1のユーザの第2の仮想的な位置と前記第1のユーザの第1の仮想的な位置との距離が所定の距離よりも大きくなった場合には、前記第1のユーザの手のポインティング位置、および、前記第1のユーザの第2の仮想的な位置はそれぞれ、前記第1のユーザの第1の仮想的な位置に基づいて補正され、かつ、
前記出力制御部は、補正後の前記第1のユーザの手のポインティング位置と、補正後の前記第1のユーザの第2の仮想的な位置と、前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させ、かつ、
補正前の前記第1のユーザの手のポインティング位置を示す画像を前記操作体に対応する画像と関連付けて前記第2の場所内の表示面にさらに表示させる、前記(2)~(6)のいずれか一項に記載の情報処理システム。
(8)
前記第1の伝達情報は、前記第1のユーザの属性情報をさらに含み、
前記出力制御部は、前記操作体に対応する画像の表示パラメータの値を前記第1のユーザの属性情報に応じて変更する、前記(2)~(7)のいずれか一項に記載の情報処理システム。
(9)
前記情報取得部は、前記第1のユーザと前記第2のユーザとの親交度を示す情報をさらに取得し、
前記出力制御部は、前記操作体に対応する画像の表示態様を、前記第1のユーザと前記第2のユーザとの親交度に応じて変更する、前記(2)~(8)のいずれか一項に記載の情報処理システム。
(10)
前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
前記第1の伝達情報は、前記第1の場所内の表示面を基準とした前記第1のユーザの手の高さのセンシング結果をさらに含み、
前記出力制御部は、前記操作体に対応する画像の表示パラメータの値を、前記第1のユーザの手の高さのセンシング結果に応じて変更する、前記(2)~(9)のいずれか一項に記載の情報処理システム。
(11)
前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
前記操作体のポインティング位置は、前記第1のユーザの手のポインティング位置であり、
前記情報取得部は、前記第1の場所を含む、前記第2の場所以外の複数の場所に位置する複数のユーザの各々に関して、当該ユーザの手の操作に応じた前記第2のユーザとのコミュニケーションのための、当該ユーザに対応する伝達情報をさらに取得し、
前記複数のユーザの各々に関して、前記第2の場所における当該ユーザの手のポインティング位置と前記第2の場所における当該ユーザの第1の仮想的な位置とが、当該ユーザに対応する伝達情報に基づいて特定され、
前記出力制御部は、前記複数のユーザの各々に関して、当該ユーザの手のポインティング位置と前記第2の場所における当該ユーザの第1の仮想的な位置とに基づいて生成される、当該ユーザの手に対応する画像を前記第2の場所内の表示面に表示させ、かつ、
前記第2の場所における前記複数のユーザの各々の第1の仮想的な位置の関係が所定の関係になった場合には、前記出力制御部は、前記複数のユーザの各々に関して、当該ユーザの手に対応する画像の表示位置を当該ユーザが位置する場所に応じて変更する、前記(1)~(10)のいずれか一項に記載の情報処理システム。
(12)
前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
前記操作体のポインティング位置は、前記第1のユーザの手のポインティング位置であり、
前記第1のユーザの第1の仮想的な位置と前記第2の場所における前記第2のユーザの位置との関係が所定の関係になった場合には、前記第1のユーザの第1の仮想的な位置は、前記第2のユーザの位置と前記第1のユーザの手のポインティング位置とに基づいて補正され、かつ、
前記出力制御部は、前記第1のユーザの手のポインティング位置と、補正後の前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる、前記(2)~(11)のいずれか一項に記載の情報処理システム。
(13)
前記第1のユーザに関連する操作体は、前記第1のユーザが使用する操作用デバイスであり、
前記第2の場所における前記第1のユーザの第1の仮想的な位置は、前記第2の場所における前記操作体のポインティング位置に基づいて決定され、
前記操作体のポインティング位置が変更される場合には、前記第1のユーザの第1の仮想的な位置は、前記操作体のポインティング位置の変更量よりも小さい量だけ当該変更に追従して変更され、かつ、
前記出力制御部は、変更後の前記操作体のポインティング位置と、変更後の前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる、前記(2)~(12)のいずれか一項に記載の情報処理システム。
(14)
前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
前記操作体に対応する画像は、前記第1のユーザの手を示す画像であり、
前記第1の伝達情報は、前記第1のユーザの発話の収音結果を含み、
前記出力制御部は、前記第1のユーザの手を示す画像の表示態様を前記第1のユーザの発話の収音結果に応じて変更する、前記(2)~(13)のいずれか一項に記載の情報処理システム。
(15)
前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
前記操作体に対応する画像は、前記第1のユーザの手を示す画像であり、
前記第1の伝達情報は、前記第1の場所においてセンシングされた音量の空間的分布を示す情報をさらに含み、
前記出力制御部は、前記第1の場所においてセンシングされた音量の空間的分布と、前記第1のユーザの第1の仮想的な位置とに応じて、前記第1のユーザの発話状況を示す画像を前記第2の場所内の表示面にさらに表示させる、前記(2)~(14)のいずれか一項に記載の情報処理システム。
(16)
前記第1の伝達情報は、前記第1のユーザの発話の収音結果を含み、
前記出力制御部は、前記第1のユーザの発話の収音結果に対する音声認識の結果を、前記操作体に対応する画像、または、前記第2の場所における前記操作体のポインティング位置と関連付けて前記第2の場所内の表示面にさらに表示させる、前記(2)~(15)のいずれか一項に記載の情報処理システム。
(17)
前記第1の伝達情報は、前記第1のユーザの発話の収音結果と、前記第1の場所においてセンシングされた音量の空間的分布を示す情報とをさらに含み、
前記第2の場所には、複数の音声出力部が配置されており、
前記出力制御部は、さらに、前記第1の場所においてセンシングされた音量の空間的分布に応じて、前記第1のユーザの発話の収音結果を前記複数の音声出力部に出力させる、前記(2)~(16)のいずれか一項に記載の情報処理システム。
(18)
前記第1の伝達情報は、前記第1のユーザの発話の収音結果を含み、
前記第1のユーザが発話したことが検出された際に、前記出力制御部は、前記第1の場所において配置された第1のオブジェクトに対応する画像の方が、前記第1の場所以外の場所において配置された第2のオブジェクトに対応する画像よりも視認性が高くなるように、前記第1のオブジェクトに対応する画像および前記第2のオブジェクトに対応する画像を前記第2の場所内の表示面に表示させる、前記(2)~(17)のいずれか一項に記載の情報処理システム。
(19)
第1の場所に位置する第1のユーザに関連する操作体の操作に応じた、第2の場所に位置する第2のユーザとのコミュニケーションのための第1の伝達情報を取得することと、
前記第1の伝達情報に基づいて特定される、前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像をプロセッサが前記第2の場所内の表示面に表示させることと、
を含む、情報処理方法。
(20)
コンピュータを、
第1の場所に位置する第1のユーザに関連する操作体の操作に応じた、第2の場所に位置する第2のユーザとのコミュニケーションのための第1の伝達情報を取得する情報取得部と、
前記第1の伝達情報に基づいて特定される、前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる出力制御部、
として機能させるためのプログラム。
(21)
第1の場所に位置する第1のユーザに関連する操作体の操作に応じた、第2の場所に位置する第2のユーザとのコミュニケーションのための第1の伝達情報と、前記操作体の操作時を含む期間において撮像された、前記第1のユーザを含む空間の撮像映像とを取得する情報取得部と、
前記第1の伝達情報に基づいて特定される、前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の第1の表示面に表示させ、かつ、
前記撮像映像を前記第2の場所内の第2の表示面に表示させる出力制御部と、
を備える、情報処理システム。
20 スクリーン
22 通信網
90 テーブル
100 処理部
102 情報生成部
104 送信制御部
106 情報取得部
108 出力制御部
120 入力部
122 表示処理部
124 出力部
126 通信部
128 記憶部
130 情報生成再現規則DB
132 情報適合規則DB
Claims (20)
- 第1の場所に位置する第1のユーザに関連する操作体の操作に応じた、第2の場所に位置する第2のユーザとのコミュニケーションのための第1の伝達情報を取得する情報取得部と、
前記第1の伝達情報に基づいて特定される、前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる出力制御部と、
を備え、
前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
前記操作体のポインティング位置は、前記第1のユーザの手のポインティング位置であり、
前記出力制御部は、
前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置との間の前記第1のユーザの第2の仮想的な位置を、前記第1の伝達情報に基づいてさらに特定し、
前記第1のユーザの第2の仮想的な位置と、前記第1のユーザの第1の仮想的な位置との関係が所定の状態になった場合には、
前記第1のユーザの第1の仮想的な位置、前記第1のユーザの第2の仮想的な位置、及び、前記第1のユーザの手のポインティング位置のうちの少なくとも1つを、前記第1のユーザの手のポインティング位置、又は、前記第1のユーザの第1の仮想的な位置に基づいて補正し、
次いで、前記第1のユーザの手のポインティング位置と、前記第1のユーザの第2の仮想的な位置と、前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる、
情報処理システム。 - 前記情報取得部は、前記第1の場所内の表示面上に位置する少なくとも一つのオブジェクトのセンシング結果をさらに取得し、
前記出力制御部は、前記少なくとも一つのオブジェクトに対応する画像を前記第2の場所内の表示面にさらに表示させる、請求項1に記載の情報処理システム。 - 前記少なくとも一つのオブジェクトを移動させる操作が前記第1の伝達情報に基づいて特定された場合には、前記出力制御部は、前記少なくとも一つのオブジェクトに対応する画像の表示位置を、特定された前記操作に応じて移動させる、請求項2に記載の情報処理システム。
- 前記第1の場所内の表示面上で前記第1のユーザの手がスライドされたことが前記第1の伝達情報に基づいて特定された場合には、前記出力制御部は、当該スライド中の前記第1のユーザの手のポインティング位置の軌跡を示す画像を前記第2の場所内の表示面にさらに表示させる、請求項1又は2に記載の情報処理システム。
- 前記出力制御部は
前記第1のユーザの手のポインティング位置と、前記第1のユーザの第2の仮想的な位置と、前記第1のユーザの第1の仮想的な位置との関係が所定の関係になった場合には、前記第1のユーザの第1の仮想的な位置、および/または、前記第1のユーザの第2の仮想的な位置を、前記第1のユーザの手のポインティング位置に基づいて補正し、
前記第1のユーザの手のポインティング位置と、補正後の前記第1のユーザの第2の仮想的な位置と、補正後の前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる、請求項1~4のいずれか1項に記載の情報処理システム。 - 前記出力制御部は、
前記第1のユーザの手のポインティング位置と前記第1のユーザの第2の仮想的な位置とがなす第1の直線と、前記第1のユーザの第1の仮想的な位置と前記第1のユーザの第2の仮想的な位置とがなす第2の直線とによる角度が所定の角度範囲に入っていない場合には、前記補正を実施する、
請求項5に記載の情報処理システム。 - 前記出力制御部は
前記第1のユーザの第2の仮想的な位置と前記第1のユーザの第1の仮想的な位置との距離が所定の距離よりも大きくなった場合には、前記第1のユーザの手のポインティング位置、および、前記第1のユーザの第2の仮想的な位置をそれぞれ、前記第1のユーザの第1の仮想的な位置に基づいて補正し、
補正後の前記第1のユーザの手のポインティング位置と、補正後の前記第1のユーザの第2の仮想的な位置と、前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させ、かつ、
補正前の前記第1のユーザの手のポインティング位置を示す画像を前記操作体に対応する画像と関連付けて前記第2の場所内の表示面にさらに表示させる、請求項1~6のいずれか1項に記載の情報処理システム。 - 前記第1の伝達情報は、前記第1のユーザの属性情報をさらに含み、
前記出力制御部は、前記操作体に対応する画像の表示パラメータの値を前記第1のユーザの属性情報に応じて変更する、請求項1~7のいずれか1項に記載の情報処理システム。 - 前記情報取得部は、前記第1のユーザと前記第2のユーザとの親交度を示す情報をさらに取得し、
前記出力制御部は、前記操作体に対応する画像の表示態様を、前記第1のユーザと前記第2のユーザとの親交度に応じて変更する、請求項1~8のいずれか1項に記載の情報処理システム。 - 前記第1の伝達情報は、前記第1の場所内の表示面を基準とした前記第1のユーザの手の高さのセンシング結果をさらに含み、
前記出力制御部は、前記操作体に対応する画像の表示パラメータの値を、前記第1のユーザの手の高さのセンシング結果に応じて変更する、請求項1~9のいずれか1項に記載の情報処理システム。 - 前記情報取得部は、前記第1の場所を含む、前記第2の場所以外の複数の場所に位置する複数のユーザの各々に関して、当該ユーザの手の操作に応じた前記第2のユーザとのコミュニケーションのための、当該ユーザに対応する伝達情報をさらに取得し、
前記複数のユーザの各々に関して、前記第2の場所における当該ユーザの手のポインティング位置と前記第2の場所における当該ユーザの第1の仮想的な位置とが、当該ユーザに対応する伝達情報に基づいて特定され、
前記出力制御部は、前記複数のユーザの各々に関して、当該ユーザの手のポインティング位置と前記第2の場所における当該ユーザの第1の仮想的な位置とに基づいて生成される、当該ユーザの手に対応する画像を前記第2の場所内の表示面に表示させ、かつ、
前記第2の場所における前記複数のユーザの各々の第1の仮想的な位置の関係が所定の関係になった場合には、前記出力制御部は、前記複数のユーザの各々に関して、当該ユーザの手に対応する画像の表示位置を当該ユーザが位置する場所に応じて変更する、請求項1~10のいずれか1項に記載の情報処理システム。 - 第1の場所に位置する第1のユーザに関連する操作体の操作に応じた、第2の場所に位置する第2のユーザとのコミュニケーションのための第1の伝達情報を取得する情報取得部と、
前記第1の伝達情報に基づいて特定される、前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる出力制御部と、
を備え、
前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
前記操作体のポインティング位置は、前記第1のユーザの手のポインティング位置であり、
前記出力制御部は、
前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置との間の前記第1のユーザの第2の仮想的な位置を、前記第1の伝達情報に基づいてさらに特定し、
前記第1のユーザの第1の仮想的な位置と前記第2の場所における前記第2のユーザの位置との関係が所定の関係になった場合には、前記第1のユーザの第1の仮想的な位置を、前記第2のユーザの位置と前記第1のユーザの手のポインティング位置とに基づいて補正し、
前記出力制御部は、前記第1のユーザの手のポインティング位置と、前記第1のユーザの第2の仮想的な位置と、補正後の前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる、
情報処理システム。 - 第1の場所に位置する第1のユーザに関連する操作体の操作に応じた、第2の場所に位置する第2のユーザとのコミュニケーションのための第1の伝達情報を取得する情報取得部と、
前記第1の伝達情報に基づいて特定される、前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる出力制御部と、
を備え、
前記第1のユーザに関連する操作体は、前記第1のユーザが使用する操作用デバイスであり、
前記出力制御部は、
前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置との間の前記第1のユーザの第2の仮想的な位置を、前記第1の伝達情報に基づいてさらに特定し、
前記第2の場所における前記第1のユーザの第1の仮想的な位置は、前記第2の場所における前記操作体のポインティング位置に基づいて決定し、
前記操作体のポインティング位置が変更される場合には、前記第1のユーザの第1の仮想的な位置を、前記操作体のポインティング位置の変更量よりも小さい量だけ当該変更に追従して変更し、
変更後の前記操作体のポインティング位置と、前記第1のユーザの第2の仮想的な位置と、変更後の前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる、
情報処理システム。 - 前記操作体に対応する画像は、前記第1のユーザの手を示す画像であり、
前記第1の伝達情報は、前記第1のユーザの発話の収音結果を含み、
前記出力制御部は、前記第1のユーザの手を示す画像の表示態様を前記第1のユーザの発話の収音結果に応じて変更する、請求項1~12のいずれか1項に記載の情報処理システム。 - 前記操作体に対応する画像は、前記第1のユーザの手を示す画像であり、
前記第1の伝達情報は、前記第1の場所においてセンシングされた音量の空間的分布を示す情報をさらに含み、
前記出力制御部は、前記第1の場所においてセンシングされた音量の空間的分布と、前記第1のユーザの第1の仮想的な位置とに応じて、前記第1のユーザの発話状況を示す画像を前記第2の場所内の表示面にさらに表示させる、請求項1~12のいずれか1項に記載の情報処理システム。 - 前記第1の伝達情報は、前記第1のユーザの発話の収音結果を含み、
前記出力制御部は、前記第1のユーザの発話の収音結果に対する音声認識の結果を、前記操作体に対応する画像、または、前記第2の場所における前記操作体のポインティング位置と関連付けて前記第2の場所内の表示面にさらに表示させる、請求項1~15のいずれか1項に記載の情報処理システム。 - 前記第1の伝達情報は、前記第1のユーザの発話の収音結果と、前記第1の場所においてセンシングされた音量の空間的分布を示す情報とをさらに含み、
前記第2の場所には、複数の音声出力部が配置されており、
前記出力制御部は、さらに、前記第1の場所においてセンシングされた音量の空間的分布に応じて、前記第1のユーザの発話の収音結果を前記複数の音声出力部に出力させる、請求項1~16のいずれか1項に記載の情報処理システム。 - 第1の場所に位置する第1のユーザに関連する操作体の操作に応じた、第2の場所に位置する第2のユーザとのコミュニケーションのための第1の伝達情報を取得する情報取得部と、
前記第1の伝達情報に基づいて特定される、前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる出力制御部と、
を備え、
前記第1の伝達情報は、前記第1のユーザの発話の収音結果を含み、
前記出力制御部は、
前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置との間の前記第1のユーザの第2の仮想的な位置を、前記第1の伝達情報に基づいてさらに特定し、
前記第1のユーザの第2の仮想的な位置に基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる、
前記第1のユーザが発話したことが検出された際には、前記第1の場所において配置された第1のオブジェクトに対応する画像の方が、前記第1の場所以外の場所において配置された第2のオブジェクトに対応する画像よりも視認性が高くなるように、前記第1のオブジェクトに対応する画像および前記第2のオブジェクトに対応する画像を前記第2の場所内の表示面に表示させる、
情報処理システム。 - 情報処理装置が、
第1の場所に位置する第1のユーザに関連する操作体の操作に応じた、第2の場所に位置する第2のユーザとのコミュニケーションのための第1の伝達情報を取得することと、
前記第1の伝達情報に基づいて特定される、前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像をプロセッサが前記第2の場所内の表示面に表示させることと、
を含む、情報処理方法であって、
前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
前記操作体のポインティング位置は、前記第1のユーザの手のポインティング位置であり、
前記情報処理装置が、
前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置との間の前記第1のユーザの第2の仮想的な位置を、前記第1の伝達情報に基づいてさらに特定し、
前記第1のユーザの第2の仮想的な位置と前記第1のユーザの第1の仮想的な位置との関係が所定の状態になった場合には、
前記第1のユーザの第1の仮想的な位置、前記第1のユーザの第2の仮想的な位置、及び、前記第1のユーザの手のポインティング位置のうちの少なくとも1つを、前記第1のユーザの手のポインティング位置、又は、前記第1のユーザの第1の仮想的な位置に基づいて補正し、
次いで、前記第1のユーザの手のポインティング位置と、前記第1のユーザの第2の仮想的な位置と、前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる、
ことをさらに含む、
情報処理方法。 - コンピュータを、
第1の場所に位置する第1のユーザに関連する操作体の操作に応じた、第2の場所に位置する第2のユーザとのコミュニケーションのための第1の伝達情報を取得する情報取得部と、
前記第1の伝達情報に基づいて特定される、前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる出力制御部、
として機能させるためのプログラムであって、
前記第1のユーザに関連する操作体は、前記第1のユーザの手であり、
前記操作体のポインティング位置は、前記第1のユーザの手のポインティング位置であり、
前記出力制御部は、
前記第2の場所における前記操作体のポインティング位置と前記第2の場所における前記第1のユーザの第1の仮想的な位置との間の前記第1のユーザの第2の仮想的な位置を、前記第1の伝達情報に基づいてさらに特定し、
前記第1のユーザの第2の仮想的な位置と前記第1のユーザの第1の仮想的な位置との関係が所定の状態になった場合には、
前記第1のユーザの第1の仮想的な位置、前記第1のユーザの第2の仮想的な位置、及び、前記第1のユーザの手のポインティング位置のうちの少なくとも1つを、前記第1のユーザの手のポインティング位置、又は、前記第1のユーザの第1の仮想的な位置に基づいて補正し、
次いで、前記第1のユーザの手のポインティング位置と、前記第1のユーザの第2の仮想的な位置と、前記第1のユーザの第1の仮想的な位置とに基づいて生成される前記操作体に対応する画像を前記第2の場所内の表示面に表示させる、
プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022147329A JP7468588B2 (ja) | 2017-06-12 | 2022-09-15 | 情報処理装置、情報処理システム、および情報処理方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017115265 | 2017-06-12 | ||
JP2017115265 | 2017-06-12 | ||
PCT/JP2018/016509 WO2018230160A1 (ja) | 2017-06-12 | 2018-04-24 | 情報処理システム、情報処理方法、およびプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022147329A Division JP7468588B2 (ja) | 2017-06-12 | 2022-09-15 | 情報処理装置、情報処理システム、および情報処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018230160A1 JPWO2018230160A1 (ja) | 2020-04-16 |
JP7143847B2 true JP7143847B2 (ja) | 2022-09-29 |
Family
ID=64660806
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019525169A Active JP7143847B2 (ja) | 2017-06-12 | 2018-04-24 | 情報処理システム、情報処理方法、およびプログラム |
JP2022147329A Active JP7468588B2 (ja) | 2017-06-12 | 2022-09-15 | 情報処理装置、情報処理システム、および情報処理方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022147329A Active JP7468588B2 (ja) | 2017-06-12 | 2022-09-15 | 情報処理装置、情報処理システム、および情報処理方法 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11048326B2 (ja) |
EP (1) | EP3640786B1 (ja) |
JP (2) | JP7143847B2 (ja) |
CN (1) | CN110770688B (ja) |
DE (1) | DE112018002980T5 (ja) |
WO (1) | WO2018230160A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11087489B2 (en) * | 2019-06-03 | 2021-08-10 | Disney Enterprises, Inc. | Systems and methods to facilitate interaction by one or more participants with content presented across multiple distinct physical locations |
JP7243541B2 (ja) * | 2019-09-17 | 2023-03-22 | 沖電気工業株式会社 | 情報処理装置、情報処理方法、プログラム、および、情報処理システム |
JP7339604B2 (ja) * | 2019-11-12 | 2023-09-06 | オムロン株式会社 | 動作認識装置、動作認識方法、動作認識プログラム及び動作認識システム |
JP7442940B2 (ja) * | 2020-07-07 | 2024-03-05 | アルプスアルパイン株式会社 | 近接検知装置 |
US11076128B1 (en) * | 2020-10-20 | 2021-07-27 | Katmai Tech Holdings LLC | Determining video stream quality based on relative position in a virtual space, and applications thereof |
JP2023079161A (ja) * | 2021-11-26 | 2023-06-07 | ソニーグループ株式会社 | 表示制御装置、表示制御方法、及びプログラム |
WO2023157653A1 (ja) * | 2022-02-18 | 2023-08-24 | ソニーグループ株式会社 | 情報処理装置及び情報処理方法 |
WO2023181634A1 (ja) * | 2022-03-24 | 2023-09-28 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及び記録媒体 |
CN118519519A (zh) * | 2023-02-20 | 2024-08-20 | 瑞轩科技股份有限公司 | 电子装置可读取媒体、显示器及其操作方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000231644A (ja) | 1999-02-08 | 2000-08-22 | Nippon Telegr & Teleph Corp <Ntt> | 仮想空間における発話者特定方法及びそのプログラムを記録した記録媒体 |
JP2010170354A (ja) | 2009-01-23 | 2010-08-05 | Seiko Epson Corp | 共有情報表示装置、共有情報表示方法およびコンピュータプログラム |
JP2011145794A (ja) | 2010-01-13 | 2011-07-28 | Nintendo Co Ltd | 情報処理プログラム、情報処理装置、情報処理方法および情報処理システム |
WO2012081194A1 (ja) | 2010-12-17 | 2012-06-21 | パナソニック株式会社 | 医療支援装置、医療支援方法および医療支援システム |
JP2015228054A (ja) | 2014-05-30 | 2015-12-17 | 和俊 尾花 | 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法 |
JP2015228256A (ja) | 2011-03-29 | 2015-12-17 | クアルコム,インコーポレイテッド | 各ユーザの視点に対する共有デジタルインターフェースのレンダリングのためのシステム |
WO2016002445A1 (ja) | 2014-07-03 | 2016-01-07 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2017034658A (ja) | 2015-08-03 | 2017-02-09 | 株式会社リコー | 映像処理装置、映像処理方法、及び映像処理システム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11224152A (ja) | 1998-02-05 | 1999-08-17 | Ricoh Co Ltd | 遠隔会議支援システム |
US8234578B2 (en) * | 2006-07-25 | 2012-07-31 | Northrop Grumman Systems Corporatiom | Networked gesture collaboration system |
JP5440176B2 (ja) | 2007-12-07 | 2014-03-12 | ソニー株式会社 | 入力装置、制御装置、制御システム、ハンドヘルド装置及び制御方法 |
JP5233708B2 (ja) * | 2009-02-04 | 2013-07-10 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US20100315413A1 (en) * | 2009-06-16 | 2010-12-16 | Microsoft Corporation | Surface Computer User Interaction |
US9053455B2 (en) | 2011-03-07 | 2015-06-09 | Ricoh Company, Ltd. | Providing position information in a collaborative environment |
US9662563B2 (en) * | 2012-10-22 | 2017-05-30 | Rolled Up Gaming Partners | Table game |
JP6308213B2 (ja) * | 2013-04-04 | 2018-04-11 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP6359333B2 (ja) | 2014-05-09 | 2018-07-18 | シャープ株式会社 | テレコミュニケーションシステム |
WO2017033544A1 (ja) | 2015-08-24 | 2017-03-02 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
-
2018
- 2018-04-24 DE DE112018002980.8T patent/DE112018002980T5/de active Pending
- 2018-04-24 CN CN201880037496.6A patent/CN110770688B/zh active Active
- 2018-04-24 EP EP18818141.6A patent/EP3640786B1/en active Active
- 2018-04-24 JP JP2019525169A patent/JP7143847B2/ja active Active
- 2018-04-24 WO PCT/JP2018/016509 patent/WO2018230160A1/ja unknown
- 2018-04-24 US US16/616,683 patent/US11048326B2/en active Active
-
2021
- 2021-06-23 US US17/355,561 patent/US11703941B2/en active Active
-
2022
- 2022-09-15 JP JP2022147329A patent/JP7468588B2/ja active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000231644A (ja) | 1999-02-08 | 2000-08-22 | Nippon Telegr & Teleph Corp <Ntt> | 仮想空間における発話者特定方法及びそのプログラムを記録した記録媒体 |
JP2010170354A (ja) | 2009-01-23 | 2010-08-05 | Seiko Epson Corp | 共有情報表示装置、共有情報表示方法およびコンピュータプログラム |
JP2011145794A (ja) | 2010-01-13 | 2011-07-28 | Nintendo Co Ltd | 情報処理プログラム、情報処理装置、情報処理方法および情報処理システム |
WO2012081194A1 (ja) | 2010-12-17 | 2012-06-21 | パナソニック株式会社 | 医療支援装置、医療支援方法および医療支援システム |
JP2015228256A (ja) | 2011-03-29 | 2015-12-17 | クアルコム,インコーポレイテッド | 各ユーザの視点に対する共有デジタルインターフェースのレンダリングのためのシステム |
JP2015228054A (ja) | 2014-05-30 | 2015-12-17 | 和俊 尾花 | 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法 |
WO2016002445A1 (ja) | 2014-07-03 | 2016-01-07 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2017034658A (ja) | 2015-08-03 | 2017-02-09 | 株式会社リコー | 映像処理装置、映像処理方法、及び映像処理システム |
Also Published As
Publication number | Publication date |
---|---|
CN110770688B (zh) | 2024-08-02 |
EP3640786A1 (en) | 2020-04-22 |
US11703941B2 (en) | 2023-07-18 |
JP2022188081A (ja) | 2022-12-20 |
CN110770688A (zh) | 2020-02-07 |
DE112018002980T5 (de) | 2020-02-20 |
EP3640786A4 (en) | 2020-07-01 |
US20210318749A1 (en) | 2021-10-14 |
US11048326B2 (en) | 2021-06-29 |
EP3640786B1 (en) | 2022-10-26 |
WO2018230160A1 (ja) | 2018-12-20 |
US20200209951A1 (en) | 2020-07-02 |
JPWO2018230160A1 (ja) | 2020-04-16 |
JP7468588B2 (ja) | 2024-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7143847B2 (ja) | 情報処理システム、情報処理方法、およびプログラム | |
JP7100092B2 (ja) | ワードフロー注釈 | |
US10636215B2 (en) | Systems and methods for providing real-time composite video from multiple source devices featuring augmented reality elements | |
KR102576135B1 (ko) | 감각 안경류 | |
CN110506249B (zh) | 信息处理设备、信息处理方法和记录介质 | |
JP2022140779A (ja) | 広範囲同時遠隔ディジタル提示世界 | |
US11151796B2 (en) | Systems and methods for providing real-time composite video from multiple source devices featuring augmented reality elements | |
CN111726536A (zh) | 视频生成方法、装置、存储介质及计算机设备 | |
CN110460799A (zh) | 创意相机 | |
US11423627B2 (en) | Systems and methods for providing real-time composite video from multiple source devices featuring augmented reality elements | |
WO2020078319A1 (zh) | 基于手势的操控方法及终端设备 | |
TW201228332A (en) | Mobile electronic device | |
WO2021143574A1 (zh) | 增强现实眼镜、基于增强现实眼镜的ktv实现方法与介质 | |
US12020389B2 (en) | Systems and methods for providing real-time composite video from multiple source devices featuring augmented reality elements | |
CN112835445A (zh) | 虚拟现实场景中的交互方法、装置及系统 | |
CN111480132A (zh) | 信息处理系统、信息处理方法和程序 | |
WO2023124972A1 (zh) | 显示状态切换方法、装置及系统、电子设备、存储介质 | |
WO2022179279A1 (zh) | 交互方法、电子设备与交互系统 | |
CN112034986A (zh) | 基于ar的交互方法、终端设备以及可读存储介质 | |
US20240160402A1 (en) | Device and method for transmitting voice data of user in virtual space | |
CN118760382A (zh) | 多媒体资源互动方法、装置、终端及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210316 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220314 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220816 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220829 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7143847 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |