[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPWO2014073345A1 - 情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体 - Google Patents

情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
JPWO2014073345A1
JPWO2014073345A1 JP2014545627A JP2014545627A JPWO2014073345A1 JP WO2014073345 A1 JPWO2014073345 A1 JP WO2014073345A1 JP 2014545627 A JP2014545627 A JP 2014545627A JP 2014545627 A JP2014545627 A JP 2014545627A JP WO2014073345 A1 JPWO2014073345 A1 JP WO2014073345A1
Authority
JP
Japan
Prior art keywords
information
work space
extended
virtual object
information terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014545627A
Other languages
English (en)
Inventor
脩 繁田
脩 繁田
俊一 笠原
俊一 笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2014073345A1 publication Critical patent/JPWO2014073345A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/10Architectures or entities
    • H04L65/1059End-user terminal functionalities specially adapted for real-time communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/103Workflow collaboration or project management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/401Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference
    • H04L65/4015Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference where at least one of the additional parallel sessions is real time or time sensitive, e.g. white board sharing, collaboration or spawning of a subconference

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

簡単かつ直観的な方法で実世界とデジタル情報とが融合された拡張作業空間において、デジタル情報の取り扱いを可能にする。本開示の情報処理装置は、実体と仮想オブジェクトとを操作可能な拡張作業空間内に表示される仮想オブジェクトの表示を制御する情報処理装置であって、拡張作業空間で検出される情報端末の位置情報と、仮想オブジェクトの表示を変化させるための表示制御トリガ情報とに基づき解析された、拡張作業空間への入力情報の解析結果に基づいて、拡張作業空間に表示される仮想オブジェクトへの操作処理を決定する操作決定部と、決定された操作処理に基づいて、仮想オブジェクトの表示制御処理を行う表示制御部と、を備える。

Description

本開示は、情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体に関する。
紙の上にペンで文字を書く、キッチンの上で食材を切る、カードゲームで遊ぶといった、実際に触ることのできる実体を伴った行為と、パソコンやスマートフォンのようにデジタル情報を用いて行う行為とは、同一空間で行うことができない。しかし、将来的には実世界の上に例えばプロジェクタ等を用いてデジタル情報を重畳することで、実世界とデジタル情報の世界とを融合した空間での作業ができるようになると考えられる。例えば、紙の上に数式を記述することでグラフを自動生成する、料理に合わせて食材を適切に切られるようカットラインをプロジェクションすることが考えられる。このような処理を実現するためのARアプリケーションとして、例えば特許文献1等に開示された技術がある。
実世界の上に仮想オブジェクトであるデジタル情報を提示する先行技術としては、例えば、プロジェクタや、シースル型のHMD(Head Mount Display)、スマートフォン等のカメラ内蔵型ディスプレイなどを用いた技術がある。このような実世界とデジタル情報とが融合された作業空間を、以下、拡張作業空間と称する。
特開2010−238098号公報
拡張作業空間で行われる作業として、例えば天気、ニュース、時計、写真等のデジタル情報を机上や壁面等にプロジェクションして拡張作業空間で取り扱うことが考えられる。このような場合において、スマートフォンやタブレット端末、パソコン等のようにホーム画面からアプリケーションを指定して起動し、所望のデジタル情報をプロジェクションすることで拡張作業空間でのデジタル情報の取り扱いを可能とすることができる。しかし、所望のデジタル情報を拡張作業空間で取り扱うために、その都度ホーム画面に切り替え、アプリケーションを選択するという手間が発生する。他の方法として、例えばスマートフォンから特定のアプリケーションを起動して、別のデバイスに転送する方法が考えられるが、複雑な階層メニュー構造から転送したいデバイスを選択するなどの手間が発生する。
そこで、本開示では、簡単かつ直観的な方法で実世界とデジタル情報とが融合された拡張作業空間において、デジタル情報の取り扱いを可能にする、新規かつ改良された情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体を提案する。
本開示によれば、実体と仮想オブジェクトとを操作可能な拡張作業空間内に表示される仮想オブジェクトの表示を制御する情報処理装置であって、拡張作業空間で検出される情報端末の位置情報と、仮想オブジェクトの表示を変化させるための表示制御トリガ情報とに基づき解析された、拡張作業空間への入力情報の解析結果に基づいて、拡張作業空間に表示される仮想オブジェクトへの操作処理を決定する操作決定部と、決定された操作処理に基づいて、仮想オブジェクトの表示制御処理を行う表示制御部と、を備える、情報処理装置が提供される。
本開示によれば、拡張作業空間において、情報端末を用いて所定の動作が行われたとき、情報処理装置と情報端末との間で制御対象とされている仮想オブジェクトの表示制御が行われる。これにより、簡単かつ直感的な方法でユーザが操作を行っているようなユーザインフェースを提供できる。
また、本開示によれば、実体と仮想オブジェクトとを操作可能な拡張作業空間内に表示される仮想オブジェクトの表示を制御する情報処理方法であって、拡張作業空間で検出される情報端末の位置情報と、仮想オブジェクトの表示を変化させるための表示制御トリガ情報とに基づき解析された、拡張作業空間への入力情報の解析結果に基づいて、拡張作業空間に表示される仮想オブジェクトへの操作処理を決定すること、決定された操作処理に基づいて、仮想オブジェクトの表示制御処理を行うこと、を含む、情報処理方法が提供される。
さらに、本開示によれば、コンピュータに上記情報処理装置として機能させるためのプログラムを記憶したコンピュータ読み取り可能な記憶媒体が提供される。
以上説明したように本開示によれば、簡単かつ直観的な方法で実世界とデジタル情報とが融合された拡張作業空間において、デジタル情報の取り扱いを可能にする情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体を提供することができる。
本開示の第1の実施形態に係る拡張作業空間システムの一構成例を示す説明図である。 同実施形態に係る情報認識表示装置の機能構成を示すブロック図である。 情報端末から拡張作業空間へのデジタル情報の取り込み処理を示すフローチャートである。 拡張作業空間から情報端末へ作業面に表示されたデジタル情報の取り去り処理を示すフローチャートである。 拡張作業空間内の作業面と情報端末との間で行われる写真の授受処理を説明する説明図である。 冷蔵庫の扉を拡張作業空間の作業面として利用した例を示す説明図である。 拡張作業空間内に表示されたデジタル情報と情報端末のデジタル情報とが同期されるときの、同期の一例を示す説明図である。 拡張作業空間内の実物を認識して、認識された情報に関連付けられたデジタル情報を拡張作業空間の作業面に表示させる一操作例を示す説明図である。 拡張作業空間内の実物を認識して、認識された情報に関連付けられたデジタル情報を拡張作業空間の作業面に表示させる他の操作例を示す説明図である。 デジタル情報の授受の誤操作を防止するための操作を説明する説明図である。 本開示の第2の実施形態に係る拡張作業空間システムにおけるリモートコラボレーション機能の起動処理を示す説明図である。 同実施形態に係る拡張作業空間システムにおけるリモートコラボレーション機能の起動処理の他の例を示す説明図である。 同実施形態に係る認証方法の一例を示す説明図である。 同実施形態に係る認証方法の他の例を示す説明図である。 同実施形態に係る認証方法の他の例を示す説明図である。 同実施形態に係る認証方法の他の例を示す説明図である。 同実施形態に係る認証方法の他の例を示す説明図である。 認証成立時に操作可能な処理をリスト表示する例を示す説明図である。 デジタル情報に対する排他処理を説明する説明図である。 情報処理部の一ハードウェア構成を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態(デジタル情報の授受)
1.1.拡張作業空間システムの構成例
1.2.情報認識表示装置の機能構成
1.3.拡張作業空間での作業
2.第2の実施形態(リモートコラボレーション機能)
2.1.リモートコラボレーション機能
2.2.インタラクティブな認証方法
3.ハードウェア構成例
<1.第1の実施形態>
[1.1.拡張作業空間システムの構成例]
まず、図1を参照して、本開示の第1の実施形態に係る拡張作業空間システムの構成例について説明する。なお、図1は、本実施形態に係る拡張作業空間システムの一構成例を示す説明図である。
本実施形態に係る拡張作業空間システムは、実世界に存在する実物を認識可能であるとともに、仮想オブジェクトであるデジタル情報を実世界に重畳し、実世界とデジタル情報とが融合する拡張作業空間を構築するシステムである。拡張作業空間システムは、例えば、デジタル情報を拡張作業空間に投影するプロジェクタや、拡張作業空間を撮影するカメラ、拡張作業空間で行われたタッチやピンチイン、ピンチアウト等のジェスチャ認識を行うセンシングデバイス、無線通信装置から構成される。
例えば図1に示すように、卓上を作業面2とし、プロジェクタ、カメラ、無線通信装置、センシングデバイスを備えた情報認識表示装置100を卓上に設置して作業面2にデジタル情報を投影することで、拡張作業空間を構築することができる。作業面2は拡張作業空間で情報の操作や表示が行われる情報操作面であり、プロジェクタで投影可能かつカメラで撮像可能な領域をいう。情報認識表示装置100は、作業面2を含む空間をカメラで撮影し、作業面2で行われるユーザのジェスチャをセンシングデバイスにより認識する。また、プロジェクタによりデジタル情報を作業面2に投影し、実世界に存在する物体にデジタル情報を重畳する。
拡張作業空間システムにおいて、図1の例では、卓上にプロジェクタを備える情報認識表示装置100を設置して作業面2にデジタル情報を投影しているが、プロジェクタは卓上に設置されるデスクライトスタンドや天井照明、あるいは壁等に設置してもよい。また、プロジェクタによりデジタル情報を投影する代わりに、例えば、カメラが内蔵されたHMD(Head Mount Display)やシースル型のHMD等のようにメガネ型のデバイスを用いてもよい。このとき、拡張作業空間に重畳されるデジタル情報は、ユーザが装着するメガネ型のディスプレイ上に重畳される。また、プロジェクタの代替としてカメラおよびディスプレイが内蔵されたスマートフォン等のデバイスを用いて、ディスプレイに表示された、カメラにより撮影されているスルー画像の上に、デジタル情報を重畳して表示してもよい。
また、センシングデバイスには、例えば作業面2に対して並行に照射された赤外線を検出するIRカメラや、ステレオカメラ、奥行き情報を取得可能な特殊センサ等で用いてもよい。また、センシングデバイスには、指等の作業面2への接触を検出するタッチセンサや、超音波と赤外線とを用いてデジタルペンによる筆跡の座標を取得可能なデバイスを用いてもよい。なお、筆跡の座標は、デジタルペンを用いなくとも、通常のペンの筆跡をカメラ等の別のセンサで検出してもよい。
無線通信装置には、例えばBluetooth(登録商標)、Wi‐fi(登録商標)、NFC(Near Field Communication)等の外部デバイスと通信可能な装置が用いられる。
[1.2.情報認識表示装置の機能構成]
次に、図2に基づいて、情報認識表示装置100の機能構成について説明する。なお、図2は、本実施形態に係る情報認識表示装置100の機能構成を示すブロック図である。本実施形態に係る情報認識表示装置100は、投影部110と、検出部120と、撮像部130と、情報処理部140と、通信部150とから構成される。
投影部110は、デジタル情報を拡張作業空間に投影する機能部であり、図1で説明したプロジェクタ等により実現される。投影部110は、後述する情報処理部140からの表示指示を受けて、投影部110が設置されている拡張作業空間にデジタル情報を表示する。
検出部120は、拡張作業空間における動き情報を検出する。検出部120は、例えば図1で説明したセンシングデバイス等により実現される。検出部120は、検出結果を後述する情報処理部140へ出力する。
撮像部130は、拡張作業空間を撮影する機能部であり、図1で説明したカメラ等により実現される。撮像部130は、撮像画像を後述する情報処理部140へ出力する。
情報処理部140は、拡張作業空間における物体の位置や動きを解析し、解析結果に対応して当該拡張作業空間におけるデジタル情報の表示処理を行う。情報処理部140は、図2に示すように、解析部142と、操作決定部144と、表示制御部146と、設定記憶部148とを備える。
解析部142は、検出部120の検出結果および撮像部130による撮像画像のうち少なくともいずれか一方の情報に基づいて、拡張作業空間における物体の位置や動きを解析する。例えば、解析部142は、検出部120による検出結果よりユーザの手の動きの変化を算出する。そして、解析部142は、設定記憶部148を参照し、特定したユーザの手の動きの変化から、拡張作業空間においてユーザが行ったタッチやピンチイン、ピンチアウト等のジェスチャを特定する。解析部142による解析結果はユーザが拡張作業空間で行った操作入力情報であり、当該解析結果に基づいて仮想作業空間へデジタル情報が表示される。解析部142は、解析結果を操作決定部146へ出力する。
操作決定部144は、解析部142の解析結果に基づいて、拡張作業空間におけるデジタル情報の操作内容を決定する。操作決定部144は、設定記憶部148を参照して、例えば解析部142により特定されたユーザのジェスチャに対応するデジタル情報の操作内容を決定する。デジタル情報の操作内容としては、例えば、情報端末のデジタル情報を作業面2にコピーする、作業面2のデジタル情報を情報端末へ移動する、作業面2に表示されているデジタル情報の拡大・縮小、等がある。操作決定部144は、決定した操作内容を表示制御部146へ出力する。
表示制御部146は、操作決定部144により決定された操作内容に基づいて、拡張作業空間のデジタル情報の表示処理を行う。表示制御部146は、例えば、情報端末と作業面2との間でのデジタル情報の授受を行うようにみせるための表示処理や、拡張作業空間に表示されたデジタル情報の表示変更処理(拡大、縮小、移動等)等を行う。表示制御部146は、デジタル情報に対する表示処理の内容を投影部110へ出力し、デジタル情報の表示指示を行う。
設定記憶部148は、情報処理部140にて行われる解析やデジタル情報の操作内容等決定するための情報を記憶する。設定記憶部148に記憶された情報を参照して、例えば解析部142はユーザが拡張作業空間で行った操作入力情報を特定し、操作決定部144は拡張作業空間におけるデジタル情報の操作内容を決定する。
通信部150は、他の拡張作業空間の情報認識表示装置100と情報を送受信する。通信部150により他の拡張作業空間の情報認識表示装置100との情報のやり取りが可能となることで、互いの拡張作業空間の状況をそれぞれの空間に反映させることができる。
[1.3.拡張作業空間での作業]
本実施形態に係る情報認識表示装置100は、拡張作業空間で入力された操作入力情報に応じて、拡張作業空間内にある実物および情報端末でのデジタル情報の操作を制御する装置である。情報認識表示装置100は、従来デジタル情報を拡張作業空間で取り扱う際に複雑な操作や手間が生じていたことを解決するため、簡単かつ直観的なデジタル情報の取り扱いを可能にするよう制御する。
まず、図3〜図5に基づいて、情報認識表示装置100による基本的な処理である、拡張作業空間内の作業面2と情報端末との間で行われるデジタル情報の授受処理を説明する。なお、図3は、情報端末200から拡張作業空間へのデジタル情報の取り込み処理を示すフローチャートである。図4は、拡張作業空間から情報端末200へ作業面に表示されたデジタル情報の取り去り処理を示すフローチャートである。図5は、拡張作業空間内の作業面2と情報端末200との間で行われる写真の授受処理を説明する説明図である。
拡張作業空間内の作業面2と情報端末200との間でデジタル情報の授受が可能となると、デジタル情報を操作しやすい場所で編集等の作業を行うことができ、作業完了後には持ち運びしやすい情報端末200に取り込むことも可能となる。なお、情報端末200とは、例えばスマートフォンやタブレット端末、デジタルカメラ等のデバイス等が考えられる。
情報端末200は操作領域に限りがある一方、拡張作業空間内では作業面2を広く確保することが可能である。したがって、例えば、情報端末200が保持する複数の画像の編集作業を行う場合には、情報端末200では操作領域の制限から編集対象のみを表示して1つずつ編集することになる。そこで、情報端末200の保持する画像を作業面2に取り込むことで、取り込んだ複数の画像を作業面2に広げて、他の画像を見ながら同時に編集作業を行うことが可能になる。その他、写真を複数人で閲覧して共有する場合や、画面にメッセージを書き込む場合等、広い作業空間を必要とする場合において、拡張作業空間を利用したデジタル情報の作業は特に有効である。
なお、以下において、デジタル情報は、動画、音声のようなコンテンツや、twitter(登録商標)等の情報投稿サービス、時計、ニュース、ゲームのようなアプリケーション等様々な情報を想定している。また、情報端末200で指定されるデジタル情報は、情報端末200本体内に保持されていてもよく、クラウド・コンピューティングのように情報端末200とネットワークを介して通信可能に接続されたサーバに保持されていてもよい。拡張作業空間の情報認識表示装置100と情報端末200とは、予め無線通信接続されているものとする。これらの装置のペアリングは、従来行われている操作端末の設定画面を用いた設定方法で行ってもよく、ペアリングする情報端末200を情報認識表示装置100に接触させることでペアリングが自動的に行われるタッチペアリングを用いてもよい。
(1)デジタル情報取り込み処理
まず、情報端末200から拡張作業空間内の作業面2に情報端末200で指定されたデジタル情報を作業面2に取り込む処理について説明する。図3に示すように、まず、ユーザは、情報端末200を操作して、作業面2への取り込み対象とするデジタル情報を選択する(S100)。取り込み対象とするデジタル情報は1つであっても複数であってもよい。図5左側では、デジタル情報として写真を例にとり、情報端末200の写真を拡張作業空間の作業面2へ取り込む一操作例を示している。この例では、情報端末200に取り込み対象の写真300を画面に表示させることで、取り込み対象を選択する。なお、複数の写真を取り込む場合には、ユーザが取り込み対象を決定する操作(例えば、画面を長押しして取り込み対象決定ボタンを表示させ、当該ボタンを押下する、等)を情報端末200で行えばよい。
取り込み対象のデジタル情報を選択した後、ユーザは、デジタル情報の取り込みを指示する動作として、拡張作業空間内の作業面2に情報端末200を置く(S102)。図5左側の例では、ユーザは情報端末200を作業面2である卓上に置いている。ユーザが情報端末200を作業面2に置いたことを情報認識表示装置100が認識すると、作業面2に情報端末200が置かれたことが表示制御トリガ情報となって取り込み対象のデジタル情報が作業面2に取り込まれる(S104)。デジタル情報の取り込み動作が行われたことを判定する方法としては、例えば画像認識技術を用いる方法やタイムスタンプを用いる方法等が考えられる。
画像認識技術を用いる方法では、まず、情報端末200に表示されたデジタル情報を情報認識表示装置100の撮像部130で撮影し、解析部142により撮影されたデジタル情報の画像を画像認識する。画像認識は、例えば、情報端末200に表示されるデジタル情報に対応する登録画像を情報認識表示装置100に予め登録しておき、撮像部130により撮影された画像と登録画像とをマッチングすることで行うことができる。それ以外にも、例えば情報端末200に表示されたQRコード(登録商標)等の2次元バーコードを識別したり、情報端末200の画面の時系列点灯パターンを識別したりすることによって、取り込み対象のデジタル情報を認識することもできる。画像認識に際して予め取得しておくべき情報は、画像認識表示装置100の設定記憶部148に記録される。
一方、タイムスタンプを用いる方法では、動きが検出された情報端末200が静止した時点(「静止判定時点」とする。)のタイムスタンプと、検出部120により取得された静止判定時点のタイムスタンプとの時間差から、取り込み動作を判定してもよい。なお、情報端末200と情報認識表示装置100との内部時計は予め一致させておく、あるいは内部時計の時間差を予め計測し当該時間差だけいずれか一方のタイムスタンプを補正するものとする。また、タイムスタンプの比較に加え、解析部142により情報端末200が認識する動き情報と情報認識表示装置100が認識する情報端末200の動き情報との正規化相互相関を計算し、相関値が最も高い時刻差に基づき取り込み動作の実行を判定してもよい。
このようなデジタル情報の取り込み動作の実行判定とともに、解析部142は、検出部120の検出結果から情報端末200が作業面2に接触したか否かを判定する。そして、操作決定部144は、解析部142の解析結果より、情報端末200が作業面2に接触したと判定され、かつ、画像認識より取り込み対象となるデジタル情報が特定されたとき、当該デジタル情報の作業面2への取り込み処理を開始する(S106)。
具体的には、取り込み対象のデジタル情報が、通信部を介して、情報端末200から情報認識表示装置100へ送信される。情報端末200本体に取り込み対象のデジタル情報を保持していない場合には、当該デジタル情報を保持するサーバ等から情報認識表示装置100へ送信してもよい。情報認識表示装置100も、情報認識表示装置100本体にデジタル情報を記憶していなくともよく、情報端末200と同様、ネットワークを介して通信可能に接続されたサーバに保持されていてもよい。この場合、情報端末200は、情報認識表示装置100のデジタル情報を保持するサーバへ取り込み対象のデジタル情報を送信する。
ステップS106では、拡張作業空間の作業面2に取り込み対象のデジタル情報を表示させることで、情報端末200から作業面2へデジタル情報が取り込まれたとする。表示制御部146は、操作決定部144がデジタル情報の取り込み処理を開始すると、開始処理を受けて取り込み対象のデジタル情報を保持している機器から当該デジタル情報を取得する。取り込み対象のデジタル情報は、情報端末200あるいはネットワークを介して通信可能なサーバ等が保持しており、操作決定部144は、通信部150を介してネットワークに接続し、取り込み対象のデジタル情報を取得する。
そして、表示制御部146は、取得したデジタル情報を投影部110に投影させる(S108)。こうして、情報端末200のデジタル情報を拡張作業空間に取り込むことができる。例えば、図5左側の例において、卓上に置かれた情報端末200の画面に表示されている写真300の画像認識が正常に行われ、かつ、情報端末200が卓上に置かれたことが認識されたとする。この場合、情報端末200から情報認識表示装置100へ写真が送信されて、投影部110により当該写真が卓上に投影される。ユーザが情報端末200を卓上から持ち上げたときに情報端末200に表示された写真が卓上に表示されていることで、ユーザは情報端末200の写真が拡張作業空間に取り込まれことを認識できる。
以上、デジタル情報の取り込み処理について説明した。なお、情報端末200から拡張作業空間の作業面2へのデジタル情報の取り込みは、情報端末200を情報認識表示装置100へコピーするものでもよく、情報端末200のデジタル情報を情報認識表示装置100へ移動するものであってもよい。情報端末200のデジタル情報を情報認識表示装置100へ移動した場合、作業面2にのみデジタル情報を表示させ、情報端末200側では当該デジタル情報を表示しないようにしてもよい。また、情報端末200のデジタル情報を情報認識表示装置100へ移動した場合、情報端末200側に、情報端末200のデジタル情報を情報認識表示装置100へ移動したことを明示する表示情報を表示させるようにしてもよい。これにより、ユーザはデジタル情報が情報端末200から移動されたことを直観的に認識することができる。このような情報端末200側の表示制御は、デジタル情報の取り込み処理に応じたタイミングで情報端末200側の表示を変化させるための情報を情報認識表示装置100から情報端末200側へ送信することにより実現される。作業面2に表示されているデジタル情報を情報端末200で取り去る場合も同等に表示処理してもよい。図5右側に示すように、情報端末200へデジタル情報が取り去られたときに作業面2からデジタル情報の表示を消去してもよく、情報端末200へデジタル情報を移したときにも作業面2に当該デジタル情報を表示させていてもよい。さらに、情報端末200から拡張作業空間の作業面2へ取り込まれたデジタル情報は、作業面2において編集や移動等、自由に操作可能である。拡張作業空間の作業面2で実施可能な操作内容の具体例は後述する。
(2)デジタル情報取り去り処理
次に、図4および図5に基づき、拡張作業空間の作業面2に表示されたデジタル情報を情報端末200で取り去る処理について説明する。図5右側には、デジタル情報として写真を例にとり、拡張作業空間の作業面2の写真を情報端末200で取り去る一操作例を示している。
まず、ユーザは、拡張作業空間の作業面2に表示されたデジタル情報から、情報端末200で取り去るデジタル情報を決定する。そして、ユーザは、デジタル情報を作業面2から取り去る動作として、取り去り対象として決定したデジタル情報の上に情報端末200を置く(S110)。図5右側の例では、拡張作業空間の作業面2に表示されている写真400に対して、ユーザは付加オブジェクト402として文字列を追加した後、当該写真400の上に情報端末200を置いている。ユーザが情報端末200を作業面2に置いたことを情報認識表示装置100が認識すると(S112)、作業面2に情報端末200が置かれたことが表示制御トリガ情報となって取り去り対象のデジタル情報が作業面2から情報端末200に移動される(S114)。
このとき、情報端末200へは、情報端末200が置かれた時点での、作業面2に表示されている内容のデジタル情報が移動される。例えば図5右側の例では、付加オブジェクト402が追加された写真400が情報端末200へ移動される。なお、デジタル情報の取り去り動作が行われたことを判定する方法としては、例えば上述の画像認識技術を用いる方法やタイムスタンプを用いる方法等が考えられる。このとき、タイムスタンプを用いる方法では、上述した情報端末200が静止した時点を判定するのとは逆に、情報端末200が静止状態から動き始めた時点のタイムスタンプを用いて動作判定が行われる。
その後、ユーザにより情報端末200が作業面2から持ち上げられたことが検出されると、操作決定部144は、表示制御部146に、情報端末200へ移動されたデジタル情報の表示を作業面2から消去させる(S116)。例えば図5右側の例では、ユーザが卓上に置いた情報端末200を持ち上げると、作業面2の情報端末200が置いてあった位置に表示されていた取り去り対象の写真400の表示が消去される。これにより、ユーザは取り去り対象の写真400が情報端末200に移動されたことを視認することができる。また、情報端末200には、写真400を取り去る前に作業面2に表示されていた編集後の写真の内容が表示される。以上、デジタル情報の取り去り処理について説明した。なお、上記説明では作業面2に情報端末200の動きが表示制御トリガ情報となって、デジタル情報の取り込みや取り去りが行われたが、作業面2に情報端末200が置いてあるという状態を表示制御トリガ情報としてもよい。
(3)拡張作業空間におけるデジタル情報の操作
このように、拡張作業空間のデジタル情報を制御する情報認識表示装置100と情報端末200との間でデジタル情報の授受ができるようになると、デジタル情報に対する作業内容や利用状態に応じて、様々な場所でデジタル情報を操作することができる。例えば、図6に示すように、冷蔵庫の扉を拡張作業空間における作業面2として利用することもできる。図6の例では、冷蔵庫の扉に情報認識表示装置100が設置されている。ニュース等の動画アプリケーションを情報端末200で起動した状態で当該情報端末200を冷蔵庫の扉にタッチすると、情報端末200から情報認識表示装置100へ動画アプリケーションが取り込まれる。こうしてユーザは冷蔵庫の扉に表示された動画アプリケーションを操作して、ニュースを視聴することができる。
・デジタル情報の同期
拡張作業空間での作業が可能となったデジタル情報は、当該デジタル情報の取得元である情報端末200のデジタル情報と同期させてもよく、同期させず独立した情報として取り扱えるようにしてもよい。拡張作業空間内に表示されたデジタル情報と情報端末200のデジタル情報とを同期させると、例えば拡張作業空間内のデジタル情報の編集内容や操作内容が情報端末200側にリアルタイムに反映される。また、図7に示すように、情報端末200側に写真300aが表示され、拡張作業空間内の作業面2に写真300aに対応する写真400aが投影されている状況で、情報端末200側の操作面で指を移動させてスライド操作が行われたとする。この操作を受けて、情報端末200に表示されていた写真300aがスライドされて次の写真300bが情報端末200に表示されるとともに、作業面2でも写真400aから写真300bに対応する写真400bに表示が変更される。
・実物に関連付けられたデジタル情報の利用
また、上述の説明では、デジタル情報の授受は、情報認識表示装置100と情報端末200との間で行われたが、情報認識表示装置100は、情報端末200以外にも、本や雑誌、新聞等、実物を認識し、認識された実物に対応するデジタル情報を取得してもよい。例えば、実物の雑誌が拡張作業空間内の作業面2上に置かれると、撮像部130により撮影された雑誌の画像が設定記憶部150に予め記憶されている登録情報とマッチングされる。このとき、表紙等のように実物を特定しやすい部分を用いて実物を認識するようにしてもよい。解析部142は、雑誌の画像がある登録情報と一致すると判定すると、操作決定部144に当該登録情報に関連付けられたデジタル情報(すなわち、認識された雑誌のデジタル情報)を、ネットワークを介して取得させる。取得された雑誌のデジタル情報は、表示制御部146を経由して、投影部110により作業面2に投影される。
作業面2に表示された雑誌のデジタル情報は、情報端末200での操作と同様、作業面2に対してユーザがデジタル情報を操作するジェスチャを行うことで操作することができる。例えば図8に示すように、作業面2に雑誌のデジタル情報420が表示されているとき、ユーザがデジタル情報420の表示されている領域で指をスライドさせると、スライド方向に応じて、デジタル情報420で表示されている雑誌のページがめくられる。このように、拡張作業空間の実物を認識し、認識された情報に関連付けられたデジタル情報を拡張作業空間の作業面2に表示させることも可能であり、当該デジタル情報を操作することもできる。
拡張作業空間内の実物を認識して、認識された情報に関連付けられたデジタル情報を拡張作業空間の作業面2に表示させる他の例として、実物に設けられた2次元バーコードの識別によりデジタル情報を表示させてもよい。図9に、2つの算数の問題の回答表示方法の例を示す。図9左側の例では、拡張作業空間の作業面2に置かれた答案用紙430の上で指をスライドさせると、答案用紙430に回答が表示される。この例では、指をスライドする動作が回答表示指示となっており、解析部142により認識された答案用紙430の内容と拡張作業空間でのユーザの動作とに基づき操作決定部144は答案用紙430の問題に対応する回答を答案用紙430に表示する。
あるいは、図9右側の例では、拡張作業空間の作業面2に置かれた答案用紙430の上に、回答表示指示を示す2次元バーコード502が記載された用紙500を答案用紙430上に置くことで回答表示させてもよい。情報認識表示装置100は、用紙500の2次元バーコードを識別し、問題の解答を用紙500に表示させる。用紙500の2次元バーコード502は、問題毎に対応するものであってもよく、複数の問題に対して共通のものであってもよい。
このように、実物に関連付けられたデジタル情報を拡張作業空間に表示させる操作は、例えば、スーパーマーケットの広告を認識して各商品の詳細情報を表示させたり、映画のトレーラの表示を認識して動画を再生させたりすることにも利用できる。
・誤操作防止処理
情報認識表示装置100と情報端末200との間でのデジタル情報の授受は、情報端末200を作業面2に置いて離すという動作により実行される。ここで、情報端末200を卓上等に置く動作は頻繁に行われる動作でもあるため、デジタル情報の授受を目的としていない場合にも取り込み動作や取り去り動作が行われたと認識され、意図しないデジタル情報の授受が行われる可能性もある。そこで、デジタル情報の授受を行うことを明示する動作を行うことで、意図しないデジタル情報の授受を防止してもよい。
例えば図10に示すように、拡張作業空間の作業面2に情報端末200が置かれているとする。情報端末200から情報認識表示装置100へのデジタル情報の取り込みについて考えると、図3に示したフローチャートでは、作業面2に置かれた情報端末200を持ち上げると取り込み対象のデジタル情報が情報認識表示装置100へ取り込まれる。このとき、意図しないデジタル情報の取り込みを防止するために、例えば、作業面2に置かれた情報端末200を作業面2側に押し込む動作が行われたときに、初めて情報認識表示装置100へのデジタル情報の取り込みを開始する。情報端末200への押し込み動作が行われた後当該情報端末200が持ち上げられたことが認識されると、取り込み対象のデジタル情報が情報認識表示装置100に取り込まれる。
一方、作業面2に置かれた情報端末200への押し込み動作が行われずに当該情報端末200が持ち上げられると、情報端末200のデジタル情報は情報認識表示装置100に取り込まれない。したがって、情報端末200を持ち上げた後の作業面2には、情報端末200のデジタル情報は表示されないことになる。
図10に示す例では、誤操作防止のために行うデジタル情報授受の指示を明示的な動作により行ったが、例えば、ジェスチャ認識と音声認識とを組み合わせて、図3あるいは図4の処理において音声でデジタル情報の取り込みや取り去りを指示してもよい。
以上、第1の実施形態に係る拡張作業空間システムの構成と、拡張作業空間で行われるデジタル情報の授受処理について説明した。本実施形態によれば、簡単かつ直観的な方法で実世界とデジタル情報とが融合された拡張作業空間において、デジタル情報の取り扱いを可能にすることができる。
<2.第2の実施形態>
[2.1.リモートコラボレーション機能]
次に、図11を参照して、本開示の第2の実施形態に係る拡張作業空間システムの機能について説明する。本実施形態に係る拡張作業空間システムは、複数の拡張作業空間の情報を相互に共有できる機能(「リモートコラボレーション機能」ともいう。)を実現する。
拡張作業空間で行われる作業の1つとして、離れた位置にある拡張作業空間同士をネットワークで接続し協調作業することも考えられる。例えば、離れた位置にあるユーザの作業空間の机上の映像を別のユーザの作業空間の上に重畳することで、それぞれのユーザに拡張作業空間を提供し、協調作業を実現できると考える。この際、簡単に協調作業を行う拡張作業空間を構築することができ、また、協調作業空間においては、お互いの状況を確認しながら、より手軽でかつ直感的に協調作業を実現できることが望まれる。そこで、リモートコラボレーション機能により他の拡張作業空間での作業状況を認識しながら、ユーザは自身の作業を行うことができるようにする。なお、図11は、本実施形態に係る拡張作業空間システムにおけるリモートコラボレーション機能の起動処理を示す説明図である。
図11では、2つの拡張作業空間を共有する手順を示している。各拡張作業空間は、それぞれの空間に設置された情報認識表示装置100A、100Bにより構築される。なお、情報認識表示装置100A、100Bの機能構成は、図2に示した第1の実施形態に係る情報認識表示装置100と同様とする。情報認識表示装置100A、100Bはネットワークを介して通信可能な状態である。なお、以下では、符号100Aを第1の情報認識表示装置、符号100Bを第2の情報認識表示装置とする。本実施形態では、ユーザが情報端末200を拡張作業空間内の作業面2に置いて持ち上げる動作を行ったことが検出されると、他の拡張作業空間の情報共有を開始する。これにより簡単な動作で複数の拡張作業空間の情報を共通させることができる。
具体的には、第1の情報認識表示装置100Aの設置された拡張作業空間の作業面2に、情報端末200が置かれ、その後持ち上げられたとする。この動作の判定は、例えば第1の実施形態にて説明した、画像認識技術を用いる方法やタイムスタンプを用いる方法等を用いることができる。第1の情報認識表示装置100Aは、情報端末200が置かれ、その後持ち上げられた動作を認識すると、第2の情報認識表示装置100Bに対して情報共有の開始を要求する。第2の情報認識表示装置100Bは、第1の情報認識表示装置100Aからの要求を受けて、第1の情報認識装置100Aの置かれた第1の拡張作業空間の映像を受信し、第2の拡張作業空間に表示する。こうして、第2の拡張作業空間には、第1の拡張作業空間がデジタル情報として表示される。
図11に示す例では、第1の拡張作業空間の作業面2Aに情報端末200が置かれたときに、第1の実施形態にて説明した機能によりデジタル情報の授受が情報端末200と第1の情報認識表示装置100Aとの間で行われる。情報端末200が作業面2Aから離隔されると、作業面2Aには情報端末200から取り込まれたデジタル情報、例えば写真400Aが表示される。このとき、第1の情報認識表示装置100Aと第2の情報認識表示装置100Bとの間でリモートコラボレーション機能が機能しているので、第2の拡張作業空間の作業面2Bに、第1の拡張作業空間に表示されている写真400Aが同様に表示される。
第1の拡張作業空間の映像が第2の拡張作業空間にデジタル情報として表示されると、第1の拡張作業空間の映像も第1の拡張作業空間にデジタル情報として表示されるようになる。例えば図11に示すように、第2の拡張作業空間のユーザBが作業面2Bに表示されている写真400Bを指差すと、ユーザBの手HBの映像が第2の情報認識表示装置100Bから第1の情報認識表示装置100Aへ出力される。そして、第1の拡張作業空間には、ユーザBの手がデジタル情報HB_Iとして表示される。これにより、第1の拡張作業空間のユーザAは、ユーザBが写真400Bを指差していることを認識できる。
このように、リモートコラボレーション機能によって複数の拡張作業空間の状況やユーザの動作を互いに認識することができるようになり、例えば1つの作業を複数のユーザで意思を確認しながら進めることも可能となる。
なお、図11の例では、情報共有する各拡張作業空間にデジタル情報400A、400Bを表示させたが、例えば図12に示すように、第1の拡張作業空間の作業面2Aに置いた情報端末200の実物のデジタル情報を第2の拡張作業空間に表示させてもよい。この場合、リモートコラボレーション機能の開始は、例えば情報端末200が作業面2Aに置かれたときとなる。リモートコラボレーション機能が機能すると、作業面2Aに置かれた情報端末200の映像が、デジタル情報200_Iとして第2の拡張作業空間の作業面2Bに表示される。
[2.2.インタラクティブな認証方法]
例えば、上述した図11の例において、リモートコラボレーション機能により、第2の拡張作業空間のユーザBはそのデジタル情報に対して指を指したり触ったりといった動作をすることができる。このとき、第1の情報認識表示装置100Aが保持するデジタル情報は、第2の拡張作業空間側で操作可能にしてもよい。この場合、第2の情報認識表示装置100Bでも当該デジタル情報を保持していることが必要であり、所定のタイミングで第1の情報認識表示装置100Aから第2の情報認識表示装置100Bへ送信されている。所定のタイミングは、例えばリモートコラボレーション機能が開始したときであってもよく、ユーザ間で情報の操作について同意がとれたときであってもよい。
ユーザ間の同意は、認証機能を用いて確認することができる。本実施形態に係る拡張作業空間システムでは、複数の拡張作業空間の情報共通が可能であることを利用して認証を行うことができる。図13に、本実施形態に係る認証方法の一例を示す。この例では、各拡張作業空間の手の重なりに基づき認証判定を行う。
例えば、認証を要求する側のユーザ(ユーザB)が、認証要求動作として手のひらを上に向けて拡張作業空間の作業面2B上に手を置いたとする。そうすると、認証の要求を受けた側のユーザ(ユーザA)の拡張作業空間には、ユーザBの手のデジタル情報HB_Iが表示される。ユーザAは、ユーザBの認証要求を受ける場合、作業面2Aに表示されたユーザBの手のデジタル情報HB_I上に手のひらを重ねるようにして手HAを置く。情報認識表示装置100Aは、手形状認識によりユーザAの手HAとユーザBの手HB_Iとが重なり合っているか否かを判定し、重なり合っていると判定した場合にユーザBの要求を認証する。
認証要求動作は、例えば図14に示すように、親指と人差し指とを向い合せる動作であってもよい。この場合、認証の要求を受けた側のユーザ(ユーザA)は、ユーザBの手のデジタル情報HB_Iの親指と人差し指とにそれぞれ自分の親指と人差し指とを合わせるように手HAを置くことで、認証要求に応えることができる。
あるいは、認証動作は、指示された認証領域において指を重ね合う動作であってもよい。例えば図15に示すような、ゲーム内の物品を交換する場合等において、ユーザAからユーザBへ品物Xを渡すとする。このとき、ユーザAの作業面2AおよびユーザBの作業面2Bには、図15上に示すような認証案内が表示される。認証案内には、承認を確認するメッセージが表示されており、承認する場合には承認エリア460に指をタッチさせる動作を行うことが記載されている。このメッセージを受けてユーザAおよびユーザBがそれぞれ認証動作を行うと、相手の拡張作業空間に認証動作を行う手が表示される。これにより、相手の動きを見ながら認証動作を行うことができ、例えば図15に示すように、ユーザAはユーザBが承認したことを確認してから認証動作を行うこともできる。
更には、認証動作は、ある拡張作業空間にて入力された情報と同一情報を他の拡張作業空間で入力する動作であってもよい。例えばユーザのペンの筆跡を検出可能な場合には、複数の拡張作業空間にて入力された筆跡を比較し、一致する場合には承認するといった認証処理を行うことができる。一例として、図16に示すように、認証要求動作として、一方のユーザ(例えばユーザB)が作業面2Bにおいてペンで入力を行ったとする。情報認識表示装置100Bは、作業面2Bのペンの筆跡を取得すると、筆跡情報を認証要求とともに他のユーザ(例えばユーザA)側の情報認証表示装置100Aへ出力する。
情報認証表示装置100Aは、認証要求を受けて、作業面2AにユーザBのペンの筆跡を表すデジタル情報LB_Iを作業面2Aに表示させる。ユーザAは、承認する場合には、作業面2Aに表示されたデジタル情報LB_Iをペン4でなぞり、デジタル情報LB_Iと同一の図形を入力する。情報認識表示装置100Aは、ユーザAのペン4の筆跡がデジタル情報LB_Iと同一であると判定すると、ユーザAが承認したとして、情報認証表示装置100Bへ通知する。これにより、ユーザAおよびユーザBとの間で認証が成立する。
このように、本実施形態に係る拡張作業空間システムにおいては、各拡張作業空間の情報を共有可能であることを利用して、各ユーザの認証動作を確認しながら認証処理を行うことができる。このため、ユーザは直観的に認証処理を行うことができ、各ユーザの認証動作を確認しながら処理を進めることができるので安心して認証動作を行うことができる。
認証によって行われる動作は、例えばユーザ間でデジタル情報を共有したり、削除したり、第三者との共有を可能にする等、多岐の操作を行うことも可能となる。例えば、ユーザA側の第1の情報認識表示装置100Aにて保持するデジタル情報を、他の拡張作業空間のユーザB側の情報端末200Bでも取り去りする場合を考える。このとき、ユーザB側の情報端末200Bでのデジタル情報の取り去りを許可するための認証動作として、取り去り対象のデジタル情報の上でお互いの情報端末を重ねる動作を行ってもよい。
例えば図17に示すように、ユーザA側の第1の情報認識表示装置100Aにて写真450Aのデジタル情報を保持しているとする。写真450Aは、リモートコラボレーション機能により、他の拡張作業空間のユーザB側の作業面2Bにも表示されているとする。ユーザB側の情報端末200Bで写真450Aを取り去る場合にはユーザAの許可が必要であり、認証要求動作として、ユーザBは作業面2Bに表示されている写真の上に情報端末200Bを置く。この動作はユーザA側の作業面2Aに表示され、ユーザAは、作業面2Aに表示されたユーザBの動作を見て、当該写真450Aの取り去り要求があったことを認識する。
そして、ユーザBの要求を承認する場合、ユーザAは自身の情報端末200Aを作業面2Aに表示された情報端末200Bのデジタル情報200B_Iの上に重ねる。第1の情報認識表示装置100Aは、ユーザAの動作より、写真450Aに対してユーザBが情報端末200Bを取り去ることを承認したと判定すると、判定結果を第2の情報認証表示装置100Bへ通知する。これにより、ユーザAおよびユーザBとの間で認証が成立し、情報端末200Bに写真450Aがコピーされる。
また、認証動作によって実行可能な操作が複数ある場合には、例えばユーザ間の認証が成立した際に実行可能な操作をリスト表示してもよい。図18に示す例では、図17と同様、ユーザA側の第1の情報認識表示装置100Aにて保持されている写真450Aが、リモートコラボレーション機能により、他の拡張作業空間のユーザB側の作業面2Bにも表示されているとする。ユーザBが作業面2Bに表示されている写真の上に指を置き、かつユーザAもユーザBの指の上に自身の指を置くと、ユーザAおよびユーザBとの間で認証が成立する。このとき、第1の情報認識表示装置100Aは、ユーザ間の認証が成立した際に実行可能な操作のリスト700を作業面2Aに表示する。このリスト700は、ユーザB側の作業面2Bにも表示される。
リスト700には、例えばデジタル情報の共有を可能にしたり(Shere)、デジタル情報を削除したり(Delete)といった項目がある。このリスト700が表示されると、デジタル情報を保持していない側のユーザ(本例ではユーザB)も操作可能となったデジタル情報の共有や削除を行うことができるようになる。
なお、複数のユーザ間で1つのデジタル情報を操作可能となった場合、当該デジタル情報に対して複数のユーザが同時に操作しようとする可能性もある。デジタル情報は同時に操作可能であってもよく、特定のユーザのみが操作可能であってもよい。特定のユーザのみの操作を可能する方法としては、排他処理を行えばよく、例えば先に操作を行ったユーザからの操作を有効とし、このユーザの操作が終了するまでは他のユーザの操作を排除するようにしてもよい。
例えば図19に示すように、第1の情報認識表示装置100Aと第2の情報認識表示装置100Bとの間でリモートコラボレーション機能が機能しているとき、ユーザAが作業面2Aに表示された写真400Aを指で触り操作したとする。このとき、第1の情報認識表示装置100Aは、第2の情報認識表示装置100BへユーザB側の作業面2Bに表示されている写真400Bに対する操作を排除するよう指示する。第2の情報認識表示装置100Bは、排除指示を受けて、写真400Bに対する操作を排除する。このとき、写真400Bに対する操作が排除されることをユーザBに通知してもよく、通知方法としては例えば図19のような写真400Bのマスキングや音声等を用いることができる。
以上、本実施形態に係る拡張作業空間システムのリモートコラボレーション機能について説明した。このような機能によって複数の拡張作業空間の状況やユーザの動作を互いに認識することができるようになり、1つの作業を複数のユーザで意思を確認しながら進めることが可能となる。
<3.ハードウェア構成例>
上述の実施形態に係る情報認識表示装置100の情報処理部140による処理は、ハードウェアにより実行させることもでき、ソフトウェアによって実行させることもできる。この場合、情報処理部140は、図20に示すように構成することもできる。以下、図20に基づいて、情報処理部140の一ハードウェア構成例について説明する。
情報処理部140は、上述したように、コンピュータ等の処理装置により実現することができる。情報処理部140は、図20に示すように、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904aとを備える。また、情報処理部140は、ブリッジ904と、外部バス904bと、インタフェース905と、入力装置906と、出力装置907と、ストレージ装置(HDD)908と、ドライブ909と、接続ポート911と、通信装置913とを備える。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理部140内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス904aにより相互に接続されている。
ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、一のバスにこれらの機能を実装してもよい。
入力装置906は、マウス、キーボード、タッチパネル、ボタン、マイク、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。出力装置907は、例えば、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置や、スピーカなどの音声出力装置を含む。
ストレージ装置908は、情報処理部140の記憶部の一例であり、データ格納用の装置である。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置908は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置908は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。
ドライブ909は、記憶媒体用リーダライタであり、情報処理部140に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体に記録されている情報を読み出して、RAM903に出力する。
接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。また、通信装置913は、例えば、通信網10に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置913は、無線LAN(Local Area Network)対応通信装置であっても、ワイヤレスUSB対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、上記実施形態において、情報処理部140は情報認識表示装置100に設けたが、本技術はかかる例に限定されず、情報処理部140あるいはこれを構成する機能の一部のみを例えばネットワークに接続されたサーバ上に設けてもよい。
なお、以下のような構成も本開示の技術的範囲に属する。
(1) 実体と仮想オブジェクトとを操作可能な拡張作業空間内に表示される前記仮想オブジェクトの表示を制御する情報処理装置であって、
前記拡張作業空間で検出される情報端末の位置情報と、前記仮想オブジェクトの表示を変化させるための表示制御トリガ情報とに基づき解析された、前記拡張作業空間への入力情報の解析結果に基づいて、前記拡張作業空間に表示される仮想オブジェクトへの操作処理を決定する操作決定部と、
決定された前記操作処理に基づいて、前記仮想オブジェクトの表示制御処理を行う表示制御部と、
を備える、情報処理装置。
(2) 前記操作決定部は、前記表示制御トリガ情報に基づき前記情報端末によって前記拡張作業空間内の情報操作面に対して所定の動作が行われたと判定されたとき、前記表示制御部に対して制御対象とされている前記仮想オブジェクトの表示制御を行わせる、前記(1)に記載の情報処理装置。
(3) 前記操作決定部は、前記入力情報の解析結果より前記情報操作面に前記情報端末が置かれたと判定したとき、前記情報端末が置かれた位置に制御対象の前記仮想オブジェクトを前記仮想作業空間に表示させる、前記(2)に記載の情報処理装置。
(4) 前記操作決定部は、前記情報操作面に前記情報端末が置かれたことにより、前記拡張作業空間内における、前記情報操作面へ表示された前記仮想オブジェクトの操作を可能とする、前記(3)に記載の情報処理装置。
(5) 前記操作決定部は、前記入力情報の解析結果より前記情報操作面に前記情報端末が置かれたと判定し、かつ、当該情報端末に対して所定の動作が行われたと判定したとき、前記情報端末が置かれた位置に当該情報端末にて指定された制御対象の前記仮想オブジェクトを前記仮想作業空間に表示させる、前記(3)または(4)に記載の情報処理装置。
(6) 前記操作決定部は、前記入力情報の解析結果より前記情報操作面に表示されている制御対象の前記仮想オブジェクト上に前記情報端末が置かれたと判定したとき、当該情報端末に表示させる、前記(2)〜(5)のいずれか1項に記載の情報処理装置。
(7) 前記操作決定部は、前記入力情報の解析結果より前記拡張作業空間内の情報操作面に前記情報端末が置かれたと判定したことにより、他の拡張作業空間との情報通信を可能とし、
前記表示制御部は、前記各拡張作業空間内の情報を反映して表示する、前記(2)に記載の情報処理装置。
(8) 前記操作決定部は、
前記入力情報の解析結果より一の前記拡張作業空間におけるユーザの動作と他の前記拡張作業空間におけるユーザの動作とが対応するか否かを判定し、
前記各拡張作業空間におけるユーザの動作が対応すると判定したとき、所定の処理の実行を承認する、前記(7)に記載の情報処理装置。
2 作業面
100 情報認識表示装置
110 投影部
120 検出部
130 撮像部
140 情報処理部
142 解析部
144 操作決定部
146 表示制御部
148 設定記憶部
150 通信部
200 情報端末

Claims (10)

  1. 実体と仮想オブジェクトとを操作可能な拡張作業空間内に表示される前記仮想オブジェクトの表示を制御する情報処理装置であって、
    前記拡張作業空間で検出される情報端末の位置情報と、前記仮想オブジェクトの表示を変化させるための表示制御トリガ情報とに基づき解析された、前記拡張作業空間への入力情報の解析結果に基づいて、前記拡張作業空間に表示される仮想オブジェクトへの操作処理を決定する操作決定部と、
    決定された前記操作処理に基づいて、前記仮想オブジェクトの表示制御処理を行う表示制御部と、
    を備える、情報処理装置。
  2. 前記操作決定部は、前記表示制御トリガ情報に基づき前記情報端末によって前記拡張作業空間内の情報操作面に対して所定の動作が行われたと判定されたとき、前記表示制御部に対して制御対象とされている前記仮想オブジェクトの表示制御を行わせる、請求項1に記載の情報処理装置。
  3. 前記操作決定部は、前記入力情報の解析結果より前記情報操作面に前記情報端末が置かれたと判定したとき、前記情報端末が置かれた位置に制御対象の前記仮想オブジェクトを前記仮想作業空間に表示させる、請求項2に記載の情報処理装置。
  4. 前記操作決定部は、前記情報操作面に前記情報端末が置かれたことにより、前記拡張作業空間内における、前記情報操作面へ表示された前記仮想オブジェクトの操作を可能とする、請求項3に記載の情報処理装置。
  5. 前記操作決定部は、前記入力情報の解析結果より前記情報操作面に前記情報端末が置かれたと判定し、かつ、当該情報端末に対して所定の動作が行われたと判定したとき、前記情報端末が置かれた位置に当該情報端末にて指定された制御対象の前記仮想オブジェクトを前記仮想作業空間に表示させる、請求項3に記載の情報処理装置。
  6. 前記操作決定部は、前記入力情報の解析結果より前記情報操作面に表示されている制御対象の前記仮想オブジェクト上に前記情報端末が置かれたと判定したとき、当該情報端末に表示させる、請求項2に記載の情報処理装置。
  7. 前記操作決定部は、前記入力情報の解析結果より前記拡張作業空間内の情報操作面に前記情報端末が置かれたと判定したことにより、他の拡張作業空間との情報通信を可能とし、
    前記表示制御部は、前記各拡張作業空間内の情報を反映して表示する、請求項2に記載の情報処理装置。
  8. 前記操作決定部は、
    前記入力情報の解析結果より一の前記拡張作業空間におけるユーザの動作と他の前記拡張作業空間におけるユーザの動作とが対応するか否かを判定し、
    前記各拡張作業空間におけるユーザの動作が対応すると判定したとき、所定の処理の実行を承認する、請求項7に記載の情報処理装置。
  9. 実体と仮想オブジェクトとを操作可能な拡張作業空間内に表示される前記仮想オブジェクトの表示を制御する情報処理方法であって、
    前記拡張作業空間で検出される情報端末の位置情報と、前記仮想オブジェクトの表示を変化させるための表示制御トリガ情報とに基づき解析された、前記拡張作業空間への入力情報の解析結果に基づいて、前記拡張作業空間に表示される仮想オブジェクトへの操作処理を決定すること、
    決定された前記操作処理に基づいて、前記仮想オブジェクトの表示制御処理を行うこと、
    を含む、情報処理方法。
  10. コンピュータに、
    実体と仮想オブジェクトとを操作可能な拡張作業空間で検出される情報端末の位置情報と、前記仮想オブジェクトの表示を変化させるための表示制御トリガ情報とに基づき解析された、前記拡張作業空間への入力情報の解析結果に基づいて、前記拡張作業空間に表示される仮想オブジェクトへの操作処理を決定する操作決定部と、
    決定された前記操作処理に基づいて、前記仮想オブジェクトの表示制御処理を行う表示制御部と、
    を備える、前記拡張作業空間内に表示される前記仮想オブジェクトの表示を制御する情報処理装置として機能させるためのプログラムを記憶したコンピュータ読み取り可能な記憶媒体。
JP2014545627A 2012-11-09 2013-10-16 情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体 Pending JPWO2014073345A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012247940 2012-11-09
JP2012247940 2012-11-09
PCT/JP2013/078100 WO2014073345A1 (ja) 2012-11-09 2013-10-16 情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体

Publications (1)

Publication Number Publication Date
JPWO2014073345A1 true JPWO2014073345A1 (ja) 2016-09-08

Family

ID=50684457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014545627A Pending JPWO2014073345A1 (ja) 2012-11-09 2013-10-16 情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体

Country Status (5)

Country Link
US (5) US9753534B2 (ja)
EP (2) EP2919103B1 (ja)
JP (1) JPWO2014073345A1 (ja)
CN (1) CN104756065B (ja)
WO (1) WO2014073345A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140292636A1 (en) * 2013-03-29 2014-10-02 Plantronics, Inc. Head-Worn Infrared-Based Mobile User-Interface
KR101954749B1 (ko) * 2014-04-01 2019-03-06 삼성전자주식회사 냉장고 및 그 제어방법
TWI506534B (zh) * 2014-12-09 2015-11-01 Awind Inc 具有低資料傳輸量的鏡射顯示系統及其方法
CN104731332B (zh) * 2015-03-24 2017-12-29 联想(北京)有限公司 一种信息处理方法及电子设备
JP2016194756A (ja) * 2015-03-31 2016-11-17 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP6470098B2 (ja) * 2015-04-23 2019-02-13 シャープ株式会社 表示システム、その制御装置、及び、表示方法
EP3343338A4 (en) * 2015-08-24 2019-05-01 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
DE102016124277A1 (de) * 2016-04-19 2017-10-19 Patty's Gmbh Verfahren zum Ermitteln und Anzeigen von Produkten auf einer elektronischen Anzeigeeinrichtung
CN106851235A (zh) * 2017-01-25 2017-06-13 触景无限科技(北京)有限公司 台灯的互动展示方法及装置
CN106775361A (zh) * 2017-01-25 2017-05-31 触景无限科技(北京)有限公司 台灯的互动方法、装置及系统
CN106791748A (zh) * 2017-01-25 2017-05-31 触景无限科技(北京)有限公司 一种台灯的投影处理方法及装置
CN106817574A (zh) * 2017-01-25 2017-06-09 触景无限科技(北京)有限公司 一种台灯的图像处理方法及装置
JP2018136766A (ja) * 2017-02-22 2018-08-30 ソニー株式会社 情報処理装置、情報処理方法、プログラム
CN107885450B (zh) * 2017-11-09 2019-10-15 维沃移动通信有限公司 实现鼠标操作的方法和移动终端
CN112698778A (zh) * 2021-03-23 2021-04-23 北京芯海视界三维科技有限公司 设备间目标传输方法、装置及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0675735A (ja) * 1992-08-27 1994-03-18 Matsushita Electric Ind Co Ltd 共有画面制御装置
JPH0749936A (ja) * 1993-08-05 1995-02-21 Mitsubishi Electric Corp 共有画面システム
JPH1165975A (ja) * 1997-08-11 1999-03-09 Fuji Xerox Co Ltd 共同作業支援システム
JP2005031448A (ja) * 2003-07-04 2005-02-03 Fuji Xerox Co Ltd 情報表示システムおよび情報表示方法
JP2008242367A (ja) * 2007-03-29 2008-10-09 Fuji Xerox Co Ltd 表示制御装置、表示装置、表示システム及びプログラム
JP2009534751A (ja) * 2006-04-20 2009-09-24 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. デジタル装置を対話式表示面とインタフェースさせる方法及びシステム

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7152092B2 (en) * 1999-05-05 2006-12-19 Indeliq, Inc. Creating chat rooms with multiple roles for multiple participants
JP2002202941A (ja) * 2000-08-25 2002-07-19 4C Soft Inc マルチメディア電子学習システムおよび学習方法
US6611253B1 (en) * 2000-09-19 2003-08-26 Harel Cohen Virtual input environment
US7249123B2 (en) * 2002-10-31 2007-07-24 International Business Machines Corporation System and method for building social networks based on activity around shared virtual objects
US8285785B2 (en) * 2004-11-19 2012-10-09 Nokia Corporation Method, apparatus and computer program product providing graphical user interface that facilitates management of multiple simultaneous communication sessions
US20070100986A1 (en) * 2005-10-27 2007-05-03 Bagley Elizabeth V Methods for improving interactive online collaboration using user-defined sensory notification or user-defined wake-ups
US20070100939A1 (en) * 2005-10-27 2007-05-03 Bagley Elizabeth V Method for improving attentiveness and participation levels in online collaborative operating environments
US20090046140A1 (en) * 2005-12-06 2009-02-19 Microvision, Inc. Mobile Virtual Reality Projector
JP2007286780A (ja) * 2006-04-14 2007-11-01 Fuji Xerox Co Ltd 電子会議システム、電子会議支援プログラム及び方法、電子会議制御装置
US20100082990A1 (en) * 2008-09-29 2010-04-01 Microsoft Corporation Establishment of a relationship between wireless devices
EP2193825B1 (en) * 2008-12-03 2017-03-22 Alcatel Lucent Mobile device for augmented reality applications
JP5315111B2 (ja) 2009-03-31 2013-10-16 株式会社エヌ・ティ・ティ・ドコモ 端末装置、情報提示システム及び端末画面表示方法
US8490002B2 (en) * 2010-02-11 2013-07-16 Apple Inc. Projected display shared workspaces
CN102822773A (zh) * 2010-03-24 2012-12-12 惠普开发有限公司 用于显示设备的手势映射
US8549413B2 (en) * 2010-04-08 2013-10-01 International Business Machines Corporation Discriminating among resources to share
US9235268B2 (en) * 2010-04-09 2016-01-12 Nokia Technologies Oy Method and apparatus for generating a virtual interactive workspace
KR101663015B1 (ko) * 2010-04-09 2016-10-07 삼성전자 주식회사 프로젝션 디바이스의 프로젝션 모드 운용 방법 및 장치
US9529523B2 (en) * 2010-04-23 2016-12-27 Handscape Inc. Method using a finger above a touchpad for controlling a computerized system
US20140253486A1 (en) * 2010-04-23 2014-09-11 Handscape Inc. Method Using a Finger Above a Touchpad During a Time Window for Controlling a Computerized System
US9134799B2 (en) * 2010-07-16 2015-09-15 Qualcomm Incorporated Interacting with a projected user interface using orientation sensors
US9122053B2 (en) * 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
US9178981B2 (en) * 2010-12-22 2015-11-03 Lg Electronics Inc. Mobile terminal and method of sharing information therein
JP5724543B2 (ja) * 2011-03-31 2015-05-27 ソニー株式会社 端末装置、オブジェクト制御方法及びプログラム
JP5732988B2 (ja) * 2011-04-08 2015-06-10 ソニー株式会社 画像処理装置、表示制御方法及びプログラム
KR101423536B1 (ko) * 2011-06-14 2014-08-01 한국전자통신연구원 인쇄매체 기반 혼합현실 구현 장치 및 방법
US9983785B2 (en) * 2011-07-28 2018-05-29 Hewlett-Packard Development Company, L.P. Input mode of a device
CN104024936A (zh) * 2011-07-29 2014-09-03 惠普发展公司,有限责任合伙企业 投影捕获系统,程序和方法
US9342610B2 (en) * 2011-08-25 2016-05-17 Microsoft Technology Licensing, Llc Portals: registered objects as virtualized, personalized displays
US9323325B2 (en) * 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US9606992B2 (en) * 2011-09-30 2017-03-28 Microsoft Technology Licensing, Llc Personal audio/visual apparatus providing resource management
US9330478B2 (en) * 2012-02-08 2016-05-03 Intel Corporation Augmented reality creation using a real scene
JP2013174642A (ja) * 2012-02-23 2013-09-05 Toshiba Corp 映像表示装置
JP6040564B2 (ja) * 2012-05-08 2016-12-07 ソニー株式会社 画像処理装置、投影制御方法及びプログラム
KR102035134B1 (ko) * 2012-09-24 2019-10-22 엘지전자 주식회사 영상표시장치, 및 그 동작방법
US9544723B2 (en) * 2012-10-15 2017-01-10 Smart Technologies Ulc System and method to display content on an interactive display surface
JP6018509B2 (ja) * 2013-01-16 2016-11-02 アズビル株式会社 情報表示装置、方法、およびプログラム
US9202313B2 (en) * 2013-01-21 2015-12-01 Microsoft Technology Licensing, Llc Virtual interaction with image projection
US20140375539A1 (en) * 2013-06-19 2014-12-25 Thaddeus Gabara Method and Apparatus for a Virtual Keyboard Plane
WO2016018415A1 (en) * 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. Projector as light source for an image capturing device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0675735A (ja) * 1992-08-27 1994-03-18 Matsushita Electric Ind Co Ltd 共有画面制御装置
JPH0749936A (ja) * 1993-08-05 1995-02-21 Mitsubishi Electric Corp 共有画面システム
JPH1165975A (ja) * 1997-08-11 1999-03-09 Fuji Xerox Co Ltd 共同作業支援システム
JP2005031448A (ja) * 2003-07-04 2005-02-03 Fuji Xerox Co Ltd 情報表示システムおよび情報表示方法
JP2009534751A (ja) * 2006-04-20 2009-09-24 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. デジタル装置を対話式表示面とインタフェースさせる方法及びシステム
JP2008242367A (ja) * 2007-03-29 2008-10-09 Fuji Xerox Co Ltd 表示制御装置、表示装置、表示システム及びプログラム

Also Published As

Publication number Publication date
US10528124B2 (en) 2020-01-07
CN104756065A (zh) 2015-07-01
US20150338913A1 (en) 2015-11-26
EP2919103A1 (en) 2015-09-16
EP3734426A1 (en) 2020-11-04
US20180164875A1 (en) 2018-06-14
US10209770B2 (en) 2019-02-19
EP2919103B1 (en) 2020-04-01
WO2014073345A1 (ja) 2014-05-15
EP2919103A4 (en) 2016-07-06
US9753534B2 (en) 2017-09-05
US20170269682A1 (en) 2017-09-21
US20200097074A1 (en) 2020-03-26
CN104756065B (zh) 2018-11-13
US9933848B2 (en) 2018-04-03
US20190138084A1 (en) 2019-05-09
US11036286B2 (en) 2021-06-15

Similar Documents

Publication Publication Date Title
WO2014073345A1 (ja) 情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体
US9729635B2 (en) Transferring information among devices using sensors
KR102135052B1 (ko) 네트워크 디바이스 간의 어플리케이션 데이터 전송 개시 및 완료를 위한 3차원 제스처 검출 시스템 및 방법
KR102319417B1 (ko) 협업 서비스를 제공하는 서버 및 방법, 그리고 협업 서비스를 제공받는 사용자 단말
JP6233314B2 (ja) 情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体
EP2728444B1 (en) Method and device for providing information regarding an object
US20120290943A1 (en) Method and apparatus for distributively managing content between multiple users
JP6306307B2 (ja) 情報伝送方法及びシステム並びにその機器
KR20160087268A (ko) 이동 단말기 및 이의 제어방법
US20140152543A1 (en) System, data providing method and electronic apparatus
WO2016099563A1 (en) Collaboration with 3d data visualizations
JP5813792B2 (ja) システムおよびデータ提供方法並びに電子機器
US20170212906A1 (en) Interacting with user interfacr elements representing files
US20120242589A1 (en) Computer Interface Method
CN106293563B (zh) 一种控制方法和电子设备
JP7298302B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2014238667A (ja) 情報端末、情報処理プログラム、情報処理システム、及び情報処理方法
KR101640169B1 (ko) 터치 테이블 시스템 및 그 제공방법
US20210297465A1 (en) Information processing system, information processing apparatus, and method of processing information
Cardoso et al. Interaction tasks and controls for public display applications
WO2016046902A1 (ja) 手書き情報を共有するためのシステム、方法及びプログラム
JP2020194370A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2018109831A (ja) 情報処理システム、その制御方法、及びプログラム、並びに情報処理装置、その制御方法、及びプログラム
JP2018072914A (ja) 情報処理装置、情報処理システム、その制御方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160926

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170713

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170905