JP7087364B2 - 情報処理装置、情報処理システムおよびプログラム - Google Patents
情報処理装置、情報処理システムおよびプログラム Download PDFInfo
- Publication number
- JP7087364B2 JP7087364B2 JP2017232518A JP2017232518A JP7087364B2 JP 7087364 B2 JP7087364 B2 JP 7087364B2 JP 2017232518 A JP2017232518 A JP 2017232518A JP 2017232518 A JP2017232518 A JP 2017232518A JP 7087364 B2 JP7087364 B2 JP 7087364B2
- Authority
- JP
- Japan
- Prior art keywords
- input means
- information
- user
- input
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0317—Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
- G06F3/0321—Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface by optically sensing the absolute position with respect to a regularly patterned surface forming a passive digitiser, e.g. pen optically detecting position indicative tags printed on a paper sheet
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Description
また特許文献2には、文書上に筆記可能なペン先を備え、筆記動作に伴う自らの動きを電気信号に変換し生成するペン装置を設けることが記載されている。そして、このペン装置で生成された電気信号を通信チャンネルを介して親機処理ユニットに送信し、親機処理ユニットでペン装置の筆記内容を認識し記憶する。
しかしながら紙媒体の操作性と触知性(タンジビリティ)を電子的に再現することは、従来は困難であった。また紙媒体を利用すると、他の機器との連携が困難であるなど、紙媒体ではできない処理も存在する。
本発明は、紙媒体の操作性と触知性(タンジビリティ)を電子的に再現しつつ、紙媒体では困難であった処理についても実現可能な情報処理装置等を提供する。
請求項2に記載の発明は、前記入力手段は、当該入力手段の位置および姿勢を決定するためのマーカーを備え、前記撮影装置により撮影された前記マーカーの画像情報を基に、前記入力手段の位置および姿勢を決定する決定手段をさらに備えることを特徴とする請求項1に記載の情報処理装置である。
請求項3に記載の発明は、前記作成手段は、前記決定手段が決定した前記入力手段の位置および姿勢に基づき、実際の当該入力手段の大きさおよび形状に合わせ当該入力手段の画像を表示する表示情報を作成することを特徴とする請求項2に記載の情報処理装置である。
請求項4に記載の発明は、前記決定手段は、ユーザの手の位置および姿勢をさらに決定し、前記作成手段は、前記決定手段が決定した前記ユーザの手の位置および姿勢に基づき、実際の当該ユーザの手の大きさおよび形状に合わせ当該ユーザの手の画像を表示する表示情報を作成することを特徴とする請求項3に記載の情報処理装置である。
請求項5に記載の発明は、複数の前記入力手段同士または当該入力手段とユーザの手とが互いに接触したことを検知する接触検知手段をさらに備えることを特徴とする請求項1に記載の情報処理装置である。
請求項6に記載の発明は、前記作成手段は、複数の前記入力手段が互いに接触することで入力される情報を追記情報として表示する表示情報を作成することを特徴とする請求項5に記載の情報処理装置である。
請求項7に記載の発明は、前記追記情報を保存する保存手段をさらに備えることを特徴とする請求項6に記載の情報処理装置である。
請求項8に記載の発明は、前記作成手段は、実空間中で存在する前記入力手段を、仮想空間中で仮想的に表示する表示情報を作成することを特徴とする請求項1に記載の情報処理装置である。
請求項9に記載の発明は、前記作成手段は、前記触知領域に、前記入力手段を表示することを特徴とする請求項1に記載の情報処理装置である。
請求項10に記載の発明は、前記作成手段は、前記非触知領域に、仮想空間中で常時表示する文書を表示する表示情報を作成することを特徴とする請求項1に記載の情報処理装置である。
請求項11に記載の発明は、前記表示装置は、ヘッドマウントディスプレイであることを特徴とする請求項1に記載の情報処理装置である。
請求項12に記載の発明は、前記作成手段は、仮想空間中で前記入力手段を実際の当該入力手段に合わせ仮想的に表示することを特徴とする請求項10に記載の情報処理装置である。
請求項13に記載の発明は、情報の入力を行なう入力手段を撮影する撮影装置と、表示情報を基に画像を表示する表示装置と、前記表示情報を作成する情報処理装置と、を備え、前記情報処理装置は、前記撮影装置から前記入力手段の画像情報を取得する画像情報取得手段と、前記画像情報を基に前記入力手段の画像を表示する表示装置に対する表示情報を作成する作成手段と、を備え、前記作成手段は、前記表示装置で表示された前記入力手段を使用して入力した情報に応じて、当該表示装置に対する表示情報を更新し、前記入力手段を表示するとともに、ユーザが当該入力手段を使用して触知可能に作業が行なえるデスク領域としての触知領域と、当該入力手段を使用しないものを表示するとともに当該入力手段を使用できない非触知領域と、を分けて表示情報を作成する情報処理システムである。
請求項14に記載の発明は、前記入力手段は、形状として、シート型およびペン型のものを含むことを特徴とする請求項13に記載の情報処理システムである。
請求項15に記載の発明は、コンピュータに、情報の入力を行なう入力手段を撮影する撮影装置から当該入力手段の画像情報を取得する画像情報取得機能と、前記画像情報を基に前記入力手段の画像を表示する表示装置に対する表示情報を作成する作成機能と、前記入力手段を表示するとともに、ユーザが当該入力手段を使用して触知可能に作業が行なえる領域設定シートの領域を触知領域として決定する機能と、を実現させ、前記作成機能は、前記表示装置で表示された前記入力手段を使用して入力した情報に応じて、当該表示装置に対する表示情報を更新し、前記入力手段を表示するとともに、ユーザが当該入力手段を使用して触知可能に作業が行なえるデスク領域としての触知領域と、当該入力手段を使用しないものを表示するとともに当該入力手段を使用できない非触知領域と、を分けて表示情報を作成するプログラムである。
請求項2の発明によれば、入力手段の位置や姿勢を再現して表示を行なうことができる。
請求項3の発明によれば、ユーザが視覚と触覚の間に感覚的な矛盾を感じにくくなる。
請求項4の発明によれば、ユーザが視覚と触覚の間に感覚的な矛盾を感じにくくなる。
請求項5の発明によれば、ユーザが文字や図形等を入力することができる。
請求項6の発明によれば、ユーザが入力を行なった文字や図形等を表示することができる。
請求項7の発明によれば、ユーザが入力を行なった状態を再現することができる。
請求項8の発明によれば、ユーザに作業しやすい環境を提供することができる。
請求項9の発明によれば、触知可能(タンジブル)なユーザインタフェースが実現できる。
請求項10の発明によれば、使用頻度の高い情報を常時表示させることができる。
請求項11の発明によれば、入力手段の位置、姿勢にかかわらず、情報を重畳的に表示することができる。
請求項12の発明によれば、ユーザが視覚と触覚の間に感覚的な矛盾を感じにくくなる。
請求項13の発明によれば、紙媒体の操作性と触知性(タンジビリティ)を電子的に再現しつつ、紙媒体では困難であった処理についても実現可能な情報処理システムを提供することができる。また、擬似的に広い作業スペースを得ることができる。さらに、入力手段を使用して作業を行なう領域を規定することができる。
請求項14の発明によれば、紙とペンの操作性を再現できる。
請求項15の発明によれば、紙媒体の操作性と触知性(タンジビリティ)を電子的に再現しつつ、紙媒体では困難であった処理についても実現可能とする機能をコンピュータにより実現できる。また、擬似的に広い作業スペースを得ることができる。さらに、入力手段を使用して作業を行なう領域を規定することができる。
図1は、本実施の形態における情報処理システム1の構成例を示す図である。
図示するように本実施の形態の情報処理システム1は、表示情報を作成する情報処理装置10と、表示情報を基に画像を表示する表示装置20と、情報の入力を行なう入力手段30と、入力手段30を撮影するカメラ40と、入力手段30を使用してユーザが作業を行なう範囲を示す領域設定シート50とを備える。
また情報処理装置10は、外部との通信を行なうための通信インタフェースを備える。
光学系は、単一のレンズまたは複数のレンズを組み合わせて構成される。光学系は、レンズの組み合わせおよびレンズ表面に施されたコーティング等により、各種の収差が除去されている。イメージセンサは、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を配列して構成される。
また情報処理装置10と入力手段30とは、例えば、USB(Universal Serial Bus)を介して接続されている。なお、USBに代えて、IEEE1394やRS-232C等を介して接続されていてもよい。ただしこれに限られるものではなく、無線LAN(Local Area Network)、ブルートゥース(Bluetooth)(登録商標)等の無線接続であってもよい。
さらに情報処理装置10およびカメラ40とは、図示する例では、有線で接続されており、例えば、USB、IEEE1394、RS-232Cを介して接続されている。これによりカメラ40で撮影された画像の画像情報が、有線により情報処理装置10に送られる。ただしこれに限られるものではなく、上述した無線接続であってもよい。
まずユーザが、領域設定シート50上に置かれた入力手段30を使用して、情報の入力を行なう。このときユーザは、入力手段30を実際にユーザの手を用いて操作する。そして入力手段30は、カメラ40により撮影され、撮影された画像情報は、情報処理装置10に送られる。情報処理装置10では、表示装置20で表示する画面の表示情報を作成する。そして表示装置20では、実空間と同様の画像が仮想空間中に表示される。つまり仮想空間中で、入力手段30が仮想的に表示される。また入力手段が配される机面が仮想的に表示される。さらに入力手段30を操作するユーザの手についても仮想的に表示される。また詳しくは後述するが、実空間には存在しないものについても仮想空間中に表示されるようにしてもよい。そしてユーザが入力手段30を使用して入力した情報は、この仮想空間中に表示され、逐次更新される。
図示するように本実施の形態の情報処理装置10は、カメラ40から画像情報を取得する画像情報取得手段110と、入力手段30やユーザの手の位置および姿勢を決定する決定手段120と、入力手段30の大きさ・形状等を保持する保持手段130と、入力手段30同士またはユーザの手と入力手段30との接触を検知する接触検知手段140と、入力手段30により入力された情報を保存する保存手段150と、表示装置20で表示する表示情報を作成する作成手段160とを備える。
この場合、カメラ40は、図1に示すように実空間に存在する入力手段30を撮影する。そして、撮影した画像情報は、カメラ40から情報処理装置10に送られ、画像情報取得手段110が取得する。この場合、画像情報は、動画の画像情報であるが、例えば、1s毎など予め定められた短い時間間隔で撮影された複数の静止画の画像情報であってもよい。
決定手段120は、図3(a)に示すマーカーMa1の実際の大きさと、図3(b)に示すカメラ40により撮影された画像G0中のマーカーMa2の大きさや変形状態を比較し、カメラ40からマーカーMa2までの距離とマーカーMa2の姿勢とを算出する。これにより決定手段120は、入力手段30の位置および姿勢を決定する。
追記情報は、図5(a)に示すように、使用されたシート31のID番号、位置の情報、姿勢の情報が含まれる。また使用されたペン32またはユーザの手のID番号、位置の情報、姿勢の情報が含まれる。さらに接触した位置の情報である接触位置情報および接触の時刻の情報が含まれる。このうち接触位置情報は、図5(b)に示すように、x、yからなる座標データであり、シート31の中心位置を基準とし、シート31の面上での座標を表す。このような追記情報により、ユーザがペン32により入力を行なった状態を再現することもできる。
図6は、情報処理システム1の動作について説明したフローチャートである。
まずカメラ40が、表示装置20、入力手段30、領域設定シート50、ユーザの手を撮影する(ステップ101)。撮影した画像の画像情報は、情報処理装置10に送られる。
この画像情報は、情報処理装置10の画像情報取得手段110が取得する(ステップ102)。
ここでは、まず画像からマーカーを抽出する(ステップ201)。このときマーカーが複数ある場合は、各マーカーの画像を抽出する。
そして抽出したマーカーからID番号を取得する(ステップ202)。
さらに撮影した画像中のマーカーの大きさや変形状態を基に、入力手段30等の位置および姿勢を決定する(ステップ203)。
そしてID番号に対応する入力手段30等の位置および姿勢の情報を更新する(ステップ204)。
そして含まれない場合(ステップ104でNo)、ステップ107に移行する。
対して含まれる場合(ステップ104でYes)、接触検知手段140は、複数の入力手段30同士または入力手段30とユーザの手とが互いに接触したことを検知する(ステップ105)。
接触検知手段140は、ペン32の位置および姿勢と、保持手段130に保持されているペン32の大きさ・形状とから、ペン先32aの位置を算出する(ステップ301)。
次に接触検知手段140は、決定手段120により決定されたシート31の位置および姿勢と、保持手段130に保持されているシート31の大きさ・形状とから、シート31の範囲を算出する(ステップ302)。
その結果、予め定められた距離以下でない場合(ステップ303でNo)、接触検知手段140は、シート31とペン32とは、接触していないと判断する(ステップ304)。
対して、予め定められた距離以下である場合(ステップ303でYes)、接触検知手段140は、シート31とペン32とは、接触したと判断する(ステップ305)。
接触検知手段140は、ユーザの手の位置および姿勢と、保持手段130に保持されているユーザの手の大きさ・形状とから、指による入力範囲を算出する(ステップ401)。
次に接触検知手段140は、シート31の位置および姿勢と、保持手段130に保持されているシート31の大きさ・形状からシート31の範囲を算出する(ステップ402)。
その結果、予め定められた距離以下でない場合(ステップ403でNo)、接触検知手段140は、シート31とユーザの手とは、接触していないと判断する(ステップ404)。
対して、予め定められた距離以下である場合(ステップ403でYes)、接触検知手段140は、シート31とユーザの手とは、接触したと判断する(ステップ405)。
接触検知手段140は、ペン32の位置および姿勢と、保持手段130に保持されているペン32の大きさ・形状とから、ペン先32aの位置を算出する(ステップ501)。
次に接触検知手段140は、決定手段120により決定されたシート31の位置および姿勢と、保持手段130に保持されているシート31の大きさ・形状とから、シート31の範囲を算出し、対象となるシート31を特定する(ステップ502)。
その結果、反応していない場合(ステップ503でNo)、接触検知手段140は、シート31とペン32とは、接触していないと判断する(ステップ504)。
対して、反応している場合(ステップ503でYes)、接触検知手段140は、シート31とペン32とは、接触したと判断する(ステップ505)。
接触検知手段140は、ペン32や手の位置および姿勢と、保持手段130に保持されているペン32や手の大きさ・形状とから、ペン先32aの位置や指による入力範囲を算出する(ステップ601)。
次に接触検知手段140は、シート31の位置および姿勢と、保持手段130に保持されているシート31の大きさ・形状からシート31の範囲を算出する(ステップ602)。
その結果、反応していない場合(ステップ603でNo)、接触検知手段140は、シート31と、ペン32または手とは、接触していないと判断する(ステップ604)。
対して、反応している場合(ステップ603でYes)、接触検知手段140は、シート31と、ペン32または手とは、接触したと判断し、双方のID番号を保持する(ステップ605)。
対して、接触検知手段140が、接触したと判断した場合(ステップ105でYes)、保存手段150は、入力手段30やユーザの手により入力された情報を追記情報として保存する(ステップ106)。
そして画像表示手段220が、表示情報を基に表示画面20aに画像を表示する(ステップ110)。
図12(a)では、入力手段30として、上述したシート31およびペン32の他に、キーボード33およびマウス34を使用している。そして実空間では、シート31上には、情報が何も記載されていないことを示している。そしてカメラ40により、これらを撮影する。
図12(b)では、入力手段30として、シート31、ペン32、キーボード33およびマウス34が表示される。また領域設定シート50により設定されるデスク領域Drとユーザの手Hdとが表示される。入力手段30は、実空間では、領域設定シート50に置かれ、そのため仮想空間では、デスク領域Dr中に表示される。この場合、デスク領域Drは、ユーザが入力手段30を使用できる触知領域として機能する。さらにこの場合、シート31上に、ユーザが入力を行なうためのフォーマットの画像G1に加え、追記情報の画像G2が重畳して表示されることを示している。
文書の整理、書き込み、校正等の作業を行なう上で、紙媒体を利用する利点は、その扱いやすい操作性にある。一方、形のない情報を直接触れることができる(触知可能、タンジブル)ようにしたタンジブルユーザインタフェースでは、従来は、この紙媒体の操作性、および触知性(タンジビリティ)を再現することは、困難である。またPCで文書の作業を行なう場合、特に外出先での作業効率や作業の質が低下しやすい問題がある。つまり文書間の移動に時間を要したり、必要な文書のシミュレーションが必要になったりすることで、作業効率や作業の質が低下しやすい。
また以上説明した形態では、表示装置20により仮想空間の表示、即ち、VR(Virtual Reality、仮想現実)を利用した表示を行なったが、これに限られるものではなく、AR(Augmented Reality、拡張現実)やMR(Mixed Reality、複合現実)を利用してもよい。
さらに入力手段30は、上述したものに限られるものではなく、例えば、入力手段30として、文書を立てる譜面台、暦を表示するカレンダー、時間を表示する時計、文書を束ねるクリップやバインダ、定規、コンパス、マグカップの下に敷くコースター、タブレット端末、スマートフォン端末等を用意してもよい。
ここで以上説明を行った本実施の形態における情報処理装置10が行なう処理は、例えば、アプリケーションソフトウェア等のプログラムとして用意される。
Claims (15)
- 情報の入力を行なう入力手段を撮影する撮影装置から当該入力手段の画像情報を取得する画像情報取得手段と、
前記画像情報を基に前記入力手段の画像を表示する表示装置に対する表示情報を作成する作成手段と、
を備え、
前記作成手段は、
前記表示装置で表示された前記入力手段を使用して入力した情報に応じて、当該表示装置に対する表示情報を更新し、
前記入力手段を表示するとともに、ユーザが当該入力手段を使用して触知可能に作業が行なえるデスク領域としての触知領域と、当該入力手段を使用しないものを表示するとともに当該入力手段を使用できない非触知領域と、を分けて表示情報を作成する情報処理装置。 - 前記入力手段は、当該入力手段の位置および姿勢を決定するためのマーカーを備え、
前記撮影装置により撮影された前記マーカーの画像情報を基に、前記入力手段の位置および姿勢を決定する決定手段をさらに備えることを特徴とする請求項1に記載の情報処理装置。 - 前記作成手段は、前記決定手段が決定した前記入力手段の位置および姿勢に基づき、実際の当該入力手段の大きさおよび形状に合わせ当該入力手段の画像を表示する表示情報を作成することを特徴とする請求項2に記載の情報処理装置。
- 前記決定手段は、ユーザの手の位置および姿勢をさらに決定し、
前記作成手段は、前記決定手段が決定した前記ユーザの手の位置および姿勢に基づき、実際の当該ユーザの手の大きさおよび形状に合わせ当該ユーザの手の画像を表示する表示情報を作成することを特徴とする請求項3に記載の情報処理装置。 - 複数の前記入力手段同士または当該入力手段とユーザの手とが互いに接触したことを検知する接触検知手段をさらに備えることを特徴とする請求項1に記載の情報処理装置。
- 前記作成手段は、複数の前記入力手段が互いに接触することで入力される情報を追記情報として表示する表示情報を作成することを特徴とする請求項5に記載の情報処理装置。
- 前記追記情報を保存する保存手段をさらに備えることを特徴とする請求項6に記載の情報処理装置。
- 前記作成手段は、実空間中で存在する前記入力手段を、仮想空間中で仮想的に表示する表示情報を作成することを特徴とする請求項1に記載の情報処理装置。
- 前記作成手段は、前記触知領域に、前記入力手段を表示することを特徴とする請求項1に記載の情報処理装置。
- 前記作成手段は、前記非触知領域に、仮想空間中で常時表示する文書を表示する表示情報を作成することを特徴とする請求項1に記載の情報処理装置。
- 前記表示装置は、ヘッドマウントディスプレイであることを特徴とする請求項1に記載の情報処理装置。
- 前記作成手段は、仮想空間中で前記入力手段を実際の当該入力手段に合わせ仮想的に表示することを特徴とする請求項10に記載の情報処理装置。
- 情報の入力を行なう入力手段を撮影する撮影装置と、
表示情報を基に画像を表示する表示装置と、
前記表示情報を作成する情報処理装置と、
を備え、
前記情報処理装置は、
前記撮影装置から前記入力手段の画像情報を取得する画像情報取得手段と、
前記画像情報を基に前記入力手段の画像を表示する表示装置に対する表示情報を作成する作成手段と、
を備え、
前記作成手段は、
前記表示装置で表示された前記入力手段を使用して入力した情報に応じて、当該表示装置に対する表示情報を更新し、
前記入力手段を表示するとともに、ユーザが当該入力手段を使用して触知可能に作業が行なえるデスク領域としての触知領域と、当該入力手段を使用しないものを表示するとともに当該入力手段を使用できない非触知領域と、を分けて表示情報を作成する情報処理システム。 - 前記入力手段は、形状として、シート型およびペン型のものを含むことを特徴とする請求項13に記載の情報処理システム。
- コンピュータに、
情報の入力を行なう入力手段を撮影する撮影装置から当該入力手段の画像情報を取得する画像情報取得機能と、
前記画像情報を基に前記入力手段の画像を表示する表示装置に対する表示情報を作成する作成機能と、
前記入力手段を表示するとともに、ユーザが当該入力手段を使用して触知可能に作業が行なえる領域設定シートの領域を触知領域として決定する機能と、
を実現させ、
前記作成機能は、
前記表示装置で表示された前記入力手段を使用して入力した情報に応じて、当該表示装置に対する表示情報を更新し、
前記入力手段を表示するとともに、ユーザが当該入力手段を使用して触知可能に作業が行なえるデスク領域としての触知領域と、当該入力手段を使用しないものを表示するとともに当該入力手段を使用できない非触知領域と、を分けて表示情報を作成するプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017232518A JP7087364B2 (ja) | 2017-12-04 | 2017-12-04 | 情報処理装置、情報処理システムおよびプログラム |
CN201810567708.3A CN109871117A (zh) | 2017-12-04 | 2018-06-04 | 信息处理装置、显示装置及信息处理系统 |
US16/198,893 US20190171299A1 (en) | 2017-12-04 | 2018-11-23 | Information processing apparatus, display apparatus, and information processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017232518A JP7087364B2 (ja) | 2017-12-04 | 2017-12-04 | 情報処理装置、情報処理システムおよびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019101796A JP2019101796A (ja) | 2019-06-24 |
JP7087364B2 true JP7087364B2 (ja) | 2022-06-21 |
Family
ID=66657999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017232518A Active JP7087364B2 (ja) | 2017-12-04 | 2017-12-04 | 情報処理装置、情報処理システムおよびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20190171299A1 (ja) |
JP (1) | JP7087364B2 (ja) |
CN (1) | CN109871117A (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11487353B2 (en) * | 2016-11-14 | 2022-11-01 | Logitech Europe S.A. | Systems and methods for configuring a hub-centric virtual/augmented reality environment |
JP6903999B2 (ja) * | 2017-03-29 | 2021-07-14 | 富士フイルムビジネスイノベーション株式会社 | コンテンツ表示装置およびコンテンツ表示プログラム |
US10614636B1 (en) * | 2019-08-20 | 2020-04-07 | Capital One Services, Llc | Using three-dimensional augmented reality markers for local geo-positioning in a computing environment |
US10593128B1 (en) | 2019-08-20 | 2020-03-17 | Capital One Services, Llc | Using augmented reality markers for local positioning in a computing environment |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080018591A1 (en) | 2006-07-20 | 2008-01-24 | Arkady Pittel | User Interfacing |
JP2014157482A (ja) | 2013-02-15 | 2014-08-28 | Konica Minolta Inc | 操作表示システム |
WO2016051429A1 (ja) | 2014-09-30 | 2016-04-07 | 株式会社ブリリアントサービス | 入出力装置、入出力プログラム、および入出力方法 |
WO2017145423A1 (ja) | 2016-02-25 | 2017-08-31 | 日本電気株式会社 | 情報処理システム、情報処理装置、制御方法、及びプログラム |
US20170278304A1 (en) | 2016-03-24 | 2017-09-28 | Qualcomm Incorporated | Spatial relationships for integration of visual images of physical environment into virtual reality |
JP2017528834A (ja) | 2014-09-11 | 2017-09-28 | ノキア テクノロジーズ オサケユイチア | 画像を表示するための方法、装置およびコンピュータ・プログラム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR19980042016A (ko) * | 1996-11-01 | 1998-08-17 | 모리시다요이치 | 화상 합성장치, 화상 합성방법 및 매체 |
US20120044140A1 (en) * | 2010-08-19 | 2012-02-23 | Sanyo Electric Co., Ltd. | Information display system and program, and optical input system, projection-type images and display apparatus |
US9958990B2 (en) * | 2011-10-28 | 2018-05-01 | Atmel Corporation | Authenticating with active stylus |
US9632593B2 (en) * | 2012-11-09 | 2017-04-25 | Sony Corporation | Information processing apparatus, information processing method, and computer-readable recording medium |
US10001857B2 (en) * | 2015-05-13 | 2018-06-19 | Seiko Epson Corporation | Display apparatus and method of controlling display apparatus |
JP6502781B2 (ja) * | 2015-07-31 | 2019-04-17 | 富士通株式会社 | 情報提示方法及び情報提示装置 |
US20180373392A1 (en) * | 2015-12-21 | 2018-12-27 | Sony Corporation | Information processing device and information processing method |
-
2017
- 2017-12-04 JP JP2017232518A patent/JP7087364B2/ja active Active
-
2018
- 2018-06-04 CN CN201810567708.3A patent/CN109871117A/zh active Pending
- 2018-11-23 US US16/198,893 patent/US20190171299A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080018591A1 (en) | 2006-07-20 | 2008-01-24 | Arkady Pittel | User Interfacing |
JP2014157482A (ja) | 2013-02-15 | 2014-08-28 | Konica Minolta Inc | 操作表示システム |
JP2017528834A (ja) | 2014-09-11 | 2017-09-28 | ノキア テクノロジーズ オサケユイチア | 画像を表示するための方法、装置およびコンピュータ・プログラム |
WO2016051429A1 (ja) | 2014-09-30 | 2016-04-07 | 株式会社ブリリアントサービス | 入出力装置、入出力プログラム、および入出力方法 |
WO2017145423A1 (ja) | 2016-02-25 | 2017-08-31 | 日本電気株式会社 | 情報処理システム、情報処理装置、制御方法、及びプログラム |
US20170278304A1 (en) | 2016-03-24 | 2017-09-28 | Qualcomm Incorporated | Spatial relationships for integration of visual images of physical environment into virtual reality |
Also Published As
Publication number | Publication date |
---|---|
US20190171299A1 (en) | 2019-06-06 |
JP2019101796A (ja) | 2019-06-24 |
CN109871117A (zh) | 2019-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2919104B1 (en) | Information processing device, information processing method, and computer-readable recording medium | |
US9733792B2 (en) | Spatially-aware projection pen | |
JP7087364B2 (ja) | 情報処理装置、情報処理システムおよびプログラム | |
US9128537B2 (en) | Bimanual interactions on digital paper using a pen and a spatially-aware mobile projector | |
EP2498237B1 (en) | Providing position information in a collaborative environment | |
US20090213070A1 (en) | Processor control and display system | |
EP2325727A2 (en) | Drawing, writing and pointing device for human-computer interaction | |
US20130033461A1 (en) | System for notetaking with source document referencing | |
US20190050132A1 (en) | Visual cue system | |
JP5524951B2 (ja) | 印刷物用の分離型アプリケーション | |
Tong et al. | Exploring interactions with printed data visualizations in augmented reality | |
US20130033460A1 (en) | Method of notetaking using optically imaging pen with source document referencing | |
US20070177806A1 (en) | System, device, method and computer program product for using a mobile camera for controlling a computer | |
US8699039B2 (en) | Document generating apparatus, display control apparatus, document generating method, display control method and computer readable medium | |
JP4301524B2 (ja) | 印刷システム及び情報処理装置 | |
JP2014052407A (ja) | コンピュータ装置、プログラム及び情報処理システム | |
US20130033429A1 (en) | Method of notetaking with source document referencing | |
US7922099B1 (en) | System and method for associating content with an image bearing surface | |
JP6048165B2 (ja) | コンピュータ装置、電子ペンシステム、及びプログラム | |
JP7556245B2 (ja) | 情報処理装置、表示装置、情報処理システムおよびプログラム | |
KR101775080B1 (ko) | Nui/nux에 기반하여 드로잉 영상을 처리하는 장치 및 방법 | |
JP2014021689A (ja) | 広告表示装置、広告表示システム、コンピュータおよびそのプログラム | |
Signer | Pen-based interaction | |
TW201602847A (zh) | 用以識別手寫筆記的裝置 | |
JP2017071136A (ja) | 冊子及びコンテンツ作成システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210915 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211019 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220510 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220523 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7087364 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |