[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2014171121A - 投影システム、投影装置、投影方法、及び投影プログラム - Google Patents

投影システム、投影装置、投影方法、及び投影プログラム Download PDF

Info

Publication number
JP2014171121A
JP2014171121A JP2013042253A JP2013042253A JP2014171121A JP 2014171121 A JP2014171121 A JP 2014171121A JP 2013042253 A JP2013042253 A JP 2013042253A JP 2013042253 A JP2013042253 A JP 2013042253A JP 2014171121 A JP2014171121 A JP 2014171121A
Authority
JP
Japan
Prior art keywords
image
projection
unit
processing
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013042253A
Other languages
English (en)
Other versions
JP6286836B2 (ja
Inventor
Hiroshi Shimura
浩 志村
Takehiro Imamichi
雄大 今道
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013042253A priority Critical patent/JP6286836B2/ja
Priority to US14/186,231 priority patent/US20140247209A1/en
Publication of JP2014171121A publication Critical patent/JP2014171121A/ja
Application granted granted Critical
Publication of JP6286836B2 publication Critical patent/JP6286836B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】不特定多数の人にも取り扱いが容易な操作性を実現できる投影システム、投影装置、投影方法、及び投影プログラムを提供する。
【解決手段】投影システムは、画像を投影する投影部と、検出装置により取得された検出情報に基づき、前記投影部により投影される画像に対する対象者の指示動作と対象物体とを認識する認識部と、前記認識部による認識結果に基づき、画像に対して実施する加工条件を決定する決定部と、前記決定部により決定された加工条件に従って、画像を加工する加工部と、前記加工部により加工された画像に基づき、前記投影部による画像の投影を制御する制御部と、を備える。
【選択図】図4

Description

本発明は、投影システム、投影装置、投影方法、及び投影プログラムに関する。
近年、投影装置は、多くの人が同時に閲覧可能な表示面積を有することから、例えば、デジタルサイネージなどに利用される。このような利用場面では、閲覧者とのインタラクティブ性が求められる。そこで、例えば、特許文献1には、指先により表示画面をポイティングする技術が開示されている。また、特許文献2には、投影画像に対する被写体のインタラクションに応じた処理を行う技術が開示されている。
しかしながら、従来の技術では、閲覧者が直感的な操作を行うことができない。
例えば、デジタルサイネージは、不特定多数の人に対して行動を喚起し、広告、集客、又は販売促進などを行いたい店舗や施設などに導入されることが多い。そのため、導入先では、対象者が電子機器の操作になれているかどうかに関係なく、多くの人が表示情報と関わり、その内容に興味をもってもらい、顧客価値を向上させたい。つまり、不特定多数の人を対象とするデジタルサイネージの利用場面では、対象者が表示情報と積極的に関われる直感的な操作を可能とする環境が求められている。このような利用場面に対して、従来の技術では、電子機器の操作にある程度慣れている人を対象とする技術であり、不慣れな人にとっては、どのように操作すればよいのか分かりづらく、扱いにくいという問題がある。このようなことから、不特定多数の人にも取り扱いが容易な操作性が必要となる。
本発明は、上記に鑑みてなされたものであって、不特定多数の人にも取り扱いが容易な操作性を実現できる投影システム、投影装置、投影方法、及び投影プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る投影システムは、画像を投影する投影部と、検出装置により取得された検出情報に基づき、前記投影部により投影される画像に対する対象者の指示動作と対象物体とを認識する認識部と、前記認識部による認識結果に基づき、画像に対して実施する加工条件を決定する決定部と、前記決定部により決定された加工条件に従って、画像を加工する加工部と、前記加工部により加工された画像に基づき、前記投影部による画像の投影を制御する制御部と、を備える。
本発明によれば、不特定多数の人にも取り扱いが容易な操作性を実現できるという効果を奏する。
図1は、第1の実施形態に係る投影システムの構成例を示す図である。 図2は、第1の実施形態に係る投影システムの概略図である。 図3は、第1の実施形態に係るPCの構成例を示す図である。 図4は、第1の実施形態に係る投影機能の構成例を示す図である。 図5は、第1の実施形態に係る決定情報のデータ例を示す図である。 図6は、第1の実施形態に係る撮像装置の処理手順例を示すフローチャートである。 図7は、第1の実施形態に係るPCの処理手順例を示すフローチャートである。 図8は、第1の実施形態に係るサーバの処理手順例を示すフローチャートである。 図9は、第1の実施形態に係る投影装置の処理手順例を示すフローチャートである。 図10は、第1の実施形態に係る画像加工決定時の処理手順例を示すフローチャートである。 図11は、第1の実施形態に係る加工画像生成時の処理手順例を示すフローチャートである。 図12は、変形例1に係る投影機能の構成例を示す図である。 図13は、変形例2に係る投影機能の構成例を示す図である。 図14は、変形例2に係る投影装置の構成例を示す図である。 図15は、変形例2に係る投影システムの概略図である。
以下に、添付図面を参照して、投影システム、投影装置、投影方法、及び投影プログラムの実施形態を詳細に説明する。
[第1の実施形態]
<システム構成>
図1は、本実施形態に係る投影システム1000の構成例を示す図である。図1に示すように、本実施形態に係る投影システム1000は、PC(Personal Computer)100、投影装置200、サーバ300、及び撮像装置400などを備え、データ伝送路Nを介して相互に接続されている。
本実施形態に係るPC100は、演算装置を備え情報処理機能を有する機器であり、情報処理装置などに相当する。なお、PC100には、タブレットなどの情報端末も含まれる。本実施形態に係る投影装置200は、光学系の投影エンジンを備え投影機能を有する機器であり、プロジェクタなどに相当する。本実施形態に係るサーバ300は、演算装置や大容量の記憶装置を備えサーバ機能を有する機器であり、サーバ装置やユニット装置などに相当する。本実施形態に係る撮像装置400は、光学系の撮像エンジンを備え撮像機能を有する機器であり、カメラや撮像センサなどに相当する。データ伝送路Nは、例えば、LAN(Local Area Network)、イントラネット、イーサネット(登録商標)、又はインターネットなどの各種ネットワーク通信路に相当する。なお、ネットワーク通信路では、有線又は無線を問わない。また、データ伝送路Nには、USB(Universal Serial Bus)などの各種バス通信路も含まれる。
図2は、本実施形態に係る投影システム1000の概略図である。本実施形態に係る投影システム1000は、次のようなサービスを提供する。
投影装置200は、例えばスクリーンなどの投影面Sに対して画像を投影する。撮像装置400は、投影装置200と投影面Sとの間に設置され、対象者の操作や操作時に使用された物体を撮像する。つまり、撮像装置400の撮像領域は、対象者の操作や操作時に使用された物体を検知するための検知領域Aに相当し、検知領域Aの位置は、撮像装置400の設置位置を調整することにより変更できる。よって、本実施形態に係る投影システム1000の導入先では、対象者の操作検知や操作時の物体検知を、情報を表示する投影面Sに対して最適な位置で行えるように、撮像装置400の設置位置を調整すればよい。つまり、導入先では、撮像装置400の設置位置を、対象者が表示情報を閲覧しながら自然に操作可能な位置に調整すればよい。
このような位置に配置された撮像装置400は、検知領域Aの撮像画像のデータをPC100に送信する。これを受けてPC100は、受信した撮像画像から、対象者の操作や操作時に使用された物体を認識し、認識結果に基づき、物体を使用した対象者の操作が投影画像に反映されるような画像加工を行う。その後、PC100は、加工画像のデータを投影装置200に送信する。このときPC100は、サーバ300に対して、投影画像の元データを投影装置200に送信するように要求する。これを受けてサーバ300からは、投影装置200に対して投影画像の元データが送信される。その結果、投影装置200は、例えば、サーバ300から受信した投影画像の元データと、PC100から受信した加工画像のデータとを合成し(元データに対して加工画像のデータを重畳し)、再投影する。
<装置構成>
図3は、本実施形態に係るPC100の構成例を示す図である。図3に示すように、本実施形態に係るPC100は、CPU(Central Processing Unit)101、主記憶装置102、補助記憶装置103、通信IF(interface)104、及び外部IF105などを備え、バスBを介して相互に接続される。
CPU101は、装置全体の制御や搭載機能を実現するための演算装置である。主記憶装置102は、プログラムやデータなどを所定の記憶領域に保持する記憶装置(メモリ)である。主記憶装置102は、例えば、ROM(Read Only Memory)やRAM(Random Access Memory)などである。また、補助記憶装置103は、主記憶装置102より容量の大きい記憶領域を備える記憶装置である。補助記憶装置103は、例えば、HDD(Hard Disk Drive)やメモリカード(Memory Card)などの不揮発性の記憶装置である。なお、補助記憶装置103には、例えば、フレキシブルディスク(FD)、CD(Compact Disk)、及びDVD(Digital Versatile Disk)などの記憶媒体が含まれる。よって、CPU101は、例えば、補助記憶装置103から主記憶装置102上に、プログラムやデータを読み出し、処理を実行することで、装置全体の制御や搭載機能を実現する。
通信IF104は、装置をデータ伝送路Nに接続するインタフェースである。これにより、PC100は、投影装置200、サーバ300、又は撮像装置400とデータ通信が行える。外部IF105は、装置と外部機器106との間でデータを送受信するためのインタフェースである。外部機器106には、例えば、処理結果などの各種情報を表示する表示装置(例えば「液晶ディスプレイ」)や操作入力を受け付ける入力装置(例えば「テンキー」や「タッチパネル」)などがある。また、外部機器106には、例えば、大容量の記憶領域を備える外部記憶装置や各種記憶媒体の書き込み又は読み取りを行うドライブ装置なども含まれる。
以上のように、本実施形態に係る投影システム1000では、上記構成により、デジタルサイネージなどの利用場面で求められるインタラクティブな投影機能を提供することができる。
<機能構成>
本実施形態に係る投影機能について説明する。本実施形態に係る投影システム1000は、撮像画像から、対象者の操作(指示動作)や操作時(動作時)に使用された物体(対象物体)を認識する。このとき投影システム1000は、例えば文具などの不特定多数の人が使用目的を知っている物体を認識する。これを受けて投影システム1000は、認識結果に基づき、物体を使用した操作が投影画像に反映される画像加工条件を決定する。その結果、投影システム1000は、決定した画像加工条件に従って、投影画像を加工し再投影する。本実施形態に係る投影システム1000は、このような投影機能を有している。
不特定多数の人を対象とするデジタルサイネージの利用場面では、対象者が表示情報と積極的に関われる直感的な操作を可能とする環境が求められている。しかし、従来の技術では、電子機器の操作にある程度慣れている人を対象とした技術であり、不慣れな人にとっては、どのように操作すればよいのか分かりづらく、扱いにくいという問題があった。このようなことから、不特定多数の人にも取り扱いが容易な操作性が必要となる。
そこで、本実施形態に係る投影機能では、撮像画像から、対象者の操作や操作時に使用された物体を認識し、認識結果に基づき、対象者の想定している操作結果が投影画像に反映される仕組みとした。
これにより、本実施形態に係る投影システム1000は、対象者が直感的な操作を行うことができ、不特定多数の人にも取り扱いが容易な操作性を実現できる。その結果、本実施形態に係る投影システム1000の導入先では、多くの人が表示情報と関わることができ、その内容に興味をもってもらえる。つまり、本実施形態に係る投影システム1000は、導入先が求める顧客価値の向上を実現する環境を提供できる。
以下に、本実施形態に係る投影機能の構成とその動作について説明する。図4は、本実施形態に係る投影機能の構成例を示す図である。図4に示すように、本実施形態に係る投影機能は、認識部11、画像加工決定部12、画像加工部13、画像制御部21、画像投影部22、及び決定情報保持部91などを有する。本実施形態では、PC100が、認識部11、画像加工決定部12、画像加工部13、及び決定情報保持部91を有し、投影装置200が、画像制御部21及び画像投影部22を有する。
《PC100の機能》
認識部11は、対象者の操作や操作時に使用された物体を認識する。よって、認識部11は、動作認識部111と物体認識部112とを有する。
動作認識部111は、撮像装置400から受信した撮像画像から、操作時に対象者が行った動作を認識する。本実施形態では、例えば、次のような方法で認識する。動作認識部111は、例えば、検知領域Aの撮像画像から、操作時の対象者の手を検知し、検知結果に基づき、手の動き(操作時の対象者の動き)を検出する。このとき動作認識部111は、所定のデータ変換処理により動きを検出する。動作認識部111は、検知領域A内を移動する手の動きを検出した場合、検出結果(指示動作の検出結果)を複数の座標値に変換する。その結果、動作認識部111は、動作開始位置(以下「操作開始位置」という)から動作終了位置(以下「操作終了位置」という)までの移動量(操作開始位置から操作終了位置までの座標値)を得る。動作認識部111は、上記方法により、操作時の対象者の動きを認識する。
物体認識部112は、撮像装置400から受信した撮像画像から、操作時に対象者が使用した物体を認識する。本実施形態では、例えば、次のような方法で認識する。物体認識部112は、例えば、検知領域Aの撮像画像から、操作時の対象者の手を検知し、検知結果に基づき、手が持つ物体(操作時に使用された物体)を検出する。つまり、物体認識部112は、物体を持つ対象者の手を検知し、手が持つ物体を検出する。このとき物体認識部112は、所定の画像処理により物体を検出する。例えば、物体認識部112には、操作時に使用する文具など(不特定多数の人が使用目的を知っている物体など)の認識したい物体の特徴をデータ化し、特徴データとして予め記憶しておく。なお、ここでいう特徴データには、例えば、物体の画像データや物体の形状データなどがある。物体認識部112は、検知領域Aの撮像画像に対して画像処理を行い、例えば、色、濃度、画素の変化といった画像特徴の抽出結果(対象物体の検出結果)を、記憶している特徴データと比較し、抽出結果が特徴データと一致するか否かを判定する。その結果、物体認識部112は、抽出結果が一致した特徴データに対応する物体を認識物体とし、物体を識別する情報(以下「物体識別情報」という)を得る。なお、特徴データは、例えば、PC100が備える補助記憶装置103の所定の記憶領域に記憶する構成であってもよい。この場合、物体認識部112は、物体認識時に補助記憶装置103にアクセスし、特徴データを参照すればよい。物体認識部112は、上記方法により、操作時に使用された物体を認識する。
このように、本実施形態では、撮像装置400が、対象者の動作指示や対象物体を検出する検出装置に相当し、撮像画像が検出情報に相当する。よって、認識部11は、検出装置により取得された検出情報に基づき、投影画像に対する対象者の動作指示と対象物体とを認識する。
画像加工決定部12は、操作時の投影画像に対して実施する画像加工条件(操作時の投影画像に対してどのような画像加工を実施するのか)を決定する。画像加工決定部12は、操作時に使用された物体の認識結果に基づき、物体を使用した操作が投影画像に反映される画像加工条件を決定する。本実施形態では、例えば、次のような方法で決定する。画像加工決定部12は、決定情報保持部91にアクセスし、物体の認識結果に基づき、決定情報保持部91が保持する決定情報を参照し、認識した物体に対応する画像加工条件を特定することで、画像加工条件を決定する。なお、決定情報保持部91は、PC100が備える補助記憶装置103の所定の記憶領域に相当する。
ここで、本実施形態に係る決定情報について説明する。
(決定情報)
図5は、本実施形態に係る決定情報91Dのデータ例を示す図である。図5に示すように、本実施形態に係る決定情報91Dは、物体識別及び画像加工条件などの情報項目を有し、各情報項目が対応付けられている。物体識別項目は、物体識別情報が定義される項目である。項目値には、例えば、赤ペン、黒ペン、赤マジック、黒マジック、消しゴム、はさみ、又はカッターなどの文具名や製品コード(製品識別子)などがある。また、画像加工条件項目は、物体に対応する画像加工の1又は複数の条件情報(以下「画像加工条件情報」という)が定義される項目である。項目値には、例えば、線描画、部分消去、又は分割などの画像加工種別値、及び、赤、黒、ポイント数などの画像加工属性値などがある。このように、本実施形態に係る決定情報91Dは、物体識別情報と画像加工条件情報とが対応付けて定義される定義情報に相当する。
本実施形態に係る決定情報91Dでは、上記データ構成により、認識対象の物体と、認識対象の物体を操作時に使用した場合の投影画像に対する画像加工条件とが対応付けて定義できる。より具体的には、物体を操作時に使用した場合の投影画像に対して実施する画像加工の種別と画像加工の属性とを対応付けて定義できる。よって、PC100では、物体を認識する前に(投影システム1000を稼働する前に)、認識した物体に対して実施する画像加工の条件設定(物体を使用した操作を投影画像に反映する画像加工の条件設定)を予め受け付ける。これにより、PC100には、受け付けた条件設定が決定情報91Dの情報項目値として登録される。画像加工決定部12は、このようにして設定された物体識別情報と画像加工条件情報とを参照し、物体識別情報に対応付けて定義される画像加工条件情報を特定することで、物体を使用した操作が投影画像に反映される画像加工条件を決定する。
例えば、画像加工決定部12が、図5に示す決定情報91Dを参照する場合には、次のように画像加工条件が決定される。例えば、物体認識部112が、操作時に使用された物体として「赤ペン」を認識したとする。この場合、画像加工決定部12は、物体の認識結果「赤ペン」に基づき、決定情報91Dの物体識別情報を参照し、該当する物体識別情報の有無により、認識した「赤ペン」が、予め登録されている物体(操作時に使われることが想定される物体)か否かを判定する。その結果、画像加工決定部12は、認識した「赤ペン」が、予め登録されている物体であると判定した場合(該当する物体識別情報が存在する場合)、該当する物体識別情報に対応付けて定義される画像加工条件情報を特定する。その結果、画像加工決定部12は、認識した「赤ペン」に対応する画像加工種別値「線描画」と、画像加工属性値「赤」及び「1.5[pt]」とを特定する。これにより、画像加工決定部12は、認識した「赤ペン」に対して、1.5[pt]の赤線を描画する画像加工条件を決定する。同様にして、画像加工決定部12は、物体認識部112により「消しゴム」が認識された場合、認識した「消しゴム」に対して、画像を部分消去する画像加工条件を決定する。また、画像加工決定部12は、物体認識部112により「はさみ」又は「カッター」が認識された場合、画面を分割する画像加工条件を決定する。画像加工決定部12は、上記方法により、操作時の投影画像に対して実施する画像加工条件を決定する。
画像加工部13は、投影画像に対する加工画像を生成する。画像加工部13は、決定した画像加工条件に従って、加工画像を生成する。本実施形態では、例えば、次のような方法で生成する。画像加工部13は、例えば、投影画像と同じサイズの透明画像を生成する。次に画像加工部13は、画像加工決定部12が決定した画像加工条件に従い、透明画像に対して、動作認識部111で得た移動量に基づく描画処理を行う。例えば、画像加工部13は、画像加工決定部12が、認識した「赤ペン」に対して、1.5[pt]の赤線を描画する画像加工を決定した場合、操作開始位置から操作終了位置までの座標値に基づき、透明画像に、1.5[pt]の赤線画像を描画する。また、画像加工部13は、画像加工決定部12が、認識した「消しゴム」に対して、画像を部分消去する画像加工を決定した場合、操作開始位置から操作終了位置までの座標値に基づき、透明画像に、消去領域に相当する白画像を描画する。また、画像加工部13は、画像加工決定部12が、認識した「はさみ」又は「カッター」に対して、画像を分割する画像加工を決定した場合、操作開始位置から操作終了位置までの座標値に基づき、透明画像に、分割線に相当する白線を描画する。画像加工部13は、このような方法により、対象者の想定している操作結果を投影画像に反映する加工画像を生成する。その後、画像加工部13は、生成した加工画像のデータを投影装置200に送信する。また、画像加工部13は、サーバ300に対して、投影画像の元データを投影装置200に送信するように要求する。
《投影装置200の機能》
画像制御部21は、画像の投影を制御する。画像制御部21は、加工画像に基づき、投影面Sへの画像の投影を制御する。本実施形態では、例えば、次のような方法で制御する。画像制御部21は、サーバ300から受信した投影画像の元データとPC100から受信した加工画像のデータとを合成する。このとき画像制御部21は、投影画像の元データに対して、加工画像のデータを重畳し、投影画像と加工画像との合成画像を生成する。例えば、画像制御部21は、画像加工部13が、1.5[pt]の赤線画像が描画された加工画像を生成した場合、投影画像上に1.5[pt]の赤線画像が重畳された合成画像を生成する。また、画像制御部21は、画像加工部13が、消去領域に相当する白画像が描画された加工画像を生成した場合、投影画像上に白画像が重畳され、重畳部分が消去領域に対応した合成画像を生成する。また、画像制御部21は、画像加工部13が、分割線に相当する白線が描画された加工画像を生成した場合、投影画像上に白線が重畳され、白線により分割された合成画像を生成する。画像制御部21は、上記方法により、対象者の想定している操作結果が投影画像に反映された合成画像を生成し、投影面Sへの画像の投影を制御する。
画像投影部22は、投影エンジンにより画像を投影する。画像投影部22は、画像制御部21により制御された画像(例えば「合成画像」)を投影エンジンに転送し、画像の投影を指示することで、画像を投影する。
以上のように、本実施形態に係る投影機能は、上記各機能部が連携動作することで実現される。具体的には、PC100、投影装置200、及びサーバ300などの各機器において、プログラムを実行することで、上記各機能部が連携動作する。
上記プログラムは、実行環境の各装置(コンピュータ)が読み取り可能な記憶媒体に、インストール可能な形式又は実行可能な形式のファイルで記録され提供される。例えば、PC100の場合には、プログラムは、上記各機能部を含むモジュール構成となっており、CPU101が補助記憶装置103の記憶媒体からプログラムを読み出し実行することで、主記憶装置102のRAM上に各機能部が生成される。なお、プログラムの提供方法は、この限りでない。例えば、プログラムを、インターネットなどに接続された外部機器に格納し、データ伝送路N経由でダウンロードする方法であってもよい。また、主記憶装置102のROMや補助記憶装置103のHDDなどに予め組み込んで提供する方法であってもよい。
以下に、本実施形態に係る投影システム1000の処理(各装置間における搭載機能部の連携動作)について、フローチャートを用いて説明する。
《撮像装置400の処理》
図6は、本実施形態に係る撮像装置400の処理手順例を示すフローチャートである。図6に示すように、本実施形態に係る撮像装置400は、検知領域Aを撮像し(ステップS101)、撮像画像のデータをPC100に送信する(ステップS102)。このとき撮像装置400からPC100に送信されるデータは、静止画や動画などを問わず、検知領域Aの撮像画像が含まれるデータであればよい。
《PC100の処理》
図7は、本実施形態に係るPC100の処理手順例を示すフローチャートである。図7に示すように、本実施形態に係るPC100は、撮像装置400から送信された検知領域Aの撮像画像のデータを受信する(ステップS201)。
これを受けてPC100は、物体認識部112により、操作時に対象者が使用した物体を認識する(ステップS202)。このとき物体認識部112は、受信した検知領域Aの撮像画像から、操作時の対象者の手を検知し、検知結果に基づき、手が持つ物体(操作時に使用された物体)を検出する。これにより、物体認識部112は、検出した物体の物体識別情報を得る。
次にPC100は、動作認識部111により、操作時に対象者が行った動作を認識する(ステップS203)。このとき動作認識部111は、受信した検知領域Aの撮像画像から、操作時の対象者の手を検知し、検知結果に基づき、手の動き(操作時の対象者の動き)を検出する。これにより、動作認識部111は、検出した動きに対応する移動量(操作開始位置から操作終了位置までの座標値)を得る。
次にPC100は、画像加工決定部12により、操作時の投影画像に対して実施する画像加工条件を決定する(ステップS204)。このとき画像加工決定部12は、決定情報保持部91にアクセスし、認識部11による物体の認識結果に基づき、決定情報保持部91が保持する決定情報91Dを参照する。その結果、画像加工決定部12は、決定情報91Dにおいて、認識した物体の物体識別情報に対応づけられた画像加工条件情報を特定し、認識した物体に対応する画像加工条件を決定する。
次にPC100は、画像加工部13により、投影画像に対する加工画像を生成する(ステップS205)。このとき画像加工部13は、画像加工決定部12により決定された画像加工条件に従って、画像描画を行い、加工画像を生成する。
次にPC100は、生成した加工画像のデータを投影装置200に送信する(ステップS206)。このときPC100は、サーバ300に対して、投影画像の元データを投影装置200に送信するように要求する。
《サーバ300の処理》
図8は、本実施形態に係るサーバ300の処理手順例を示すフローチャートである。図8に示すように、本実施形態に係るサーバ300は、PC100から送信されたデータを受信する(ステップS301)。このときの受信データは、投影装置200への投影画像の元データの送信要求(リクエストコマンド)である。よって、サーバ300では、該当するリクエストコマンドを受信することにより、データ送信要求を受け付ける。
これを受けてサーバ300は、投影画像の元データを投影装置200に送信する(ステップS302)。
《投影装置200の処理》
図9は、本実施形態に係る投影装置200の処理手順例を示すフローチャートである。図9に示すように、本実施形態に係る投影装置200は、サーバ300から送信された投影画像の元データと、PC100から送信された加工画像のデータとを受信する(ステップS401)。
これを受けて投影装置200は、画像制御部21により、加工画像に基づき、投影面Sへの画像の投影を制御する(ステップS402)。このとき画像制御部21は、例えば、投影画像の元データに対して、加工画像のデータを重畳し、投影画像と加工画像との合成画像を生成する。
次に投影装置200は、画像投影部22により、画像制御部21により制御された画像を投影する(ステップS403)。このとき画像投影部22は、例えば、合成画像を投影エンジンに転送し、画像の投影を指示する。
このように、本実施形態に係る投影システム1000は、検知領域Aの撮像画像から、対象者の操作や操作時に使用された物体を認識し、認識結果に基づき、物体を使用した操作が投影画像に反映される画像加工条件を決定する。その結果、本実施形態に係る投影システム1000は、決定した画像加工条件に従って、投影画像を加工し再投影する。これにより、本実施形態に係る投影システム1000では、対象者の想定している操作結果が投影画像に反映される。
次に、本実施形態に係るPC100で実行される画像加工決定処理と画像加工処理について、フローチャートを用いてその詳細を説明する。
《画像加工決定時の処理》
図10は、本実施形態に係る画像加工決定時の処理手順例を示すフローチャートである。図10に示す処理は、図7のステップS204(画像加工決定部12)の詳細処理に相当する。
図10に示すように、本実施形態に係る画像加工決定部12は、決定情報保持部91にアクセスし、認識した物体の物体識別情報に基づき、決定情報91Dを参照する(ステップS2041)。
画像加工決定部12は、物体識別情報に基づく参照結果から、認識物体が決定情報91Dに登録済みの物体か否かを判定する(ステップS2042)。このとき画像加工決定部12は、認識した物体の物体識別情報と一致する値が、決定情報91Dの物体認識項目の項目値に存在するか否かを判定することで、登録済みの物体か否かを判定する。
その結果、画像加工決定部12は、認識物体が決定情報91Dに登録済みの物体と判定した場合(ステップS2042:YES)、認識した物体に対応する画像加工条件を決定する(ステップS2043)。このとき画像加工決定部12は、認識した物体の物体識別情報と一致した物体認識項目に対応づけられた画像加工条件項目の項目値(画像加工条件情報)を特定することで、操作時の投影画像に対して実施する画像加工条件を決定する。
一方、画像加工決定部12は、認識物体が決定情報91Dに未登録の物体と判定した場合(ステップS2042:NO)、認識した物体に対応する画像加工条件を決定しない。
このように、本実施形態に係る画像加工決定部12は、操作時に使用された物体が決定情報91Dに登録済みの物体であった場合に、投影画像の画像加工を決定する。
《加工画像生成時の処理》
図11は、本実施形態に係る加工画像生成時の処理手順例を示すフローチャートである。図11に示す処理は、図7のステップS205(画像加工部13)の詳細処理に相当する。
図11に示すように、本実施形態に係る画像加工部13は、操作時の投影画像に対して実施する画像加工条件を決定されたか否かを判定する(ステップS2051)。このとき画像加工部13は、画像加工決定部12から画像加工条件情報を受け取ったか否かを判定することで、画像加工が決定されたか否かを判定する。
その結果、画像加工部13は、操作時の投影画像に対して実施する画像加工条件を決定されたと判定した場合(ステップS2051:YES)、決定された画像加工条件に従った画像加工を行う(ステップS2052)。このとき画像加工部13は、画像加工条件に従い、動作認識部111で得た移動量に基づく画像描画を行い、加工画像を生成する。
一方、画像加工部13は、操作時の投影画像に対して実施する画像加工条件を決定されていないと判定した場合(ステップS2051:NO)、画像加工を行わない。
このように、本実施形態に係る画像加工部13は、画像加工決定部12により画像加工が決定された場合、操作時の投影画像に対して実施する画像加工を行う。
<まとめ>
以上のように、本実施形態に係る投影システム1000によれば、認識部11が、撮像画像から、対象者の操作や操作時に使用された物体を認識する。このとき認識部11は、例えば文具などの不特定多数の人が使用目的を知っている物体を認識する。これを受けて投影システム1000は、画像加工決定部12が、認識結果に基づき、物体を使用した操作が投影画像に反映される画像加工条件を決定する。次に投影システム1000は、画像加工部13が、決定した画像加工条件に従って、加工画像を生成する。その結果、投影システム1000では、画像制御部21が、加工画像に基づき、投影面Sへの画像の投影を制御し、画像投影部22が、制御された画像を投影する。
すなわち、本実施形態に係る投影システム1000は、撮像画像から、対象者の操作や操作時に使用された物体を認識し、認識結果に基づき、対象者の想定している操作結果が投影画像に反映される環境を提供する。
これにより、本実施形態に係る投影システム1000では、電子機器に不慣れな人であっても、操作時に使用する物体の使用目的から、直感的に操作を行うことができる。その結果、本実施形態に係る投影システム1000の導入先では、多くの人が表示情報と関わることができ、その内容に興味をもってもらえる。つまり、本実施形態に係る投影システム1000は、導入先に対して、顧客価値を向上する環境を提供することができる。
なお、上記実施形態では、投影システム1000の機能が、ソフトウェアの実装により実現する例を説明したが、この限りでない。例えば、上記各機能部の一部又は全部を、ハードウェア(例えば「回路」)の実装により実現してもよい。
また、上記実施形態では、操作時に使用される物体として文具を例に説明したが、この限りでない。上記実施形態で想定する操作時に使用される物体は、不特定多数の人が使用目的を知っている物体であればよい。
以下に、上記実施形態に対する変形例を説明する。なお、以下の説明では、上記実施形態と同じ事項に同一符号を付してその説明を省略し、異なる事項について説明する。
[変形例1]
図12は、本変形例1に係る投影機能の構成例を示す図である。図12に示すように、本変形例1に係る投影機能は、外部記憶装置(外部ストレージ)500が、決定情報保持部91を有する。外部記憶装置500は、例えば、PC100が備える通信IF104又は外部IF105を介して、データ通信可能である。このように、決定情報保持部91は、PC100が備える補助記憶装置103の所定の記憶領域でなくてもよい。つまり、決定情報保持部91は、画像加工決定部12からアクセス可能な記憶領域であればよい。
このように、本変形例1に係る投影機能では、上記実施形態と同様の効果を奏すとともに、画像加工決定部12を有する複数のPC100に対して、画像加工を決定するための決定情報91Dを共有することで、決定情報91Dの管理を簡素化できる。
[変形例2]
図13は、本変形例2に係る投影機能の構成例を示す図である。図13に示すように、本変形例2に係る投影機能は、投影装置200が、画像制御部21及び画像投影部22に加えて、認識部11、画像加工決定部12、画像加工部13、及び決定情報保持部91などを有する。この場合、本変形例2に係る投影機能は、例えば、図14に示す装置構成の投影装置200でプログラムが実行されることにより、各機能が連携動作することで実現される。
図14は、本変形例2に係る投影装置200の構成例を示す図である。図14に示すように、本変形例2に係る投影装置200は、CPU201、メモリコントローラ202、メインメモリ203、及びホスト−PCI(Peripheral Component Interconnect)ブリッジ204などを備える。
メモリコントローラ202は、ホスト・バス80を介して、CPU201、メインメモリ203、及びホスト−PCIブリッジ204に接続される。
CPU201は、投影装置200の全体制御を行う演算装置である。メモリコントローラ202は、メインメモリ203の読み込み又は書き込みを制御する制御回路である。メインメモリ203は、例えば、プログラムやデータの格納用メモリ、プログラムやデータの展開用メモリ、又は描画用メモリなどとして用いる半導体メモリである。
ホスト−PCIブリッジ204は、周辺デバイスやPCIデバイス205を接続するためのブリッジ回路である。ホスト−PCIブリッジ204は、HDD IF70を介して、メモリカード206に接続される。また、ホスト−PCIブリッジ204は、PCIバス60を介して、PCIデバイス205に接続される。また、ホスト−PCIブリッジ204は、PCIバス60及びPCIスロット50を介して、通信カード207、無線通信カード208、及びビデオカード209に接続される。
メモリカード206は、基本ソフトウェア(OS:Operating System)のブートデバイスとして利用される記憶メディアである。通信カード207及び無線通信カード208は、装置をネットワーク又は通信回線に接続し、データ通信を制御する通信制御装置である。ビデオカード209は、接続された表示装置に映像信号を出力し、画像の表示を制御する表示制御装置である。なお、本変形例2に係る投影装置200で実行される制御プログラムは、メインメモリ203の格納用メモリなどに予め組み込まれて提供される。
このように、本変形例2に係る投影機能では、上記実施形態と同様の効果を奏すとともに、投影装置200単体により上記機能を実現することで、例えば、図15に示すようにシステムを簡素化できる。
図15は、本変形例2に係る投影システム1000の概略図である。図15に示すように、本変形例2に係る投影システム1000では、撮像装置400が、検知領域Aの撮像画像のデータを投影装置200に送信する。これを受けて投影装置200は、受信した撮像画像から、対象者の操作や操作時に使用された物体を認識し、認識結果に基づき、物体を使用した対象者の操作が投影画像に反映されるような画像加工を行う。その後、投影装置200は、サーバ300に対して、投影画像の元データを送信するように要求する。これを受けてサーバ300からは、投影装置200に対して投影画像の元データが送信され、投影装置200は、例えば、サーバ300から受信した投影画像の元データと加工画像のデータとを合成し(元データに対して加工画像のデータを重畳し)、再投影する。
最後に、上記実施形態に挙げた形状や構成に、その他の要素との組み合わせなど、ここで示した要件に、本発明が限定されるものではない。これらの点に関しては、本発明の主旨をそこなわない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。
11 認識部
111 動作認識部
112 物体認識部
12 画像加工決定部
13 画像加工部
21 画像制御部
22 画像投影部
91 決定情報保持部
100 PC(情報処理装置)
200 投影装置
300 サーバ
400 撮像装置
1000 投影システム
特許第3114813号公報 特開2011−188024号公報

Claims (9)

  1. 画像を投影する投影部と、
    検出装置により取得された検出情報に基づき、前記投影部により投影される画像に対する対象者の指示動作と対象物体とを認識する認識部と、
    前記認識部による認識結果に基づき、画像に対して実施する加工条件を決定する決定部と、
    前記決定部により決定された加工条件に従って、画像を加工する加工部と、
    前記加工部により加工された画像に基づき、前記投影部による画像の投影を制御する制御部と、を備えることを特徴とする投影システム。
  2. 前記認識部は、
    前記検出情報に含まれる前記指示動作の検出結果を複数の座標値に変換し、動作開始位置から動作終了位置までの移動量を得る動作認識部を備え、
    前記加工部は、
    前記決定部により決定された加工条件に従って、前記動作認識部で得た前記移動量に基づく描画処理を行い、画像を加工することを特徴とする請求項1に記載の投影システム。
  3. 前記認識部は、
    前記検出情報に含まれる前記対象物体の検出結果に基づき、前記対象物体の物体識別情報を得る物体認識部を備え、
    前記対象物体と、前記対象物体に対する前記加工条件を表す加工条件情報とが対応付けて定義される定義情報を参照し、前記物体認識部で得た前記物体識別情報に対応付けて定義される前記加工条件情報を特定し、前記加工条件を決定することを特徴とする請求項1に記載の投影システム。
  4. 前記制御部は、
    前記加工部により加工された画像を前記投影部により投影される画像に重畳し、合成画像を生成することを特徴とする請求項1に記載の投影システム。
  5. 前記検出情報は、
    前記指示動作と前記対象物体とを検知するための検知領域を撮像した画像であることを特徴とする請求項1に記載の投影システム。
  6. 情報処理装置が、
    検出装置により取得された検出情報に基づき、投影される画像に対する対象者の指示動作と対象物体とを認識する認識部と、
    前記認識部による認識結果に基づき、画像に対して実施する加工条件を決定する決定部と、
    前記決定部により決定された加工条件に従って、画像を加工する加工部と、を備え、
    投影装置が、
    画像を投影する投影部と、
    前記加工部により加工された画像に基づき、前記投影部による画像の投影を制御する制御部と、を備えることを特徴とする投影システム。
  7. 画像を投影する投影部と、
    検出装置により取得された検出情報に基づき、前記投影部により投影される画像に対する対象者の指示動作と対象物体とを認識する認識部と、
    前記認識部による認識結果に基づき、画像に対して実施する加工条件を決定する決定部と、
    前記決定部により決定された加工条件に従って、画像を加工する加工部と、
    前記加工部により加工された画像に基づき、前記投影部による画像の投影を制御する制御部と、を備えることを特徴とする投影装置。
  8. 画像を投影する投影工程と、
    検出装置により取得された検出情報に基づき、前記投影工程により投影される画像に対する対象者の指示動作と対象物体とを認識する認識工程と、
    前記認識工程による認識結果に基づき、画像に対して実施する加工条件を決定する決定工程と、
    前記決定工程により決定された加工条件に従って、画像を加工する加工工程と、
    前記加工工程により加工された画像に基づき、前記投影工程による画像の投影を制御する制御工程と、を含むことを特徴とする投影方法。
  9. コンピュータに、
    画像を投影する投影工程と、
    検出装置により取得された検出情報に基づき、前記投影工程により投影される画像に対する対象者の指示動作と対象物体とを認識する認識工程と、
    前記認識工程による認識結果に基づき、画像に対して実施する加工条件を決定する決定工程と、
    前記決定工程により決定された加工条件に従って、画像を加工する加工工程と、
    前記加工工程により加工された画像に基づき、前記投影工程による画像の投影を制御する制御工程と、を実行させる投影プログラム。
JP2013042253A 2013-03-04 2013-03-04 投影システム、投影装置、投影方法、及び投影プログラム Expired - Fee Related JP6286836B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013042253A JP6286836B2 (ja) 2013-03-04 2013-03-04 投影システム、投影装置、投影方法、及び投影プログラム
US14/186,231 US20140247209A1 (en) 2013-03-04 2014-02-21 Method, system, and apparatus for image projection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013042253A JP6286836B2 (ja) 2013-03-04 2013-03-04 投影システム、投影装置、投影方法、及び投影プログラム

Publications (2)

Publication Number Publication Date
JP2014171121A true JP2014171121A (ja) 2014-09-18
JP6286836B2 JP6286836B2 (ja) 2018-03-07

Family

ID=51420728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013042253A Expired - Fee Related JP6286836B2 (ja) 2013-03-04 2013-03-04 投影システム、投影装置、投影方法、及び投影プログラム

Country Status (2)

Country Link
US (1) US20140247209A1 (ja)
JP (1) JP6286836B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6008076B2 (ja) * 2011-10-13 2016-10-19 セイコーエプソン株式会社 プロジェクター及び画像描画方法
CN105632453B (zh) * 2014-11-19 2019-09-24 精工爱普生株式会社 显示装置、显示控制方法和显示系统
US20160191878A1 (en) * 2014-12-25 2016-06-30 Panasonic Intellectual Property Management Co., Ltd. Image projection device
CN105182676B (zh) * 2015-09-08 2017-03-01 京东方科技集团股份有限公司 投影幕布、触控屏投影显示方法及系统
CN109089090A (zh) * 2017-06-13 2018-12-25 中强光电股份有限公司 投影触控系统及其校正方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10187348A (ja) * 1996-12-26 1998-07-14 Canon Inc 画像表示装置及びその制御方法、入力装置
JPH1138949A (ja) * 1997-07-15 1999-02-12 Sony Corp 描画装置、描画方法及び記録媒体
JP2001067183A (ja) * 1999-08-30 2001-03-16 Ricoh Co Ltd 座標入力/検出装置および電子黒板システム
JP2007011276A (ja) * 2005-06-03 2007-01-18 Ricoh Co Ltd 画像表示装置、画像表示方法及びコマンド入力方法
WO2008041315A1 (fr) * 2006-10-02 2008-04-10 Pioneer Corporation Dispositif d'affichage d'images
JP2011145763A (ja) * 2010-01-12 2011-07-28 Panasonic Corp 電子ペンシステム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5649706A (en) * 1994-09-21 1997-07-22 Treat, Jr.; Erwin C. Simulator and practice method
US20020036617A1 (en) * 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
US6840627B2 (en) * 2003-01-21 2005-01-11 Hewlett-Packard Development Company, L.P. Interactive display device
US7532206B2 (en) * 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US8368646B2 (en) * 2007-12-07 2013-02-05 Robert Welland User interface devices
US9569001B2 (en) * 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
US20110046935A1 (en) * 2009-06-09 2011-02-24 Kiminobu Sugaya Virtual surgical table
US9262015B2 (en) * 2010-06-28 2016-02-16 Intel Corporation System for portable tangible interaction
JP5680976B2 (ja) * 2010-08-25 2015-03-04 株式会社日立ソリューションズ 電子黒板システム及びプログラム
US9214137B2 (en) * 2012-06-18 2015-12-15 Xerox Corporation Methods and systems for realistic rendering of digital objects in augmented reality
US20150193085A1 (en) * 2012-07-09 2015-07-09 Radion Engineering Co. Ltd. Object tracking system and method
US20140245200A1 (en) * 2013-02-25 2014-08-28 Leap Motion, Inc. Display control with gesture-selectable control paradigms
JP6349811B2 (ja) * 2014-03-17 2018-07-04 セイコーエプソン株式会社 映像信号出力装置、映像信号出力方法、及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10187348A (ja) * 1996-12-26 1998-07-14 Canon Inc 画像表示装置及びその制御方法、入力装置
JPH1138949A (ja) * 1997-07-15 1999-02-12 Sony Corp 描画装置、描画方法及び記録媒体
JP2001067183A (ja) * 1999-08-30 2001-03-16 Ricoh Co Ltd 座標入力/検出装置および電子黒板システム
JP2007011276A (ja) * 2005-06-03 2007-01-18 Ricoh Co Ltd 画像表示装置、画像表示方法及びコマンド入力方法
WO2008041315A1 (fr) * 2006-10-02 2008-04-10 Pioneer Corporation Dispositif d'affichage d'images
JP2011145763A (ja) * 2010-01-12 2011-07-28 Panasonic Corp 電子ペンシステム

Also Published As

Publication number Publication date
JP6286836B2 (ja) 2018-03-07
US20140247209A1 (en) 2014-09-04

Similar Documents

Publication Publication Date Title
US20130111360A1 (en) Accessed Location of User Interface
EP2778989A2 (en) Application information processing method and apparatus of mobile terminal
CN103955339A (zh) 一种终端操作方法及终端设备
US11294495B2 (en) Electronic whiteboard, method for image processing in electronic whiteboard, and recording medium containing computer program of electronic whiteboard
JP6286836B2 (ja) 投影システム、投影装置、投影方法、及び投影プログラム
CN109101172B (zh) 多屏联动系统及其互动显示方法
KR20130050701A (ko) 원격 스크린내 콘텐츠 원격 제어 방법 및 장치
EP3251005B1 (en) Image processing device and electronic whiteboard
US11061641B2 (en) Screen sharing system, and information processing apparatus
US9098947B2 (en) Image processing apparatus and image processing system
US20170153865A1 (en) Communication terminal, communication system, communication control method, and recording medium
US20170168808A1 (en) Information processing apparatus, method for processing information, and information processing system
US11620414B2 (en) Display apparatus, display method, and image processing system
JP6540367B2 (ja) 表示制御装置、通信端末、通信システム、表示制御方法、及びプログラム
CN111290722A (zh) 屏幕分享方法、装置、系统、电子设备和存储介质
US20150138077A1 (en) Display system and display controll device
US10101698B2 (en) Information processing apparatus, information processing method, and storage medium
US10057315B2 (en) Communication support system, information processing apparatus, control method, and storage medium that display an output image obtained by superposing a reference image over a captured image
US8125525B2 (en) Information processing apparatus, remote indication system, and computer readable medium
WO2020083178A1 (zh) 数字图像展示方法、装置、电子设备及存储介质
US20160247323A1 (en) Head mounted display, information processing system and information processing method
US11481507B2 (en) Augmented reality document redaction
US8279294B2 (en) Information processing apparatus, remote indication system, and computer readable medium
CN111290721A (zh) 在线交互控制方法、系统、电子设备和存储介质
US11330117B2 (en) Information processing apparatus, information processing system, and information processing method for receiving an image displayed on an image display apparatus upon detecting a predetermined condition is satisfied

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180122

R151 Written notification of patent or utility model registration

Ref document number: 6286836

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees