JP6375660B2 - 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 - Google Patents
位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 Download PDFInfo
- Publication number
- JP6375660B2 JP6375660B2 JP2014062100A JP2014062100A JP6375660B2 JP 6375660 B2 JP6375660 B2 JP 6375660B2 JP 2014062100 A JP2014062100 A JP 2014062100A JP 2014062100 A JP2014062100 A JP 2014062100A JP 6375660 B2 JP6375660 B2 JP 6375660B2
- Authority
- JP
- Japan
- Prior art keywords
- indicator
- image data
- unit
- detection
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/46—Indirect determination of position data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03542—Light pens for emitting or receiving light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/04166—Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Human Computer Interaction (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
Description
本発明は、上記事情に鑑みてなされたものであり、撮影画像データを用いて指示体の指示位置を高精度に検出することができる位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法を提供することを目的とする。
本発明の構成によれば、操作画像データと背景画像データとに基づいて、指示体の指示位置を検出するので、指示体の指示位置を精度よく検出することができる。
本発明の構成によれば、検出領域に検出光が出射されていない場合に撮影された撮影画像データを背景画像データとして使用する。窓から入る外光や室内の照明光が検出領域内の物体で反射した反射光の像が操作画像データとして撮影部に撮影されると、指示体の指示位置の検出精度を低下させる場合がある。そこで、光源部が検出光を出射していないときの検出領域を撮影部で撮影して、窓から入る外光や室内の照明光が検出領域内の物体で反射した反射光の像を撮影した背景画像データを取得する。そして、取得した背景画像データを用いて操作画像データから指示体の指示位置を検出することで、外光や照明光の反射光による影響を低減して、指示体の指示位置を精度よく検出することができる。
本発明の構成によれば、検出光が出射されている場合に撮影された第1撮影画像データと、検出光が出射されていない場合に撮影された第2撮影画像データとの差分画像データを背景画像データとして使用する。光源部の出射する検出光が検出領域内の物体で反射した反射光の像が操作画像データとして撮影部によって撮影されると、指示体の指示位置の検出精度を低下させる場合がある。そこで、検出光が出射されている場合と出射されていない場合に撮影された撮影画像データの差分を求めて背景画像データとする。この背景画像データには、光源部の出射する検出光が検出領域内の物体で反射した反射光の像が撮影されている。従って、操作画像データから指示体の指示位置を検出する際に、背景画像データを用いて検出することで、光源部の出射する検出光による影響を低減して、指示体の指示位置を精度よく検出することができる。
本発明の構成によれば、背景画像データを好適なタイミングで撮影することができる。
本発明の構成によれば、指示体の発光を検出できない状態が、所定時間経過した場合、背景画像データの撮影を撮影部に指示するので、発光した指示体の像が写った背景画像データが撮影されないようにすることができる。このため、撮影画像データと背景画像データとの両方で、発光した指示体70の像が撮影され、指示体70の指示位置が検出できなくなる可能性を低減することができる。
本発明の構成によれば、指示体の像が写った背景画像データが撮影されないようにユーザーに注意することができる。
本発明の構成によれば、撮影画像データと背景画像データとから、指示体の指示位置を精度よく検出することができるので、スクリーンに投射する投射画像に、指示位置を反映させることができる。
本発明の構成によれば、操作画像データと背景画像データとに基づいて、指示体の指示位置を検出するので、指示体の指示位置を精度よく検出することができる。
本発明の構成によれば、操作画像データと背景画像データとに基づいて、指示体の指示位置を検出するので、指示体の指示位置を精度よく検出することができる。
図1は、本発明を適用した実施形態に係るプロジェクションシステム1の構成を示す図である。プロジェクションシステム1は、スクリーンSC(投射面)の上方に設置されたプロジェクター10(位置検出装置)と、スクリーンSCの上部に設置された光出射装置(光源部)60とを備える。
光出射装置60は、固体光源からなる光源部61(図2)を有し、光源部61が発する光(本実施形態では赤外光)をスクリーンSCに沿って拡散させて出射(照射)する。光出射装置60の出射範囲を図1に角度θで示す。光出射装置60はスクリーンSCの上端より上に設置され、下向きに角度θの範囲に光を出射し、この光はスクリーンSCに沿う光の層を形成する。本実施形態では角度θはほぼ180度に達し、スクリーンSCのほぼ全体に、光の層が形成される。スクリーンSCの表面と光の層とは近接していることが好ましく、本実施形態では、スクリーンSCの表面と光の層との距離は概ね10mm〜1mmの範囲内である。
指示操作に利用される指示体は、ペン型の指示体70を用いることができる。指示体70の先端部71は、押圧された場合に動作する操作スイッチ75(図2)を内蔵しているので、先端部71を壁やスクリーンSCに押しつける操作がされると操作スイッチ75がオンになる。指示体70は、ユーザーが棒状の軸部72を手に持って、先端部71をスクリーンSCに接触させるように操作され、先端部71をスクリーンSCに押しつける操作も行われる。先端部71には、赤外光を発する送受信部74(図2)を備える。プロジェクター10は、指示体70が発する赤外光に基づき、先端部71の位置を、指示位置として検出する。
光出射装置60が出射する光の層はスクリーンSCに近接しているので、指示体80において光が反射する位置は、スクリーンSCに最も近い先端、或いは指示位置と見なすことができる。このため、指示体80の反射光に基づき指示位置を特定できる。
さらに、指示位置を検出することによりポインティングデバイスとして動作し、スクリーンSCにプロジェクター10が画像を投射する画像投射領域における指示位置の座標を出力してもよい。また、この座標を用いてGUI(Graphical User Interface)操作を行ってもよい。
プロジェクター10は、外部の装置に接続されるインターフェイスとして、I/F(インターフェイス)部11及び画像I/F(インターフェイス)部12を備える。I/F部11及び画像I/F部12は有線接続用のコネクターを備え、上記コネクターに対応するインターフェイス回路を備えていてもよい。また、I/F部11及び画像I/F部12は、無線通信インターフェイスを備えていてもよい。有線接続用のコネクター及びインターフェイス回路としては有線LAN、IEEE1394、USB等に準拠したものが挙げられる。また、無線通信インターフェイスとしては無線LANやBluetooth(登録商標)等に準拠したものが挙げられる。画像I/F部12には、HDMI(登録商標)インターフェイス等の画像データ用のインターフェイスを用いることもできる。画像I/F部12は、音声データが入力されるインターフェイスを備えてもよい。
画像I/F部12は、デジタル画像データが入力されるインターフェイスである。本実施形態のプロジェクター10は、画像I/F部12を介して入力されるデジタル画像データに基づき画像を投射する。なお、プロジェクター10は、アナログ画像信号に基づき画像を投射する機能を備えてもよく、この場合、画像I/F部12は、アナログ画像用のインターフェイスと、アナログ画像信号をデジタル画像データに変換するA/D変換回路とを備えてもよい。
光変調装置22は、例えばRGBの三原色に対応した3枚の透過型液晶パネルを備え、この液晶パネルを透過する光を変調して画像光を生成する。光源部21からの光はRGBの3色の色光に分離され、各色光は対応する各液晶パネルに入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系23に射出される。
画像処理部40はフレームメモリー44に接続されている。画像処理部40は、画像入力I/F部12から入力される画像データをフレームメモリー44に展開して、展開した画像データに対し上記の各種処理を実行する。画像処理部40は、処理後の画像データをフレームメモリー44から読み出して、この画像データに対応するR、G、Bの画像信号を生成し、光変調装置駆動部46に出力する。
光変調装置駆動部46は、光変調装置22の液晶パネルに接続される。光変調装置駆動部46は、画像処理部40から入力される画像信号に基づいて液晶パネルを駆動し、各液晶パネルに画像を描画する。
リモコン受光部18は、プロジェクター10のユーザーが使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を受光する。リモコン受光部18は、上記リモコンから受光した赤外線信号をデコードして、上記リモコンにおける操作内容を示す操作データを生成し、制御部30に出力する。
操作パネル19は、プロジェクター10の外装筐体に設けられ、各種スイッチ及びインジケーターランプを有する。操作検出部17は、制御部30の制御に従い、プロジェクター10の動作状態や設定状態に応じて操作パネル19のインジケーターランプを適宜点灯及び消灯させる。この操作パネル19のスイッチが操作されると、操作されたスイッチに対応する操作データが操作検出部17から制御部30に出力される。
撮像部51は、指示体70、80の指示位置を検出するために、スクリーンSCとその周辺部(検出領域)を撮影範囲として撮影する。また、撮像部51は、撮像光学系、撮像素子、インターフェイス回路等を有し、投射光学系23の投射方向を撮影する。撮像部51の撮像光学系は、投射光学系23と略同じ方向を向いて配置され、投射光学系23がスクリーンSC上に画像を投射する範囲をカバーする画角を有する。また、撮像素子は、赤外領域及び可視光領域の光を受光するCCDやCMOSが挙げられる。撮像部51は、撮像素子に入射する光の一部を遮るフィルターを備えてもよく、例えば、赤外光を受光させる場合に、主に赤外領域の光を透過するフィルターを撮像素子の前に配置させてもよい。また、撮像部51のインターフェイス回路は、撮像素子の検出値を読み出して出力する。
指示体検出部54は、撮影制御部53が撮像部51によって赤外光の撮影を実行させた場合の撮影画像データから、指示体70が発した赤外光の像と、指示体80に反射した反射光の像との少なくとも一方を検出する。さらに、指示体検出部54は、検出した像を、指示体70が発した光の像であるか、指示体80の反射光の像であるか判別してもよい。
座標算出部55は、指示体検出部54が検出した像の位置に基づき、撮影画像データにおける指示体70、80の指示位置の座標を算出して、制御部30に出力する。座標算出部55は、また、投射部20が投射した投射画像における指示体70、80の指示位置の座標を算出して、制御部30に出力してもよい。さらに、座標算出部55は、画像処理部40がフレームメモリー44に描画した画像データにおける指示体70、80の指示位置の座標や、画像I/F部12の入力画像データにおける指示体70、80の指示位置の座標を、算出してもよい。
電源部76は、電源として乾電池又は二次電池を有し、制御部73、送受信部74及び操作スイッチ75の各部に電力を供給する。
指示体70は、電源部76からの電源供給をオン/オフする電源スイッチを備えていてもよい。
制御部30は、指示体70による位置指示操作を検出する場合に、指示体検出部54を制御して、送信部52から同期用の信号を送信させる。すなわち、指示体検出部54は、制御部30の制御に従って、送信部52の光源を所定の周期で点灯させる。送信部52が周期的に発する赤外光が、位置検出部50と指示体70とを同期させる同期信号として機能する。
一方、制御部73は、電源部76から電源の供給が開始され、所定の初期化動作を行った後、プロジェクター10の送信部52が発する赤外光を、送受信部74により受光する。送信部52が周期的に発する赤外光を送受信部74により受光すると、制御部73は、この赤外光のタイミングに同期させて、予め設定された点灯パターンで、送受信部74の光源を点灯(発光)させる。この点灯のパターンは、光源の点灯と消灯をデータのオンとオフに対応させて、指示体70に固有のデータを表す。制御部73は設定されたパターンの点灯時間及び消灯時間に従って光源を点灯及び消灯させる。制御部73は、電源部76から電源が供給されている間、上記のパターンを繰り返し実行する。
つまり、位置検出部50は指示体70に対し、同期用の赤外線信号を周期的に送信し、指示体70は、位置検出部50が送信する赤外線信号に同期して、予め設定された赤外線信号を送信する。
指示体70が点灯するパターンは、指示体70の個体毎に固有のパターン、又は複数の指示体70に共通のパターンと個体毎に固有のパターンとを含むものとすることができる。この場合、指示体検出部54は、撮影画像データに複数の指示体70が発する赤外光の像が含まれる場合に、各々の像を、異なる指示体70の像として区別できる。
プロジェクター10は、図1に示したように壁面や天井面から吊り下げる吊り下げ設置の他に、スクリーンSCの下方から投射を行う設置状態、机の天面などの水平面をスクリーンSCとして使用する設置状態等で使用できる。プロジェクター10の設置状態によっては光出射装置60の使用に適さないことがある。例えば、下方からスクリーンSCに投射を行う場合、ユーザーの体が光出射装置60の出射光を遮ってしまうことがあり、不適である。姿勢センサー47は、プロジェクター10の設置状態として想定される複数の設置状態を識別できるように、プロジェクター10の本体に設けられる。姿勢センサー47は、例えば、2軸のジャイロセンサー、1軸のジャイロセンサー、加速度センサー等を用いて構成される。制御部30は、姿勢センサー47の出力値に基づきプロジェクター10の設置状態を自動的に判定できる。制御部30が、光出射装置60の使用に不適な設置状態と判定した場合には、例えば、出射装置駆動部48が電源電圧やパルス信号の出力を停止する。
投射制御部31は、操作検出部17から入力される操作データに基づいて、ユーザーが行った操作の内容を取得する。投射制御部31は、ユーザーが行った操作に応じて画像処理部40、光源駆動部45及び光変調装置駆動部46を制御して、スクリーンSCに画像を投射させる。投射制御部31は、画像処理部40を制御して、上述した3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等を実行させる。また、投射制御部31は、画像処理部40の処理に合わせて光源駆動部45を制御し、光源部21の光量を制御する。
図4は、指示体70、80の指示位置を検出する様子を示す説明図であり、(A)は指示体70の指示位置を検出する様子を示し、(B)は指示体80の指示位置を検出する様子を示す。
図4(A)には撮像部51がスクリーンSCを撮影する撮影方向を符号PAで示す。指示体70の位置検出を行う場合、送受信部74は、指示体70の先端の発光位置70aから赤外光を出射する。発光位置70aは、指示体70がスクリーンSCに接する接触点70bに非常に近い。このため、撮影方向PAから撮影した撮影画像データから指示体70が発する光の像を検出する場合、この像の位置を、接触点70bの位置とみなすことができる。
図4(B)に示すように、反射位置80aは、撮影方向PAに対して斜めの方向に離れている。このため、撮影画像データに写る反射光の像の位置は、撮影方向PAにおいて、より離れた位置を指示体70で指示した場合の像と同じ位置になる。つまり、指示体80が接触点80bでスクリーンSCに接触した場合の反射光と、指示体70が接触点70bでスクリーンSCに接触した場合の光とが、撮像部51の撮影画像データでは同じ位置に写る。このため、指示体80が指し示す接触点80bは、撮影方向PAにおいて撮像部51から離れた接触点70bとして検出され、距離G2のずれを生じる。
具体的には、キャリブレーション制御部39が、指示体70の指示位置の検出に関するキャリブレーションを行うことにより、キャリブレーションデータを生成する。このキャリブレーションデータを使用すれば、例えば図4(A)に示すように、発光位置70aがスクリーンSCとの接触点70bに近い場合に、高精度で指示位置を検出できる。
補正データは、図4(B)の距離G1を定めるデータとすることができる。この場合、撮影画像データ上の座標又は投射画像上の座標ごとに、距離G1の大きさを示すデータを対応付けるテーブル形式、或いはマップデータとすることができる。また、撮影画像データ上の座標又は投射画像上の座標において予め設定された代表点について、距離G1の大きさを示すデータを対応付けるテーブル形式とすることができる。代表点から外れた座標の距離G1の大きさを求める必要がある場合は、補正対象の座標に近い代表点の距離G1を適用する方法や、補間演算により代表点の距離G1から補正対象の座標の距離G1を求める方法を利用できる。
また、例えば、補正データは、撮影画像データ上で検出された座標、又はキャリブレーションデータに基づき得られた投射画像上の座標をシフトさせるデータであってもよい。具体的には、座標のシフト量を定めるデータであってもよいし、座標を補正する関数であってもよい。また、補正データを、撮影画像データ上の座標又は投射画像上の座標ごとに異なるシフト量を実現するデータとすることもできる。この場合、補正対象の座標に、座標のシフト量を対応付けたテーブルとしてもよい。このテーブルは、撮影画像データ上の座標又は投射画像上の座標から選択される代表点にシフト量を対応付けてもよい。代表点以外の座標を補正する場合には、補正対象の座標に近い代表点のシフト量を適用する方法や、補間演算により代表点のシフト量から補正対象の座標のシフト量を求める方法を利用できる。
オートキャリブレーションは、スクリーンSCに、オートキャリブレーション用の画像を投射して、撮像部51で撮影し、撮影画像データを用いてキャリブレーションデータを生成する処理である。オートキャリブレーションは、プロジェクター10が自動的に実行可能な処理であり、ユーザーによる指示体70、80の操作を必要としない。オートキャリブレーションは、ユーザーがリモコンまたは操作パネル19で実行を指示した場合に限らず、制御部30が制御するタイミングで実行することもできる。例えば、プロジェクター10の電源オン直後等の動作開始時に行ってもよいし、後述する通常動作中に行ってもよい。オートキャリブレーションで投射されるオートキャリブレーション画像121は、予め記憶部110に記憶されている。
図6は、スクリーンSCに投射されたオートキャリブレーション画像121を撮像部51により撮影した撮影画像データの一例を示す。撮像部51の撮影画像データは、プロジェクター10を図1に示すように吊り下げ設置した場合に、スクリーンSCの斜め上方から撮影されるので、歪んだ画像となる。図5には、等間隔でマークが並ぶ矩形のオートキャリブレーション画像121を例示したが、図6の撮影画像データでは歪んだ形状の画像が写っており、この画像の内部に並ぶマークの間隔は、マークの位置によって異なっている。
キャリブレーション制御部39は、撮影画像におけるマークの座標値と、投射画像におけるマークの座標値とを対応付けることにより、テーブル形式または関数形式のオートキャリブレーションデータ123を作成する。オートキャリブレーション画像121のマークの投射画像における座標値は、予めオートキャリブレーション画像121とともに、或いはオートキャリブレーション画像121に含まれて記憶部110に記憶されている。キャリブレーション制御部39は、既にオートキャリブレーションデータ123が記憶されている場合、このオートキャリブレーションデータ123を更新する。
図8は、マニュアルキャリブレーション画像122の一例を示す。マニュアルキャリブレーション画像122は、ユーザーに指示体70で指示をさせるため、指示位置を示すマークを含む。図8のマニュアルキャリブレーション画像122は複数の指示用のマーク(○)が配置され、ユーザーは、マークの位置を指示体70で指示する。
ユーザーはスクリーンSCにマークが表示される毎に、新たに表示されたマークを指示体70で指示する。キャリブレーション制御部39はユーザーが操作を行う毎に、指示位置を検出する。そして、キャリブレーション制御部39は、撮影画像で検出した指示位置と、フレームメモリー44に描画された投射画像、すなわちマニュアルキャリブレーション画像122のマークとを対応付ける。キャリブレーション制御部39は、撮影画像データで検出した指示位置の座標値と、投射画像上のマークの座標値とを対応付けることにより、マニュアルキャリブレーションデータ124を作成する。
マニュアルキャリブレーションデータ124は、オートキャリブレーションデータ123と同様のデータ形式とすることも可能であるが、オートキャリブレーションデータ123を補正する補正データとすることができる。オートキャリブレーションデータ123は、撮影画像上の座標を投射画像上の座標に変換するデータである。これに対し、マニュアルキャリブレーションデータ124は、オートキャリブレーションデータ123を用いて変換された後の座標を、さらに補正するデータである。
マニュアル補正データ126は、図4(B)を参照して説明したように、指示体70の指示位置として検出した座標を、指示体80の指示位置の座標に補正するデータである。指示体80の指示位置の検出に関し、マニュアルキャリブレーションを行わない場合には、キャリブレーション制御部39は初期補正データ125を選択する。初期補正データ125は、図4(B)の距離G1を初期値にした場合の補正データであり、予め記憶部110に記憶される。光出射装置60の設置時には、スクリーンSCと検出光Lとの距離G1が、例えば10mm〜1mmとなるように調整され、実際にはスクリーンSCの面内で変化する。初期補正データ125は、距離G1の初期値を、例えば5mmに仮定した場合の補正データであり、初期補正データ125を使用すればマニュアルキャリブレーションを行わなくても指示体80の指示位置を検出できる。マニュアルキャリブレーションで作成されるマニュアル補正データ126を用いれば、距離G1の面内における差を反映した補正を行うことで、より高精度で指示体80の指示位置を検出できる。
つまり、検出制御部32は、位置検出部50の位置検出において、指示体70の指示位置を検出する場合には、オートキャリブレーションデータ123又はマニュアルキャリブレーションデータ124を用いて指示位置の座標を求める。指示体80の指示位置を検出する場合、検出制御部32は、オートキャリブレーションデータ123又はマニュアルキャリブレーションデータ124を用いて座標を求める処理で、初期補正データ125又はマニュアル補正データ126で補正を行う。言い換えれば、初期補正データ125及びマニュアル補正データ126は、指示体70の指示位置から指示体80の指示位置を求める差分のデータである。
続いて、キャリブレーション制御部39は、選択したオートキャリブレーション画像121を投射部20によりスクリーンSCに投射する(ステップS3)。オートキャリブレーション画像121がスクリーンSCに投射された状態で、ユーザーは、リモコン又は操作パネル19の操作により、オートキャリブレーション画像121がスクリーンSCの表示エリアに納まるように表示サイズや表示位置を調整してもよい。
キャリブレーション制御部39は、位置検出部50を制御して、撮像部51により撮影を実行させ(ステップS4)、撮像部51の撮影画像データを取得して、取得した撮影画像データに基づきオートキャリブレーションデータ123を作成する(ステップS5)。
図9は、背景画像作成処理の詳細を示すフローチャートである。
キャリブレーション制御部39は、マスク画像を作成する(ステップS111)。マスク画像は、撮像部51が撮影した撮影画像データから、スクリーンSCの表示エリアに相当する部分の画像データを切り出すための画像である。図10に、マスク画像の一例を示す。
キャリブレーション制御部39は、スクリーンSCの投射画像を撮影した撮影画像データから、スクリーンSCが写っている範囲を決定する。
図11に示す例では、オートキャリブレーション画像121の左側で、最も外側に位置するマーク列は、マーク列Tである。キャリブレーション制御部39は、マーク列Tに含まれる各マークの中心座標を、図7に例示したキャリブレーションデータ管理テーブルから取得する。キャリブレーション制御部39は、取得した各マークの中心座標にマージンとなる所定値を加算して、スクリーンSCの左端を決定する。マーク列Tは、オートキャリブレーション画像121の左側で、最も外側に位置するマーク列であるため、各マークのY座標値から、所定値を減算してスクリーンSC左端の座標値とする。例えば、図11に示すマーク列TのマークT3(X3、Y3)の場合、Y座標値Y3から所定値αを減算した座標T3’(X3、Y3−α)が、T3におけるスクリーンSCの左端となる。キャリブレーション制御部39は、スクリーンSCの上下左右それぞれの方向で、端部の座標値を求める。なお、マークが存在しない領域については、補間処理によって端部の座標値を求めてもよい。キャリブレーション制御部39は、求めた上下左右それぞれの方向の座標値を記憶部110に保存する。次に、キャリブレーション制御部39は、求めたスクリーンSCの範囲のデータを使用して、マスク画像を作成する。キャリブレーション制御部39は、スクリーンSCの範囲外の領域で、画素値が0になるように設定したマスク画像を生成する。キャリブレーション制御部39は、生成したマスク画像を位置検出部50の撮影画像データ処理部56に送る。
キャリブレーション制御部39は、第1背景画像データと第2背景画像データとを撮影すると、第2背景画像データから第1背景画像データを減算して、差分画像データを生成する(ステップS114)。なお、以下では、この差分画像データを光源ノイズデータと呼ぶ。キャリブレーション制御部39は、生成した光源ノイズデータを記憶部110に保存する。なお、第1背景画像データ及び第2背景画像データの撮影は、後述する通常動作中に行ってもよい。
ステップS7では、上述したステップS6の背景画像作成処理を実行する。図9のステップS111ではスクリーンSCにオートキャリブレーション画像121を投射して、マスク画像を作成するが、ステップS7においても同様である。
なお、図2に示す例では、位置検出部50がフレームメモリー58を備えている場合を例に説明した。位置検出部50がフレームメモリー58を備えていない簡易な構成の場合には、撮影画像データ処理部56は、第1位置検出画像データのうち、スクリーンSC領域の第1位置検出画像データだけを指示体検出部54に出力することで、マスク処理を行ってもよい。具体的には、撮影画像データ処理部56は、キャリブレーション制御部39から取得したマスク画像から、撮影画像データ上において、スクリーンSCに相当する領域の座標値を算出する。そして、撮影画像データ処理部56は、撮影制御部53から第1位置検出画像データを取得すると、算出した座標値に基づいて、スクリーンSCに相当する領域の第1位置検出画像データだけを指示体検出部54に出力する。
キャリブレーション制御部39は、図3に戻り、撮影画像データ上での指示座標と、対応するマークのオートキャリブレーション画像121上の座標とを対応付けて記憶部110に記憶させる(ステップS12)。
キャリブレーション制御部39は、リモコン又は操作パネル19の操作を検出し、マニュアルキャリブレーションを実行するか否かを判定する(ステップS16)。
通常動作とは、画像I/F部12に入力される入力画像に基づき、スクリーンSCに画像を投射し、指示体70、80により指示された指示位置を特定して、指示内容に応じた処理を行う動作である。
続いて、キャリブレーション制御部39は、選択したマニュアルキャリブレーション画像122を投射部20によりスクリーンSCに投射する(ステップS20)。ここで、ユーザーにより、指示体80を用いた操作が行われ(ステップS21)、キャリブレーション制御部39は、指示体80の指示位置を検出する指示位置検出処理を実行する(ステップS22)。このステップS22の指示位置検出処理は、上述したステップS11の指示位置検出処理と同様の処理であり、図14のように実行される。
この構成では、キャリブレーション制御部39がオートキャリブレーションまたはマニュアルキャリブレーションのいずれかを実行すれば、指示体70の指示位置の座標を求めることが可能となる。従って、図3の動作において、オートキャリブレーションデータ123が記憶されていない状態で、ステップS1でマニュアルキャリブレーションを選択することが可能となる。
また、指示体70には、指示体70を識別するIDが設定されており、第3フェーズにおいて指示体70は、設定されたIDに従って点灯する。指示体70を複数使用する場合も、指示体70ごとにIDを設定し、各指示体70は、設定されたIDに従って点灯する。例えば、指示体70のIDとして「1000」が割り当てられており、「1」で指示体70を点灯させ、「0」で指示体70を消灯させる設定であるとする。この場合、指示体70は、最初の第3フェーズにおいて点灯し、その後の2回目〜4回目の第3フェーズにおいては消灯する。従って、複数の指示体70を使用して指示操作を行う場合であっても、プロジェクター10は、各指示体70の指示位置を検出することができる。
なお、プロジェクター10は、例えば、第1フェーズ、第2フェーズ、第4フェーズにおいて、撮像部51により撮影範囲の撮影を行い、第1及び第2背景画像データを更新していくとよい。指示体検出部54は、送信部52により、同期用の赤外線信号を周期的に送信している。また、指示体検出部54は、制御部30からの通知により、出射装置駆動部48によって光出射装置60が点灯するタイミングを認識している。指示体検出部54は、光出射装置60の光源部61が発光するタイミングと、指示体70の発光タイミングとに基づいて、背景画像データの撮影を撮影制御部53に指示する。例えば、第1フェーズにおいて、指示体検出部54は、送信部52から同期用の赤外線信号を送信した後に、撮像部51により撮影範囲を撮影させる。撮影される撮影画像データは、指示体70及び光出射装置60の光源部61が点灯していない画像データであるため、第1背景画像データとして使用することができる。また、第2フェーズと第4フェーズとの少なくとも一方において、指示体検出部54は、指示体70の点灯が終了した後、光出射装置60の光源部61が点灯している間に、撮像部51により撮影範囲を撮影させる。撮影された撮影画像データは、指示体70が消灯し、光出射装置60の光源部61が点灯している画像データである。このため、第2背景画像データとして使用することができる。このように通常動作中においても第1及び第2背景画像データを撮影して更新することで、指示体70、80による指示座標の検出精度を高めることができる。
また、上記実施形態及び変形例では、光出射装置60はプロジェクター10の本体とは別体で構成され、ケーブル60aで接続される構成を例示したが、本発明はこれに限定されない。例えば、光出射装置60をプロジェクター10の本体に一体に取り付けることも、プロジェクター10の本体に内蔵する構成としてもよい。また、光出射装置60が外部から電源の供給を受け、出射装置駆動部48との間で無線通信回線により接続されてもよい。
また、上記実施形態では、プロジェクター10から指示体70に対し、送信部52が発する赤外線信号を用いて指示体70に同期用の信号を送信する構成を説明したが、同期用の信号は赤外線信号に限定されない。例えば、電波通信や超音波無線通信により同期用の信号を送信する構成としてもよい。この構成は、電波通信や超音波無線通信により信号を送信する送信部をプロジェクター10に設け、同様の受信部を指示体70に設けることで実現できる。
上記実施形態では、ユーザーが、フロントプロジェクション型のプロジェクター10が画像を投射(表示)するスクリーンSC(投射面、表示面)に対して、指示体70、80による指示操作を行う態様について説明したが、ユーザーが、プロジェクター10以外の表示装置(表示部)が画像を表示する表示画面(表示面)に対して指示操作を行う態様であってもよい。この場合にも、光出射装置60や撮像部51は、表示装置と一体的に構成されてもよいし、表示装置とは別体で構成されてもよい。プロジェクター10以外の表示装置としては、リアプロジェクション(背面投射)型のプロジェクター、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、プラズマディスプレイ、CRT(陰極線管)ディスプレイ、SED(Surface-conduction Electron-emitter Display)等を用いることができる。
Claims (9)
- 指示体の指示位置を検出する検出領域を撮影する撮影部と、
前記検出領域に検出光を出射する光源部と、
前記検出領域において前記指示体による指示操作がなされているときに前記撮影部で撮影された操作画像データと、前記指示体による前記指示操作がなされていないときに前記撮影部で撮影された背景画像データとに基づいて、前記指示体の指示位置を検出する位置検出部と、を備え、
前記位置検出部は、前記光源部が前記検出光を出射していないときに前記検出領域を撮影した第1撮影画像データを前記背景画像データとして使用し、
前記指示体が発する光と、前記光源部が出射した前記検出光が前記指示体で反射した光との少なくとも一方に基づいて前記指示体の指示位置を検出し、前記光源部が前記検出光を出射するタイミングと、前記指示体の発光タイミングとに基づいて、前記背景画像データの撮影を前記撮影部に指示することを特徴とする位置検出装置。 - 指示体の指示位置を検出する検出領域を撮影する撮影部と、
前記検出領域に検出光を出射する光源部と、
前記検出領域において前記指示体の指示位置を検出する位置検出部と、を備え、
前記位置検出部は、前記検出領域において前記指示体による指示操作がなされているときに前記撮影部に撮影を実行させて操作画像データを生成し、
前記指示体による前記指示操作がなされておらず、前記光源部が前記検出光を出射していないときに前記検出領域を撮影した第1撮影画像データと、前記指示体による指示操作がなされておらず、前記光源部が前記検出光を出射しているときに前記検出領域を撮影した第2撮影画像データとの差分画像データと、前記第1撮影画像データとを背景画像データとして用いて、前記操作画像データから前記指示体の指示位置を検出し、
前記指示体が発する光と、前記光源部が出射した前記検出光が前記指示体で反射した光との少なくとも一方に基づいて前記指示体の指示位置を検出し、前記光源部が前記検出光を出射するタイミングと、前記指示体の発光タイミングとに基づいて、前記背景画像データの撮影を前記撮影部に指示することを特徴とする位置検出装置。 - 前記第1撮影画像データ及び前記第2撮影画像データを記憶する記憶部を備え、
前記位置検出部は、前記指示体が発する光に基づいて前記指示体の指示位置を検出し、前記指示体の発光を所定時間検出できない場合に、前記光源部に前記検出光の出射を指示せずに前記撮影部に撮影を指示して前記第1撮影画像データを生成させ、前記光源部に前記検出光の出射を指示すると共に、前記撮影部に撮影を指示して前記第2撮影画像データを生成させ、生成された前記第1撮影画像データ及び前記第2撮影画像データを前記記憶部に記憶させ、前記記憶部が記憶する前記第1撮影画像データ及び前記第2撮影画像データを更新することを特徴とする請求項2に記載の位置検出装置。 - 前記撮影部により前記背景画像データを撮影する場合に、前記指示体による指示操作をしないように案内する報知制御部をさらに備えることを特徴とする請求項1から3のいずれか1項に記載の位置検出装置。
- 請求項1から4のいずれか1項に記載の位置検出装置を備えることを特徴とするプロジェクター。
- 指示体の指示位置を検出する検出領域に検出光を出射する光出射装置と、前記検出領域での指示体の指示位置を検出する位置検出装置と、を備え、
前記位置検出装置は、
前記検出領域を撮影する撮影部と、
前記検出領域に検出光を出射する光源部と、
前記検出領域において前記指示体による指示操作がなされているときに前記撮影部で撮影された操作画像データと、前記指示体による前記指示操作がなされていないときに前記撮影部で撮影された背景画像データとに基づいて、前記指示体の指示位置を検出する位置検出部と、を備え、
前記位置検出部は、前記光源部が前記検出光を出射していないときに前記検出領域を撮影した第1撮影画像データを前記背景画像データとして使用し、
前記指示体が発する光と、前記光源部が出射した前記検出光が前記指示体で反射した光との少なくとも一方に基づいて前記指示体の指示位置を検出し、前記光源部が前記検出光を出射するタイミングと、前記指示体の発光タイミングとに基づいて、前記背景画像データの撮影を前記撮影部に指示することを特徴とする位置検出システム。 - 指示体の指示位置を検出する検出領域に検出光を出射する光出射装置と、前記検出領域での指示体の指示位置を検出する位置検出装置と、を備え、
前記位置検出装置は、
前記検出領域を撮影する撮影部と、
前記検出領域に検出光を出射する光源部と、
前記検出領域において前記指示体の指示位置を検出する位置検出部と、を備え、
前記位置検出部は、前記検出領域において前記指示体による指示操作がなされているときに前記撮影部に撮影を実行させて操作画像データを生成し、
前記指示体による前記指示操作がなされておらず、前記光源部が前記検出光を出射していないときに前記検出領域を撮影した第1撮影画像データと、前記指示体による指示操作がなされておらず、前記光源部が前記検出光を出射しているときに前記検出領域を撮影した第2撮影画像データとの差分画像データと、前記第1撮影画像データとを背景画像データとして用いて、前記操作画像データから前記指示体の指示位置を検出し、
前記指示体が発する光と、前記光源部が出射した前記検出光が前記指示体で反射した光との少なくとも一方に基づいて前記指示体の指示位置を検出し、前記光源部が前記検出光を出射するタイミングと、前記指示体の発光タイミングとに基づいて、前記背景画像データの撮影を前記撮影部に指示することを特徴とする位置検出システム。 - 指示体の指示位置を検出する検出領域に光源部が発する検出光を出射するステップと、
前記光源部が前記検出光を出射するタイミングと、前記指示体の発光タイミングとに基づいて撮影部に撮影を指示し、前記検出領域を前記撮影部により撮影するステップと、
前記撮影部により撮影された撮影画像データに基づいて前記指示体の指示位置を検出するステップと、を有し、
前記撮影するステップは、前記検出領域において前記指示体による指示操作がなされているときに前記撮影部に撮影を実行させて操作画像データを生成し、
前記指示位置を検出するステップは、前記指示体による前記指示操作がなされておらず、前記光源部が前記検出光を出射していないときに前記検出領域を撮影した第1撮影画像データを背景画像データとして用いて、前記操作画像データから前記指示体の指示位置を検出するステップであり、
前記指示体が発する光と、前記光源部が出射した前記検出光が前記指示体で反射した光との少なくとも一方に基づいて前記指示体の指示位置を検出することを特徴とする位置検出装置の制御方法。 - 指示体の指示位置を検出する検出領域に光源部が発する検出光を出射するステップと、
前記光源部が前記検出光を出射するタイミングと、前記指示体の発光タイミングとに基づいて撮影部に撮影を指示し、前記検出領域を前記撮影部により撮影するステップと、
前記撮影部により撮影された撮影画像データに基づいて前記指示体の指示位置を検出するステップと、を有し、
前記撮影するステップは、前記検出領域において前記指示体による指示操作がなされているときに前記撮影部に撮影を実行させて操作画像データを生成し、
前記指示位置を検出するステップは、前記指示体による前記指示操作がなされておらず、前記光源部が前記検出光を出射していないときに前記検出領域を撮影した第1撮影画像データと、前記指示体による前記指示操作がなされておらず、前記光源部が前記検出光を出射しているときに前記検出領域を撮影した第2撮影画像データとの差分画像データと、前記第1撮影画像データとを背景画像データとして用いて、前記操作画像データから前記指示体の指示位置を検出するステップであり、
前記指示体が発する光と、前記光源部が出射した前記検出光が前記指示体で反射した光との少なくとも一方に基づいて前記指示体の指示位置を検出することを特徴とする位置検出装置の制御方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014062100A JP6375660B2 (ja) | 2014-01-21 | 2014-03-25 | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 |
US14/598,609 US9766335B2 (en) | 2014-01-21 | 2015-01-16 | Position detection apparatus, projector, position detection system, and control method of position detection apparatus |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014008625 | 2014-01-21 | ||
JP2014008625 | 2014-01-21 | ||
JP2014062100A JP6375660B2 (ja) | 2014-01-21 | 2014-03-25 | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015158885A JP2015158885A (ja) | 2015-09-03 |
JP2015158885A5 JP2015158885A5 (ja) | 2017-04-27 |
JP6375660B2 true JP6375660B2 (ja) | 2018-08-22 |
Family
ID=53544592
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014062100A Expired - Fee Related JP6375660B2 (ja) | 2014-01-21 | 2014-03-25 | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9766335B2 (ja) |
JP (1) | JP6375660B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6413236B2 (ja) * | 2013-12-20 | 2018-10-31 | セイコーエプソン株式会社 | プロジェクター、プロジェクションシステム、及び、プロジェクターの制御方法 |
JP6398248B2 (ja) * | 2014-01-21 | 2018-10-03 | セイコーエプソン株式会社 | 位置検出システム、及び、位置検出システムの制御方法 |
JP6349838B2 (ja) * | 2014-01-21 | 2018-07-04 | セイコーエプソン株式会社 | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 |
EP3149856B1 (en) * | 2014-05-29 | 2020-09-09 | Micro Motion, Inc. | Adaptive reflected light touch sensor |
KR101820905B1 (ko) * | 2016-12-16 | 2018-01-22 | 씨제이씨지브이 주식회사 | 촬영장치에 의해 촬영된 이미지 기반의 투사영역 자동보정 방법 및 이를 위한 시스템 |
JP2020144413A (ja) * | 2019-03-04 | 2020-09-10 | セイコーエプソン株式会社 | 表示方法および表示装置 |
JP7532839B2 (ja) * | 2020-03-24 | 2024-08-14 | セイコーエプソン株式会社 | 表示装置の制御方法、情報処理装置および表示システム |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2770317B1 (fr) * | 1997-10-24 | 2000-12-08 | Commissariat Energie Atomique | Procede d'etalonnage de la position et de l'orientation d'origine d'une ou plusieurs cameras mobiles et son application a la mesure de position tridimentionnelle d'objets fixes |
US6512507B1 (en) * | 1998-03-31 | 2003-01-28 | Seiko Epson Corporation | Pointing position detection device, presentation system, and method, and computer-readable medium |
JP3814106B2 (ja) * | 1999-07-27 | 2006-08-23 | 株式会社リコー | 座標検出装置 |
WO2004081783A1 (ja) * | 2003-03-14 | 2004-09-23 | Fujitsu Limited | ポインタ領域検出装置、方法及びプログラム、画像の対応付け装置、方法及びプログラム、並びにコンテンツ配信サーバ、コンテンツ配信方法 |
JP4037822B2 (ja) * | 2003-12-05 | 2008-01-23 | Necディスプレイソリューションズ株式会社 | 電子ペンの位置検出方法/電子ペン/プロジェクタ/電子黒板システム |
JP2005173684A (ja) * | 2003-12-08 | 2005-06-30 | Canon Inc | 光学式座標入力装置 |
JP2005236421A (ja) * | 2004-02-17 | 2005-09-02 | Aruze Corp | 画像表示システム |
US8406562B2 (en) * | 2006-08-11 | 2013-03-26 | Geo Semiconductor Inc. | System and method for automated calibration and correction of display geometry and color |
US9058764B1 (en) * | 2007-11-30 | 2015-06-16 | Sprint Communications Company L.P. | Markers to implement augmented reality |
US8392507B2 (en) * | 2009-07-21 | 2013-03-05 | Honeywell International Inc. | Image validation system for remote displays |
JP2011065409A (ja) | 2009-09-17 | 2011-03-31 | Seiko Epson Corp | 光学式位置検出装置および位置検出機能付き表示装置 |
JP5771981B2 (ja) * | 2010-03-15 | 2015-09-02 | 株式会社リコー | 描画画像共有装置、データ処理方法、プログラムおよび記録媒体 |
WO2011149092A1 (ja) * | 2010-05-27 | 2011-12-01 | 京セラ株式会社 | 携帯電子機器及び画像投影ユニット |
JP5849560B2 (ja) * | 2011-09-20 | 2016-01-27 | セイコーエプソン株式会社 | 表示装置、プロジェクター、及び、表示方法 |
JP6064319B2 (ja) * | 2011-12-27 | 2017-01-25 | セイコーエプソン株式会社 | プロジェクター、及び、プロジェクターの制御方法 |
US9134814B2 (en) * | 2012-04-05 | 2015-09-15 | Seiko Epson Corporation | Input device, display system and input method |
AU2013368082B9 (en) * | 2012-12-27 | 2018-11-29 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US9088360B2 (en) * | 2012-12-27 | 2015-07-21 | Panasonic Intellectual Property Corporation Of America | Information communication method |
JP6048189B2 (ja) * | 2013-02-08 | 2016-12-21 | 株式会社リコー | 投影システム、画像生成プログラム、情報処理装置及び画像生成方法 |
-
2014
- 2014-03-25 JP JP2014062100A patent/JP6375660B2/ja not_active Expired - Fee Related
-
2015
- 2015-01-16 US US14/598,609 patent/US9766335B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20150204979A1 (en) | 2015-07-23 |
US9766335B2 (en) | 2017-09-19 |
JP2015158885A (ja) | 2015-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6398248B2 (ja) | 位置検出システム、及び、位置検出システムの制御方法 | |
JP6326895B2 (ja) | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 | |
JP6417690B2 (ja) | プロジェクター、表示装置、及び、プロジェクターの制御方法 | |
JP6349838B2 (ja) | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 | |
JP6375660B2 (ja) | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 | |
JP6413236B2 (ja) | プロジェクター、プロジェクションシステム、及び、プロジェクターの制御方法 | |
JP6387644B2 (ja) | 位置検出装置、位置検出システム、及び、位置検出方法 | |
JP6562124B2 (ja) | 位置検出システム、及び、位置検出システムの制御方法 | |
JP2015166893A (ja) | 位置検出装置、及び、位置検出装置の制御方法 | |
CN104898894B (zh) | 位置检测装置以及位置检测方法 | |
JP6569259B2 (ja) | 位置検出装置、表示装置、位置検出方法、及び、表示方法 | |
JP6340860B2 (ja) | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 | |
JP6291911B2 (ja) | 位置検出装置、及び、位置検出方法 | |
JP6337558B2 (ja) | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 | |
JP6291912B2 (ja) | 位置検出装置、及び、位置検出方法 | |
JP6287432B2 (ja) | 操作デバイス、位置検出システム、及び、操作デバイスの制御方法 | |
US11778152B2 (en) | Method of controlling projector and projector |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170322 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170322 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180123 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180626 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180709 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6375660 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |