JP6350175B2 - 位置検出装置、プロジェクター、及び、位置検出方法 - Google Patents
位置検出装置、プロジェクター、及び、位置検出方法 Download PDFInfo
- Publication number
- JP6350175B2 JP6350175B2 JP2014196496A JP2014196496A JP6350175B2 JP 6350175 B2 JP6350175 B2 JP 6350175B2 JP 2014196496 A JP2014196496 A JP 2014196496A JP 2014196496 A JP2014196496 A JP 2014196496A JP 6350175 B2 JP6350175 B2 JP 6350175B2
- Authority
- JP
- Japan
- Prior art keywords
- indicator
- unit
- screen
- control unit
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
- Projection Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は上記課題に鑑みてなされたものであり、操作者の意図しない操作を入力として検出しないようにすることができる位置検出装置、プロジェクター、及び、位置検出方法を提供することを目的とする。
本発明によれば、入力として検出すべき操作を判定することで、操作者の意図しない操作を入力として検出することを防止できる。
本発明によれば、指示体の位置又は動きを操作として検出させることができる。
本発明によれば、指示体及び対象物の操作面との距離により、指示体の位置または動きを入力として検出するかどうかを適切に判定できる。また、操作者は、指示体及び対象物の操作面との距離により、指示体の位置又は動きを検出するのか、対象物の位置又は動きを検出するのかを切り替えることができる。
本発明によれば、指示体の操作面との距離が、対象物と操作面との距離よりも離れている場合に、指示体の位置又は動きを入力として検出しないようにすることができる。
本発明によれば、操作面との距離が、指示体と操作面との距離よりも近い複数の対象物の位置又は動きを操作として検出できる。従って、複数の対象物による操作が可能となる。
本発明によれば、複数の対象物間の距離の変化を、操作面に対する対象物の動きによる入力として検出できる。
本発明によれば、それぞれの対象物の操作面に対する相対位置の経時変化を求めて、複数の対象物間の距離の変化を検出できる。
本発明によれば、指示体を把持した操作者の手指によって操作することが可能となる。
本発明によれば、対象物による操作を操作者ごとに検出できる。
本発明によれば、入力として検出すべき操作を判定することで、操作者の意図しない操作を入力として検出することを防止できる。
本発明によれば、入力として検出すべき操作を判定することで、操作者の意図しない操作を入力として検出することを防止できる。
プロジェクター100は、スクリーンSC(操作面)の直上又は斜め上方に設置され、斜め下方のスクリーンSCに向けて画像を投射する。スクリーンSCは、壁面に固定され、又は床面に立設された平板又は幕である。本発明は、この例に限定されず、壁面をスクリーンSCとして使用することも可能である。この場合、スクリーンSCとして使用される壁面の上部にプロジェクター100を取り付けるとよい。
プロジェクター100は、指示体70が発する赤外光に基づき、先端部71の位置を、指示位置として検出する。また、プロジェクター100は、指示体70が発する赤外光の点灯パターンに基づいて、指示体70が壁やスクリーンSCに押しつけられているか否かを判定する。
さらに、プロジェクター100は、指示位置を検出することによりポインティングデバイスとして動作し、スクリーンSC上の指示位置の座標を出力してもよい。また、この座標を用いて、プロジェクター100に対してGUI(Graphical User Interface)操作を行うこともできる。
プロジェクター100は、外部の装置に接続されるインターフェイスとして、I/F(インターフェイス)部11及び画像I/F(インターフェイス)部12を備える。I/F部11及び画像I/F部12は有線接続用のコネクターを備え、上記コネクターに対応するインターフェイス回路を備えていてもよい。また、I/F部11及び画像I/F部12は、無線通信インターフェイスを備えていてもよい。有線接続用のコネクター及びインターフェイス回路としては有線LAN、IEEE1394、USB等に準拠したものが挙げられる。また、無線通信インターフェイスとしては無線LANやBluetooth(登録商標)等に準拠したものが挙げられる。画像I/F部12には、HDMI(登録商標)インターフェイス等の画像データ用のインターフェイスを用いることもできる。画像I/F部12は、音声データが入力されるインターフェイスを備えてもよい。
画像I/F部12は、デジタル画像データが入力されるインターフェイスである。本実施形態のプロジェクター100は、画像I/F部12を介して入力されるデジタル画像データに基づき画像を投射する。なお、プロジェクター100は、アナログ画像信号に基づき画像を投射する機能を備えていてもよく、この場合、画像I/F部12は、アナログ画像用のインターフェイスと、アナログ画像信号をデジタル画像データに変換するA/D変換回路とを備えてもよい。
画像処理部40は、フレームメモリー41に接続されている。画像処理部40は、画像I/F部12から入力される画像データをフレームメモリー41に展開して、展開した画像データに対し上記の各種処理を実行する。画像処理部40は、処理後の画像データをフレームメモリー41から読み出して、この画像データに対応するR、G、Bの画像信号を生成し、光変調装置駆動部46に出力する。
光変調装置駆動部46は、光変調装置22の液晶パネルに接続される。光変調装置駆動部46は、画像処理部40から入力される画像信号に基づいて液晶パネルを駆動し、各液晶パネルに画像を描画する。
リモコン受光部18は、プロジェクター100のユーザーが使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を受光する。リモコン受光部18は、上記リモコンから受光した赤外線信号をデコードして、上記リモコンにおける操作内容を示す操作データを生成し、制御部30に出力する。
操作パネル19は、プロジェクター100の外装筐体に設けられ、各種スイッチ及びインジケーターランプを有する。操作検出部17は、制御部30の制御に従い、プロジェクター100の動作状態や設定状態に応じて操作パネル19のインジケーターランプを適宜点灯及び消灯させる。この操作パネル19のスイッチが操作されると、操作されたスイッチに対応する操作データが操作検出部17から制御部30に出力される。
撮影部51は、赤外光による撮影と、可視光による撮影とを、それぞれ実行できる。具体的には、赤外光を撮影する赤外用撮像素子、可視光を撮影する可視光用撮像素子、赤外用撮像素子のインターフェイス回路、及び、可視光用撮像素子のインターフェイス回路を備えた構成とすることができる。また、1つの撮像素子により可視光と赤外光との撮影を行う構成であってもよい。また、例えば、撮影部51に、撮像素子に入射する光の一部を遮るフィルターを設け、撮像素子に赤外光を受光させる場合に、主に赤外領域の光を透過するフィルターを撮像素子の前に配置させてもよい。撮像素子は限定されず、CCD、CMOSのいずれであってもよいし、他の素子を用いてもよい。
撮影部51が可視光で撮影した撮影画像には、スクリーンSC、スクリーンSCに投射された投射画像、及び、撮影範囲内に存在するユーザーが写る。また、撮影部51が赤外光で撮影する撮影画像には、指示体70が発する赤外光の像が写る。
物体検出部551は、人物領域を検出すると、検出した人物領域に基づいて、ユーザーの位置を特定する。例えば、物体検出部551は、撮影画像のデータの水平方向における、人物領域の中心座標をユーザーの位置を示す位置情報として算出する。物体検出部551は、撮影画像のデータから人物領域を複数検出した場合には、ユーザーの位置を示す位置情報も、人物領域に応じて複数検出する。
また、物体検出部551は、検出した人物領域に基づいて、ユーザーの身体の部位(例えば、頭部、肩、手、足等)を認識し、ユーザーの姿勢を検出する。ユーザーの姿勢とは、例えば、立位、座位、しゃがんだ状態、腕組みした状態などの体勢を指すが、スクリーンSC側を向いているかスクリーンと反対側を向いているか等の身体の向きを含んでもよい。物体検出部551は、検出したユーザーの姿勢に基づいて、ユーザーがスクリーンSCに対する指示操作を行い得る姿勢にあるか否かを判定する。物体検出部551は、例えば、ユーザーの姿勢が両腕を組んだ姿勢であると判定した場合、ユーザーがスクリーンSCに対する操作を行い得る姿勢にないと判定する。ユーザーがスクリーンSCに対する操作を行い得る姿勢にないと判定した場合、物体検出部551は、このユーザーが検出された人物領域に対する指示体80の検出等処理を中止してもよい。
また、物体検出部551は、検出した指示体80が指し示すスクリーンSCの指示位置の座標を算出する。物体検出部551は、検出した指示体80の領域から手指の先端(指先)を特定し、特定した手指の先端の位置を指示位置として検出する。物体検出部551は、指示体80の指示位置の座標を、撮影画像のデータにおける座標で算出する。また、物体検出部551は、検出した指示位置の座標から、スクリーンSCの表示画像上に仮想的に設けられた座標軸における座標を算出する。撮影画像のデータにおける座標は、プロジェクター100とスクリーンSCとの距離、投射光学系23におけるズーム率、プロジェクター100の設置角度、撮影部51とスクリーンSCとの距離等の様々な要素の影響を受ける。物体検出部551は、事前に実施されるキャリブレーションの結果に基づき、撮影画像のデータにおける指示位置の座標から、スクリーンSCの表示画像における指示位置の座標を算出する。キャリブレーションでは、所定のパターン画像を投射部20からスクリーンSCに投射して、表示されたパターン画像を撮影部51で撮影する。撮影部51の撮影したパターン画像に基づいて、撮影画像のデータにおける座標と、スクリーンSCの表示画像上の座標との対応関係(座標変換パラメーター)が導かれる。
また、物体検出部551は、撮影画像のデータから複数の人物領域を検出した場合には、各人物領域について、指示体80と、指示体80の指示位置の座標とを検出し、検出した指示体80とスクリーンSCとの距離を算出する。
物体検出部551は、指示体70の指示位置の座標を検出すると、キャリブレーションの結果に基づいて、撮影画像のデータにおける指示位置の座標から、スクリーンSCの表示画像における指示位置の座標を算出する。また、物体検出部551は、指示体70の先端がスクリーンSCに接しているか否かを判定する。指示体70の先端がスクリーンSCに接しているか否かの判定方法についても後述する。
物体検出部551は、指示体70とユーザーの位置情報とを対応付けると、指示体70の指示位置の座標と、タッチ情報とを、対応付けたユーザーの位置情報と共に制御部30に出力する。タッチ情報とは、指示体70がスクリーンSCに接触しているか否かを示す情報である。
制御部30は、動き検出部552から入力される指示体70、80の指示位置の軌跡データを、該当するユーザーの位置情報に対応付けて記憶部60に記憶させる。また、制御部30は、指示体70、80の指示位置の軌跡データに基づいて、指示体70、80による指示操作を検出する。
電源部76は、電源として乾電池又は二次電池を有し、制御部73、送受信部74及び操作スイッチ75の各部に電力を供給する。指示体70は、電源部76からの電源供給をオン/オフする電源スイッチを備えていてもよい。
制御部30は、指示体70による操作を検出する場合に、撮影制御部52を制御して、送信部53から同期用の信号を送信させる。すなわち、撮影制御部52は、制御部30の制御に従って、送信部53の光源を所定の周期で点灯させる。送信部53が周期的に発する赤外光が、位置検出部50と指示体70とを同期させる同期信号として機能する。
一方、制御部73は、電源部76から電源の供給が開始され、所定の初期化動作を行った後、プロジェクター100の送信部53が発する赤外光を、送受信部74により受光する。送信部53が周期的に発する赤外光を送受信部74により受光すると、制御部73は、この赤外光のタイミングに同期させて、予め設定された指示体70に固有の点灯パターンで、送受信部74の光源を点灯(発光)させる。また、制御部73は、操作スイッチ75の操作状態に応じて、送受信部74の点灯パターンを切り替える。このため、プロジェクター100の物体検出部551は、複数の撮影画像のデータに基づいて、指示体70の操作状態、すなわち先端部71がスクリーンSCに押しつけられているか否かを判定できる。
また、制御部73は、電源部76から電源が供給されている間、上記のパターンを繰り返し実行する。つまり、送信部53は、指示体70に対し、同期用の赤外線信号を周期的に送信し、指示体70は、送信部53が送信する赤外線信号に同期して、予め設定された赤外線信号を送信する。
指示体70の点灯パターンは、指示体70の個体毎に固有のパターン、又は複数の指示体70に共通のパターンと個体毎に固有のパターンとを含むものとすることができる。この場合、撮影制御部52は、撮影画像のデータに複数の指示体70が発する赤外光の像が含まれる場合に、各々の像を、異なる指示体70の像として区別できる。
また、投射制御部31は、画像処理部40を制御して、上述した3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等を実行させる。また、投射制御部31は、画像処理部40の処理に合わせて光源駆動部45を制御し、光源部21の光量を制御する。
判定部32は、入力された指示体70のスクリーンSCとの距離と、指示体80のスクリーンSCとの距離とを比較して、指示体70の指示位置又は動きを、指示操作として検出するか否かを判定する。判定部32は、指示体70とスクリーンSCとの距離が、指示体80とスクリーンSCとの距離よりも離れている場合に、指示体70を、指示操作の検出対象から除外する。すなわち、判定部32は、指示体70、80のうちスクリーンSCにより近い側を、スクリーンSCに対する指示操作の検出候補として選択する。
また、判定部32は、指示操作の検出候補として選択した指示体80であって、指示体80とスクリーンSCとの距離が所定距離以内である場合に、この指示体80を、指示操作を検出する指示体として選択する。物体検出部551により検出された指示体であっても、スクリーンSCとの距離が所定距離以内にない指示体の指示操作は検出しないようにする。
なお、指示体70、80がスクリーンSCに接しているか否かを判定して、スクリーンSCに対する指示操作を検出する指示体を選択するものであってもよい。例えば、判定部32は、指示体80がスクリーンSCに接し、指示体70がスクリーンSCに接していないと判定する場合、指示体80は、指示体70よりもスクリーンSCに近い位置にあると判定できる。また、指示体80はスクリーンSCに接しているため、判定部32は、スクリーンSCとの距離が所定距離以内にあると判定できる。
判定部32は、スクリーンSCに対する指示体80の動きと、スクリーンSCに対する指示体70の位置とを検出することにより、指示体70を、指示操作の検出対象とするか否かを判定する。判定部32により、指示体70とスクリーンSCとの距離が、スクリーンSCと指示体80との距離よりも離れると判定される場合、「スクリーンSCに対する指示体70の位置」の条件が満たされる。
また、指示体80の軌跡データに基づいて、指示体80がスクリーンSCの一定位置(指示位置)から所定時間動かないと判定部32により判定される場合、「スクリーンSCに対する指示体80の動き」の条件が満たされる。例えば、図3に示すように、指示体70を把持した手の指でスクリーンSCをタッチしている場合、指示体80としての手の指が、指示体70よりもスクリーンSCに近い。この場合、判定部32は、指示体80がスクリーンSCの一定位置から所定時間以上動かなければ、軌跡データに基づく指示体80の動きを、スクリーンSCに対する位置の指示操作と判定する。この場合、判定部32は、例えば、指示体80により指示された指示位置の座標に、指示体80による指示であることを示す識別データと、描画した図形や配置した文字又は記号を消去する消去コマンドとを付加して検出制御部33に出力する。
判定部32は、動き検出部552により検出される、複数の指示体80それぞれの軌跡データに基づいて、指示体80間の距離の変化を判定する。例えば、図4に示すように指示体80間の距離が時間経過とともに広がる場合、判定部32は、これらの指示体80の動きは、スクリーンSCに対する指示操作であると判定する。この場合、判定部32は、これらの指示体80の動きを、スクリーンSCに表示される表示画像を拡大させる指示操作と判定する。この場合、判定部32は、表示画像を拡大させる指示コマンドと、各指示体80の軌跡データから求めた表示画像の拡大率と、指示体80による指示であることを示す識別データを検出制御部33に出力する。
また、図4とは逆に、指示体80間の距離が時間経過とともに狭くなる場合にも、判定部32は、複数の指示体80の動きを、スクリーンSCに対する指示操作であると判定する。この場合、判定部32は、これらの指示体80の動きを、表示画像を縮小させる指示操作であると判定する。この場合、判定部32は、表示画像を縮小させる指示コマンドと、各指示体80の軌跡データから求めた表示画像の縮小率と、指示体80による指示であることを示す識別データとを検出制御部33に出力する。
また、検出制御部33は、判定部32から、判定部32が検出した指示体70又は80の指示操作に応じたデータを取得する。例えば、判定部32が検出した指示操作が、スクリーンSCに描画された文字を消去する指示である場合、検出制御部33は、判定部32から、指示体80による指示位置の座標と、指示体80の指示であることを示す識別データと、消去コマンドとを入力する。検出制御部33は、判定部32から取得したデータに従い、描画された文字を消去する指示を画像処理部40に通知する。画像処理部40は、検出制御部33の指示に従って、フレームメモリー41に展開された画像データの該当の指示位置に重畳された文字を消去する。
検出制御部33は、判定部32の指示に従い、画像処理部40に、表示画像の拡大を指示する。画像処理部40は、フレームメモリー41に展開された画像データを、検出制御部33から指示された拡大率で拡大処理し、処理した画像データに基づく画像信号を光変調装置駆動部46に出力する。
検出制御部33は、判定部32から、例えば、図形描画のコマンドを入力した場合、判定部32から取得した指示位置の座標又は指示位置の軌跡に基づいて画像処理部40に図形を描画させる。また、検出制御部33は、画像処理部40に、描画した図形を画像I/F部12に入力される入力画像に重畳して投射させる処理を行う。
また、検出制御部33は、判定部32から入力されるコマンドに応じて、取得した指示位置の座標又は指示位置の軌跡データをI/F部11に接続されたPC等の外部の装置に出力してもよい。この場合、検出制御部33は、取得した指示位置の座標又は指示位置の軌跡を、I/F部11に接続された外部の装置のオペレーティングシステムにおいて、座標入力デバイスの入力として認識されるデータフォーマットに変換して出力してもよい。例えば、I/F部11にWindows(登録商標)オペレーティングシステムで動作するPCが接続された場合、オペレーティングシステムにおいてHID(Human Interface Device)の入力データとして処理されるデータを出力する。また、検出制御部33は、指示位置の座標又は指示位置の軌跡データとともに、これらのデータが指示体70の操作によるものであるか指示体80の操作によるものであるのかを識別するデータ、及びタッチ情報や距離情報を外部の装置に出力してもよい。
まず、位置検出部50の検出部55は、撮影部51により撮影された撮影画像のデータを撮影制御部52から入力する(ステップS1)。制御部30の検出制御部33は、撮影制御部52を制御して、撮影部51に撮影範囲を撮影させる。撮影部51は、赤外光による撮影と可視光による撮影とを交互に実行する。撮影制御部52は、撮影部51により撮影された撮影画像のデータを位置検出部50に出力する。
ステップS4が否定判定の場合(ステップS4/NO)、物体検出部551は、該当ユーザーの人物領域に対する処理を中止し、ステップS2において他の人物領域を検出しているか否かを判定する(ステップS5)。肯定判定の場合(ステップS5/YES)、物体検出部551は、他の人物領域に対してステップS3及び4の処理を行う。また、否定判定の場合(ステップS5/NO)、ステップS1に戻り、検出部55は、撮影部51により撮影された撮影画像のデータを撮影制御部52から入力する(ステップS1)。
物体検出部551は、指示体70の指示位置の座標と、タッチ情報と、距離情報とを、該当するユーザーの位置情報と共に制御部30に出力する。制御部30は、物体検出部551から入力される指示体70の指示位置の座標と、タッチ情報と、距離情報とを該当のユーザーの位置情報に対応付けて記憶部60に記憶させる。
また、検出制御部33は、判定部32から、画像を拡大させる指示コマンドと、各指示体80の軌跡データから求めた表示画像の拡大率と、指示体80による指示であることを示す識別データとが入力された場合、画像処理部40に、表示画像の拡大を指示する。画像処理部40は、フレームメモリー41に展開された画像データを、検出制御部33から指示された拡大率で拡大処理し、処理した画像データに基づく画像信号を光変調装置駆動部46に出力する。
まず、判定部32は、指示体70を検出した場合に、検出した指示体70がスクリーンSCに接しているか否かを判定する(ステップS21)。判定部32は、タッチ情報に基づいて、指示体70がスクリーンSCに接しているか否かを判定する。肯定判定の場合(ステップS21/YES)、判定部32は、指示体70を無効にはしないと判定して(ステップS29)、この処理フローを終了させる。この後、判定部32は、動き検出部552に、指示体70の動きを検出させ、動き検出部552から入力される指示体70の軌跡データに基づいて、指示体70による指示操作を検出する。
また、肯定判定の場合(ステップS22/YES)、判定部32は、指示体80とスクリーンSCとの距離が、指示体70とスクリーンSCとの距離よりも近いと判定する。また、判定部32は、指示体80がスクリーンSCに接しているため、指示体80とスクリーンSCとの距離が所定距離以内であると判定する。このため、判定部32は、指示体80を、指示操作を検出する指示体として選択する。
次に、判定部32は、同一ユーザーの複数の指示体80がスクリーンSCに接しているか否かを判定する(ステップS23)。判定部32は、ユーザーの位置情報に、複数の指示体80の指示位置が対応付けられているか否かを判定する。同一ユーザーの位置情報に、複数の指示体80の指示位置が対応付けられている場合、判定部32は、対応付けられた他の指示体80がスクリーンSCに接しているか否かを判定する(ステップS23)。
なお、指示体80は、指示体70を把持した手とは反対側の手であってもよい。例えば、右手で指示体70を把持している場合に、指示体80としての左手の動きを動き検出部552により検出するものであってもよい。
また、ステップS25が否定判定の場合(ステップS25/NO)、判定部32は、指示体70を無効にせずに(ステップS29)、動き検出部552に、指示体70の動きを検出させる。判定部32は、動き検出部552から入力される指示体70の軌跡データに基づいて、指示体70による指示操作を検出する。
また、否定判定の場合(ステップS27/NO)、判定部32は、複数の手指の軌跡データに基づいて、指示体80としての手指の間隔を狭める動きを検出したか否かを判定する(ステップS28)。判定部32は、例えば、左手と右手の間隔を狭める動きや、同じ手の指の間隔を狭める動きを検出したか否かを判定する。肯定判定の場合(ステップS28/YES)、判定部32は、指示体80の指示操作を検出したため、指示体70を無効にすると判定する(ステップS30)。また、否定判定の場合(ステップS28/NO)、判定部32は、指示体70を無効にはしないと判定し(ステップS29)、この処理フローを終了する。この後、判定部32は、動き検出部552に、指示体70の動きを検出させる。判定部32は、動き検出部552から入力される指示体70の軌跡データに基づいて、指示体70による指示操作を検出する。
Claims (11)
- 操作面に対して操作を行う指示体、及び前記指示体とは異なる対象物を検出する検出部と、
前記操作面を含む範囲を撮影した撮影画像を形成する撮影部と、
前記撮影画像に基づいて、前記操作面に対する前記対象物の動きと、前記操作面に対する前記指示体の位置とを検出することにより、前記指示体による操作を入力として検出するか否かを判定する制御部と、
を有することを特徴とする位置検出装置。 - 前記検出部は、前記指示体の位置又は動きを検出し、前記制御部は、前記検出部が検出する前記指示体の位置又は動きに基づき入力を検出する、ことを特徴とする請求項1記載の位置検出装置。
- 前記制御部は、前記指示体と前記操作面との距離、及び、前記対象物と前記操作面との距離に基づいて、前記指示体の位置又は動きを入力として検出するか否かを判定する、ことを特徴とする請求項1又は2記載の位置検出装置。
- 前記制御部は、前記指示体と前記操作面との距離が、前記対象物と前記操作面との距離よりも離れている場合に、前記指示体の位置又は動きを入力として検出しないと判定する、ことを特徴とする請求項3記載の位置検出装置。
- 前記制御部は、前記検出部が複数の前記対象物を検出した場合に、前記操作面との距離が、前記指示体と前記操作面との距離よりも近い前記対象物の位置又は動きを入力として検出する、ことを特徴とする請求項4記載の位置検出装置。
- 前記制御部は、前記操作面との距離が、前記指示体と前記操作面との距離よりも近い前記対象物が複数検出された場合に、これら複数の前記対象物の間の距離の変化を、前記撮影部の撮影画像に基づいて求め、求めた距離の変化に基づいて前記操作面に対する前記対象物の動きを入力として検出する、ことを特徴とする請求項5記載の位置検出装置。
- 前記制御部は、前記撮影部の撮影画像に基づいて、それぞれの前記対象物の前記操作面に対する相対位置の経時変化を求めることにより、複数の前記対象物の間の距離の変化を検出する、ことを特徴とする請求項6記載の位置検出装置。
- 前記制御部は、前記検出部が検出する前記対象物が、前記指示体を把持した操作者の手指である場合に、前記対象物の位置又は動きを入力として検出する、ことを特徴とする請求項4記載の位置検出装置。
- 前記制御部は、前記検出部が複数の対象物を検出した場合に、検出した複数の前記対象物のそれぞれを前記操作者に対応付けて、前記操作者ごとに操作を検出する、ことを特徴とする請求項1から8のいずれか一項に記載の位置検出装置。
- 投射面に画像を投射する投射部と、
前記投射面に対して操作を行う指示体、及び前記指示体とは異なる対象物を検出する検出部と、
前記投射面を含む範囲を撮影した撮影画像を形成する撮影部と、
前記撮影画像に基づいて、前記投射面に対する前記対象物の動きと、前記投射面に対する前記指示体の位置とを検出することにより、前記指示体による操作を入力として検出するか否かを判定する制御部と、
を有することを特徴とするプロジェクター。 - 操作面に対して操作を行う指示体、及び前記指示体とは異なる対象物を検出する検出ステップと、
前記操作面を含む範囲を撮影した撮影画像を形成する撮影ステップと、
前記撮影ステップで撮影された前記撮影画像に基づいて、前記操作面に対する前記対象物の動きと、前記操作面に対する前記指示体の位置とを検出することにより、前記指示体による操作を入力として検出するか否かを判定する判定ステップと、
を有することを特徴とする位置検出方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014196496A JP6350175B2 (ja) | 2014-09-26 | 2014-09-26 | 位置検出装置、プロジェクター、及び、位置検出方法 |
CN201510582203.0A CN105468210B (zh) | 2014-09-26 | 2015-09-14 | 位置检测装置、投影仪以及位置检测方法 |
US14/857,261 US9870073B2 (en) | 2014-09-26 | 2015-09-17 | Position detection device, projector, and position detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014196496A JP6350175B2 (ja) | 2014-09-26 | 2014-09-26 | 位置検出装置、プロジェクター、及び、位置検出方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016071402A JP2016071402A (ja) | 2016-05-09 |
JP2016071402A5 JP2016071402A5 (ja) | 2017-10-19 |
JP6350175B2 true JP6350175B2 (ja) | 2018-07-04 |
Family
ID=55584996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014196496A Expired - Fee Related JP6350175B2 (ja) | 2014-09-26 | 2014-09-26 | 位置検出装置、プロジェクター、及び、位置検出方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9870073B2 (ja) |
JP (1) | JP6350175B2 (ja) |
CN (1) | CN105468210B (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6413236B2 (ja) * | 2013-12-20 | 2018-10-31 | セイコーエプソン株式会社 | プロジェクター、プロジェクションシステム、及び、プロジェクターの制御方法 |
JP6398248B2 (ja) * | 2014-01-21 | 2018-10-03 | セイコーエプソン株式会社 | 位置検出システム、及び、位置検出システムの制御方法 |
US20160091987A1 (en) * | 2014-09-26 | 2016-03-31 | Panasonic Intellectual Property Management Co., Ltd. | Projector |
JP7238371B2 (ja) * | 2018-12-06 | 2023-03-14 | セイコーエプソン株式会社 | 表示装置、表示システム及び表示方法 |
CN114175624B (zh) * | 2019-07-26 | 2024-05-03 | 富士胶片株式会社 | 控制装置、投影系统、控制方法及存储介质 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2839972B2 (ja) | 1991-11-15 | 1998-12-24 | シャープ株式会社 | 感圧式座標入力装置 |
JPH09138730A (ja) | 1995-11-14 | 1997-05-27 | Sharp Corp | 情報入力処理装置 |
JPH10124239A (ja) | 1996-10-22 | 1998-05-15 | Sharp Corp | タブレット入力装置 |
JP3758866B2 (ja) | 1998-12-01 | 2006-03-22 | 富士ゼロックス株式会社 | 座標入力装置 |
JP4927633B2 (ja) * | 2006-09-28 | 2012-05-09 | 京セラ株式会社 | 携帯端末及びその制御方法 |
JP5372000B2 (ja) | 2007-10-11 | 2013-12-18 | エヌ−トリグ リミテッド | デジタイザのためのジェスチャ検出 |
US8941590B2 (en) * | 2008-04-24 | 2015-01-27 | Oblong Industries, Inc. | Adaptive tracking system for spatial input devices |
US8482539B2 (en) | 2010-01-12 | 2013-07-09 | Panasonic Corporation | Electronic pen system |
JP4857385B2 (ja) | 2010-01-12 | 2012-01-18 | パナソニック株式会社 | 電子ペンシステム |
GB2486445B (en) * | 2010-12-14 | 2013-08-14 | Epson Norway Res And Dev As | Camera-based multi-touch interaction apparatus system and method |
CN102566827A (zh) * | 2010-12-30 | 2012-07-11 | 株式会社理光 | 虚拟触摸屏系统中对象检测方法和系统 |
WO2012176637A1 (en) | 2011-06-22 | 2012-12-27 | Sharp Kabushiki Kaisha | Touch panel system and electronic device |
JP5350437B2 (ja) | 2011-06-27 | 2013-11-27 | シャープ株式会社 | タッチセンサシステム |
US20130055143A1 (en) * | 2011-08-31 | 2013-02-28 | Smart Technologies Ulc | Method for manipulating a graphical user interface and interactive input system employing the same |
JP2013061552A (ja) * | 2011-09-14 | 2013-04-04 | Ricoh Co Ltd | プロジェクタ装置および操作検出方法 |
JP6141596B2 (ja) * | 2011-12-27 | 2017-06-07 | セイコーエプソン株式会社 | 表示装置、表示システム及び表示装置のデータ供給方法 |
US9600100B2 (en) * | 2012-01-11 | 2017-03-21 | Smart Technologies Ulc | Interactive input system and method |
JP5906779B2 (ja) * | 2012-02-09 | 2016-04-20 | 株式会社リコー | 画像表示装置 |
JP6003566B2 (ja) | 2012-11-19 | 2016-10-05 | コニカミノルタ株式会社 | オブジェクト操作装置及びオブジェクト操作制御プログラム |
JP6051828B2 (ja) * | 2012-12-10 | 2016-12-27 | セイコーエプソン株式会社 | 表示装置、及び、表示装置の制御方法 |
US9645678B2 (en) * | 2012-12-18 | 2017-05-09 | Seiko Epson Corporation | Display device, and method of controlling display device |
-
2014
- 2014-09-26 JP JP2014196496A patent/JP6350175B2/ja not_active Expired - Fee Related
-
2015
- 2015-09-14 CN CN201510582203.0A patent/CN105468210B/zh active Active
- 2015-09-17 US US14/857,261 patent/US9870073B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN105468210B (zh) | 2020-03-27 |
US20160093035A1 (en) | 2016-03-31 |
CN105468210A (zh) | 2016-04-06 |
JP2016071402A (ja) | 2016-05-09 |
US9870073B2 (en) | 2018-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6398248B2 (ja) | 位置検出システム、及び、位置検出システムの制御方法 | |
JP6413236B2 (ja) | プロジェクター、プロジェクションシステム、及び、プロジェクターの制御方法 | |
US9992466B2 (en) | Projector with calibration using a plurality of images | |
JP6350175B2 (ja) | 位置検出装置、プロジェクター、及び、位置検出方法 | |
JP6307852B2 (ja) | 画像表示装置、及び、画像表示装置の制御方法 | |
JP6375660B2 (ja) | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 | |
WO2016157803A1 (ja) | 表示装置、表示装置の制御方法、書画カメラ、及び、書画カメラの制御方法 | |
JP6405836B2 (ja) | 位置検出装置、プロジェクター、及び、位置検出方法 | |
JP6562124B2 (ja) | 位置検出システム、及び、位置検出システムの制御方法 | |
WO2016157804A1 (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
JP6569259B2 (ja) | 位置検出装置、表示装置、位置検出方法、及び、表示方法 | |
JP6439398B2 (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
JP2019061513A (ja) | 位置検出装置、位置検出システム及び位置検出装置の制御方法 | |
JP2018054880A (ja) | 表示装置、情報処理装置および情報処理方法 | |
JP6409517B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
JP6340860B2 (ja) | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 | |
JP6291911B2 (ja) | 位置検出装置、及び、位置検出方法 | |
JP6524741B2 (ja) | 位置検出装置、表示装置、位置検出装置の制御方法、及び、表示装置の制御方法 | |
JP6337558B2 (ja) | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170907 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170907 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180423 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180508 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180521 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6350175 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |