JP2001273484A - Instructed position detection system, presentation system and information storage medium - Google Patents
Instructed position detection system, presentation system and information storage mediumInfo
- Publication number
- JP2001273484A JP2001273484A JP2000088333A JP2000088333A JP2001273484A JP 2001273484 A JP2001273484 A JP 2001273484A JP 2000088333 A JP2000088333 A JP 2000088333A JP 2000088333 A JP2000088333 A JP 2000088333A JP 2001273484 A JP2001273484 A JP 2001273484A
- Authority
- JP
- Japan
- Prior art keywords
- image
- detecting
- information
- display area
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 82
- 238000003384 imaging method Methods 0.000 claims description 54
- 238000003708 edge detection Methods 0.000 claims description 52
- 238000000034 method Methods 0.000 claims description 23
- 238000000605 extraction Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 30
- 230000010339 dilation Effects 0.000 description 5
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000003111 delayed effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000004397 blinking Effects 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 101100116283 Arabidopsis thaliana DD11 gene Proteins 0.000 description 1
- 101100280298 Homo sapiens FAM162A gene Proteins 0.000 description 1
- 101000680262 Homo sapiens Transmembrane protein 60 Proteins 0.000 description 1
- 102100023788 Protein FAM162A Human genes 0.000 description 1
- 102100022076 Transmembrane protein 60 Human genes 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、指示位置検出シス
テム、プレゼンテーションシステムおよび情報記憶媒体
に関する。The present invention relates to a pointing position detection system, a presentation system, and an information storage medium.
【0002】[0002]
【背景技術および発明が解決しようとする課題】プロジ
ェクタ等を用いたプレゼンテーションシステムでは、指
示具等によるその指示位置の検出を行うことが必要とな
る。この場合に、指示位置の検出を正確に行い、各種の
画像処理に反映させることが重要となる。2. Description of the Related Art In a presentation system using a projector or the like, it is necessary to detect a position indicated by a pointing device or the like. In this case, it is important to accurately detect the indicated position and reflect the detected position in various image processing.
【0003】このため、本発明者らにより、プロジェク
タからの投写光によって画像の表示されるスクリーンを
カメラ等で撮像し、その撮像信号に基づき指示位置を検
出するシステムの検討がなされている。For this reason, the present inventors have been studying a system for capturing an image of a screen on which an image is displayed by a projection light from a projector with a camera or the like, and detecting an indicated position based on the image signal.
【0004】しかし、スクリーン上には外部からのノイ
ズ、例えば日光や室内照明等の外乱光によってスクリー
ン上の輝度のレベル変動が発生したり、外乱光によって
シェーディング等が発生したりすることにより、カメラ
等の撮像信号を単に信号処理しても、精度の高い位置検
出が難しいという問題があった。However, a noise level on the screen causes fluctuations in the luminance level on the screen due to external noise, for example, disturbance light such as sunlight or indoor lighting, or shading or the like due to the disturbance light. However, there is a problem that it is difficult to detect a position with high accuracy by simply performing signal processing on an imaging signal such as the above.
【0005】本発明は、上記の課題に鑑みなされたもの
であり、その目的は、外乱光等のノイズの影響を受けず
に撮像信号に基づく指示位置検出を正確に行うための指
示位置検出システム、プレゼンテーションシステムおよ
び情報記憶媒体を提供することにある。SUMMARY OF THE INVENTION The present invention has been made in consideration of the above problems, and has as its object to provide a pointing position detection system for accurately detecting a pointing position based on an image signal without being affected by noise such as disturbance light. , A presentation system and an information storage medium.
【0006】[0006]
【課題を解決するための手段】上記課題を解決するた
め、本発明に係る指示位置検出システムは、所定の画像
表示領域に投写されるスポット光による指示位置を検出
する指示位置検出システムにおいて、前記画像表示領域
を撮像する撮像手段と、当該撮像手段の撮像画像に基づ
き、当該撮像画像に含まれる指示画像から前記画像表示
領域における前記スポット光による指示位置を検出する
位置検出手段と、を含み、前記位置検出手段は、前記撮
像画像に含まれる前記指示画像のエッジ検出処理を行う
エッジ検出手段と、エッジ検出処理された指示画像の情
報に基づき、前記スポット光による指示位置を検出する
検出手段と、を含むことを特徴とする。According to another aspect of the present invention, there is provided a pointing position detecting system for detecting a pointing position by a spot light projected on a predetermined image display area. An imaging unit that captures an image display area, based on a captured image of the imaging unit, includes a position detection unit that detects a designated position by the spot light in the image display region from a designated image included in the captured image, The position detection means, edge detection means for performing edge detection processing of the pointing image included in the captured image, and detection means for detecting a pointing position by the spot light based on information of the edge detection processing of the pointing image, , Is included.
【0007】また、本発明に係る情報記憶媒体は、所定
の画像表示領域に投写されるスポット光による指示位置
を検出するための情報を記憶したコンピュータ読み取り
可能な情報記憶媒体であって、前記情報は、前記画像表
示領域を撮像する撮像手段による撮像画像に基づき、当
該撮像画像に含まれる指示画像から前記画像表示領域に
おける前記スポット光による指示位置を検出する位置検
出手段を実現するための情報を含み、前記位置検出手段
は、前記撮像画像に含まれる前記指示画像のエッジ検出
処理を行うエッジ検出手段と、エッジ検出処理された指
示画像の情報に基づき、前記スポット光による指示位置
を検出する検出手段と、を含むことを特徴とする。Further, an information storage medium according to the present invention is a computer-readable information storage medium storing information for detecting a position indicated by a spot light projected on a predetermined image display area, Is information based on an image captured by an image capturing unit that captures the image display area, the information for realizing a position detecting unit that detects an indicated position by the spot light in the image display area from an instruction image included in the captured image. Wherein the position detecting means includes an edge detecting means for performing an edge detecting process of the designated image included in the captured image, and a detecting means for detecting a designated position by the spot light based on information of the designated image subjected to the edge detecting process. Means.
【0008】本発明によれば、エッジ検出処理を行うこ
とにより、外乱光のレベル変動や、外乱光によるシェー
ディングに強くなり、精度の高い指示位置の検出が行え
る。According to the present invention, by performing the edge detection processing, the level fluctuation of disturbance light and the shading due to the disturbance light become strong, and the designated position can be detected with high accuracy.
【0009】また、本発明に係る他の指示位置検出シス
テムは、所定の画像表示領域に投写されるスポット光に
よる指示位置を検出する指示位置検出システムにおい
て、前記画像表示領域を撮像する撮像手段と、前記撮像
手段の撮像画像に基づき、当該撮像画像に含まれる指示
画像から前記画像表示領域における前記スポット光によ
る指示位置を検出する位置検出手段と、を含み、前記位
置検出手段は、前記画像表示領域を撮像することにより
得られる差分像生成用画像を記憶する手段と、前記撮像
画像と前記差分像生成用画像との差分像を抽出する差分
像抽出手段と、前記差分像のエッジ検出処理を行うエッ
ジ検出手段と、エッジ検出された情報に基づき、前記ス
ポット光による指示位置を検出する検出手段と、を含む
ことを特徴とする。According to another aspect of the present invention, there is provided a pointing position detecting system for detecting a pointing position by a spot light projected on a predetermined image display area. A position detection unit that detects a position indicated by the spot light in the image display area from an instruction image included in the captured image based on the image captured by the imaging unit. Means for storing a difference image generation image obtained by imaging a region; difference image extraction means for extracting a difference image between the captured image and the difference image generation image; and edge detection processing for the difference image. An edge detection unit for performing the detection, and a detection unit for detecting a position indicated by the spot light based on the information on the detected edge.
【0010】また、本発明に係る他の情報記憶媒体は、
所定の画像表示領域に投写されるスポット光による指示
位置を検出するための情報を記憶したコンピュータ読み
取り可能な情報記憶媒体であって、前記情報は、前記画
像表示領域を撮像する撮像手段による撮像画像に基づ
き、当該撮像画像に含まれる指示画像から前記画像表示
領域における前記スポット光による指示位置を検出する
位置検出手段を実現するための情報を含み、前記位置検
出手段は、前記画像表示領域を撮像することにより得ら
れる差分像生成用画像を記憶する手段と、前記撮像画像
と前記差分像生成用画像との差分像を抽出する差分像抽
出手段と、前記差分像のエッジ検出処理を行うエッジ検
出手段と、エッジ検出された情報に基づき、前記スポッ
ト光による指示位置を検出する検出手段と、を含むこと
を特徴とする。[0010] Further, another information storage medium according to the present invention includes:
A computer-readable information storage medium that stores information for detecting a position indicated by a spot light projected on a predetermined image display area, wherein the information is an image captured by an imaging unit that captures the image display area. The information includes information for realizing a position detecting unit that detects a position indicated by the spot light in the image display area from an instruction image included in the captured image, and the position detection unit captures the image display area. Means for storing a difference image generation image obtained by performing the above operation, difference image extraction means for extracting a difference image between the captured image and the difference image generation image, and edge detection for performing edge detection processing of the difference image Means, and detecting means for detecting a position indicated by the spot light based on the information on which the edge is detected.
【0011】本発明によれば、差分像を抽出することに
より、外乱光の影響を受けにくく、正確に指示位置の検
出が行える。According to the present invention, by extracting the difference image, the pointing position can be accurately detected without being affected by disturbance light.
【0012】また、前記位置検出手段は、前記エッジ検
出処理された指示画像の情報を2値化する2値化手段を
含み、前記検出手段は、前記2値化手段で2値化された
指示画像の情報に基づき、前記指示位置を検出すること
が好ましい。Further, the position detecting means includes a binarizing means for binarizing the information of the pointing image which has been subjected to the edge detection processing, and the detecting means comprises an instruction binarized by the binarizing means. It is preferable that the designated position is detected based on image information.
【0013】これによれば、2値化することにより、後
の処理が容易となり、装置も小型化できる。According to this, by performing binarization, subsequent processing becomes easy, and the apparatus can be downsized.
【0014】また、前記位置検出手段は、非指示状態に
ある画像表示領域の撮像画像に対してエッジ検出処理を
行うことにより、ノイズ領域を検出して記憶するノイズ
領域検出処理手段を含み、前記検出手段は、前記ノイズ
領域検出処理手段で検出されたノイズ領域を前記指示位
置の検出対象から除外して前記指示画像の指示位置を検
出することが好ましい。The position detecting means includes a noise area detecting processing means for detecting and storing a noise area by performing an edge detecting process on a picked-up image of an image display area in a non-pointed state. It is preferable that the detection unit detects the designated position of the designated image by excluding the noise region detected by the noise region detection processing unit from the detection target of the designated position.
【0015】これによれば、ノイズ領域を検出して指示
位置の検出対象から除外して前記指示画像の指示位置を
検出することにより、スクリーンに表示された文字や傷
等のノイズ領域の影響を受けずに正確に指示位置の検出
が行える。According to this, the influence of the noise area such as characters and scratches displayed on the screen is detected by detecting the indicated area of the indicated image by detecting the noise area and excluding it from the detection of the indicated position. The pointing position can be accurately detected without receiving it.
【0016】また、前記ノイズ領域検出処理手段は、前
記エッジ検出処理を行って検出した領域に膨張処理を施
して前記ノイズ領域として記憶することが好ましい。It is preferable that the noise area detection processing means performs expansion processing on the area detected by performing the edge detection processing and stores the result as the noise area.
【0017】これによれば、スクリーン位置の若干の移
動によってノイズ領域が移動した場合でも、その移動分
を考慮してノイズ領域を広めに把握しておくことによ
り、正確に指示位置の検出が行える。According to this, even when the noise area moves due to a slight movement of the screen position, it is possible to accurately detect the indicated position by grasping the noise area in a wider manner in consideration of the movement. .
【0018】また、本発明に係る他の指示位置検出シス
テムは、所定の画像表示領域に指示具から投写されるス
ポット光による指示位置を検出する指示位置検出システ
ムにおいて、前記画像表示領域を撮像する撮像手段と、
前記撮像手段の撮像画像に基づき、当該撮像画像に含ま
れる指示画像から前記画像表示領域における前記スポッ
ト光による指示位置を検出する位置検出手段と、前記撮
像手段の撮像タイミングと所定の関係にあるタイミング
情報を前記指示具へ向け送信する手段と、を含み、前記
指示具は、前記タイミング情報に基づき、前記撮像手段
の撮像タイミングに同期してスポット光を点滅し、前記
位置検出手段は、スポット光の非点灯時に撮像された差
分像生成用画像と、スポット光の点灯時に撮像された指
示画像との差分像を抽出する差分像抽出手段と、当該差
分像に含まれるスポット光の画像に基づき、前記指示位
置を検出する検出手段と、を含むことを特徴とする。Another pointing position detection system according to the present invention is a pointing position detection system for detecting a pointing position by a spotlight projected from a pointing tool on a predetermined image display area, wherein the image display area is imaged. Imaging means;
A position detection unit configured to detect a position indicated by the spotlight in the image display area from an instruction image included in the captured image based on a captured image of the imaging unit; and a timing having a predetermined relationship with an imaging timing of the imaging unit. Means for transmitting information to the pointing device, wherein the pointing device blinks a spot light in synchronization with an imaging timing of the imaging device based on the timing information, and the position detecting device comprises a spot light. Based on the image of the spot light included in the difference image, the difference image generation image captured at the time of non-lighting, and a difference image extracting unit that extracts a difference image between the instruction image captured at the time of lighting of the spot light, Detecting means for detecting the indicated position.
【0019】また、本発明に係る他の情報記憶媒体は、
所定の画像表示領域に投写されるスポット光による指示
位置を検出するための情報を記憶したコンピュータ読み
取り可能な情報記憶媒体であって、前記情報は、前記画
像表示領域を撮像する撮像手段による撮像画像に基づ
き、当該撮像画像に含まれる指示画像から前記画像表示
領域における前記スポット光による指示位置を検出する
位置検出手段と、前記撮像手段の撮像タイミングと所定
の関係にあるタイミング情報を前記指示具へ向け送信手
段に送信させる手段と、を実現するための情報を含み、
前記指示具は、前記タイミング情報に基づき、前記撮像
手段の撮像タイミングに同期してスポット光を点滅し、
前記位置検出手段は、スポット光の非点灯時に撮像され
た差分像生成用画像と、スポット光の点灯時に撮像され
た指示画像との差分像を抽出する差分像抽出手段と、当
該差分像に含まれるスポット光の画像に基づき、前記指
示位置を検出する検出手段と、を含むことを特徴とす
る。Further, another information storage medium according to the present invention includes:
A computer-readable information storage medium that stores information for detecting a position indicated by a spot light projected on a predetermined image display area, wherein the information is an image captured by an imaging unit that captures the image display area. A position detecting means for detecting a position indicated by the spot light in the image display area from an instruction image included in the captured image, and timing information having a predetermined relationship with an imaging timing of the imaging means to the indicator. Means for transmitting to the transmission means, and information for realizing,
The indicating tool blinks a spotlight in synchronization with an imaging timing of the imaging unit based on the timing information,
The position detection unit includes a difference image extraction unit that extracts a difference image between a difference image generation image captured when the spotlight is not lit and an instruction image captured when the spotlight is lit, and a difference image included in the difference image. Detecting means for detecting the indicated position based on an image of the spot light to be emitted.
【0020】本発明によれば、スポット光の点灯時に撮
像手段が出力する画像情報と消灯時に撮像手段が出力す
る画像情報との差分をとることによって、位置座標検出
において外乱光の影響をほとんど除去することができ、
検出系のS/N比を向上させ、例えば、赤外光のような
弱い光でも適切に検出することができる。According to the present invention, by taking the difference between the image information output by the image pickup means when the spotlight is turned on and the image information output by the image pickup means when the spotlight is turned off, the influence of disturbance light on position coordinate detection is almost eliminated. Can be
By improving the S / N ratio of the detection system, for example, even weak light such as infrared light can be appropriately detected.
【0021】また、前記撮像手段は、前記画像表示領域
を赤外領域で撮像可能に形成され、前記指示位置検出手
段は、前記赤外領域で撮像された赤外撮像画像に基づ
き、前記指示位置を検出することが好ましい。The image pickup means is formed so as to be capable of picking up the image display area in an infrared region, and the designated position detection means is configured to determine the designated position based on an infrared image picked up in the infrared region. Is preferably detected.
【0022】これによれば、人物等とスポット光とを明
確に分離でき、正確に指示位置を検出することができ
る。According to this, the person and the like can be clearly separated from the spot light, and the pointing position can be detected accurately.
【0023】また、本発明に係るプレゼンテーションシ
ステムは、前記画像表示領域に画像を表示する手段を含
み、前記指示位置検出システムを用いて前記指示位置を
検出することを特徴とする。Further, the presentation system according to the present invention includes means for displaying an image in the image display area, and detects the designated position using the designated position detection system.
【0024】これによれば、指示位置の検出に基づき、
カーソル表示位置制御等の各種の制御を、スポット光の
位置と正確に対応づけて行うことができる。According to this, based on the detection of the pointing position,
Various controls such as cursor display position control can be performed in correspondence with the position of the spot light.
【0025】また、前記エッジ検出手段は、前記エッジ
検出処理の一部として、前記撮像画像に対し隣接画素の
重み付け演算を行うことが好ましい。It is preferable that the edge detecting means performs a weighting operation of adjacent pixels on the captured image as a part of the edge detecting process.
【0026】これによれば、エッジをより明確化するこ
とができる。なお、隣接画素としては、例えば、対象画
素の水平方向における両隣の画素、対象画素の周囲8画
素等が該当する。According to this, the edge can be further clarified. Note that the adjacent pixels include, for example, pixels on both sides in the horizontal direction of the target pixel, eight pixels around the target pixel, and the like.
【0027】なお、前記エッジ検出処理としては、例え
ば、所定ドット分の画像の差分を用いる差分処理、オペ
レータを用いた微分処理等を適用することができる。As the edge detection processing, for example, a difference processing using a difference between images of a predetermined dot, a differentiation processing using an operator, and the like can be applied.
【0028】[0028]
【発明の実施の形態】以下、本発明をプレゼンテーショ
ンシステムにおいて指示位置の検出を行うためのシステ
ムに適用した場合を例に採り、図面を参照しつつ説明す
る。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below with reference to the drawings, taking as an example the case where the present invention is applied to a system for detecting a designated position in a presentation system.
【0029】(システム全体の説明)図1は、本実施形
態の一例に係るプレゼンテーションシステムの概略説明
図である。(Explanation of the Entire System) FIG. 1 is a schematic explanatory diagram of a presentation system according to an example of the present embodiment.
【0030】図1には、画像表示装置としてフロント型
投写装置を用いたプレゼンテーションシステムの一例が
示されている。FIG. 1 shows an example of a presentation system using a front projection device as an image display device.
【0031】スクリーン10のほぼ正面に設けられたプ
ロジェクタ20から、投写面であるスクリーン10の上
に所定のプレゼンテーション用の画像が投写表示され
る。この画像の投写による表示画像の領域によって画像
表示領域12が定義される。プレゼンター30は、画像
表示領域12の画像の所望の指示位置を赤外ポインター
50等を用いて指示しながら、第三者に対するプレゼン
テーションを行なう。An image for a predetermined presentation is projected and displayed on a screen 10 as a projection surface from a projector 20 provided substantially in front of the screen 10. The image display area 12 is defined by the area of the display image obtained by projecting the image. The presenter 30 gives a presentation to a third party while indicating a desired pointing position of the image in the image display area 12 using the infrared pointer 50 or the like.
【0032】図1に示すように、スクリーン10の画像
表示領域12は、スクリーン10のほぼ正面に設けられ
た撮像手段であるCCDカメラ40を用いて撮影され
る。As shown in FIG. 1, the image display area 12 of the screen 10 is photographed by using a CCD camera 40 which is an image pickup means provided substantially in front of the screen 10.
【0033】図2は、指示位置とカーソル表示位置との
関係を示す模式図である。FIG. 2 is a schematic diagram showing the relationship between the designated position and the cursor display position.
【0034】プレゼンテーションを行う場合、プレゼン
ター30は、図2に示すように、投影された画像の画像
表示領域12上の所望の指示位置を、赤外ポインター5
0から投写されるスポット光310を用いて指示しなが
らプレゼンテーションを行う。When making a presentation, as shown in FIG. 2, the presenter 30 indicates a desired designated position on the image display area 12 of the projected image by using the infrared pointer 5.
The presentation is performed while instructing using the spotlight 310 projected from 0.
【0035】プレゼンター30が赤外ポインター50か
ら投写されたスポット光310が撮影画像に基づき検出
されて画像処理が行われることにより、スポット光31
0の投写位置である指示位置が特定される。The spot light 310 projected by the presenter 30 from the infrared pointer 50 is detected based on the photographed image, and image processing is performed.
The designated position which is the projection position of 0 is specified.
【0036】そして、この検出結果に基づき所定のデー
タ処理が行われる。このようなデータ処理の一例とし
て、カーソル制御がある。Then, predetermined data processing is performed based on the detection result. An example of such data processing is cursor control.
【0037】例えば、図2に示すようにプレゼンター3
0が赤外ポインター50を用いて画像表示領域12の所
望位置を指示すると、この画像表示領域12の表示画像
に含まれるカーソル200は、赤外ポインター50の指
示位置に追従して移動することになる。For example, as shown in FIG.
When 0 indicates a desired position of the image display area 12 using the infrared pointer 50, the cursor 200 included in the display image of the image display area 12 moves following the position indicated by the infrared pointer 50. Become.
【0038】このようなカーソル制御を行う場合、カー
ソル200と指示位置がずれないように指示位置を正確
に検出する必要がある。When such cursor control is performed, it is necessary to accurately detect the pointing position so that the cursor 200 does not deviate from the pointing position.
【0039】しかし、プレゼンテーションの行われる場
所によっては、リモコン等の赤外光や日光等の外乱光等
が画像表示領域12に投写された場合に、これらの光を
赤外ポインター50からの光と誤って認識し、指示位置
が正確に検出できない場合もあった。However, depending on the place where the presentation is performed, when infrared light from a remote controller or the like or disturbance light such as sunlight is projected on the image display area 12, these lights are combined with the light from the infrared pointer 50. In some cases, it was recognized incorrectly and the indicated position could not be detected accurately.
【0040】本実施の形態では、撮影画像に含まれる指
示画像に対してエッジ検出処理を行って指示位置を検出
することにより、外乱光の影響を低減し、正確な指示位
置の検出が行える。In the present embodiment, by detecting the designated position by performing edge detection processing on the designated image included in the photographed image, the influence of disturbance light can be reduced and the designated position can be accurately detected.
【0041】また、プレゼンテーションを行う場合に、
プレゼンテーションの実行前にスクリーンの傷や文字等
によって既にエッジとなる要因が存在する場合もある。
このような状態のまま、プレゼンテーションを行って、
指示画像のエッジを検出しようとしても、スクリーンの
傷や文字等のノイズ成分によるエッジを誤って指示画像
のエッジとして誤認識してしまう場合がある。When making a presentation,
Before the presentation is performed, there may be a factor that becomes an edge due to scratches on the screen, characters, or the like.
In this state, give a presentation,
Even if an attempt is made to detect the edge of the pointing image, an edge due to a noise component such as a scratch on a screen or a character may be erroneously recognized as an edge of the pointing image.
【0042】このため、プレゼンテーション実行前にノ
イズ発生領域を把握しておき、プレゼンテーション実行
時にノイズ発生領域を差分処理等を用いてエッジ検出対
象から除外する手法を用いたエッジ検出処理を行うこと
が考えられる。For this reason, it is conceivable that the noise generation area is grasped before the presentation is executed, and the edge detection processing is performed using a method of excluding the noise generation area from the edge detection target using the difference processing or the like at the time of the presentation. Can be
【0043】しかし、このような手法を用いた場合で
も、傷や文字のようなノイズ成分は、細い線で形成され
るため、スクリーンが風等によって若干移動した場合に
は、プレゼンテーション実行前に把握していたノイズ発
生領域と、プレゼンテーション実行時のノイズ発生領域
との位置のずれが生じ、正確にエッジ検出対象から除外
することができない場合も生じうる。However, even when such a method is used, since noise components such as scratches and characters are formed by thin lines, if the screen slightly moves due to wind or the like, it is necessary to grasp the screen before executing the presentation. The position of the noise generating area that has been shifted from the position of the noise generating area when the presentation is executed may occur, and the noise may not be accurately excluded from the edge detection target.
【0044】本実施の形態では、スクリーンの傷や文字
等のノイズ成分に膨張処理を施して適切にノイズ成分を
除去している。In the present embodiment, noise components such as screen scratches and characters are subjected to dilation processing to appropriately remove the noise components.
【0045】図3は、膨張処理の説明図であり、図3
(A)は、膨張処理前のノイズ画像を示し、図3(B)
は、膨張処理後のノイズ画像を示す図である。FIG. 3 is an explanatory diagram of the expansion processing.
FIG. 3A shows a noise image before the expansion processing, and FIG.
FIG. 7 is a diagram showing a noise image after the dilation processing.
【0046】図3(A)に示す「ABCD」という文字
がスクリーンに表示された膨張処理前のノイズ画像に対
して膨張処理を施すことにより、図3(B)に示すよう
に「ABCD」という文字が太くなった画像が生成され
る。The character "ABCD" shown in FIG. 3 (A) is subjected to dilation processing to the noise image before dilation processing displayed on the screen, thereby obtaining "ABCD" as shown in FIG. 3 (B). An image with thicker characters is generated.
【0047】ノイズ成分に膨張処理した画像(以下「マ
スク画像」という。)を用いてマスク処理を行うことに
より、ノイズ成分を除去して正確に指示位置の検出が行
える。By performing a mask process using an image (hereinafter, referred to as a "mask image") subjected to a dilation process for a noise component, the noise component can be removed and the designated position can be accurately detected.
【0048】図4は、ノイズ除去処理の説明図であり、
図4(A)は、ノイズ除去前の指示画像を示し、図4
(B)は、エッジ処理およびノイズ除去後の指示画像を
示す図である。FIG. 4 is an explanatory diagram of the noise removal processing.
FIG. 4A shows an instruction image before noise removal, and FIG.
(B) is a diagram showing an instruction image after edge processing and noise removal.
【0049】図4(A)に示すように、プレゼンテーシ
ョン実行時に、図3(A)のノイズ成分(「ABCD」
という文字)を含む状態で指示を行った場合を想定す
る。As shown in FIG. 4A, when the presentation is executed, the noise component (“ABCD”) shown in FIG.
It is assumed that the instruction is performed in a state that includes the characters
【0050】上述したマスク処理を行うことにより、
「ABCD」という文字が除去されて指示画像のエッジ
のみを抽出することができる。By performing the mask processing described above,
The character "ABCD" is removed, and only the edge of the designated image can be extracted.
【0051】また、本実施の形態では、エッジ検出に加
えて、エッジ検出前にフレーム間の差分像を抽出してい
る。In this embodiment, in addition to edge detection, a difference image between frames is extracted before edge detection.
【0052】このような差分像の抽出を行うことによ
り、レーザー光のような光強度の強いポインターを用い
なくても光強度の弱い赤外ポインター50等の指示具を
用いることができ、より安全性を高めることができる。By extracting such a difference image, an indicator such as the infrared pointer 50 having a low light intensity can be used without using a pointer having a high light intensity such as a laser beam. Can be enhanced.
【0053】さらに、本実施の形態では、特に、赤外ポ
インター50を用いて指示を行うので、赤外光ではない
外乱光を除去し、赤外光のみを適切に抽出するため、撮
像タイミングも考慮している。Further, in the present embodiment, since the instruction is performed using the infrared pointer 50, disturbance light that is not infrared light is removed, and only infrared light is appropriately extracted. Take into account.
【0054】図5は、赤外ポインター50の点滅に同期
したフレーム間差分処理の説明図であり、図5(A)
は、赤外ポインター50発光時の指示画像を示し、図5
(B)は、赤外ポインター50消灯時の画像を示し、図
5(C)は、フレーム間差分処理後の指示画像を示す図
である。また、図6は、撮像フレーム番号と赤外光源状
態との関係を示す説明図である。FIG. 5 is an explanatory diagram of the inter-frame difference processing synchronized with the blinking of the infrared pointer 50, and FIG.
5 shows an instruction image when the infrared pointer 50 emits light, and FIG.
5B illustrates an image when the infrared pointer 50 is turned off, and FIG. 5C illustrates an instruction image after the inter-frame difference processing. FIG. 6 is an explanatory diagram showing the relationship between the imaging frame number and the state of the infrared light source.
【0055】図6に示すように、まず、赤外ポインター
50の点灯時に撮像する。これを撮像フレーム番号0と
し、このときの撮像画像は図5(A)に示すように、左
の白いくっきりした○が赤外ポインター50の赤外光で
あり、右の大きなぼけた白い○が外乱光となっている。As shown in FIG. 6, first, an image is taken when the infrared pointer 50 is turned on. This is taken as an imaging frame number 0. In the imaging image at this time, as shown in FIG. 5A, the white clear white circle on the left is the infrared light of the infrared pointer 50, and the large blurred white circle on the right is It is disturbance light.
【0056】次に、赤外ポインター50の消灯時に撮像
する。これを撮像フレーム番号1とし、このときの撮像
画像は図6(B)に示すように、赤外光は存在せず、外
乱光のみが存在する状態となっている。Next, an image is taken when the infrared pointer 50 is turned off. This is taken as imaging frame number 1, and the captured image at this time is in a state where there is no infrared light but only disturbance light as shown in FIG. 6 (B).
【0057】そして、撮像フレーム番号0の撮像画像と
撮像フレーム番号1の撮像画像との差分像を抽出するこ
とにより、図6(C)に示す外乱光を除いた赤外光だけ
の画像を得ることができる。Then, by extracting a difference image between the captured image of the imaging frame number 0 and the imaging image of the imaging frame number 1, an image of only infrared light excluding disturbance light shown in FIG. 6C is obtained. be able to.
【0058】このような手法によれば、画像光はその連
続したフレーム間で強い相関性を持っている場合が多い
ので、赤外ポインター50の点灯時に撮像手段が出力す
る画像情報と消灯時に撮像手段が出力する画像情報との
差分をとることによって、位置座標検出において外乱光
の影響をほとんど除去することができ、検出系のS/N
比を向上させ、赤外光のような弱い光でも適切に検出す
ることができる。According to such a method, since the image light often has a strong correlation between the consecutive frames, the image information output by the imaging means when the infrared pointer 50 is turned on and the image information is output when the infrared pointer 50 is turned off. By taking the difference from the image information output by the means, the influence of disturbance light can be almost eliminated in position coordinate detection, and the S / N of the detection system can be reduced.
By improving the ratio, even weak light such as infrared light can be appropriately detected.
【0059】また、連続した2つのフレーム間の撮像画
像を取得することにより、離れた2フレーム間の差分を
とるよりも、高速な処理が実現できる上、差分処理に必
要なフレームメモリの容量を最小限の1フレーム分に抑
えることもできる。Further, by obtaining a captured image between two consecutive frames, it is possible to realize a higher-speed processing than to obtain a difference between two distant frames, and to reduce the capacity of a frame memory required for the difference processing. It can be suppressed to a minimum of one frame.
【0060】(機能ブロックについての説明)次に上述
した各機能を実現するための赤外ポインター50および
本システムの機能ブロックについて説明する。(Explanation of Functional Blocks) Next, the infrared pointer 50 for realizing the above-described functions and the functional blocks of the present system will be described.
【0061】図7は、本実施の形態の一例に係る赤外ポ
インター50の機能ブロック図である。FIG. 7 is a functional block diagram of the infrared pointer 50 according to an example of the present embodiment.
【0062】赤外ポインター50は、操作部52と、操
作部52の操作時にスポット光を投写するスポット光投
写手段である発光部54と、システムからの撮像タイミ
ング信号を受信する受信部56と、受信した撮像タイミ
ング信号に基づいて発光部54の発光を制御する発光制
御部58とを含んで構成されている。The infrared pointer 50 includes an operation unit 52, a light emitting unit 54 which is a spot light projection unit for projecting a spot light when the operation unit 52 is operated, a reception unit 56 for receiving an image pickup timing signal from the system, and A light emission control unit 58 that controls light emission of the light emitting unit 54 based on the received imaging timing signal.
【0063】発光制御部58は、上述したように、撮像
タイミング信号に基づき、撮像フレームごとに発光部5
4の点灯と消灯とを切り替える。As described above, the light emission control unit 58 controls the light emission unit 5 for each imaging frame based on the imaging timing signal.
4 is turned on and off.
【0064】また、具体的には、操作部52は、例えば
スイッチ等であり、発光部54は、例えば赤外LED等
であり、受信部56は電磁波の受信手段等によって実現
され得る。本実施の形態では、受信部56は、一般に用
いられる微弱電磁波を受信する装置を含む。More specifically, the operation section 52 is, for example, a switch, the light-emitting section 54 is, for example, an infrared LED, and the reception section 56 can be realized by means for receiving electromagnetic waves. In the present embodiment, receiving section 56 includes a device that receives a generally used weak electromagnetic wave.
【0065】このように、撮像タイミングと赤外ポイン
ター50の点灯と消灯のタイミングとが同期しているこ
とにより、指示具を赤外LED等の光が弱いが安全性の
高い指示具を用いて指示位置の検出を行うことができ
る。As described above, since the imaging timing is synchronized with the turning-on and turning-off timings of the infrared pointer 50, the pointing device can be replaced by an infrared LED or the like which has low light but has high security. The pointing position can be detected.
【0066】次に、撮像や指示位置の検出を行う本シス
テムの機能ブロックについて説明する。Next, a description will be given of functional blocks of the present system for performing imaging and detecting a designated position.
【0067】図8は、本実施の形態の一例に係るシステ
ムの機能ブロック図である。FIG. 8 is a functional block diagram of a system according to an example of the present embodiment.
【0068】本システムは、撮像手段であるCCDカメ
ラ40と、CCDカメラ40の撮像タイミングを示す撮
像タイミング信号を赤外ポインター50へ向け送信する
送信部60と、処理部110と、プロジェクタ20とを
含んで構成されている。This system includes a CCD camera 40 serving as an imaging unit, a transmission unit 60 for transmitting an imaging timing signal indicating the imaging timing of the CCD camera 40 to the infrared pointer 50, a processing unit 110, and the projector 20. It is comprised including.
【0069】また、処理部110は、撮像信号に基づき
指示位置の検出を行う位置検出部130と、指示位置の
検出結果に基づくカーソル200の表示位置の制御のほ
か各種の制御や演算を行う演算処理部118とを含んで
構成されている。The processing section 110 includes a position detecting section 130 for detecting a designated position based on an image pickup signal, and a calculation for performing various controls and calculations in addition to controlling the display position of the cursor 200 based on the result of detecting the designated position. The processing unit 118 is included.
【0070】より具体的には、位置検出部130は、差
分像の生成を行う差分像抽出部111と、当該差分像の
エッジを検出するエッジ検出部112と、エッジ検出情
報に対してデータ処理を行いやすいように2値化を行う
2値化処理部114と、2値化されたエッジ検出情報か
らノイズ領域を除外するためのノイズ領域情報生成部1
15と、ノイズ領域が除外されたエッジ検出情報から指
示位置を検出するポインティング座標検出部116とを
含んで構成されている。More specifically, the position detecting section 130 includes a differential image extracting section 111 for generating a differential image, an edge detecting section 112 for detecting an edge of the differential image, and a data processing for the edge detection information. Binarization processing unit 114 for performing binarization so as to easily perform noise detection, and noise region information generation unit 1 for excluding a noise region from binarized edge detection information
15 and a pointing coordinate detection unit 116 that detects the designated position from the edge detection information from which the noise region has been excluded.
【0071】このような処理部110は、具体的にはC
PU、各種プログラム、データ等を記憶する情報記憶媒
体であるROM、ワーク領域として機能するRAM等を
用いて実現される。Such a processing unit 110 is, specifically,
This is realized using a PU, a ROM that is an information storage medium for storing various programs, data, and the like, a RAM that functions as a work area, and the like.
【0072】以下、位置検出部130内の各部について
順に詳細に説明する。Hereinafter, each unit in the position detection unit 130 will be described in detail in order.
【0073】CCDカメラ40から出力される撮像信号
は、差分像抽出部111へ入力される。本実施の形態に
おいて、CCDカメラ40は白黒の撮像信号を出力する
ものとする。The image pickup signal output from the CCD camera 40 is input to the difference image extraction unit 111. In the present embodiment, it is assumed that the CCD camera 40 outputs a monochrome imaging signal.
【0074】差分像抽出部111は、図5および図6を
用いて説明したように、1フレーム前の画像と現在フレ
ームの画像との差分像を抽出する。As described with reference to FIGS. 5 and 6, the difference image extracting section 111 extracts a difference image between the image one frame before and the image of the current frame.
【0075】図9は、本実施の形態の一例に係る差分像
抽出部111の機能ブロック図である。FIG. 9 is a functional block diagram of the difference image extracting unit 111 according to an example of the present embodiment.
【0076】差分像抽出部111は、CCDカメラ40
からの赤外ポインター50が非点灯時の撮像情報を制御
部412を用いて記憶部410に記憶する。The difference image extracting section 111 is provided for the CCD camera 40.
The imaging information when the infrared pointer 50 is not lit is stored in the storage unit 410 using the control unit 412.
【0077】そして、差分像抽出部111は、次回の撮
像で、CCDカメラ40からの赤外ポインター50が点
灯時の撮像情報を取得し、差分像生成部414を用いて
当該撮像情報と記憶部410に記憶された撮像情報との
差分像を生成する。Then, the difference image extracting section 111 obtains the image information when the infrared pointer 50 from the CCD camera 40 is turned on in the next image pickup, and uses the difference image generation section 414 to store the image information and the storage section. A difference image with the imaging information stored in 410 is generated.
【0078】差分像抽出部111で生成された差分像は
エッジ検出部112に入力される。The difference image generated by the difference image extraction unit 111 is input to the edge detection unit 112.
【0079】図10は、本実施の形態の一例に係るエッ
ジ検出部112の機能ブロック図である。FIG. 10 is a functional block diagram of the edge detection unit 112 according to an example of the present embodiment.
【0080】エッジ検出部112は、通常の差分像に比
べて1ドット分遅延した差分像を制御部422を用いて
記憶部420に記憶する。The edge detection unit 112 stores the difference image delayed by one dot from the normal difference image in the storage unit 420 using the control unit 422.
【0081】そして、エッジ検出部112は、差分演算
部424を用いて、通常の差分像と、記憶部420に記
憶された1ドット分遅延した差分像との差分(絶対値の
差分)を演算する。Then, the edge detecting section 112 calculates the difference (absolute value difference) between the normal difference image and the difference image delayed by one dot stored in the storage section 420 by using the difference calculation section 424. I do.
【0082】また、図10を用いて説明したエッジ検出
部112の出力であるエッジ検出情報は2値化処理部1
14で2値化されて2値情報が生成される。The edge detection information output from the edge detection unit 112 described with reference to FIG.
At 14, binarization is performed to generate binary information.
【0083】図11は、本実施の形態の一例に係るノイ
ズ領域情報生成部115の機能ブロック図である。FIG. 11 is a functional block diagram of the noise area information generation unit 115 according to an example of the present embodiment.
【0084】ノイズ領域情報生成部115は、画像表示
領域12における傷や文字等(ノイズ領域)を指示位置
の検出対象から除外するためのノイズ領域情報を生成す
る。このノイズ領域情報の生成は、画像表示領域12に
指示検出対象が現れない任意のタイミング、例えば、プ
レゼンテーション実行前に行われる。The noise area information generating section 115 generates noise area information for excluding a flaw, character, or the like (noise area) in the image display area 12 from the detection of the designated position. The generation of the noise area information is performed at an arbitrary timing when the instruction detection target does not appear in the image display area 12, for example, before the execution of the presentation.
【0085】図3(B)は、ノイズ領域情報を可視化し
て示す図である。このような図をマスク画像とも呼ぶ。
具体的には、ノイズ領域情報は、次のように生成され
る。FIG. 3B is a diagram visualizing and showing the noise area information. Such a figure is also called a mask image.
Specifically, the noise area information is generated as follows.
【0086】プレゼンテーション実行前に、CCDカメ
ラ40が画像表示領域12を撮像する。得られた撮像画
像に基づいてエッジ検出部112がエッジ検出情報を生
成し、さらにこのエッジ検出情報に基づき2値化処理部
114が2値情報を生成する。この2値情報は、ノイズ
領域情報生成部115に入力される。Before the presentation, the CCD camera 40 captures an image of the image display area 12. The edge detection unit 112 generates edge detection information based on the obtained captured image, and the binarization processing unit 114 generates binary information based on the edge detection information. This binary information is input to the noise area information generation unit 115.
【0087】その後、所定のしきい値を超える輝度に対
する領域が膨張するように、ノイズ領域情報生成部11
5内の膨張処理部450が2値情報に膨張処理を行う。
膨張処理後の2値情報は、制御部454によって記憶部
452に記憶される。記憶部452の記憶内容はノイズ
領域情報に対応し、ポインティング座標検出動作の間、
保持される。Thereafter, the noise area information generating section 11 expands the area for the luminance exceeding the predetermined threshold value.
The expansion processing unit 450 in 5 performs expansion processing on the binary information.
The binary information after the expansion processing is stored in the storage unit 452 by the control unit 454. The storage content of the storage unit 452 corresponds to the noise area information, and during the pointing coordinate detection operation,
Will be retained.
【0088】なお、ノイズ領域情報を生成するための上
述の方法において、差分像抽出部111におけるフレー
ム間差分像生成処理は行われない。In the above-described method for generating noise area information, the difference image extracting section 111 does not perform the inter-frame difference image generation processing.
【0089】そして、制御部454からは、当該ノイズ
領域を示す情報であるノイズ領域情報がポインティング
座標検出部116へ向け出力される。Then, the control section 454 outputs noise area information indicating the noise area to the pointing coordinate detection section 116.
【0090】図12は、本実施の形態の一例に係るポイ
ンティング座標検出部116の機能ブロック図である。FIG. 12 is a functional block diagram of pointing coordinate detecting section 116 according to an example of the present embodiment.
【0091】指示位置を検出する検出手段として機能す
るポインティング座標検出部116では、ノイズ領域情
報生成部115からのノイズ領域情報がNOT回路46
0で反転された情報と、2値化処理部114からの2値
情報とがAND回路462に入力される。In the pointing coordinate detecting section 116 functioning as detecting means for detecting the designated position, the noise area information from the noise area information generating section 115 is transmitted to the NOT circuit 46.
The information inverted by 0 and the binary information from the binarization processing unit 114 are input to the AND circuit 462.
【0092】これにより、判定信号が真の場合には、ノ
イズ領域を除外した形で2値情報に基づき、指示位置の
検出が行われる。なお、判定信号が偽であった場合には
指示位置の検出は行われない。As a result, when the determination signal is true, the designated position is detected based on the binary information excluding the noise region. Note that if the determination signal is false, the pointing position is not detected.
【0093】実際の指示位置の検出は、重心座標検出部
464により行われる。赤外ポインター50からの光
は、円または楕円状であるため、その重心を検出するこ
とにより、指示位置を正確に検出することができる。The detection of the actual designated position is performed by the center-of-gravity coordinate detector 464. Since the light from the infrared pointer 50 has a circular or elliptical shape, the pointing position can be accurately detected by detecting the center of gravity.
【0094】ポインティング座標検出部116は、重心
座標を検出し、赤外ポインター50が指し示す指示位置
として、その検出結果を演算処理部118へ出力する。The pointing coordinate detecting section 116 detects the coordinates of the center of gravity, and outputs the detection result to the arithmetic processing section 118 as the designated position indicated by the infrared pointer 50.
【0095】また、演算処理部118は、このようにし
て入力される指示位置の検出データに基づき各種のデー
タ処理や画像処理を行う。The arithmetic processing unit 118 performs various data processing and image processing based on the input data of the designated position thus detected.
【0096】なお、上述した2値化処理等の詳細につい
ては、本出願人により出願された特許文献(特願平11
−89025)に記載されているので、ここではその詳
細な説明を省略している。The details of the above-mentioned binarization processing and the like are described in the patent document (Japanese Patent Application No.
−89025), the detailed description is omitted here.
【0097】また、本実施の形態において、演算処理部
118は、カメラ制御部122およびカーソル制御部1
20として機能する。In the present embodiment, the arithmetic processing section 118 includes the camera control section 122 and the cursor control section 1.
Functions as 20.
【0098】カメラ制御部122は、CCDカメラ40
から出力される情報に基づき、CCDカメラ40のフォ
ーカス制御等の各種の光学制御を行う。The camera control unit 122 includes the CCD camera 40
Various optical controls such as focus control of the CCD camera 40 are performed based on the information output from the.
【0099】また、カーソル制御部120は、検出され
た指示位置を指し示すように、画像表示領域12に投写
されて表示される矢印状のカーソル200の位置制御を
行う。すなわち、カーソル制御部120は、プロジェク
タ20から投写される画像に含まれるカーソル200
が、赤外ポインター50の指示位置に追従して移動する
ようにプロジェクタ20を制御する。The cursor control unit 120 controls the position of the arrow-shaped cursor 200 projected and displayed on the image display area 12 so as to indicate the detected pointing position. That is, the cursor control unit 120 controls the cursor 200 included in the image projected from the projector 20.
Controls the projector 20 to move following the position indicated by the infrared pointer 50.
【0100】(指示位置検出処理の流れについての説
明)次に、上述した各部を用いた指示位置検出処理の流
れについてフローチャートを用いて説明する。(Description of Flow of Pointed Position Detection Process) Next, the flow of the pointed position detection process using the above-described units will be described with reference to a flowchart.
【0101】図13は、本実施の形態の一例に係る指示
位置検出処理の流れを示すフローチャートである。FIG. 13 is a flowchart showing the flow of the designated position detecting process according to an example of the present embodiment.
【0102】まず、ノイズ領域情報生成部115におい
て、ノイズ領域情報を生成し、記憶する(ステップS
1)。First, the noise area information generating section 115 generates and stores noise area information (step S).
1).
【0103】そして、プレゼンテーション画像が表示さ
れる(ステップS2)。Then, the presentation image is displayed (step S2).
【0104】CCDカメラ40の撮像タイミングに合わ
せて送信部60から撮像タイミング信号がプレゼンター
の指示具である赤外ポインター50へ向け送信され、受
信部56により受信される。An image pickup timing signal is transmitted from the transmitting section 60 to the infrared pointer 50 as the presenter's instruction tool in accordance with the image pickup timing of the CCD camera 40, and is received by the receiving section 56.
【0105】このような撮像タイミング信号処理(ステ
ップS4)に伴い、赤外ポインター50は、操作部52
によって指示が行われている際に、撮像されるフレーム
単位で発光制御部58により発光部54の点灯と消灯
(点滅)を繰り返す(ステップS6)。In accordance with the image pickup timing signal processing (step S4), the infrared pointer 50
When the instruction is performed by the light emitting unit 54, the light emission control unit 58 repeats the lighting and extinguishing (flashing) of the light emitting unit 54 for each frame to be imaged (step S6).
【0106】そして、CCDカメラ40は、実際の指示
画像を撮像し(ステップS8)、差分像抽出部111
は、当該撮像画像に基づき差分像を抽出する(ステップ
S10)。Then, the CCD camera 40 captures the actual designated image (step S8), and the difference image extracting unit 111
Extracts a difference image based on the captured image (step S10).
【0107】そして、エッジ検出部112により差分像
のエッジが検出される(ステップS12)。Then, the edge of the difference image is detected by the edge detector 112 (step S12).
【0108】この2値化された情報のうち、輝度が高い
ものについては、ノイズ領域情報生成部115によりノ
イズ領域情報が生成される(ステップS18)。[0108] Of the binarized information, the noise area information is generated by the noise area information generating section 115 for the information having a high luminance (step S18).
【0109】そして、ポインティング座標検出部116
により、ノイズ領域情報生成部115からのノイズ領域
情報、2値化処理部114からのエッジ検出された2値
化情報に基づき、重心座標検出部464で赤外ポインタ
ー50からのスポット光の重心座標が検出される(ステ
ップS20)。Then, the pointing coordinate detecting section 116
Based on the noise area information from the noise area information generation unit 115 and the binarized information detected by the edge from the binarization processing unit 114, the barycentric coordinate detection unit 464 uses the barycentric coordinates of the spot light from the infrared pointer 50. Is detected (step S20).
【0110】カーソル制御部120は、この重心座標に
基づき、カーソル200の表示位置を制御する(ステッ
プS22)。The cursor control unit 120 controls the display position of the cursor 200 based on the barycentric coordinates (step S22).
【0111】以上の処理(ステップS2〜S22)をプ
レゼンテーションが終了するまで繰り返す。The above processing (steps S2 to S22) is repeated until the presentation ends.
【0112】以上、説明してきたように本実施の形態に
よれば、ノイズ領域情報生成部115を用いて外乱光や
スクリーンの傷、文字等を除去して位置検出を行うこと
により、誤認識をなくし、正確な指示位置検出が行え
る。As described above, according to the present embodiment, erroneous recognition is performed by performing position detection by using the noise area information generation unit 115 to remove disturbance light, screen scratches, characters, and the like. Thus, accurate pointing position detection can be performed.
【0113】また、赤外ポインター50の点灯時に撮像
手段が出力する画像情報と消灯時に撮像手段が出力する
画像情報との差分をとることによって、位置座標検出に
おいて外乱光の影響をほとんど除去することができ、検
出系のS/N比を向上させ、赤外光のような弱い光でも
適切に検出することができる。Further, by taking the difference between the image information output by the image pickup means when the infrared pointer 50 is turned on and the image information output by the image pickup means when the infrared pointer 50 is turned off, the influence of disturbance light in position coordinate detection is almost eliminated. Thus, the S / N ratio of the detection system can be improved, and even weak light such as infrared light can be appropriately detected.
【0114】さらに、エッジ検出部112でエッジ検出
処理を行うことにより、外乱光のレベル変動や、外乱光
によるシェーディングに強くなり、精度の高い指示位置
の検出が行える。Further, by performing the edge detection processing in the edge detection unit 112, the level fluctuation of disturbance light and the shading due to disturbance light become strong, and the designated position can be detected with high accuracy.
【0115】次に、処理部110のハードウェア構成に
ついて説明する。Next, the hardware configuration of the processing unit 110 will be described.
【0116】図14は、本実施の形態の一例に係る処理
部のハードウェア構成の説明図である。FIG. 14 is an explanatory diagram of a hardware configuration of a processing unit according to an example of the present embodiment.
【0117】同図に示す装置では、CPU1000、R
OM1002、RAM1004、情報記憶媒体100
6、画像生成IC1010、I/O(入出力ポート)1
020−1、1020−2が、システムバス1016に
より相互にデータ送受信可能に接続されている。そし
て、I/O1020−1、1020−2を介してCCD
カメラ40、プロジェクタ20、送信部60等の機器に
接続されている。In the apparatus shown in FIG.
OM 1002, RAM 1004, information storage medium 100
6. Image generation IC 1010, I / O (input / output port) 1
020-1 and 020-2 are connected to each other via a system bus 1016 so that data can be transmitted and received therebetween. And, CCD via I / Os 1020-1 and 1020-2
It is connected to devices such as the camera 40, the projector 20, and the transmission unit 60.
【0118】情報記憶媒体1006は、プログラムや、
画像データ等が格納されるものである。The information storage medium 1006 stores programs,
Image data and the like are stored.
【0119】情報記憶媒体1006に格納されるプログ
ラム、ROM1002に格納されるプログラム等に従っ
て、CPU1000は装置全体の制御や各種データ処理
を行う。RAM1004はこのCPU1000の作業領
域等として用いられる記憶手段であり、情報記憶媒体1
006やROM1002の所与の内容や、CPU100
0の演算結果等が格納される。また、本実施形態を実現
するための論理的な構成を持つデータ構造は、RAM1
004または情報記憶媒体1006上に構築されること
になる。The CPU 1000 controls the entire apparatus and performs various data processing in accordance with programs stored in the information storage medium 1006, programs stored in the ROM 1002, and the like. The RAM 1004 is storage means used as a work area or the like of the CPU 1000.
006 or given contents of the ROM 1002 or the CPU 100
The operation result of 0 is stored. The data structure having a logical configuration for realizing the present embodiment is the RAM 1
004 or the information storage medium 1006.
【0120】そして図1〜図13で説明した各種の処理
は、これらの処理を行うためのプログラムを格納した情
報記憶媒体1006と、当該プログラムに従って動作す
るCPU1000、画像生成IC1010等によって実
現される。なお画像生成IC1010等で行われる処理
は、CPU1000や汎用のDSP等によりソフトウェ
ア的に行ってもよい。The various processes described with reference to FIGS. 1 to 13 are realized by an information storage medium 1006 storing a program for performing these processes, a CPU 1000 operating according to the program, an image generation IC 1010, and the like. Note that the processing performed by the image generation IC 1010 or the like may be performed by software using the CPU 1000, a general-purpose DSP, or the like.
【0121】以上、本発明を適用した好適な実施の形態
について説明してきたが、本発明の適用は上述した実施
例に限定されない。Although the preferred embodiment to which the present invention is applied has been described, the application of the present invention is not limited to the above-described embodiment.
【0122】(その他の実施例)例えば、上述したエッ
ジ検出部112は、1ドット分遅れた差分像を用いた差
分処理によって簡易にエッジ検出を行ったが、いわゆる
オペレータ(画像フィルタリング処理に用いる係数のマ
トリクス)を用いて隣接画素の微分処理を行ってエッジ
検出を行ってもよい。(Other Embodiments) For example, the above-described edge detection unit 112 has simply performed edge detection by difference processing using a difference image delayed by one dot. Edge detection may be performed by performing a differentiation process on adjacent pixels using the matrix of (1).
【0123】図15は、本実施の形態の一例に係るオペ
レータの模式図である。FIG. 15 is a schematic view of an operator according to an example of the present embodiment.
【0124】オペレータとしては、Sobelのオペレ
ータ等の種々のオペレータが用いられる。図15に示す
オペレータでは、垂直方向の成分を強調するオペレータ
である。もちろん、オペレータの数値や、サイズは図1
5に示すものに限られず、種々のものを適用することが
できる。As the operator, various operators such as Sobel operator are used. The operator shown in FIG. 15 is an operator that emphasizes a component in the vertical direction. Of course, the numerical values and sizes of the operators are shown in FIG.
The invention is not limited to the one shown in FIG.
【0125】また、上述した実施例では、差分像抽出部
111を用いて差分像を生成し、当該差分像に対してエ
ッジ検出部112を用いてエッジ検出処理を行う例につ
いて説明したが、差分像を抽出せずにエッジ検出処理を
行ってもよい。In the above-described embodiment, an example has been described in which a difference image is generated using the difference image extraction unit 111 and edge detection processing is performed on the difference image using the edge detection unit 112. Edge detection processing may be performed without extracting an image.
【0126】また、例えば、本実施の形態では、赤外光
を発光するポインターを指示具として用いたが、レーザ
ー光や可視光を発光するポインターを用いた場合でも指
示位置を正確に検出することができる。Also, for example, in the present embodiment, a pointer that emits infrared light is used as the pointing device. However, even when a pointer that emits laser light or visible light is used, the pointing position can be accurately detected. Can be.
【0127】また、CCDカメラ40、送信部60およ
び処理部110をプロジェクタ20と一体化してもよ
い。Further, the CCD camera 40, the transmitting section 60 and the processing section 110 may be integrated with the projector 20.
【0128】また、指示位置の検出後のデータ処理とし
て、カーソルの表示位置演算処理以外にも、例えば、カ
ーソルの表示変更処理、アイコンの指示確定処理、アイ
コンの表示変更処理等を行うことも可能である。Further, as data processing after detection of the indicated position, for example, processing for changing the display of the cursor, processing for confirming the indication of the icon, processing for changing the display of the icon, etc. can be performed in addition to the processing for calculating the display position of the cursor. It is.
【0129】また、CCDカメラ40を、赤外光のみを
透過する赤外透過部を介して所定の赤外領域での撮像を
行うように構成してもよい。Further, the CCD camera 40 may be configured to capture an image in a predetermined infrared region through an infrared transmitting portion that transmits only infrared light.
【0130】これによれば、赤外透過部を介して赤外領
域での撮像を行うことにより、不要な光成分を除去して
ノイズを減らすことにより、正確な位置検出が行える。According to this, by performing imaging in the infrared region through the infrared transmitting portion, unnecessary light components are removed and noise is reduced, thereby enabling accurate position detection.
【0131】なお、ここで、赤外領域とは、赤外線のみ
を認識可能な領域であり、一般に電磁波の波長が700
nm〜1mmまでの領域が該当する。Here, the infrared region is a region in which only infrared light can be recognized.
The region from nm to 1 mm corresponds.
【0132】また、上述した差分像の生成は、1フレー
ムごとに、参照される差分像生成用画像を生成する方式
であったが、プレゼンテーション実行前に差分像生成用
画像を取り込んで所定の記憶領域に記憶しておいてもよ
い。The above-described method of generating a difference image is a method of generating a difference image generation image to be referred to for each frame. It may be stored in an area.
【0133】また、この場合には、必要に応じて差分像
生成用画像を再取り込みして前記記憶領域に記憶された
差分像生成用画像と差し替えることができる。これによ
り、例えば、日光等の外乱光によるノイズが増えてきた
場合にも、そのノイズ分を差分像生成によって除去する
ことができ、適用される環境の変化に応じて指示位置の
検出を正確に行うことができる。In this case, if necessary, the difference image generation image can be re-fetched and replaced with the difference image generation image stored in the storage area. Thus, for example, even when noise due to disturbance light such as sunlight increases, the noise can be removed by generating a difference image, and the detection of the indicated position can be accurately performed according to a change in the applied environment. It can be carried out.
【0134】また、上述したプロジェクタのような投写
手段以外にも表示手段で画像表示を行ってプレゼンテー
ション等を行う場合にも本発明を適用できる。このよう
な表示手段としては、例えば、液晶プロジェクタのほ
か、CRT(CathodeRay Tube)、PD
P(Plasma Display Panel)、F
ED(Field Emission Displa
y)、EL(Electro Luminescenc
e)、直視型液晶表示装置等のディスプレイ装置等が該
当する。Further, the present invention can be applied to a case where a presentation or the like is performed by displaying an image using a display means other than the projection means such as the projector described above. Such display means include, for example, a liquid crystal projector, a CRT (Cathode Ray Tube), a PD
P (Plasma Display Panel), F
ED (Field Emission Display)
y), EL (Electro Luminescence)
e), a display device such as a direct-view type liquid crystal display device and the like.
【0135】さらに、上述した実施例では、前面投写型
のプロジェクタを適用した例について説明したが、背面
投写型のプロジェクタを適用することも可能である。Furthermore, in the above-described embodiment, an example in which a front projection type projector is applied has been described. However, a rear projection type projector can be applied.
【図1】本実施形態の一例に係るプレゼンテーションシ
ステムの概略説明図である。FIG. 1 is a schematic explanatory diagram of a presentation system according to an example of an embodiment.
【図2】指示位置とカーソル表示位置との関係を示す模
式図である。FIG. 2 is a schematic diagram illustrating a relationship between a designated position and a cursor display position.
【図3】膨張処理の説明図であり、図3(A)は、膨張
処理前のノイズ画像を示し、図3(B)は、膨張処理後
のノイズ画像を示す図である。FIGS. 3A and 3B are explanatory diagrams of the expansion processing. FIG. 3A shows a noise image before the expansion processing, and FIG. 3B shows a noise image after the expansion processing.
【図4】ノイズ除去処理の説明図であり、図4(A)
は、ノイズ除去前の指示画像を示し、図4(B)は、エ
ッジ処理およびノイズ除去後の指示画像を示す図であ
る。FIG. 4 is an explanatory diagram of a noise removal process, and FIG.
Shows an instruction image before noise removal, and FIG. 4B shows an instruction image after edge processing and noise removal.
【図5】赤外ポインターの点滅に同期したフレーム間差
分処理の説明図であり、図5(A)は、赤外ポインター
発光時の指示画像を示し、図5(B)は、赤外ポインタ
ー消灯時の画像を示し、図5(C)は、フレーム間差分
処理後の指示画像を示す図である。5A and 5B are explanatory diagrams of an inter-frame difference process synchronized with the blinking of the infrared pointer. FIG. 5A shows an instruction image when the infrared pointer emits light, and FIG. FIG. 5C shows an image when the light is turned off, and FIG.
【図6】撮像フレーム番号と赤外光源状態との関係を示
す説明図である。FIG. 6 is an explanatory diagram showing a relationship between an imaging frame number and an infrared light source state.
【図7】本実施の形態の一例に係る赤外ポインターの機
能ブロック図である。FIG. 7 is a functional block diagram of an infrared pointer according to an example of the present embodiment.
【図8】本実施の形態の一例に係るシステムの機能ブロ
ック図である。FIG. 8 is a functional block diagram of a system according to an example of the present embodiment.
【図9】本実施の形態の一例に係る差分像抽出部の機能
ブロック図である。FIG. 9 is a functional block diagram of a difference image extracting unit according to an example of the present embodiment.
【図10】本実施の形態の一例に係るエッジ検出部の機
能ブロック図である。FIG. 10 is a functional block diagram of an edge detection unit according to an example of the present embodiment.
【図11】本実施の形態の一例に係るノイズ領域情報生
成部の機能ブロック図である。FIG. 11 is a functional block diagram of a noise area information generation unit according to an example of the present embodiment.
【図12】本実施の形態の一例に係るポインティング座
標検出部の機能ブロック図である。FIG. 12 is a functional block diagram of a pointing coordinate detection unit according to an example of the present embodiment.
【図13】本実施の形態の一例に係る指示位置検出処理
の流れを示すフローチャートである。FIG. 13 is a flowchart illustrating a flow of a designated position detection process according to an example of the present embodiment.
【図14】本実施の形態の一例に係る処理部のハードウ
ェア構成の説明図である。FIG. 14 is an explanatory diagram of a hardware configuration of a processing unit according to an example of the present embodiment.
【図15】本実施の形態の一例に係るオペレータの模式
図である。FIG. 15 is a schematic diagram of an operator according to an example of the present embodiment.
10 スクリーン 12 画像表示領域 20 プロジェクタ 30 プレゼンター 40 CCDカメラ 110 処理部 111 差分像抽出部 112 エッジ検出部 113 輝度判定部 114 2値化処理部 115 ノイズ領域情報生成部 116 ポインティング座標検出部 130 位置検出部 1006 情報記憶媒体 Reference Signs List 10 screen 12 image display area 20 projector 30 presenter 40 CCD camera 110 processing unit 111 difference image extraction unit 112 edge detection unit 113 brightness determination unit 114 binarization processing unit 115 noise region information generation unit 116 pointing coordinate detection unit 130 position detection unit 1006 Information storage medium
フロントページの続き Fターム(参考) 2F065 AA03 AA12 BB02 DD03 DD04 DD11 FF04 GG07 GG12 JJ26 QQ11 QQ13 QQ24 QQ25 QQ31 5B057 CE02 CE12 DA07 DA08 DB06 DB08 DC16 DC32 5B087 AA02 AC12 BC32 CC09 5L096 BA20 CA02 CA14 EA05 EA43 FA06 GA08 Continued on front page F-term (reference) 2F065 AA03 AA12 BB02 DD03 DD04 DD11 FF04 GG07 GG12 JJ26 QQ11 QQ13 QQ24 QQ25 QQ31 5B057 CE02 CE12 DA07 DA08 DB06 DB08 DC16 DC32 5B087 AA02 AC12 BC32 CC09 5L096 BA20 CA05 EA05
Claims (15)
ト光による指示位置を検出する指示位置検出システムに
おいて、 前記画像表示領域を撮像する撮像手段と、 当該撮像手段の撮像画像に基づき、当該撮像画像に含ま
れる指示画像から前記画像表示領域における前記スポッ
ト光による指示位置を検出する位置検出手段と、 を含み、 前記位置検出手段は、 前記撮像画像に含まれる前記指示画像のエッジ検出処理
を行うエッジ検出手段と、 エッジ検出処理された指示画像の情報に基づき、前記ス
ポット光による指示位置を検出する検出手段と、 を含むことを特徴とする指示位置検出システム。1. An indication position detection system for detecting an indication position by a spot light projected on a predetermined image display area, wherein: an imaging means for imaging the image display area; And a position detecting means for detecting a position indicated by the spot light in the image display area from an instruction image included in the image. The position detection means performs edge detection processing of the instruction image included in the captured image. A pointing position detection system, comprising: edge detection means; and detection means for detecting a pointing position by the spot light based on information of the pointing image subjected to the edge detection processing.
ト光による指示位置を検出する指示位置検出システムに
おいて、 前記画像表示領域を撮像する撮像手段と、 前記撮像手段の撮像画像に基づき、当該撮像画像に含ま
れる指示画像から前記画像表示領域における前記スポッ
ト光による指示位置を検出する位置検出手段と、 を含み、 前記位置検出手段は、 前記画像表示領域を撮像することにより得られる差分像
生成用画像を記憶する手段と、 前記撮像画像と前記差分像生成用画像との差分像を抽出
する差分像抽出手段と、 前記差分像のエッジ検出処理を行うエッジ検出手段と、 エッジ検出された情報に基づき、前記スポット光による
指示位置を検出する検出手段と、 を含むことを特徴とする指示位置検出システム。2. An indication position detection system for detecting an indication position by a spot light projected on a predetermined image display area, wherein: an image pickup means for picking up the image display area; Position detecting means for detecting a position indicated by the spot light in the image display area from an instruction image included in the image, wherein the position detection means is for generating a differential image obtained by imaging the image display area. Means for storing an image; difference image extracting means for extracting a difference image between the captured image and the image for generating a difference image; edge detection means for performing edge detection processing of the difference image; And a detecting means for detecting a position indicated by the spot light based on the spot light.
像の情報を2値化する2値化手段を含み、 前記検出手段は、前記2値化手段で2値化された指示画
像の情報に基づき、前記指示位置を検出することを特徴
とする指示位置検出システム。3. The apparatus according to claim 1, wherein the position detecting means includes a binarizing means for binarizing information of the designated image subjected to the edge detection processing. A designated position detection system, wherein the designated position is detected based on information of a designated image binarized by a value conversion unit.
撮像画像に対してエッジ検出処理を行うことにより、ノ
イズ領域を検出して記憶するノイズ領域検出処理手段を
含み、 前記検出手段は、前記ノイズ領域検出処理手段で検出さ
れたノイズ領域を前記指示位置の検出対象から除外して
前記指示画像の指示位置を検出することを特徴とする指
示位置検出システム。4. The apparatus according to claim 1, wherein the position detection unit detects and stores a noise area by performing an edge detection process on a captured image of an image display area in a non-pointed state. A noise region detection processing unit, wherein the detection unit detects a designated position of the designated image by excluding a noise region detected by the noise region detection processing unit from a detection target of the designated position. Pointing position detection system.
行って検出した領域に膨張処理を施して前記ノイズ領域
として記憶することを特徴とする指示位置検出システ
ム。5. The pointing position detection system according to claim 4, wherein the noise area detection processing means performs expansion processing on the area detected by performing the edge detection processing and stores the result as the noise area.
れるスポット光による指示位置を検出する指示位置検出
システムにおいて、 前記画像表示領域を撮像する撮像手段と、 前記撮像手段の撮像画像に基づき、当該撮像画像に含ま
れる指示画像から前記画像表示領域における前記スポッ
ト光による指示位置を検出する位置検出手段と、 前記撮像手段の撮像タイミングと所定の関係にあるタイ
ミング情報を前記指示具へ向け送信する手段と、 を含み、 前記指示具は、前記タイミング情報に基づき、前記撮像
手段の撮像タイミングに同期してスポット光を点滅し、 前記位置検出手段は、 スポット光の非点灯時に撮像された差分像生成用画像
と、スポット光の点灯時に撮像された指示画像との差分
像を抽出する差分像抽出手段と、 当該差分像に含まれるスポット光の画像に基づき、前記
指示位置を検出する検出手段と、 を含むことを特徴とする指示位置検出システム。6. A pointing position detection system for detecting a pointing position of a spot light projected from a pointing tool on a predetermined image display area, comprising: an imaging unit that captures an image of the image display region; A position detecting unit that detects a position indicated by the spot light in the image display area from an instruction image included in the captured image; and transmitting timing information having a predetermined relationship with an imaging timing of the imaging unit to the indicator The pointing device blinks the spotlight in synchronization with the imaging timing of the imaging unit based on the timing information, and the position detection unit detects the difference captured when the spotlight is not lit. A difference image extracting unit that extracts a difference image between the image generation image and the instruction image captured when the spotlight is turned on, Based on the image of Murrell spot light, it instructs position detection system which comprises a detecting means for detecting the indicated position.
能に形成され、 前記指示位置検出手段は、前記赤外領域で撮像された赤
外撮像画像に基づき、前記指示位置を検出することを特
徴とする指示位置検出システム。7. The imaging device according to claim 1, wherein the imaging unit is formed so that the image display area can be imaged in an infrared region, and the pointing position detection unit is imaged in the infrared region. A designated position detection system, wherein the designated position is detected based on an infrared captured image.
を含み、 請求項1〜7のいずれかに記載の指示位置検出システム
を用いて前記指示位置を検出することを特徴とするプレ
ゼンテーションシステム。8. A presentation system, comprising: means for displaying an image in the image display area, wherein the designated position is detected by using the designated position detection system according to any one of claims 1 to 7.
ト光による指示位置を検出するための情報を記憶したコ
ンピュータ読み取り可能な情報記憶媒体であって、 前記情報は、 前記画像表示領域を撮像する撮像手段による撮像画像に
基づき、当該撮像画像に含まれる指示画像から前記画像
表示領域における前記スポット光による指示位置を検出
する位置検出手段を実現するための情報を含み、 前記位置検出手段は、 前記撮像画像に含まれる前記指示画像のエッジ検出処理
を行うエッジ検出手段と、 エッジ検出処理された指示画像の情報に基づき、前記ス
ポット光による指示位置を検出する検出手段と、 を含むことを特徴とする情報記憶媒体。9. A computer-readable information storage medium storing information for detecting a position indicated by a spot light projected on a predetermined image display area, wherein the information captures an image of the image display area. Based on the image captured by the image capturing unit, the information includes information for realizing a position detecting unit that detects a pointed position by the spot light in the image display area from an instruction image included in the captured image. Edge detecting means for performing edge detection processing of the pointing image included in the captured image, and detecting means for detecting a pointing position by the spot light based on information of the pointing image subjected to the edge detection processing, Information storage medium.
ット光による指示位置を検出するための情報を記憶した
コンピュータ読み取り可能な情報記憶媒体であって、 前記情報は、 前記画像表示領域を撮像する撮像手段による撮像画像に
基づき、当該撮像画像に含まれる指示画像から前記画像
表示領域における前記スポット光による指示位置を検出
する位置検出手段を実現するための情報を含み、 前記位置検出手段は、 前記画像表示領域を撮像することにより得られる差分像
生成用画像を記憶する手段と、 前記撮像画像と前記差分像生成用画像との差分像を抽出
する差分像抽出手段と、 前記差分像のエッジ検出処理を行うエッジ検出手段と、 エッジ検出された情報に基づき、前記スポット光による
指示位置を検出する検出手段と、 を含むことを特徴とする情報記憶媒体。10. A computer-readable information storage medium storing information for detecting a position indicated by a spot light projected on a predetermined image display area, wherein the information captures an image of the image display area. Based on the image captured by the image capturing unit, the information includes information for realizing a position detecting unit that detects a pointed position by the spot light in the image display area from an instruction image included in the captured image. Means for storing a difference image generation image obtained by imaging the image display area; difference image extraction means for extracting a difference image between the captured image and the difference image generation image; edge detection of the difference image Edge detecting means for performing processing; and detecting means for detecting a position indicated by the spot light based on information on the detected edge. Information storage medium characterized.
像の情報を2値化する2値化手段を含み、 前記検出手段は、前記2値化手段で2値化された指示画
像の情報に基づき、前記指示位置を検出することを特徴
とする情報記憶媒体。11. The method according to claim 9, wherein the position detecting means includes a binarizing means for binarizing information of the designated image subjected to the edge detection processing. An information storage medium, wherein the designated position is detected based on information of a designated image that has been binarized by a binarizing unit.
撮像画像に対してエッジ検出処理を行うことにより、ノ
イズ領域を検出して記憶するノイズ領域検出処理手段を
含み、 前記検出手段は、前記ノイズ領域検出処理手段で検出さ
れたノイズ領域を前記指示位置の検出対象から除外して
前記指示画像の指示位置を検出することを特徴とする情
報記憶媒体。12. The image processing apparatus according to claim 9, wherein the position detection unit detects and stores a noise area by performing an edge detection process on a captured image of an image display area in a non-pointed state. A noise region detection processing unit, wherein the detection unit detects a designated position of the designated image by excluding a noise region detected by the noise region detection processing unit from a detection target of the designated position. Information storage medium.
行って検出した領域に膨張処理を施して前記ノイズ領域
として記憶することを特徴とする情報記憶媒体。13. The information storage medium according to claim 12, wherein the noise area detection processing means performs expansion processing on the area detected by performing the edge detection processing and stores the expanded area as the noise area.
ット光による指示位置を検出するための情報を記憶した
コンピュータ読み取り可能な情報記憶媒体であって、 前記情報は、 前記画像表示領域を撮像する撮像手段による撮像画像に
基づき、当該撮像画像に含まれる指示画像から前記画像
表示領域における前記スポット光による指示位置を検出
する位置検出手段と、 前記撮像手段の撮像タイミングと所定の関係にあるタイ
ミング情報を前記指示具へ向け送信手段に送信させる手
段と、 を実現するための情報を含み、 前記指示具は、前記タイミング情報に基づき、前記撮像
手段の撮像タイミングに同期してスポット光を点滅し、 前記位置検出手段は、 スポット光の非点灯時に撮像された差分像生成用画像
と、スポット光の点灯時に撮像された指示画像との差分
像を抽出する差分像抽出手段と、 当該差分像に含まれるスポット光の画像に基づき、前記
指示位置を検出する検出手段と、 を含むことを特徴とする情報記憶媒体。14. A computer-readable information storage medium storing information for detecting a position indicated by a spot light projected on a predetermined image display area, wherein the information captures an image of the image display area. A position detection unit configured to detect a position indicated by the spot light in the image display area from an instruction image included in the image based on an image captured by the imaging unit; Means for transmitting to the indicator towards the indicator, including information for realizing, the indicator, based on the timing information, flashes the spotlight in synchronization with the imaging timing of the imaging means, The position detection means includes: a difference image generation image captured when the spot light is not lit; and an image captured when the spot light is lit. And a difference image extracting means for extracting a difference image between the instruction image, based on the spot light of an image included in the difference image, the information storage medium characterized by comprising a detecting means for detecting the indicated position.
能に形成され、 前記指示位置検出手段は、前記赤外領域で撮像された赤
外撮像画像に基づき、前記指示位置を検出することを特
徴とする情報記憶媒体。15. The imaging device according to claim 9, wherein the imaging unit is formed so as to be able to capture the image display area in an infrared region, and the pointing position detection unit is captured in the infrared region. An information storage medium for detecting the indicated position based on an infrared captured image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000088333A JP2001273484A (en) | 2000-03-28 | 2000-03-28 | Instructed position detection system, presentation system and information storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000088333A JP2001273484A (en) | 2000-03-28 | 2000-03-28 | Instructed position detection system, presentation system and information storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2001273484A true JP2001273484A (en) | 2001-10-05 |
Family
ID=18604225
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000088333A Pending JP2001273484A (en) | 2000-03-28 | 2000-03-28 | Instructed position detection system, presentation system and information storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2001273484A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004023359A (en) * | 2002-06-14 | 2004-01-22 | Fuji Photo Optical Co Ltd | Presentation system using data presenting apparatus |
JP2005227815A (en) * | 2004-02-10 | 2005-08-25 | Fujitsu Ltd | Program and method for specifying pointer position |
JP2007257152A (en) * | 2006-03-22 | 2007-10-04 | Casio Comput Co Ltd | Detection device |
JP2007334762A (en) * | 2006-06-16 | 2007-12-27 | Shimadzu Corp | Head motion tracker |
JP2011191298A (en) * | 2010-03-11 | 2011-09-29 | Ricoh Co Ltd | Device, method and system for identifying laser spot |
CN103900625A (en) * | 2014-03-19 | 2014-07-02 | 大连理工大学 | Digital interface method and system of hazardous chemical substance pointer instrument |
CN117704967A (en) * | 2024-02-05 | 2024-03-15 | 中铁西南科学研究院有限公司 | Machine vision-based blast hole position dynamic measurement method, target and measurement system |
-
2000
- 2000-03-28 JP JP2000088333A patent/JP2001273484A/en active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004023359A (en) * | 2002-06-14 | 2004-01-22 | Fuji Photo Optical Co Ltd | Presentation system using data presenting apparatus |
JP2005227815A (en) * | 2004-02-10 | 2005-08-25 | Fujitsu Ltd | Program and method for specifying pointer position |
JP4540358B2 (en) * | 2004-02-10 | 2010-09-08 | 富士通株式会社 | Pointer position specifying program and pointer position specifying method |
JP2007257152A (en) * | 2006-03-22 | 2007-10-04 | Casio Comput Co Ltd | Detection device |
JP4665808B2 (en) * | 2006-03-22 | 2011-04-06 | カシオ計算機株式会社 | Detection device |
JP2007334762A (en) * | 2006-06-16 | 2007-12-27 | Shimadzu Corp | Head motion tracker |
JP2011191298A (en) * | 2010-03-11 | 2011-09-29 | Ricoh Co Ltd | Device, method and system for identifying laser spot |
CN103900625A (en) * | 2014-03-19 | 2014-07-02 | 大连理工大学 | Digital interface method and system of hazardous chemical substance pointer instrument |
CN103900625B (en) * | 2014-03-19 | 2016-04-06 | 大连理工大学 | A kind of digital interface method and system of harmful influence pointer instrument |
CN117704967A (en) * | 2024-02-05 | 2024-03-15 | 中铁西南科学研究院有限公司 | Machine vision-based blast hole position dynamic measurement method, target and measurement system |
CN117704967B (en) * | 2024-02-05 | 2024-05-07 | 中铁西南科学研究院有限公司 | Machine vision-based blast hole position dynamic measurement method, target and measurement system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3640156B2 (en) | Pointed position detection system and method, presentation system, and information storage medium | |
WO2012124730A1 (en) | Detection device, input device, projector, and electronic apparatus | |
JP2988178B2 (en) | Gaze direction measuring device | |
JP2001236179A (en) | System and method for detecting indication position, presentation system and information storage medium | |
JP2011239279A (en) | Remote control device and remote control method | |
JP5277805B2 (en) | Object extraction device, object extraction method, and object extraction program | |
JP2008250482A (en) | Method and system for mouse alternatve operation for projector image | |
JP2001273484A (en) | Instructed position detection system, presentation system and information storage medium | |
JP4131097B2 (en) | Image processing method, image processing apparatus, and image processing program | |
JP2010152900A (en) | Image processor and image processing program | |
JP2006277085A (en) | Optical pointing controller and pointing system using same device | |
JP5018652B2 (en) | Object presence determination device | |
CN108572734A (en) | A kind of gestural control system based on infrared laser associated image | |
JP2000276297A (en) | Device and method for detecting pointing position, presentation system, and information storage medium | |
JP4542929B2 (en) | Image signal processing device | |
JP2000081950A (en) | Image processor, image processing method, presentation medium, and presentation system | |
US10943109B2 (en) | Electronic apparatus, method for controlling thereof and the computer readable recording medium | |
JP4656977B2 (en) | Sensing device | |
US20200174620A1 (en) | Manipulation detection device, manipulation detection method, and video display system | |
JP3620397B2 (en) | Pointed position detection system, presentation system, and information storage medium | |
JP6596501B2 (en) | Image display device and operation detection method used therefor | |
JP2006254206A (en) | Image signal processing apparatus | |
CN107122083B (en) | Touch detection method of projection surface | |
JP2018190110A (en) | Information processing program, information processing method and information processing apparatus | |
JP4438557B2 (en) | Imaging apparatus, information processing apparatus, information processing method, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20030617 |