[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4484796B2 - Coordinate input device - Google Patents

Coordinate input device Download PDF

Info

Publication number
JP4484796B2
JP4484796B2 JP2005264426A JP2005264426A JP4484796B2 JP 4484796 B2 JP4484796 B2 JP 4484796B2 JP 2005264426 A JP2005264426 A JP 2005264426A JP 2005264426 A JP2005264426 A JP 2005264426A JP 4484796 B2 JP4484796 B2 JP 4484796B2
Authority
JP
Japan
Prior art keywords
light
coordinate input
unit
sensor
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005264426A
Other languages
Japanese (ja)
Other versions
JP2007079744A (en
JP2007079744A5 (en
Inventor
究 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005264426A priority Critical patent/JP4484796B2/en
Priority to US11/401,389 priority patent/US7538894B2/en
Publication of JP2007079744A publication Critical patent/JP2007079744A/en
Publication of JP2007079744A5 publication Critical patent/JP2007079744A5/ja
Application granted granted Critical
Publication of JP4484796B2 publication Critical patent/JP4484796B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、座標入力領域上の指示位置を検出する座標入力装置に関するものである。   The present invention relates to a coordinate input device that detects a designated position on a coordinate input area.

座標入力面に、指示具(例えば、専用入力ペン、指等)によって指示して座標を入力することにより、接続されたコンピュータを制御したり、文字や図形などを書き込むために用いられる座標入力装置が存在する。   A coordinate input device used to control a connected computer or to write characters, figures, etc. by inputting coordinates on a coordinate input surface by pointing with a pointing tool (for example, a dedicated input pen, finger, etc.) Exists.

従来より、この種の座標入力装置としては、タッチパネルとして、各種方式のものが提案、または製品化されており、特殊な器具などを用いずに、画面上でパーソナルコンピュータ等の端末の操作が簡単にできるため、広く用いられている。   Conventionally, as this type of coordinate input device, various types of touch panels have been proposed or commercialized, and it is easy to operate terminals such as personal computers on the screen without using special equipment. Since it can be used, it is widely used.

座標入力方式としては、抵抗膜を用いたもの、また、超音波を用いたものなど、さまざまなものがあるが、光を用いたものとして、例えば、特許文献1がある。この特許文献1では、座標入力領域の外側に再帰性反射シートを設け、座標入力領域の角端部に配置された光を照明する照明部と光を受光する受光部を備える。そして、この構成により、座標入力領域内において指等の光を遮蔽する遮蔽物と受光部間の角度を検出し、その検出結果に基づいて、その遮蔽物の指示位置を決定する。   There are various coordinate input methods such as those using a resistive film and those using ultrasonic waves. For example, Patent Document 1 discloses a method using light. In Patent Document 1, a retroreflective sheet is provided outside the coordinate input area, and an illumination unit that illuminates light and a light receiving unit that receives the light are disposed at the corner ends of the coordinate input region. With this configuration, the angle between the light shielding unit and the light shielding unit that shields light such as a finger in the coordinate input area is detected, and the designated position of the light shielding object is determined based on the detection result.

また、特許文献2や3等にあるように、再帰反射部材を座標入力領域周辺に構成し、再帰反射光が遮光される部分(遮光部分)の座標を検出する座標入力装置が開示されている。   Further, as disclosed in Patent Documents 2 and 3 and the like, a coordinate input device is disclosed in which a retroreflective member is configured around a coordinate input region to detect the coordinates of a portion (light shielding portion) where the retroreflected light is shielded. .

これらの装置において、例えば、特許文献2では、微分等の波形処理演算によって受光部が受光する遮蔽物による遮光部分のピークを検出することにより、受光部に対する遮光部分の角度を検出し、その検出結果からその遮蔽物の座標を算出している。また、特許文献3では、特定のレベルパターンとの比較によって遮光部位の一方の端と他方の端を検出し、それらの座標の中心を検出する構成が示されている。   In these apparatuses, for example, in Patent Document 2, the angle of the light-shielding part relative to the light-receiving part is detected by detecting the peak of the light-shielding part by the shielding object received by the light-receiving part by waveform processing calculation such as differentiation, and the detection The coordinates of the shielding object are calculated from the result. Patent Document 3 discloses a configuration in which one end and the other end of a light shielding part are detected by comparison with a specific level pattern, and the center of those coordinates is detected.

ここで、特許文献1乃至3のような、遮光位置を検出して座標を算出する方式を、以下、遮光方式と称する。   Here, a method of detecting coordinates and calculating coordinates as in Patent Documents 1 to 3 is hereinafter referred to as a light shielding method.

また、更に、このような遮光方式の座標入力装置においては、特に、その座標入力領域のサイズが大きい場合には、複数の操作者が同時に入力することを許容して、利便性を向上し、より効率的な会議等の用途での要求がある。そのため、複数の同時入力に対応する座標入力装置が考案されている。   Furthermore, in such a coordinate input device of the light shielding method, in particular, when the size of the coordinate input area is large, a plurality of operators are allowed to input simultaneously, improving convenience, There is a demand for more efficient applications such as meetings. Therefore, a coordinate input device corresponding to a plurality of simultaneous inputs has been devised.

複数の座標を同時に入力するために、特許文献4〜特許文献6では、一つの受光センサで複数の遮光部分の角度を検出し、各センサの角度の組み合わせから数点の入力座標候補を算出する。更に、その算出した入力座標候補から実際に入力した座標を判別する技術が開示されている。   In Patent Documents 4 to 6, in order to input a plurality of coordinates simultaneously, the angles of a plurality of light shielding portions are detected by one light receiving sensor, and several input coordinate candidates are calculated from the combination of the angles of the sensors. . Furthermore, a technique for discriminating the actually input coordinates from the calculated input coordinate candidates is disclosed.

例えば、2点入力の場合には、入力座標候補として最大4点の座標を算出し、この4点の内、実際に入力した座標2点を判定し、出力する。つまり、この判定は、複数の入力座標候補の中から、実際の入力座標と虚偽の入力座標を選別して、最終的な入力座標を判定する。そして、この判定を、ここでは「虚実判定」と呼ぶことにする。   For example, in the case of two-point input, the coordinates of a maximum of four points are calculated as input coordinate candidates, and two of the four points actually input are determined and output. That is, in this determination, actual input coordinates and false input coordinates are selected from a plurality of input coordinate candidates, and the final input coordinates are determined. This determination will be referred to as “false determination” here.

この虚実判定の具体的な方法としては、特許文献5や特許文献6では、従来の座標入力領域の一辺の両端に、座標入力領域内で指示された座標を精度良く算出するに十分な距離を隔てて設置される第1及び第2センサを設ける。この他に、第1及び第2センサから入力領域内で指示された座標を精度良く算出するに十分な距離を隔てて第1及び第2センサの間の位置に設置される第3センサを設ける。そして、この第3センサにおける第1及び第2センサの角度情報とは異なる角度情報に基づいて、第1及び第2センサで検出された複数の角度情報に対し、この虚実判定を行う技術が開示されている。   As a concrete method of this truth determination, in Patent Document 5 and Patent Document 6, a distance sufficient to accurately calculate the coordinates instructed in the coordinate input area at both ends of one side of the conventional coordinate input area. First and second sensors are provided separately from each other. In addition to this, a third sensor is provided at a position between the first and second sensors at a sufficient distance to accurately calculate the coordinates instructed in the input area from the first and second sensors. . And the technique which performs this truth determination with respect to several angle information detected by the 1st and 2nd sensor based on the angle information different from the angle information of the 1st and 2nd sensor in this 3rd sensor is disclosed. Has been.

一方で、複数のセンサユニットを所定間隔空けて座標入力領域上の周囲に配置し、ほぼ同じ方向、ほぼ同じ領域を観測させることにより、複数の遮光影が重複した場合でも、一方の影が他方の影に完全に隠れて検出されることを回避する方法が提案されている。また、複数の影が重複したとき、其々の影の一方の端部を観測することにより、影が存在する方向を其々検出する方法が提案されている。
米国特許第4507557号公報 特開2000−105671号公報 特開2001−142642号公報 特開2002−055770号公報 特開2003−303046号公報 特許登録第2896183号
On the other hand, by arranging a plurality of sensor units around the coordinate input area with a predetermined interval and observing almost the same direction and almost the same area, even if a plurality of shading shadows overlap, A method has been proposed to avoid detection that is completely hidden behind the shadow of the camera. Also, a method has been proposed in which when a plurality of shadows overlap, the direction in which the shadow exists is detected by observing one end of each shadow.
U.S. Pat. No. 4,507,557 JP 2000-105671 A JP 2001-142642 A JP 2002-055570 A JP 2003-303046 A Patent registration No. 2896183

上述の遮光方式の座標入力装置では、光を遮ることによって形成された影を、その数、位置、影の強度とも全てのセンサが互いに矛盾のない基準で正確に検出しなければならない。しかるに、センサと再帰反射部材との位置関係、及びセンサにおける投光部と受光部の位置関係等から、それぞれのセンサから見た影の強度(遮光による光強度の低下率)は、常に、必ずしもそれぞれのセンサで互いに同じ値にはならない。   In the above-described light shielding type coordinate input apparatus, all sensors must accurately detect shadows formed by blocking light based on standards consistent with each other in terms of the number, position, and shadow intensity. However, due to the positional relationship between the sensor and the retroreflective member, and the positional relationship between the light projecting unit and the light receiving unit in the sensor, the intensity of the shadow viewed from each sensor (the rate of decrease in light intensity due to light shielding) is not always necessarily. Each sensor does not have the same value.

以下、影の強度(遮光による光強度の低下率)を、「遮光深さ」、「遮光比率」、「遮光率」等と表現する。   Hereinafter, the intensity of the shadow (light intensity reduction rate due to light shielding) is expressed as “light shielding depth”, “light shielding ratio”, “light shielding ratio”, and the like.

このように、影の遮光深さに違いがあると、例えば、本来、所定の複数のセンサから同時に検知されるべき影が、特定のセンサにおいては所定の位置に検知されるにもかかわらず、他の特定のセンサにおいては所定の位置に検知されるべき影が検知されない。即ち、この影を見逃してしまうということが発生する可能性がある。   In this way, if there is a difference in the shading depth of the shadow, for example, a shadow that should originally be detected simultaneously from a plurality of predetermined sensors is detected at a predetermined position in a specific sensor. In other specific sensors, a shadow to be detected at a predetermined position is not detected. In other words, this shadow may be missed.

このように、何れか1つののセンサで本来検出すべき影を検出できなかった場合、入力された座標を正しく検出することができなくなる。また、特に、この問題は、複数の指示具で同時に、複数の入力を行った場合に影響が大きい。例えば、あるセンサで本来検知できるべき影が検知でき無い場合、そのセンサから見て、その影が他の影と重複していると誤認識してしまうこととなる。その結果、実際に指示具によって入力された位置とは異なる本来ありえない位置、即ち、誤った位置の座標を検出してしまう可能性がある。   In this way, if any one of the sensors cannot detect a shadow that should be detected, the input coordinates cannot be detected correctly. In particular, this problem has a great effect when a plurality of inputs are performed simultaneously with a plurality of pointing devices. For example, when a shadow that should be detected by a certain sensor cannot be detected, it is erroneously recognized that the shadow overlaps with other shadows as viewed from the sensor. As a result, there is a possibility of detecting a position that is not originally possible and that is different from the position actually input by the pointing tool, that is, the coordinates of an incorrect position.

また、複数のセンサで、本来、検知できるはずの影を検知できない場合、座標をあやまると同時に影の数すなわち入力の数を誤る可能性もある。   In addition, when a plurality of sensors cannot detect a shadow that should originally be detected, there is a possibility that the number of shadows, that is, the number of inputs may be mistaken at the same time that the coordinates are distorted.

本発明は上記の課題を解決するためになされたものであり、入力された座標を精度良く検出することができる座標入力装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a coordinate input device that can accurately detect input coordinates.

上記の目的を達成するための本発明による座標入力装置は以下の構成を備える。即ち、 座標入力領域上の指示位置を検出する座標入力装置であって、
前記座標入力領域に対し光を投光する投光部と、到来光を受光する受光部とを備える複数のセンサ手段と、
入射光を再帰的に反射する複数の再帰反射手段と、
指示手段による指示によって、前記複数のセンサ手段それぞれから得られる、光量分布に基づいて、前記指示手段の指示位置の座標を算出する算出手段とを備え、
前記複数のセンサ手段に関わる三次元的遮光検出領域が、前記座標入力領域に対応する共通の三次元的立体形状であり、かつ前記三次元的遮光検出領域は、観測される光強度の変化率によって、前記指示手段の高さ方向の位置の変化が検出できる三次元的領域として定義され
前記複数のセンサ手段の内、一方のセンサ手段が対向し、かつ他方のセンサ手段が対向しない前記再帰反射手段の形状は、
前記他方のセンサ手段と、
前記他方のセンサ手段の前記座標入力領域に対する鏡像と、
前記他方のセンサ手段が対向する前記再帰反射手段と、
前記他方のセンサ手段が対向する前記再帰反射手段の前記座標入力領域に対する鏡像とで規定される形状であり、
この形状に対し、前記一方のセンサ手段が対向する再帰反射手段に沿った断面の形状に対応する三次元的立体として、前記三次元的立体形状が定義される
In order to achieve the above object, a coordinate input device according to the present invention comprises the following arrangement. That is, a coordinate input device that detects a designated position on a coordinate input area,
A plurality of sensor means comprising: a light projecting unit that projects light to the coordinate input region; and a light receiving unit that receives incoming light;
A plurality of retroreflective means for recursively reflecting incident light;
Calculation means for calculating the coordinates of the indicated position of the instruction means based on the light amount distribution obtained from each of the plurality of sensor means by an instruction by the instruction means;
The three-dimensional shading detection area related to the plurality of sensor means has a common three-dimensional solid shape corresponding to the coordinate input area, and the three-dimensional shading detection area is a rate of change in observed light intensity. Is defined as a three-dimensional region in which a change in position in the height direction of the indicating means can be detected ,
Of the plurality of sensor means, one sensor means faces and the other sensor means does not face the shape of the retroreflective means,
The other sensor means;
A mirror image of the other sensor means with respect to the coordinate input area;
The retroreflective means facing the other sensor means;
A shape defined by a mirror image of the retroreflective means facing the coordinate input area of the other sensor means;
With respect to this shape, the three-dimensional solid shape is defined as a three-dimensional solid corresponding to the cross-sectional shape along the retroreflective means facing the one sensor means .

また、好ましくは、
実像である第1の遮光検知窓の上端をOpt1、下端をOpt2、
鏡像である第2の遮光検知窓の上端をOpt4’下端をOpt3’、
前記第1の遮光検知窓の前記座標入力領域上の位置をOpt0、
対向する前記再帰反射手段の実像の上端をRef1、下端をRef2、
前記再帰反射手段の鏡像の上端をRef1’、下端をRef2’、
前記再帰反射手段の前記座標入力領域上の位置をRef0、
線分Ref2−Opt3’と、線分Ref0−Opt0の交点をQ1、
線分Ref1’−Opt2と、線分Ref0−Opt0の交点をQ2、
線分Ref1−Opt3と、線分Ref2−Opt1’の交点をQ3、
線分Ref2−Opt0と、線分Ref0_Opt2の交点をQ4、
とする場合、
前記断面の上辺は、線分Ref1−Opt1より低く、かつ線分Ref1−Q3−Opt1より高い位置にあり、
前記断面の下辺は、線分Ref2−Q4−Opt2より低く、かつ線分Ref2−Q1−Q2−Opt2より高い位置にある。
Also preferably,
The upper end of the first light-shielding detection window, which is a real image, is Opt1, the lower end is Opt2,
The upper end of the second light-shielding detection window that is a mirror image is Opt4 ′, the lower end is Opt3 ′,
The position of the first light shielding detection window on the coordinate input area is Opt0,
Ref1 is the upper end of the real image of the retroreflective means facing, Ref2 is the lower end,
The upper end of the mirror image of the retroreflective means is Ref1 ′, the lower end is Ref2 ′,
The position of the retroreflective means on the coordinate input area is Ref0,
The intersection of the line segment Ref2-Opt3 ′ and the line segment Ref0-Opt0 is defined as Q1,
The intersection of the line segment Ref1′-Opt2 and the line segment Ref0-Opt0 is defined as Q2,
The intersection of the line segment Ref1-Opt3 and the line segment Ref2-Opt1 ′ is defined as Q3,
The intersection of the line segment Ref2-Opt0 and the line segment Ref0_Opt2 is defined as Q4,
If
The upper side of the cross-section is at a position lower than the line segment Ref1-Opt1 and higher than the line segment Ref1-Q3-Opt1;
The lower side of the cross section is at a position lower than the line segment Ref2-Q4-Opt2 and higher than the line segment Ref2-Q1-Q2-Opt2.

また、好ましくは、前記Opt1は、前記センサ手段の投光部の投光範囲である投光窓の上端と、受光部の受光範囲である受光窓の上端の高い方を選択したものであり、
前記Opt2は、前記センサ手段の投光部の投光範囲である投光窓の下端と、受光部の受光範囲である受光窓の下端の高い方を選択したものであり、
前記Opt4’は、前記センサ手段の投光部の投光範囲である投光窓の下端と、受光部の受光範囲である受光窓の下端の低い方の選択結果の前記座標入力領域に対する鏡像であり、
前記Opt3’は、前記センサ手段の投光部の投光範囲である投光窓の上端と、受光部の受光範囲である受光窓の上端の低い方の選択結果の前記座標入力領域に対する鏡像である。
Preferably, the Opt 1 is selected from the higher of the upper end of the light projecting window that is the light projecting range of the light projecting unit of the sensor means and the upper end of the light receiving window that is the light receiving range of the light receiving unit,
The Opt 2 is a higher one of the lower end of the light projecting window that is the light projecting range of the light projecting unit of the sensor means and the lower end of the light receiving window that is the light receiving range of the light receiving unit,
The Opt4 ′ is a mirror image of the coordinate input region of the lower selection result of the lower end of the light projecting window that is the light projecting range of the light projecting unit of the sensor means and the lower end of the light receiving window that is the light receiving range of the light receiving unit. Yes,
The Opt3 ′ is a mirror image of the coordinate input region of the selection result of the lower of the upper end of the light projecting window that is the light projecting range of the light projecting unit of the sensor means and the upper end of the light receiving window that is the light receiving range of the light receiving unit. is there.

また、好ましくは、前記複数のセンサ手段は、前記座標入力領域の一辺の両端に設けられ、
前記複数の再帰反射手段は、前記座標入力領域の前記一辺を除く辺に設けられ、
前記複数のセンサ手段の内一方のセンサ手段が対向し、かつ他方のセンサ手段が対向しない再帰反射手段の形状、その再帰反射手段の1つの端部の延長上に、前記他方のセンサ手段の遮光検知窓が一致するような、もう1つの再帰反射手段の端部の辺が、前記複数のセンサ手段で共通に対向する再帰反射手段の端部の辺に一致するような、かつ少なくとも下辺が弓なりの形状である。
Preferably, the plurality of sensor means are provided at both ends of one side of the coordinate input area,
The plurality of retroreflective means are provided on a side excluding the one side of the coordinate input area,
Of the plurality of sensor means , one of the sensor means faces and the other sensor means does not face the shape of the retroreflective means , and the other sensor means has an extension of one end of the retroreflective means. The end side of the other retroreflective means such that the light-shielding detection windows coincide with each other coincides with the end side of the retroreflective means opposed in common by the plurality of sensor means, and at least the lower side Is the shape of a bow.

また、好ましくは、前記遮光検知窓は、前記センサ手段における実効的に投光に寄与する部分である投光窓の上端と、実効的に受光に寄与する部分である受光窓の上端の高い方を上端とし、かつ前記投光窓の下端と前記受光窓の下端の高い方を下端として決められる範囲の部分である。   Preferably, the light-shielding detection window is a higher one of an upper end of a light projection window that is a portion that effectively contributes to light projection in the sensor means and a top end of the light reception window that is a portion that effectively contributes to light reception. The upper end of the light projecting window and the higher end of the lower end of the light receiving window.

また、好ましくは、前記センサ手段は、前記投光部と前記受光部からなる光学ユニットを1つ備える。   Preferably, the sensor means includes one optical unit including the light projecting unit and the light receiving unit.

また、好ましくは、前記センサ手段は、前記投光部と前記受光部からなる光学ユニットを2つ備える。   Preferably, the sensor means includes two optical units including the light projecting unit and the light receiving unit.

本発明によれば、入力された座標を精度良く検出することができる座標入力装置を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the coordinate input device which can detect the input coordinate accurately can be provided.

以下、本発明の実施の形態について図面を用いて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<実施形態1>
図1Aは本発明の実施形態1の座標入力装置の外観構成を示す図である。
<Embodiment 1>
FIG. 1A is a diagram showing an external configuration of a coordinate input device according to Embodiment 1 of the present invention.

図1Aにおいて、L1及びL2はそれぞれ投光部および受光部を有する光学ユニットであり、これらの2組の光学ユニットによって、センサユニット1Lが構成されている。同様に、R1及びR2はそれぞれ投光部および受光部を有する光学ユニットであり、これらの2組の光学ユニットによって、センサユニット1Rが構成されている。   In FIG. 1A, L1 and L2 are optical units each having a light projecting unit and a light receiving unit, and a sensor unit 1L is constituted by these two sets of optical units. Similarly, R1 and R2 are optical units each having a light projecting unit and a light receiving unit, and a sensor unit 1R is configured by these two sets of optical units.

また、センサユニット1L内の光学ユニットL1及びL2は、ほぼ同一の方向、同一の視野で、投光/受光を行い、所定の視差をもって到来光を観測するように配置されている。同様に、センサユニット1R内の光学ユニットR1及びR2は、ほぼ同一の方向、同一の視野で、投光/受光を行い、所定の視差をもって到来光を観測するように配置されている。   In addition, the optical units L1 and L2 in the sensor unit 1L are arranged so as to project / receive light in substantially the same direction and the same field of view, and observe the incoming light with a predetermined parallax. Similarly, the optical units R1 and R2 in the sensor unit 1R are arranged to project / receive light in substantially the same direction and the same field of view, and observe the incoming light with a predetermined parallax.

更に、センサユニット1L及び1Rは、図示の如く座標入力面であるところの座標入力有効領域3のX軸に平行に、かつY軸に対称な位置に、所定距離離れて配置されている。センサユニット1L及び1Rは、制御・演算ユニット2に接続され、制御信号を制御・演算ユニット2から受信すると共に、検出した信号を制御・演算ユニット2に送信する。   Further, the sensor units 1L and 1R are arranged at a predetermined distance apart in parallel to the X axis of the coordinate input effective area 3 which is a coordinate input surface as shown in the drawing and symmetrical to the Y axis. The sensor units 1L and 1R are connected to the control / arithmetic unit 2, receive a control signal from the control / arithmetic unit 2, and transmit the detected signal to the control / arithmetic unit 2.

4a〜4cは入射光を到来方向に反射する再帰反射面を有する再帰反射部であり、座標入力有効領域3の外側3辺に図示が如く配置されている。また、これらの再帰反射部4a〜4cは、それぞれのセンサユニット1L及び1Rから略90°範囲に投光された光を、センサユニット1L及び1Rに向けて再帰反射する。   Reference numerals 4 a to 4 c denote retroreflective portions having retroreflective surfaces that reflect incident light in the direction of arrival, and are arranged on the three outer sides of the coordinate input effective area 3 as shown in the figure. The retroreflective portions 4a to 4c retroreflect the light projected from the sensor units 1L and 1R in a range of approximately 90 ° toward the sensor units 1L and 1R.

尚、再帰反射部4a〜4cは、ミクロ的に見て三次元的な構造を有し、現在では、主にビーズタイプの再帰反射テープ、或いはコーナキューブを機械加工等により規則正しく配列することで再帰現象を起こす再帰反射テープが知られている。   The retroreflective portions 4a to 4c have a three-dimensional structure as viewed microscopically. At present, the retroreflective portions 4a to 4c are recursively arranged by regularly arranging mainly bead-type retroreflective tape or corner cubes. Retroreflective tape that causes the phenomenon is known.

再帰反射部4a〜4cで再帰反射された光は、センサユニット1L(光学ユニットL1及びL2)及び1R(光学ユニットR1及びR2)によって1次元的に検出され、その光量分布が制御・演算ユニット2に送信される。   The light retroreflected by the retroreflecting units 4a to 4c is detected one-dimensionally by the sensor units 1L (optical units L1 and L2) and 1R (optical units R1 and R2), and the light quantity distribution is controlled / calculated unit 2. Sent to.

座標入力有効領域3は、PDPやリアプロジェクタ、LCDパネルなどの表示装置の表示画面で構成することで、インタラクティブな入力装置として、利用可能となっている。   The coordinate input effective area 3 is configured as a display screen of a display device such as a PDP, a rear projector, or an LCD panel, and can be used as an interactive input device.

このような構成において、座標入力有効領域3に指や指示具等の指示手段による入力指示がなされると、センサユニット1L及び1R内のそれぞれの、光学ユニットL1及びL2と光学ユニットR1及びR2の投光部から投光された光が遮られる(遮光部分)。この場合、センサユニット1L及び1R内のそれぞれの、光学ユニットL1及びL2と光学ユニットR1及びR2の受光部では、その遮光部分の光(再帰反射による反射光)を検出できない。そこで、この検出状況に基づいて、光学ユニットL1及びL2それぞれが、どの方向からの光が検出できなかったかを判別することが可能となる。   In such a configuration, when an input instruction is given to the coordinate input effective area 3 by an instruction means such as a finger or an indicator, the optical units L1 and L2 and the optical units R1 and R2 in the sensor units 1L and 1R, respectively. Light projected from the light projecting unit is blocked (a light shielding part). In this case, the light of the light shielding portion (reflected light due to retroreflection) cannot be detected by the optical units L1 and L2 and the light receiving portions of the optical units R1 and R2 in the sensor units 1L and 1R, respectively. Therefore, based on this detection status, it becomes possible for each of the optical units L1 and L2 to determine from which direction the light could not be detected.

そこで、制御・演算ユニット2は、センサユニット1L(光学ユニットL1及びL2)及び1R(光学ユニットR1及びR2)が検出する光量変化から、指示具によって入力指示された部分の複数の遮光範囲を検出する。次に、その遮光範囲の情報から、センサユニット1L(光学ユニットL1及びL2)及び1R(光学ユニットR1及びR2)それぞれに対する遮光範囲の端部の方向(角度)をそれぞれ算出する。また、指示具が信号発信部を有する場合には、その指示具からのペン信号をペン信号受信部5が受信する。   Therefore, the control / arithmetic unit 2 detects a plurality of light-shielding ranges of the portion instructed to be input by the pointing tool from the light amount change detected by the sensor units 1L (optical units L1 and L2) and 1R (optical units R1 and R2). To do. Next, the direction (angle) of the end of the light shielding range with respect to each of the sensor units 1L (optical units L1 and L2) and 1R (optical units R1 and R2) is calculated from the information on the light shielding range. When the pointing tool has a signal transmission unit, the pen signal receiving unit 5 receives a pen signal from the pointing tool.

そして、検出された遮光範囲の数に基づいて、座標算出に用いる遮光範囲から得られるデータを決定する。次に、それぞれ算出された方向(角度)、及びセンサユニット1L(光学ユニットL1及びL2)及び1R(光学ユニットR1及びR2)間の距離情報等から、座標入力有効領域3上の指示具の遮光位置を幾何学的に算出する。そして、表示装置に接続されているホストコンピュータ等の外部端末に、インタフェース7(例えば、USB、IEEE1394等)を経由してその座標値を出力する。   Then, based on the number of detected light shielding ranges, data obtained from the light shielding ranges used for coordinate calculation is determined. Next, based on the calculated direction (angle) and distance information between the sensor units 1L (optical units L1 and L2) and 1R (optical units R1 and R2), etc., the light of the pointing tool on the coordinate input effective area 3 is blocked. The position is calculated geometrically. Then, the coordinate value is output to an external terminal such as a host computer connected to the display device via the interface 7 (for example, USB, IEEE 1394, etc.).

このようにして、指示具によって、画面上に線を描画したり、表示装置に表示されるアイコンを操作する等の外部端末の操作が可能になる。   In this way, the operation of the external terminal such as drawing a line on the screen or operating an icon displayed on the display device can be performed by the pointing tool.

尚、以下の説明では、座標入力有効領域3に垂直な方向を高さ方向(Z方向)とし、座標入力有効領域3に近い方向を「下」、遠い方向を「上」と表現する。また、図1Aにおいて、センサユニット1L(光学ユニットL1及びL2)及び1R(光学ユニットR1及びR2)は、遮光を実効的に検知する範囲、即ち、第1の遮光検知窓の実態的存在として表現される。   In the following description, a direction perpendicular to the coordinate input effective area 3 is expressed as a height direction (Z direction), a direction close to the coordinate input effective area 3 is expressed as “down”, and a direction far from the coordinate input effective area 3 is expressed as “up”. In FIG. 1A, the sensor units 1L (optical units L1 and L2) and 1R (optical units R1 and R2) are expressed as a range where the light shielding is effectively detected, that is, the actual existence of the first light shielding detection window. Is done.

即ち、センサユニット1L(光学ユニットL1及びL2)及び1R(光学ユニットR1及びR2)の半円筒形状の厚さ(Z方向)が、高さ方向に定義される実効的遮光検知窓の大きさである。   That is, the semi-cylindrical thickness (Z direction) of the sensor units 1L (optical units L1 and L2) and 1R (optical units R1 and R2) is the size of an effective light shielding detection window defined in the height direction. is there.

特に、高さ方向における第1の遮光検知窓の定義は、センサユニットの投光窓ないし受光窓ではない。実際に、センサユニットのごく近傍において上側から指示具を挿入して遮光を行った場合に、実際に遮光を検知し始める高さを第1の遮光検知窓の上端、遮光の比率が実質的に100%になる高さを第1の遮光検知窓の下端としている。そして、このような、上端、下端で定義される窓を第1の遮光検知窓と定義する。   In particular, the definition of the first light shielding detection window in the height direction is not a light projecting window or a light receiving window of the sensor unit. Actually, when the indicator is inserted from the upper side in the very vicinity of the sensor unit to perform light shielding, the height at which the light shielding is actually detected is the upper end of the first light shielding detection window, and the light shielding ratio is substantially The height of 100% is used as the lower end of the first light shielding detection window. Such a window defined by the upper end and the lower end is defined as a first light shielding detection window.

また、遮光検出領域とは、センサユニットから投光された光が再帰反射して、センサユニットで受光されるまでの光路の領域の中で、その部分を指示具で上側から一部でも遮った時に、その受光される光強度が低下し、そのことが検出できる領域として定義する。従って、遮光検出領域は、ある座標位置においては、高さの範囲として定義され、所定の範囲をもつ座標入力有効領域に対しては、3次元的領域として定義される。また、センサユニットから見たある方向に対しては、3次元的領域の断面をなす2次元的領域として定義される。   The light-shielding detection area is a part of the optical path from the time when the light projected from the sensor unit is retroreflected until it is received by the sensor unit. Sometimes it is defined as a region where the intensity of the received light decreases and that can be detected. Therefore, the shading detection area is defined as a height range at a certain coordinate position, and is defined as a three-dimensional area for a coordinate input effective area having a predetermined range. Further, a certain direction viewed from the sensor unit is defined as a two-dimensional region that forms a cross section of a three-dimensional region.

このように、構成することにより、指示具によって遮光された場合に、センサユニット1L及び1Rでは、常に互いに略同一レベルの遮光比率で影を検出することができる。また、図1Bにおける縦じまの部分は、三次元的遮光検出領域の三次元的形状を分かりやすくするために付け加えた断面図であり、本発明において特別な意味をなす断面ではない。   By configuring in this way, when the light is shielded by the pointing tool, the sensor units 1L and 1R can always detect a shadow with a light shielding ratio of substantially the same level. 1B is a cross-sectional view added for easy understanding of the three-dimensional shape of the three-dimensional shading detection region, and is not a cross section that makes a special meaning in the present invention.

尚、図1A及び図1Bでは、1つのセンサユニット内に、2つの光学ユニットを内蔵する複眼(二眼)構成の例を挙げているが、図2A及び図2Bに示すように、1つのセンサユニット内に1つの光学ユニットを内蔵する単眼構成とすることも可能である。   In FIGS. 1A and 1B, an example of a compound eye (two-lens) configuration in which two optical units are built in one sensor unit is shown. However, as shown in FIGS. 2A and 2B, one sensor A monocular configuration in which one optical unit is built in the unit is also possible.

そこで、以下では、説明を簡単にするために、図3〜図23では、図2A及び図2Bの単眼構成の場合を例に挙げて説明するが、これに限定されるものではない。例えば、図1A及び図1Bの複眼(二眼)構成、あるいは、1つのセンサユニット内に3個以上の光学ユニットを内蔵する複眼構成であっても、本発明を適用することができる。   Therefore, in the following, in order to simplify the description, FIGS. 3 to 23 will be described by taking the case of the monocular configuration of FIGS. 2A and 2B as an example, but the present invention is not limited to this. For example, the present invention can be applied even to the compound eye (two-eye) structure shown in FIGS. 1A and 1B or the compound eye structure in which three or more optical units are built in one sensor unit.

但し、複眼構成の場合は、センサユニットを構成する各光学ユニットに対して、以下の説明が適用される。つまり、単眼構成の場合、センサユニットとそれが内蔵する1つの光学ユニットは同一視して説明することができる。一方、複眼構成の場合、センサユニットを構成する複数の光学ユニットそれぞれに対して、図3〜図23の説明が適用されることに注意されたい。   However, in the case of a compound eye configuration, the following description is applied to each optical unit constituting the sensor unit. That is, in the case of a monocular configuration, the sensor unit and one optical unit built in the sensor unit can be described as being the same. On the other hand, in the case of a compound eye configuration, it should be noted that the description of FIGS. 3 to 23 is applied to each of a plurality of optical units constituting the sensor unit.

<課題の説明>
ここで、本発明における課題を、図を用いて詳しく説明する。
<Explanation of issues>
Here, the problem in the present invention will be described in detail with reference to the drawings.

図3は本発明における課題を説明するための図である。   FIG. 3 is a diagram for explaining the problem in the present invention.

従来より、センサユニット1L及び1R、および再帰反射部4(4a〜4c)は、できるだけ座標入力面に近づけるよう設計されてきた。また、上記特許文献2等で見られるように、センサユニットにおいて、反射ミラー等の光学部材を用いることにより、投光位置と受光位置をできるだけ、同じ位置、高さにすること、できるだけ座標入力面に近づけることが言及されている。また、投光/受光ともできる限り平行にする(コリメートする)ことを想定した座標入力装置について言及されている。   Conventionally, the sensor units 1L and 1R and the retroreflective portion 4 (4a to 4c) have been designed to be as close to the coordinate input surface as possible. Further, as can be seen in the above-mentioned Patent Document 2, etc., in the sensor unit, by using an optical member such as a reflection mirror, the light projection position and the light reception position can be set to the same position and height as much as possible. It is mentioned that it approaches. Also, a coordinate input device that assumes that light projection / light reception is as parallel (collimated) as possible is mentioned.

ここで、仮に、投光/受光が厚み方向に完全に平行にされていて、再帰反射部が投光の指向範囲(視野範囲)、受光の指向範囲(視野範囲)を厚み方向において包含するような形と大きさに設定されているとする。この場合、三次元的遮光検出領域は、再帰反射部の形状にはよらず、投光あるいは受光の光路のみで決まるということができる。   Here, it is assumed that the light projection / light reception is completely parallel to the thickness direction, and the retroreflective portion includes the light projection directivity range (field range) and the light reception directivity range (field range) in the thickness direction. Suppose that the shape and size are set. In this case, it can be said that the three-dimensional shading detection area is determined only by the light projecting or receiving light path, regardless of the shape of the retroreflective portion.

ここで、厚み方向とは、座標入力面(座標入力有効領域3)に垂直な方向(Z方向)を意味する。   Here, the thickness direction means a direction (Z direction) perpendicular to the coordinate input surface (coordinate input effective area 3).

しかしながら、実際には、例えば、エコーバックを表示する表示画面との関わり、装置全体の構造等による実装制限、またコスト、精度等の制限により多くの場合、投光/受光とも厚み方向に十分なコリメートができると状態にあるとは言えない。   However, in practice, for example, there are many cases where light projection / light reception is sufficient in the thickness direction due to, for example, the relationship with a display screen that displays echo back, mounting restrictions due to the structure of the entire apparatus, and restrictions on cost, accuracy, etc. It cannot be said that it is in a state when collimation is possible.

このため、多くの場合、現実的には、再帰反射部の幅(厚み方向の幅)より、光学ユニットの投光の指向範囲/受光の指向範囲を厚み方向において広く構成する。即ち、投光/受光の厚み方向の指向範囲が再帰反射部を包含するように構成することにより、三次元的遮光検出領域は、再帰反射部の形状によって決まるように構成されている。   For this reason, in many cases, practically, the light projecting directivity range / light receiving directivity range of the optical unit is configured wider in the thickness direction than the width of the retroreflective portion (width in the thickness direction). In other words, the three-dimensional shading detection region is configured to be determined by the shape of the retroreflective portion by configuring the directivity range in the light emitting / receiving thickness direction to include the retroreflective portion.

特に、本発明においては、投光/受光の厚み方向の指向範囲が再帰反射部を包含するのみでなく、座標入力面の多くの部分を、詳しくはセンサユニットの近傍を除いたほとんどの部分を包含するように構成されている。   In particular, in the present invention, the directivity range in the thickness direction of light projection / light reception includes not only the retroreflective portion, but also a large part of the coordinate input surface, in particular, most of the portion excluding the vicinity of the sensor unit. It is configured to include.

ここで、投光の指向範囲/受光の指向範囲は再帰反射部を包含し、かつ座標入力面は包含しない、ないし座標入力面が光を反射しないという構成もある。   Here, there is a configuration in which the directivity range of light projection / directivity range of light reception includes a retroreflective portion and does not include a coordinate input surface, or the coordinate input surface does not reflect light.

これに対し、本発明は、投光の指向範囲/受光の厚み方向の指向範囲は、再帰反射部を包含するのみでなく、座標入力面のセンサユニットの近傍を除く大半を包含するものである。   In contrast, in the present invention, the directivity range of light projection / the directivity range in the thickness direction of light reception includes not only the retroreflective portion but also most of the coordinate input surface except the vicinity of the sensor unit. .

いずれの場合も、現実の構成として成立するものであるが、厚み方向の指向範囲を制限しない場合の方が、センサユニット自体の精度、取り付け精度、全体の構造体の剛性、製造コスト、設計の自由度等、多くの面で扱いが容易である。   In either case, the actual configuration is established, but the accuracy of the sensor unit itself, the mounting accuracy, the rigidity of the entire structure, the manufacturing cost, and the design are less when the directivity range in the thickness direction is not limited. It is easy to handle in many aspects such as the degree of freedom.

一方、このような場合、夫々のセンサユニット1L及び1Rから見た三次元的遮光検出領域は複雑な形状となり、センサユニット1L及び1Rの三次元的遮光検出領域は、共通領域とは必ずしもなっていないのが現状である。   On the other hand, in such a case, the three-dimensional shading detection areas viewed from the sensor units 1L and 1R have a complicated shape, and the three-dimensional shading detection areas of the sensor units 1L and 1R are not necessarily common areas. There is no current situation.

このため、夫々のセンサユニット1L及び1Rから見た三次元的遮光検出領域は妥協的な形となり、センサユニット1L及び1Rの三次元的遮光検出領域は、共通領域とは必ずしもなっていないのが現状である。   For this reason, the three-dimensional shading detection areas viewed from the respective sensor units 1L and 1R are compromised, and the three-dimensional shading detection areas of the sensor units 1L and 1R are not necessarily common areas. Currently.

本発明は、このような構成において発生する課題を解決する手法を提案するものである。   The present invention proposes a technique for solving the problems that occur in such a configuration.

以下、図3を例に、課題を説明する。   The problem will be described below with reference to FIG.

図3では、センサユニット1L及び1Rは、座標入力面である座標入力有効領域3に対し、再帰反射部4a〜4cと比べて、より高い位置に設置されている。   In FIG. 3, the sensor units 1 </ b> L and 1 </ b> R are installed at higher positions with respect to the coordinate input effective area 3 that is the coordinate input surface as compared with the retroreflective portions 4 a to 4 c.

実際、表示装置に、この種の遮光方式の座標入力装置を組み込むあるいはオーバーレイする場合、このような構成配置にならざるを得ないことが多い。   Actually, when such a light-shielding coordinate input device is incorporated in or overlaid on a display device, this arrangement is often unavoidable.

センサユニット1L及び1Rは、一定の大きさがあるので、表示画面の黒枠(表示面と同一平面で実際には表示されない外側の部分)に設置することができない。そのため、表示装置の外枠(表示面より一段飛び出した部分、いわゆる額縁)に乗り上げるような配置となる。   Since the sensor units 1L and 1R have a certain size, they cannot be installed in the black frame of the display screen (the outer portion that is not displayed on the same plane as the display surface). For this reason, the arrangement is such that it rides on the outer frame of the display device (a part protruding from the display surface, a so-called frame).

一方、座標入力装置としては、違和感のない書き味にするためには、遮光検出領域をできるだけ座標入力面に近づけたいという要望がある。また、実装の容易性という長所もあるため、図3に示すように、細長い形状の再帰反射部は、表示画面の黒枠に収める、即ち、表示面に接近した配置となる。   On the other hand, there is a demand for the coordinate input device to make the light-shielding detection region as close as possible to the coordinate input surface in order to make the writing feel comfortable. Further, since there is an advantage of ease of mounting, as shown in FIG. 3, the elongated retroreflective portion is placed in the black frame of the display screen, that is, placed close to the display surface.

ここで、センサユニット1L及び1R夫々の三次元的遮光検出領域を考えてみる。   Here, consider the three-dimensional shading detection area of each of the sensor units 1L and 1R.

まず、図4に示すように、センサユニット1L(1R)の投光部から投光された光は、一部は直接再帰反射部4に到達する。次に、そこで再帰反射された光は、一部は直接に受光部に到達し、一部は座標入力有効領域3の座標入力面で反射した後、受光部に到達する。   First, as shown in FIG. 4, part of the light projected from the light projecting unit of the sensor unit 1 </ b> L (1 </ b> R) reaches the retroreflecting unit 4 directly. Next, part of the retroreflected light directly reaches the light receiving unit, and part of the light is reflected by the coordinate input surface of the coordinate input effective area 3 and then reaches the light receiving unit.

一方、投光部から投光された他の一部は、座標入力有効領域3の座標入力面で反射した後、再帰反射部4に到達する。次に、そこで再帰反射された光は、一部は直接受光部に到達し、一部は座標入力有効領域3の座標入力面で反射した後、受光部に到達する。   On the other hand, another part projected from the light projecting unit is reflected by the coordinate input surface of the coordinate input effective area 3 and then reaches the retroreflecting unit 4. Next, part of the retroreflected light directly reaches the light receiving unit, and part of the light is reflected by the coordinate input surface of the coordinate input effective area 3 and then reaches the light receiving unit.

即ち、本構成の場合、図4に示すように、指示具によって遮光するための光は、4つの光路(光路1、光路2、光路3、光路4)に分けて考えることができる。   That is, in the case of this configuration, as shown in FIG. 4, the light to be shielded by the pointing tool can be divided into four optical paths (optical path 1, optical path 2, optical path 3, and optical path 4).

ここで、再帰反射とは、本来、投光された光を、そのまま投光された方向に反射するものであるが、実際には、反射方向は、投光された方向に対して若干の広がりを持つ。例えば、かなり性能の良いものでも、半値幅で1〜2度程度の広がりを持つ。   Here, the retroreflection means that the projected light is reflected in the projected direction as it is, but in reality, the reflection direction is slightly wider than the projected direction. have. For example, even if the performance is quite good, the width at half maximum is about 1 to 2 degrees.

従って、センサユニットの大きさと、座標入力有効領域3の大きさにもよるが、多くの場合、光路1〜4が成立し、かつ光路2、3における観測角(投光と反射光の相対角度)が上記の半値幅に対して無視できない場合がある。この場合、それに応じて光強度に減衰係数がかかると考えて扱えば、やはり、光路1〜4は成立する。   Therefore, depending on the size of the sensor unit and the size of the coordinate input effective area 3, in many cases, the optical paths 1 to 4 are established, and the observation angles in the optical paths 2 and 3 (relative angle between the light projection and the reflected light). ) May not be negligible for the above half-value width. In this case, the optical paths 1 to 4 are established if the light intensity is considered to have an attenuation coefficient accordingly.

そこで、実際の遮光検出領域であるが、センサユニット1Lに関しては、センサユニット1Lから投光される光は、対向する再帰反射部4との間で、光路1〜4を通って受光部に戻ってくる。このため、図5Aに示すように、センサユニットの検知窓と対向する再帰反射部の間は、下に凸形状を成す2つの面ではさんだような形状となり、また、その凸の部分において、三次元的遮光検出領域は座標入力面にほぼ接するような形状となる。   Therefore, although it is an actual light-shielding detection region, with respect to the sensor unit 1L, the light projected from the sensor unit 1L returns to the light-receiving unit through the optical paths 1 to 4 with the opposing retroreflecting unit 4. Come. For this reason, as shown in FIG. 5A, the retroreflective portion facing the detection window of the sensor unit has a shape that is sandwiched between two surfaces that form a downward convex shape. The original shading detection area has a shape that is substantially in contact with the coordinate input surface.

同様に、センサユニット1Rに関しても、図5Bに示すような三次元的遮光検出領域を形成することとなる。   Similarly, a three-dimensional shading detection region as shown in FIG. 5B is also formed for the sensor unit 1R.

図5A及び図5Bから明らかなように、センサユニット1Lに関わる三次元的遮光検出領域と、センサユニット1Rに関わる三次元的遮光検出領域とでは、立体的に異なる。即ち、両者間では、略同一の三次元遮光検出領域を構成しているわけではない。   As is clear from FIGS. 5A and 5B, the three-dimensional shading detection area relating to the sensor unit 1L and the three-dimensional shading detection area relating to the sensor unit 1R are three-dimensionally different. That is, the same three-dimensional shading detection area is not constituted between the two.

ここで、図3のC1点ないしC2点に指示具を挿入することを考える。   Here, consider inserting an indicator at points C1 and C2 in FIG.

C1点では、図5Aに示すように、センサユニット1Lに関する三次元的遮光検出領域は、センサユニット1Lに近いため、比較的高い位置(座標入力面から離れた位置)にある。   At the point C1, as shown in FIG. 5A, the three-dimensional shading detection area related to the sensor unit 1L is close to the sensor unit 1L, and thus is at a relatively high position (a position away from the coordinate input surface).

一方、図5Bに示すように、センサユニット1Rに関する三次元的遮光検出領域は、C1点では、近傍の再帰反射部4bの高さに近い高さ、即ち、比較的低い位置(座標入力面に接近した位置)にある。   On the other hand, as shown in FIG. 5B, the three-dimensional shading detection region relating to the sensor unit 1R is close to the height of the nearby retroreflective portion 4b at the point C1, that is, a relatively low position (on the coordinate input surface). Close position).

ここで、図6A及び図6Bに示すような、「ペン先高さ 対 遮光率」特性または「指示具高さ 対 遮光率」を考える。図6A及び図6Bにおいて、横軸は、ペン先高さH(即ち、指示具の実効的先端と座標入力面との距離)である。一方、縦軸は、センサユニットにおける遮光率であり、例えば、指示具を座標入力面に近づけて行く場合は、図6A及び図6Bにおいて、右から左に移動することとなる。   Here, the “pen tip height vs. shading rate” characteristic or “indicator height vs. shading rate” as shown in FIGS. 6A and 6B is considered. 6A and 6B, the horizontal axis represents the pen tip height H (that is, the distance between the effective tip of the pointing tool and the coordinate input surface). On the other hand, the vertical axis represents the light shielding rate in the sensor unit. For example, when the pointing tool is moved closer to the coordinate input surface, the vertical axis moves from right to left in FIGS. 6A and 6B.

指示具が挿入されていない時点は、遮光率は0%(規格化光強度100%)である。また、指示具が座標入力面に対しある高さ位置まで近づくと、遮光率は上昇し始める(規格化光強度は低下し始める)。その後、遮光率は、ある位置でおよそ100%近くに達し、その後、一定となる。   When the pointing tool is not inserted, the light shielding rate is 0% (standardized light intensity 100%). Further, when the pointing tool approaches a certain height position with respect to the coordinate input surface, the light shielding ratio starts to increase (the normalized light intensity starts to decrease). Thereafter, the light shielding rate reaches approximately 100% at a certain position, and then becomes constant.

まず、C1点の位置において、指示具の挿入操作を行った場合、図6A中の破線がセンサユニット1Lに関する遮光率の変位を示す軌跡であり、実線がセンサユニット1Rに関するものである。   First, when the pointing tool is inserted at the position C1, the broken line in FIG. 6A is a locus indicating the displacement of the light shielding rate with respect to the sensor unit 1L, and the solid line is related to the sensor unit 1R.

C1点の近傍において、センサユニット1Lに関する三次元的遮光検出領域は高い位置にあるので、図6Aで示す破線の軌跡が大きく変化する部分は右に寄っている。   In the vicinity of the point C1, since the three-dimensional shading detection region related to the sensor unit 1L is at a high position, the portion where the locus of the broken line shown in FIG.

一方、センサユニット1Rに関する三次元的遮光検出領域は、再帰反射部4bの高さにほぼ一致する関係にあるので、図6A中で示す実線の軌跡はほぼそれに従った位置にある。   On the other hand, since the three-dimensional shading detection region relating to the sensor unit 1R has a relationship that substantially matches the height of the retroreflective portion 4b, the solid line locus shown in FIG.

即ち、何れもこの大きく変化する部分が、センサユニット1L及び1Rの各センサユニットの三次元遮光検出領域を通過する部分であるということができる。   That is, it can be said that the part that greatly changes is a part that passes through the three-dimensional shading detection region of each of the sensor units 1L and 1R.

また、これらの図3、図5A及び図5Bに示す構成の場合、C1点の近傍において、センサユニット1Lに関する三次元的遮光検出領域は、センサユニット1Rに関する三次元的遮光検出領域よりも高さ方向に対して薄い。そのため、図6Aにおいて、遮光率の軌跡(カーブ)の変化する部分が、センサユニット1Lの方がセンサユニット1Rに比べて狭くて急峻である。   In the configurations shown in FIGS. 3, 5A, and 5B, the three-dimensional shading detection area for the sensor unit 1L is higher in the vicinity of the point C1 than the three-dimensional shading detection area for the sensor unit 1R. Thin relative to direction. Therefore, in FIG. 6A, the portion where the locus (curve) of the light shielding rate changes is narrower and steeper in the sensor unit 1L than in the sensor unit 1R.

以上のように、従来構成においては、左右のセンサユニット1L及び1Rで検知する「ペン先高さ 対 遮光率」特性が異なる。   As described above, in the conventional configuration, the “pen tip height vs. light shielding rate” characteristics detected by the left and right sensor units 1L and 1R are different.

そして、このよう特性において遮光検知を行う場合、次のような問題が発生する。   When the light shielding detection is performed with such characteristics, the following problems occur.

例えば、影が有りと判定するとするのは、次の場合とする。指示具が座標入力面に対して上から挿入されて行き、その高さHが、図6AのHth_R≦H≦Hth_Lで示される範囲に至った時で、かつセンサユニット1L及び1R夫々が検出する影の強度、即ち、遮光率が所定閾値thsh0を超えた時である。   For example, it is assumed that there is a shadow in the following case. When the pointing tool is inserted into the coordinate input surface from above and its height H reaches the range indicated by Hth_R ≦ H ≦ Hth_L in FIG. 6A, each of the sensor units 1L and 1R detects it. This is the time when the intensity of the shadow, that is, the light shielding rate exceeds the predetermined threshold thsh0.

このような構成の場合、センサユニット1Lでは、H=Hth_Lのとき、影を最初に検知する。一方、センサユニット1Rでは、H=Hth_Rのとき、影を最初に検知する。   In such a configuration, the sensor unit 1L first detects a shadow when H = Hth_L. On the other hand, the sensor unit 1R first detects a shadow when H = Hth_R.

従って、Hth_R≦H≦Hth_Lで示される範囲にあっては、指示具の影は、センサユニット1Lでは観測されるが、センサユニット1Rでは観測されない状態となる。   Therefore, in the range indicated by Hth_R ≦ H ≦ Hth_L, the shadow of the pointing tool is observed in the sensor unit 1L but not in the sensor unit 1R.

同様に、C2点の場合を、図6Bに示す。C2点の近傍においては、センサユニット1Lに関する三次元的遮光検出領域は、座標入力面の反射の影響で該座標入力面に接近している。一方、センサユニット1Rに関する三次元的遮光検出領域は、再帰反射部4bの高さにほぼ一致する関係にある。   Similarly, the case of point C2 is shown in FIG. 6B. In the vicinity of the point C2, the three-dimensional shading detection area related to the sensor unit 1L is close to the coordinate input surface due to the influence of the reflection of the coordinate input surface. On the other hand, the three-dimensional shading detection area related to the sensor unit 1R has a relationship that substantially matches the height of the retroreflective portion 4b.

従って、図6Bに示すように、C2点の位置において、指示具の挿入操作を行った場合、図6B中の破線がセンサユニット1Lに関する遮光率の変位を示す軌跡であり、実線がセンサユニット1Rに関するものである。   Accordingly, as shown in FIG. 6B, when the pointing tool is inserted at the position of point C2, the broken line in FIG. 6B is a locus indicating the displacement of the light shielding rate with respect to the sensor unit 1L, and the solid line is the sensor unit 1R. It is about.

C2点の近傍において、センサユニット1Lに関する三次元的遮光検出領域は、座標入力面の反射の影響で座標入力面に接近している、即ち、低い位置にあるので、図6Bで示す破線の軌跡が大きく変化する部分は左に寄っている。   In the vicinity of the point C2, the three-dimensional shading detection region related to the sensor unit 1L is close to the coordinate input surface due to the reflection of the coordinate input surface, that is, at a low position. The part where changes greatly is to the left.

一方、センサユニット1Rに関する三次元的遮光検出領域は、再帰反射部4bの高さにほぼ一致する関係にあるので、図6B中で示す実線の軌跡は、ほぼそれに従った位置にある。   On the other hand, since the three-dimensional shading detection area related to the sensor unit 1R has a relationship that substantially coincides with the height of the retroreflective portion 4b, the locus of the solid line shown in FIG.

即ち、何れもこの大きく変化する部分が、センサユニット1L及び1Rの各センサユニットの三次元遮光検出領域を通過する部分であるということができる。   That is, it can be said that the part that greatly changes is a part that passes through the three-dimensional shading detection region of each of the sensor units 1L and 1R.

そして、このよう特性において遮光検知を行う場合、次のような問題が発生する。   When the light shielding detection is performed with such characteristics, the following problems occur.

このような構成の場合、センサユニット1Lでは、H=Hth_Lのとき、影を最初に検知する。一方、センサユニット1Rでは、H=Hth_Rのとき、影を最初に検知する。従って、Hth_L≦H≦Hth_Rで示される範囲にあっては、指示具の影は、センサユニット1Lでは観測されるが、センサユニット1Rでは観測されない状態となる。   In such a configuration, the sensor unit 1L first detects a shadow when H = Hth_L. On the other hand, the sensor unit 1R first detects a shadow when H = Hth_R. Therefore, in the range indicated by Hth_L ≦ H ≦ Hth_R, the shadow of the pointing tool is observed in the sensor unit 1L but not in the sensor unit 1R.

ここまで述べてきたことは、複数の指示具で同時に入力(複数入力操作)を行ったときに、大きな問題となる。   What has been described so far becomes a serious problem when simultaneous input (multiple input operation) is performed using a plurality of pointing devices.

以下、この複数入力時の問題について説明する。まず、この問題を説明するに当たり、単一入力時の座標検出について説明する。   Hereinafter, the problem at the time of multiple input will be described. First, in explaining this problem, coordinate detection at the time of single input will be explained.

図7は、図3における単一入力操作を上から見た図である。   FIG. 7 is a top view of the single input operation in FIG.

図7において、C1点の位置に入力を行った場合、通常、図8及び図9のθL、θRの位置に影ができる。ここで、図8は、指示具の高さH≦H2_Rのとき(即ち、指示具が十分座標入力面近傍まできたとき)の、センサユニット1L及び1Rそれぞれが検出する影の形を表している。また、図9は、Hth_R≦H≦Hth_Lのとき(即ち、指示具が座標入力有効領域に入る際、ないし出る際)のときの、センサユニット1L及び1Rそれぞれが検出する影の形を表している。   In FIG. 7, when an input is made at the position of the point C1, a shadow is usually formed at the positions of θL and θR in FIGS. Here, FIG. 8 shows the shape of the shadow detected by each of the sensor units 1L and 1R when the height of the pointing tool is H ≦ H2_R (that is, when the pointing tool is sufficiently close to the coordinate input surface). . FIG. 9 shows the shadow shapes detected by the sensor units 1L and 1R when Hth_R ≦ H ≦ Hth_L (that is, when the pointing device enters or exits the coordinate input effective area). Yes.

このとき、上述のように、センサユニット1Lからは、指示具の影が検知されていて、センサユニット1Rからは指示具の影は検知されていない。   At this time, as described above, the shadow of the pointing tool is detected from the sensor unit 1L, and the shadow of the pointing tool is not detected from the sensor unit 1R.

ここで、単一入力の場合は、2つのセンサユニット両方が影を検出した場合のみ、入力あり(一方のみ検知した場合は入力なし)として扱えば問題ない。   Here, in the case of a single input, there is no problem if it is treated as having an input (no input when only one of the two sensor units detects a shadow).

ところが、複数入力の場合は問題が大きい、以下、これについて説明する。   However, in the case of multiple inputs, the problem is great. This will be described below.

図10は複数入力操作を上から見た図である。   FIG. 10 is a view of a multi-input operation as viewed from above.

図10では、P12及びP21点に複数入力を行った場合を示している。   FIG. 10 shows a case where a plurality of inputs are performed at points P12 and P21.

この場合、図11のように、センサユニット1Lにおいて、θL1、θL2の位置に影が検出される。また、センサユニット1Rにおいて、θR1、θR2の位置に影が検出される。この2組の角度データをもとに、4つの座標候補点P11、P12、P21及びP22が算出される。そして、これらの座標候補点の中から、何らかの手段によって虚実判定することにより、例えば、P11、P22は虚像であり、P12、P21が実像であることが判別され、座標入力点を決定することになる。   In this case, as shown in FIG. 11, in the sensor unit 1L, a shadow is detected at the positions of θL1 and θL2. In the sensor unit 1R, a shadow is detected at the positions of θR1 and θR2. Based on these two sets of angle data, four coordinate candidate points P11, P12, P21 and P22 are calculated. From these coordinate candidate points, by determining whether the coordinates are true by some means, for example, it is determined that P11 and P22 are virtual images and P12 and P21 are real images, and the coordinate input points are determined. Become.

次に、座標入力点が誤検出される場合の複数入力例について説明する。この誤検出パターン(1)としては、次のようになる。つまり、図12に示すように、P12点(図7のC1点に対応)及びP21点で複数入力を行った場合で、かつ各点における指示具の高さHが図6に示すHth_R≦H≦Hth_Lの場合を考える。   Next, an example of a plurality of inputs when a coordinate input point is erroneously detected will be described. The false detection pattern (1) is as follows. That is, as shown in FIG. 12, when a plurality of inputs are made at point P12 (corresponding to point C1 in FIG. 7) and point P21, the height H of the pointing tool at each point is Hth_R ≦ H shown in FIG. Consider the case of ≦ Hth_L.

このとき、図13に示すように、センサユニット1Rでは、θR2が検知されない。   At this time, as shown in FIG. 13, the sensor unit 1R does not detect θR2.

この場合、実際には、C1点(P12)、P21の位置に2つの入力を行っているにも関わらず、センサユニット1Rからは、θR1のみ検知されてθR2が検知されない(即ち、P12の入力の影が観測されない)。そのため、P12は、センサユニット1Rから重複して観測される点、即ち、図12のP11が座標入力点であると誤認識をしてしまう。即ち、本来の座標入力点P12を座標入力点P11と誤検出してしまう。   In this case, in practice, although two inputs are made at the positions of C1 point (P12) and P21, only θR1 is detected and θR2 is not detected from the sensor unit 1R (ie, input of P12). Is not observed). For this reason, P12 is erroneously recognized as a point observed from the sensor unit 1R, that is, P11 in FIG. 12 is a coordinate input point. That is, the original coordinate input point P12 is erroneously detected as the coordinate input point P11.

次に、誤検出パターン(2)としては、次のようになる。つまり、図14に示すように、P12点(図7のC1点に対応)及びP21点(C1点に対して、およそ左右対称な位置C1’点)に複数入力を行った場合である。この場合、C1点の位置での指示具の高さHは図6Bに示すHth_R ≦ H ≦ Hth_Lで、C1’点の位置での指示具の高さHは、図6Bのセンサユニット1Lと1Rとの関係を入れ替えた関係である。更に、Hth_L(C1´)≦H(C1´)≦Hth_R(C1´)である。   Next, the false detection pattern (2) is as follows. That is, as shown in FIG. 14, a plurality of inputs are performed at point P12 (corresponding to point C1 in FIG. 7) and point P21 (point C1 'that is approximately symmetrical with respect to point C1). In this case, the height H of the pointing tool at the position of the point C1 is Hth_R ≦ H ≦ Hth_L shown in FIG. 6B, and the height H of the pointing tool at the position of the point C1 ′ is the sensor unit 1L and 1R in FIG. 6B. This is a relationship in which the relationship with is replaced. Further, Hth_L (C1 ′) ≦ H (C1 ′) ≦ Hth_R (C1 ′).

このとき、図15に示すように、センサユニット1LからはθL2が観測されず、同様に、センサユニット1RからはθR2が観測されない。この場合、実際には、C1(P12)、C1’(P21)に入力しているにもかかわらず、夫々、実際に検出している角度θL1、θR1の交点、即ち、図14のP11が座標入力点であると誤認識してしまう。即ち、この場合、単一入力であると誤検出してしまう。   At this time, as shown in FIG. 15, θL2 is not observed from the sensor unit 1L, and similarly, θR2 is not observed from the sensor unit 1R. In this case, in fact, although the values are input to C1 (P12) and C1 ′ (P21), the intersections of the angles θL1 and θR1 actually detected, that is, P11 in FIG. Misrecognized as an input point. That is, in this case, a single input is erroneously detected.

このように、指示具の高さHが所定範囲(例えば、C1点の位置である場合、Hth_R≦H≦Hth_L)であるとき、本来、センサユニット1L及び1Rの両者で検出されるべき影が、ぞれぞれの三次元的遮光検出領域が異なる。そのために、複数入力時で検出した座標候補点から正しい組み合せで座標入力点を検出できない。   As described above, when the height H of the pointing device is within a predetermined range (for example, Hth_R ≦ H ≦ Hth_L in the case of the position of the C1 point), a shadow that should be originally detected by both the sensor units 1L and 1R Each three-dimensional shading detection area is different. For this reason, the coordinate input point cannot be detected by a correct combination from the coordinate candidate points detected at the time of a plurality of inputs.

また、この所定範囲(例えば、C1点の位置である場合、Hth_R≦H≦Hth_L)は、座標入力有効領域に対し、指示具が入る際ないし出る際において必ず存在する。そのため、座標の誤検出や、座標候補点の誤算出が発生してしまう。   Further, this predetermined range (for example, Hth_R ≦ H ≦ Hth_L in the case of the position of the point C1) always exists when the pointing tool enters or leaves the coordinate input effective area. For this reason, erroneous detection of coordinates and erroneous calculation of coordinate candidate points occur.

以上の問題は、C2点でも同じことが起こる。C2点の場合は、センサユニット1Lから見える影の強度と、センサユニット1Rから見える影の強度の関係は逆である。   The same problem occurs at point C2. In the case of point C2, the relationship between the intensity of the shadow seen from the sensor unit 1L and the intensity of the shadow seen from the sensor unit 1R is opposite.

従って、C1点における場合の図12のパターンに対応するものは、図16Aに示すパターンである。この場合、センサユニット1LからθL1方向の影が見えない瞬間において、C2(P12)の座標をP22と見誤って検出してしまう。   Accordingly, the pattern shown in FIG. 16A corresponds to the pattern shown in FIG. 12 at the point C1. In this case, at the moment when no shadow in the θL1 direction is visible from the sensor unit 1L, the coordinates of C2 (P12) are mistakenly detected as P22.

また、C1点における場合の図14のパターンに対応するものは、図16Bに示すパターンである。この場合、センサユニット1LからθL1が見えなくて、かつセンサユニット1RからθR1が見えない瞬間において、C2(P12)とC2’(P21)に入力しているにもかかわらず、P22の位置に見誤って検出してしまう。   Further, the pattern shown in FIG. 16B corresponds to the pattern shown in FIG. 14 at the point C1. In this case, at the moment when θL1 cannot be seen from the sensor unit 1L and θR1 cannot be seen from the sensor unit 1R, it is seen at the position of P22 even though it is inputted to C2 (P12) and C2 ′ (P21). It will be detected by mistake.

<三次元的遮光検出領域の共通化>
そこで、本発明は、これらの問題を解決する構成を提案するものであり、特に、本発明においては、左右のセンサユニット1L及び1Rの三次元的遮光検出領域を同一(共通)にすることにより、これらの問題を解決するものである。
<Shared 3D shading detection area>
Therefore, the present invention proposes a configuration that solves these problems. In particular, in the present invention, the three-dimensional shading detection areas of the left and right sensor units 1L and 1R are made identical (common). To solve these problems.

<共通の三次元的遮光検出領域の定義>
まず、本発明において提案する構成は、例えば、図5Aと図5Bに示す、センサユニット1L及び1R夫々の三次元的遮光検出領域をいかに同一空間にするかということである。
<Definition of common 3D shading detection area>
First, the configuration proposed in the present invention is, for example, how to make the three-dimensional shading detection areas of the sensor units 1L and 1R shown in FIGS. 5A and 5B the same space.

このため、本発明では、次のような構成(特徴条件)を採用する。   For this reason, in the present invention, the following configuration (characteristic condition) is adopted.

2つのセンサユニットで構成される遮光型座標入力装置において、センサユニットのうち互いに一方のみが対向する再帰反射部の形状を、他方に関する三次元的遮光検出領域の前記一方のみが対向する再帰反射部に沿った面における断面に略等しくする。   In a light-shielding coordinate input device composed of two sensor units, a retroreflective portion in which only one of the three-dimensional light-shielding detection areas related to the other is shaped in the shape of a retroreflective portion in which only one of the sensor units faces each other. The cross section in the plane along

具体的には、センサユニット1Lに関わる三次元的遮光検出領域の左辺近傍における断面と、センサユニット1Rに対向し、かつセンサユニット1Lには対向しない再帰反射部4bの形状を略同一にする。   Specifically, the cross section in the vicinity of the left side of the three-dimensional shading detection region related to the sensor unit 1L and the shape of the retroreflective portion 4b facing the sensor unit 1R and not facing the sensor unit 1L are made substantially the same.

同様に、センサユニット1Rに関わる三次元的遮光検出領域の右辺近傍における断面と、センサユニット1Lに対向し、かつセンサユニット1Rには対向しない再帰反射部4aの形状を略同一にする。   Similarly, the cross section in the vicinity of the right side of the three-dimensional shading detection area related to the sensor unit 1R and the shape of the retroreflective portion 4a facing the sensor unit 1L and not facing the sensor unit 1R are made substantially the same.

実際に、このようにするためには、図2Aに示すように、例えば、再帰反射部4aの形状は、一方の端部の辺の延長が、対向しないセンサユニット1Rの第1の遮光検知窓と略一致する。また、他方の端部の辺がセンサユニット1L、センサユニット1Rが共通に対向する再帰反射部4cの端部の辺に略一致する。更に、再帰反射部4aの下辺は弓なりの形状で、中ほどの部分で座標入力面に近接(略一致ないし接近)するような形状であり、上辺は直線か、もしくは中ほどで下に下がる弓なりの形状である。   Actually, in order to do this, as shown in FIG. 2A, for example, the shape of the retroreflective portion 4a is such that the extension of one end of the side is not opposed to the first light shielding detection window of the sensor unit 1R. Is approximately the same. Further, the side of the other end substantially coincides with the side of the end of the retroreflective portion 4c facing the sensor unit 1L and the sensor unit 1R in common. Furthermore, the lower side of the retroreflective portion 4a has a bow-like shape, and the middle part is close to (nearly coincident with or close to) the coordinate input surface, and the upper side is a straight line or a bow that falls downward in the middle. It is the shape.

また、再帰反射部4bの形状も同様に、一方の端部の辺の延長が、対向しないセンサユニット1Lの第1の遮光検知窓と略一致する。また、他方の端部の辺がセンサユニット1L、センサユニット1Rが共通に対向する再帰反射部4cの端部の辺に略一致する。更に、再帰反射部4bの下辺は弓なりの形状で、中ほどの部分で入力面に略一致ないし接近するような形状であり、上辺は直線か、もしくは中ほどで下に下がる弓なりの形状である。   Similarly, in the shape of the retroreflective portion 4b, the extension of the side of one end portion substantially coincides with the first light shielding detection window of the sensor unit 1L that is not opposed. Further, the side of the other end substantially coincides with the side of the end of the retroreflective portion 4c facing the sensor unit 1L and the sensor unit 1R in common. Furthermore, the lower side of the retroreflective portion 4b has a bow-like shape, which is a shape that substantially matches or approaches the input surface in the middle part, and the upper side is a straight line or a bow-like shape that falls down in the middle. .

このような形状にすることにより、共通の三次元的遮光検出領域は、周囲の断面は、それぞれの面の再帰反射部であって、かつ上面下面とも座標入力領域の中ほどで下に窪むような形状である。かつ、前記下面は座標入力領域の中ほどで、座標入力面に略接するないし接近するような形状で、成立することとなる。   By adopting such a shape, the common three-dimensional shading detection area is such that the surrounding cross-section is a retroreflective portion of each surface, and the upper and lower surfaces are depressed downward in the middle of the coordinate input area. Shape. In addition, the lower surface is formed in the middle of the coordinate input area and in a shape that substantially touches or approaches the coordinate input surface.

具体的には、図2Aの再帰反射部4a及び4bを、図示の形状にすることにより、図2Bに示す三次元的遮光検出領域、即ち、センサユニット1L及び1Rにおいて共通となる三次元的遮光検出領域を形成することができる。   Specifically, the retroreflective portions 4a and 4b in FIG. 2A are shaped as shown in the figure so that the three-dimensional light shielding detection region shown in FIG. 2B, that is, the three-dimensional light shielding common to the sensor units 1L and 1R. A detection region can be formed.

ここで、図2Bにおける縦じまの部分は、三次元的遮光検出領域の三次元的形状を分かりやすくするために付け加えた断面図であり、本発明において特別な意味をなす断面ではない。   Here, the vertical stripes in FIG. 2B are sectional views added for easy understanding of the three-dimensional shape of the three-dimensional shading detection region, and are not special in the present invention.

尚、図2Aに示すように、再帰反射部4cは長方形である。また、再帰反射部4a及び4bは同一形状で、両者の端部の辺とセンサユニットの検出位置を弓なりの形状でつなげたものであり、およそ中央部分付近において座標入力面にほぼ接する形状である。   In addition, as shown to FIG. 2A, the retroreflection part 4c is a rectangle. The retroreflective portions 4a and 4b have the same shape, in which the sides of both ends and the detection position of the sensor unit are connected by a bow-like shape, and the shape is substantially in contact with the coordinate input surface in the vicinity of the central portion. .

また、センサユニット1Lの上端は、再帰反射部4bの上辺の延長上にあり、下端は下辺の延長上にある。また、センサユニット1Rの上端は、再帰反射部4aの上辺の延長上にあり、下端は下辺の延長上にある。   The upper end of the sensor unit 1L is on the extension of the upper side of the retroreflective portion 4b, and the lower end is on the extension of the lower side. The upper end of the sensor unit 1R is on the extension of the upper side of the retroreflective portion 4a, and the lower end is on the extension of the lower side.

<三次元的遮光検出領域の断面形状>
次に、再帰反射部4a及び4bの形状、即ち、三次元的遮光検出領域の断面形状を決定する方法について説明する。
<Cross-sectional shape of three-dimensional shading detection area>
Next, a method for determining the shapes of the retroreflective portions 4a and 4b, that is, the cross-sectional shape of the three-dimensional shading detection region will be described.

既に述べたように、センサユニットの投光部から投光されて受光部に戻ってくる光は、図4に示すように、4つの光路、即ち、光路1〜光路4が想定される。   As already described, the light that is projected from the light projecting unit of the sensor unit and returned to the light receiving unit is assumed to have four optical paths, that is, optical path 1 to optical path 4, as shown in FIG.

それぞれの光路について、その伝わる順をまとめると、以下のようになる。   The order of transmission for each optical path is summarized as follows.

光路1:投光 → 再帰反射 → 受光
光路2:投光 → 再帰反射 → 座標入力面反射 → 受光
光路3:投光 → 座標入力面反射 → 再帰反射 → 受光
光路4:投光 → 座標入力面反射 → 再帰反射 → 座標入力面反射 → 受光
次に、図17A〜図17Cと、図18A〜図18Cを用いて、これらの光路と遮光検出領域との関係を説明する。
Optical path 1: Projection → Retroreflection → Reception Optical path 2: Projection → Retroreflection → Coordinate input surface reflection → Reception Optical path 3: Projection → Coordinate input surface reflection → Retroreflection → Reception Optical path 4: Projection → Coordinate input surface reflection → Recursive reflection → Coordinate input surface reflection → Light reception Next, the relationship between these optical paths and the light shielding detection area will be described with reference to FIGS. 17A to 17C and FIGS. 18A to 18C.

図17A〜図17Cについては、光路1及び光路2を図中の上部に、光路3及び光路4を図中の下部に示している。また、図18A〜図18Cについては、光路1及び光路3を図中の上部に、光路2及び光路4を図中の下部に示している。   About FIG. 17A-FIG. 17C, the optical path 1 and the optical path 2 are shown in the upper part in a figure, and the optical path 3 and the optical path 4 are shown in the lower part in a figure. 18A to 18C, the optical path 1 and the optical path 3 are shown in the upper part of the figure, and the optical path 2 and the optical path 4 are shown in the lower part of the figure.

ここに関連する全ての図について、投光側(投光部から再帰反射部まで)の有効な光通過領域を格子模様パターンで表現し、受光側(再帰反射部から受光部まで)の有効な光通過領域をグレーパターンで表現する。   For all the figures related here, the effective light passage area on the light emitting side (from the light projecting part to the retroreflective part) is expressed by a lattice pattern, and the effective light receiving side (from the retroreflective part to the light receiving part) is expressed. The light passage area is represented by a gray pattern.

センサユニットにおける投光部と受光部の位置関係に関して、図17Aは、投光部が受光部より高い位置にあり、両者の重なり部分がない場合を示している。図17Bは、投光部が受光部より高い位置にあり、両者の重なり部分がある場合を示している。図17Cは、投光部が受光部を高さ方向の位置で包含している場合を示している。   Regarding the positional relationship between the light projecting unit and the light receiving unit in the sensor unit, FIG. 17A shows a case where the light projecting unit is located higher than the light receiving unit and there is no overlapping portion between the two. FIG. 17B shows a case where the light projecting unit is at a higher position than the light receiving unit, and there is an overlapping portion between them. FIG. 17C illustrates a case where the light projecting unit includes the light receiving unit at a position in the height direction.

また、図18Aは、受光部が投光部より高い位置にあり、両者の重なり部分がない場合を示している。図18Bは、受光部が投光部より高い位置にあり、両者の重なり部分がある場合を示している。図18Cは、受光部が投光部を高さ方向の位置で包含している場合を示している。   FIG. 18A shows a case where the light receiving unit is at a higher position than the light projecting unit and there is no overlapping portion. FIG. 18B shows a case where the light receiving unit is at a higher position than the light projecting unit and there is an overlapping portion of both. FIG. 18C shows a case where the light receiving unit includes the light projecting unit at a position in the height direction.

これらの図を比較すると、図17A〜図17Cと、図18A〜図18Cでは、図示される格子模様パターンと、グレーパターンの位置が入れ替わること以外は、同じ形の図となる。   Comparing these figures, FIGS. 17A to 17C and FIGS. 18A to 18C are the same shape except that the positions of the lattice pattern and the gray pattern shown in FIG. 17 are interchanged.

次に、これらそれぞれの場合に、遮光が検知されるための指示具と光通過領域の位置関係を判定し、それらの判定結果を一般化し統合することにより、左右辺の遮光検出領域、即ち、三次元的遮光検出領域の左右辺近傍における断面形状を決定する。   Next, in each of these cases, the positional relationship between the indicator for detecting light shielding and the light passage region is determined, and by generalizing and integrating the determination results, the left and right light shielding detection regions, that is, A cross-sectional shape in the vicinity of the left and right sides of the three-dimensional shading detection area is determined.

説明のために、以下のように用語を定義する。   For the sake of explanation, terms are defined as follows.

遮光率0%境界線:所定の光路において、指示具を上から挿入していった時に、最初に遮光を検知し始める境界線。   Shielding rate 0% boundary line: A boundary line that first detects light shielding when an indicator is inserted from above in a predetermined optical path.

遮光率100%境界線:所定の光路において指示具を上から挿入していった時に、遮光率が100%に至る境界線。   Shielding rate 100% boundary line: A boundary line where the shielding rate reaches 100% when an indicator is inserted from above in a predetermined optical path.

以下、それぞれの場合について説明する。   Hereinafter, each case will be described.

図17Aの上図には、光路1及び光路2を、下図は光路3及び光路4を示している。   17A shows the optical path 1 and the optical path 2, and the lower figure shows the optical path 3 and the optical path 4. FIG.

図17Aの上図において、遮光率0%境界線は、2点鎖線で示す線分(Ref1,Led1)である。また、遮光率100%境界線は、点線で示す線分(Ref2,Led2)である。   In the upper diagram of FIG. 17A, the 0% light shielding rate boundary line is a line segment (Ref1, Led1) indicated by a two-dot chain line. Further, the 100% light shielding rate boundary line is a line segment (Ref2, Led2) indicated by a dotted line.

図17Aの上図において、線分(Ref2,Led2)より下の部分に、グレーパターン、即ち、光路1及び光路2の再帰反射→受光の部分が存在する。但し、線分(Ref2,Led2)において、投光側の光路が完全に遮断されているので、当該部分は遮光率100%境界線を決定するには直接関係ないといえる。   In the upper diagram of FIG. 17A, a gray pattern, that is, a retroreflective → light-receiving portion of the optical path 1 and the optical path 2 exists in a portion below the line segment (Ref2, Led2). However, since the light path on the light projecting side is completely blocked in the line segment (Ref2, Led2), it can be said that this portion is not directly related to determining the 100% light shielding rate boundary line.

図17Aの下図においては、遮光率0%境界線は、線分(Ref1,Sens1)と線分(Ref2’,Led1)とで決まる点線の部分である。また、遮光率100%境界線は、線分(Ref2,Sens1’)と線分(Ref1’,Led2)と、座標入力面3で決まる1点鎖線の部分である。   In the lower diagram of FIG. 17A, the 0% light shielding rate boundary line is a dotted line portion determined by the line segment (Ref1, Sens1) and the line segment (Ref2 ′, Led1). Further, the 100% light shielding rate boundary line is a line segment (Ref 2, Sens 1 ′), a line segment (Ref 1 ′, Led 2), and a one-dot chain line portion determined by the coordinate input surface 3.

この1点鎖線より下の部分に、例えば、再帰反射側には投光側の光路、センサユニット側には受光側の光路が存在する。ここで、前者においては、1点鎖線において受光側が、後者においては、1点鎖線における投光側が完全に遮光される。これにより、それより下側の部分は、遮光率100%境界線を決定するのには直接関係ない。   In the portion below the one-dot chain line, for example, there is a light path on the light projecting side on the retroreflective side and a light path on the light receiving side on the sensor unit side. Here, in the former, the light-receiving side is completely shielded from the one-dot chain line, and in the latter, the light-projecting side in the one-dot chain line is completely shielded. As a result, the lower part is not directly related to determining the 100% light shielding rate boundary line.

実際には、これらの上下の図を両方考慮することにより、光路1〜4における遮光率100%境界線、遮光率0%境界線を決定する。   Actually, by considering both the upper and lower figures, the 100% light shielding rate boundary line and the light shielding rate 0% boundary line in the optical paths 1 to 4 are determined.

即ち、光路1〜4全体としての遮光率0%境界線は、光路1及び光路2(上図)の遮光率0%境界線と、光路3及び光路4(下図)の遮光率0%境界線の高い位置にある方で決定される。同様に、光路1〜4全体としての遮光率100%境界線は、光路1及び光路2(上図)の遮光率100%境界線と、光路3及び光路4(下図)の遮光率100%境界線の低い位置にある方で決定される。   In other words, the 0% light shielding rate boundary line of the optical paths 1 to 4 as a whole is the boundary line of the light shielding rate 0% for the optical path 1 and the optical path 2 (upper figure) and the 0% light shielding rate boundary line for the optical path 3 and the optical path 4 (lower figure) It is determined by the higher position. Similarly, the 100% light shielding rate boundary line of the optical paths 1 to 4 as a whole is the boundary between the light shielding rate 100% of the optical path 1 and the optical path 2 (upper diagram) and the light shielding rate 100% boundary of the optical path 3 and the optical path 4 (lower diagram). Determined by the lower position of the line.

即ち、それぞれの光路において、投光側もしくは受光側の一方が少なくとも遮光され始める位置が、その場所における遮光率0%境界線である。また、投光側もしくは受光側の一方が完全に遮光される位置が、その場所における遮光率100%境界線である。   That is, in each optical path, a position where at least one of the light projecting side or the light receiving side begins to be shielded is a boundary line with a light shielding rate of 0% at that location. Further, the position where one of the light projecting side or the light receiving side is completely shielded is a boundary line with 100% light shielding rate at that place.

即ち、その場所で光路1〜4の中で、最も高い位置にある遮光率0%境界線が、その場所における光路1〜4全体としての遮光率0%境界線である。また、光路1〜4の中で最も低い位置にある遮光率100%境界線が、その場所における光路1〜4全体としての遮光率100%境界線である。   That is, the 0% light shielding rate boundary line at the highest position among the optical paths 1 to 4 at that location is the 0% light shielding rate boundary line as a whole of the light paths 1 to 4 at that location. Further, the 100% light shielding rate boundary line at the lowest position in the optical paths 1 to 4 is the 100% light shielding rate boundary line as a whole of the optical paths 1 to 4 in that place.

図17Aでは、光路1〜4全体の遮光率0%境界線を2点鎖線、光路1〜4全体の遮光率100%境界線を1点鎖線で示している。同様に、図17B〜図18Cについても、光路1〜4全体の遮光率0%境界線を2点鎖線、光路1〜4全体の遮光率100%境界線を1点鎖線で示している。   In FIG. 17A, a boundary line with a light shielding rate of 0% for the entire light paths 1 to 4 is indicated by a two-dot chain line, and a boundary line with a light shielding ratio of 100% for the whole light paths 1 to 4 is indicated by a one-dot chain line. Similarly, in FIGS. 17B to 18C, a boundary line with a light shielding rate of 0% for the entire optical paths 1 to 4 is indicated by a two-dot chain line, and a boundary line with a light shielding ratio of 100% for the entire optical paths 1 to 4 is indicated by a one-dot chain line.

ここで、各図において、遮光率0%境界線、遮光率100%境界線は、図中のSens1、Sens2、Sens1’、Sens2’、Led1、Led2、Led1’、Led2’、及びRef1、Ref2、Ref1’、Ref2’の組み合せで表現される。   Here, in each figure, the light shielding rate 0% boundary line and the light shielding rate 100% boundary line are Sens1, Sens2, Sens1 ′, Sens2 ′, Led1, Led2, Led1 ′, Led2 ′, and Ref1, Ref2, It is expressed by a combination of Ref1 ′ and Ref2 ′.

ここで、以下のように用語の定義を行う
Opt1 = higer(Led1,Sens1)
Opt2 = higer(Led2,Sens2)
Opt3 = lower(Led1,Sens1)
Opt3’= Opt3の鏡像
ここで、higer(*1,*2)は、*1と*2のZ方向に高い方の位置を選択するという演算式を示している。
Here, terms are defined as follows: Opt1 = higer (Led1, Sens1)
Opt2 = higer (Led2, Sens2)
Opt3 = lower (Led1, Sens1)
Here, higer (* 1, * 2) represents an arithmetic expression that selects a higher position in the Z direction of * 1 and * 2.

このように定義すると、図19Aに示すように、光路1〜4全体としての遮光率0%境界線は必ず線分(Ref1,Opt1)、遮光率100%境界線は必ず線分(Ref2,Q1,Q2,Opt2)となる。   When defined in this way, as shown in FIG. 19A, the 0% light shielding rate boundary line as a whole of the optical paths 1 to 4 is always a line segment (Ref1, Opt1), and the light shielding rate 100% boundary line is always a line segment (Ref2, Q1). , Q2, Opt2).

ここで、図19B中に示すように、遮光率0%境界線、遮光率100%境界線とは別に、線分(Ref1,Q3,Opt1)を第3の遮光率境界線とする。これは、4つの光路1〜4のいずれもが有効な遮光率を発生する境界線である。即ち、遮光率0%境界線と第3の遮光率境界線の間では、光路1〜4の内の何れか一部が指示具の高さに応じて遮光される。また、第3の境界線より下では、光路1〜4の全てが指示具の高さに応じて遮光される。   Here, as shown in FIG. 19B, a line segment (Ref1, Q3, Opt1) is set as a third light shielding rate boundary line, separately from the light shielding rate 0% boundary line and the light shielding rate 100% boundary line. This is a boundary line in which all of the four optical paths 1 to 4 generate an effective light shielding rate. That is, any one of the optical paths 1 to 4 is shielded according to the height of the pointing tool between the boundary line with the light shielding rate of 0% and the third light shielding ratio boundary line. Further, below the third boundary line, all of the optical paths 1 to 4 are shielded according to the height of the pointing tool.

ここで、第1の遮光検知窓の定義として、その上端をOpt1、下端をOpt2とする。また、第1の遮光検知窓の座標入力有効領域3に対する鏡像となる、第2の遮光検知窓の定義として、その上端をOpt4’、下端をOpt3’とする。   Here, as the definition of the first light shielding detection window, the upper end is Opt1 and the lower end is Opt2. In addition, as the definition of the second light shielding detection window that is a mirror image of the coordinate input effective area 3 of the first light shielding detection window, the upper end is Opt4 'and the lower end is Opt3'.

このように定義すると、第1の遮光検知窓は、センサユニットの実像においての遮光検知窓を実態的に意味すると言うことができる。また、第2の遮光検知窓は、センサユニットの鏡像においての遮光検知窓を実態的に意味すると言うことができる。また、Opt3、Opt4、Ref1、Ref1’、Ref2、Ref2’及び交点位置Q1、Q2、Q3は、遮光検出領域を決定するパラメータ群ということができる。   If it defines in this way, it can be said that the 1st shading detection window actually means the shading detection window in the real image of a sensor unit. Moreover, it can be said that the 2nd light-shielding detection window actually means the light-shielding detection window in the mirror image of a sensor unit. Further, Opt3, Opt4, Ref1, Ref1 ', Ref2, Ref2' and the intersection positions Q1, Q2, Q3 can be referred to as parameter groups for determining the light shielding detection region.

以上のように構成することにより、図19Aの2点鎖線(遮光率0%境界線)と1点鎖線(遮光0%境界線)とで挟まれる領域として、三次元的遮光検出領域の断面形状を決定することができる。   By configuring as described above, the cross-sectional shape of the three-dimensional shading detection region as a region sandwiched between the two-dot chain line (the light shielding rate 0% boundary line) and the one dot chain line (the light shielding 0% boundary line) in FIG. Can be determined.

換言すれば、複数のセンサユニット1L及び1Rの内、一方のセンサユニットが対向し、かつ他方のセンサユニットが対向しない再帰反射部の形状は、次の条件で規定される形状である。つまり、1)他方のセンサユニットと、2)他方のセンサユニットの座標入力有効領域に対する鏡像と、3)他方のセンサユニットが対向する再帰反射部と4)他方のセンサユニットが対向する再帰反射部の座標入力領域に対する鏡像とで規定される形状である。そして、この形状に対し、一方のセンサユニットが対向する再帰反射部に沿った断面の形状と略等しくなるように、三次元的遮光検出領域が定義される。   In other words, of the plurality of sensor units 1L and 1R, the shape of the retroreflective portion where one sensor unit faces and the other sensor unit does not face is a shape defined by the following conditions. That is, 1) the other sensor unit, 2) the mirror image of the other sensor unit with respect to the coordinate input effective area, 3) the retroreflective portion facing the other sensor unit, and 4) the retroreflecting portion facing the other sensor unit. This is a shape defined by a mirror image of the coordinate input area. Then, the three-dimensional light-shielding detection region is defined so that the shape of the cross section along the retroreflecting portion facing one sensor unit is substantially equal to this shape.

より詳しくは、この断面の形状は、以下のように表現することができる。   More specifically, the shape of the cross section can be expressed as follows.

まず、その前提として、実像である第1の遮光検知窓の上端をOpt1、下端をOpt2とする。鏡像である第2の遮光検知窓の上端をOpt4’下端をOpt3’とする。第1の遮光検知窓の座標入力有効領域上の位置をOpt0とする。対向する再帰反射部の実像の上端をRef1、下端をRef2とする。再帰反射部の鏡像の上端をRef1’、下端をRef2’とする。再帰反射部の座標入力有効領域上の位置をRef0とする。   First, as the premise, the upper end of the first light-shielding detection window, which is a real image, is Opt1, and the lower end is Opt2. The upper end of the second light-shielding detection window, which is a mirror image, is Opt4 'and the lower end is Opt3'. The position of the first light shielding detection window on the coordinate input effective area is Opt0. Let Ref1 be the upper end of the real image of the retroreflective part facing, and Ref2 be the lower end. The upper end of the mirror image of the retroreflective portion is Ref1 ', and the lower end is Ref2'. The position of the retroreflective portion on the coordinate input effective area is Ref0.

また、線分Ref2−Opt3’と、線分Ref0−Opt0の交点をQ1とする。線分Ref1’−Opt2と、線分Ref0−Opt0の交点をQ2とする。線分Ref1−Opt3と、線分Ref2−Opt1’の交点をQ3とする。線分Ref2−Opt0と、線分Ref0_Opt2の交点をQ4とする。   Further, the intersection of the line segment Ref2-Opt3 'and the line segment Ref0-Opt0 is defined as Q1. Let Q2 be the intersection of the line segment Ref1'-Opt2 and the line segment Ref0-Opt0. The intersection of the line segment Ref1-Opt3 and the line segment Ref2-Opt1 'is defined as Q3. Let Q4 be the intersection of the line segment Ref2-Opt0 and the line segment Ref0_Opt2.

この場合、断面の上辺は、線分Ref1−Opt1より低く、かつ線分Ref1−Q3−Opt1より高い位置にある。また、断面の下辺は、線分Ref2−Q4−Opt2より低く、かつ線分Ref2−Q1−Q2−Opt2より高い位置にある。   In this case, the upper side of the cross section is lower than the line segment Ref1-Opt1 and higher than the line segment Ref1-Q3-Opt1. The lower side of the cross section is lower than the line segment Ref2-Q4-Opt2 and higher than the line segment Ref2-Q1-Q2-Opt2.

<現実的な断面形状>
ここで、例えば、図19A中の点Bにおける「指示具高さ 対 遮光率」特性を考えてみる。そこで、この「指示具高さ 対 遮光率」特性を図20に示す。
<Realistic cross-sectional shape>
Here, for example, consider the “indicator height vs. shading rate” characteristic at point B in FIG. 19A. Therefore, this “indicator height vs. shading rate” characteristic is shown in FIG.

上述したように、点Bにおいては、点B1(点Bにおける遮光率0%境界線の高さ)で遮光検知が始まり、点B4(点Bにおける遮光率0%境界線の高さ)で遮光率が100%に達することはたしかである。   As described above, at the point B, the light shielding detection starts at the point B1 (the height of the boundary line where the light shielding rate is 0% at the point B) and the light is shielded at the point B4 (the height of the boundary line where the light shielding rate is 0% at the point B). It is true that the rate reaches 100%.

しかしながら、点Bにおいては、点B1〜B4の間の部分区間ごとに、光路1〜4のそれぞれの遮光検知に対するかかわり方が異なる。例えば、点B1〜B2の部分では、遮光検知に関わる光路は、光路1〜4のうち二つのみである。また、ケースによって異なるがB2〜B3の部分よりも、B3〜B4の部分の方が遮光検知に関わる光路の数が少ない場合がある。   However, at the point B, the manner in which each of the light paths 1 to 4 is related to the light shielding detection is different for each partial section between the points B1 to B4. For example, at the points B1 to B2, there are only two of the optical paths 1 to 4 for the light shielding detection. In addition, although depending on the case, there are cases where the number of optical paths related to the light blocking detection is smaller in the B3 to B4 portion than in the B2 to B3 portion.

これらの関係により、点Bにおける実際の「指示具高さ 対 遮光率」は、図20に示すような曲線となる。即ち、B1〜B2の間とB3〜B4の間は比較的勾配が緩やかであり、B2〜B3の間は比較的勾配が急である。   Due to these relationships, the actual “indicator height vs. shading rate” at point B is a curve as shown in FIG. That is, the gradient between B1 and B2 and between B3 and B4 is relatively gentle, and the gradient between B2 and B3 is relatively steep.

図6A及び図6Bを用いて既に説明したように、本発明において、三次元的遮光検出領域の断面と、その断面に位置する再帰反射形状を略等しくするということは、次のようなことである。つまり、図6A及び図6Bで、実線で示す「指示具高さ 対 遮光率」曲線に対して、破線で示すところの「指示具高さ 対 遮光率」曲線を再帰反射形状を工夫することにより近づけて、その形状も合わせるということである。   As already described with reference to FIGS. 6A and 6B, in the present invention, the cross-section of the three-dimensional shading detection region and the retroreflective shape positioned in the cross-section are substantially equal to the following. is there. In other words, in FIG. 6A and FIG. 6B, by devising the retroreflective shape of the “indicator height vs. shading rate” curve shown by the broken line, the “indicator height vs. shading rate” curve shown by the solid line It means that the shape will be matched.

従って、この思想を、図20に当てはめると、次のようなことがいえる。つまり、実線で示す直線と破線で示す曲線を最も近いものにするためには、B1とB4、及びB2とB3をそれぞれ直線で結ぶのでなく、B1とB2、及びB3とB4の間の所定部分を直線で結ぶのが適切である。   Therefore, when this idea is applied to FIG. 20, the following can be said. In other words, in order to make the straight line indicated by the solid line and the curve indicated by the broken line closest to each other, instead of connecting B1 and B4 and B2 and B3 with a straight line, respectively, a predetermined portion between B1 and B2 and B3 and B4 It is appropriate to connect

即ち、図20の点H1_Bが現実的な意味での遮光率0%境界線に属し、点H2_Bが現実的な意味での遮光率100%境界線に属するとすると、次のようなことがいえる。つまり、図19Aにおいて、現実的な遮光率0%曲線は、同図の2点鎖線ではなく、両端の点、Ref1ないし、Opt1から離れるに従って、その2点鎖線よりも少し下側を通ることとなる。また、現実的な遮光率100%曲線は、同図の1点鎖線ではなく、両端の点、Ref2ないし、Opt2から離れるに従って、その1点鎖線よりも少し上側を通ることとなる。   That is, assuming that the point H1_B in FIG. 20 belongs to a boundary line with a light shielding rate of 0% in a practical sense and the point H2_B belongs to a boundary line with a light shielding rate of 100% in a practical sense, the following can be said. . That is, in FIG. 19A, a realistic light shielding rate 0% curve is not a two-dot chain line in the same figure, but passes slightly below the two-dot chain line as it gets away from the points at both ends, Ref1 or Opt1. Become. Further, the actual 100% light-shielding rate curve is not the one-dot chain line in the figure, but passes a little higher than the one-dot chain line as it gets away from the points at both ends, Ref2 or Opt2.

<共通の三次元的遮光検出領域の定義の拡張>
ここまで述べてきたように、本発明の構成は、例えば、センサユニット1L及び1R夫々の三次元的遮光検出領域をいかに同一空間にするかである。そのために、センサユニット1L及び1Rの内、互いに一方のみが対向する再帰反射部の形状を他方に関する三次元的遮光検出領域の前記一方のみが対向する再帰反射部に沿った面における断面に略等しくする。
<Extended definition of common 3D shading detection area>
As described so far, the configuration of the present invention is, for example, how to make the three-dimensional shading detection areas of the sensor units 1L and 1R the same space. Therefore, of the sensor units 1L and 1R, the shape of the retroreflective portion facing only one of the sensor units 1L and 1R is substantially equal to the cross section of the surface along the retroreflective portion facing only the one of the three-dimensional shading detection regions related to the other. To do.

具体的には、センサユニット1Lに関わる三次元的遮光検出領域の左辺近傍における断面と、センサユニット1Rに対向する再帰反射部4bの形状を略同一にする。同様に、センサユニット1Rに関わる三次元的遮光検出領域の右辺近傍における断面と、センサユニット1Lに対向する再帰反射部4aの形状を略同一にするということである。   Specifically, the cross section in the vicinity of the left side of the three-dimensional shading detection region related to the sensor unit 1L and the shape of the retroreflective portion 4b facing the sensor unit 1R are made substantially the same. Similarly, the cross section in the vicinity of the right side of the three-dimensional shading detection region related to the sensor unit 1R and the shape of the retroreflective portion 4a facing the sensor unit 1L are made substantially the same.

従って、必ずしも図2Aのように、再帰反射部4a及び4bの形状は左右対称である必要はない。例えば、図21に示すように、夫々のセンサユニット1L及び1Rの高さが異なっている場合で、両者に共通の再帰反射部分4cの両端の高さが異なる構成でも良い。あるいは、図22に示すように、夫々のセンサユニット1L及び1Rの遮光検知窓の大きさが異なっている場合で、両者に共通の再帰反射部分4cの両端の高さが異なる構成でも良い。   Therefore, as shown in FIG. 2A, the shapes of the retroreflective portions 4a and 4b are not necessarily symmetrical. For example, as shown in FIG. 21, when the heights of the sensor units 1L and 1R are different from each other, the height of both ends of the retroreflective portion 4c common to both may be different. Or as shown in FIG. 22, when the sizes of the light-shielding detection windows of the sensor units 1L and 1R are different from each other, the height of both ends of the retroreflective portion 4c common to both may be different.

また、上記2つのセンサユニットの場合に限らず、一般的に、図23に示すような、3個以上の複数のセンサユニットで構成される座標入力装置においても、同様のことが言える。   The same can be said for a coordinate input apparatus including three or more sensor units as shown in FIG. 23, not limited to the above two sensor units.

以上のように構成することにより、それぞれのセンサユニットに関する三次元的遮光検出領域は略同一共通の立体(三次元的立体形状)となり、夫々のセンサユニット1L及び1Rで観測される遮光影の深さ(遮光率)は、略同一の値として観測される。換言すれば、観測される光強度の変化率によって、指示具の高さ方向の位置の変化を検出することができる
以上、ここまで説明した条件は、あくまでも、指示具による入力があった場合にセンサユニットで観測される影の深さ(遮光率)が、全てのセンサユニットで略同じ値に観測できるということであり、正しい座標を算出するための条件ではない。
By configuring as described above, the three-dimensional shading detection areas for the respective sensor units become substantially the same solid (three-dimensional solid shape), and the depth of the shading shadow observed by the respective sensor units 1L and 1R. The length (light shielding rate) is observed as substantially the same value. In other words, it is possible to detect a change in the position of the indicator in the height direction based on the observed change rate of the light intensity. As described above, the conditions described so far are only when there is an input by the indicator. This means that the shadow depth (light shielding ratio) observed by the sensor units can be observed at substantially the same value by all the sensor units, and is not a condition for calculating the correct coordinates.

即ち、正しい座標を算出するためには、座標入力面方向において、夫々の再帰反射部、夫々のセンサユニットが適正な関係で平面内に配置されていなければならないことは言うまでもない。   In other words, in order to calculate correct coordinates, it goes without saying that each retroreflecting unit and each sensor unit must be arranged in a plane in an appropriate relationship in the direction of the coordinate input surface.

本発明の実施形態1及び、後述する実施形態2は、もちろん、上記の条件をも満足するものである。   Of course, Embodiment 1 of the present invention and Embodiment 2 described later also satisfy the above-mentioned conditions.

<座標検出原理>
実施形態1における座標検出原理について説明する。
<Coordinate detection principle>
The coordinate detection principle in the first embodiment will be described.

図24は本発明の実施形態1の座標検出原理を説明するための図である。   FIG. 24 is a diagram for explaining the principle of coordinate detection according to the first embodiment of the present invention.

ここで、図24は、図1A(あるいは図2A)の座標入力装置を上方から見た場合の概略図となっている。また、以下で、図1A(あるいは図2A)や図24での説明では、必要に応じて、再帰反射部4a〜4cは、再帰反射部4と総称する。   Here, FIG. 24 is a schematic diagram when the coordinate input device of FIG. 1A (or FIG. 2A) is viewed from above. Further, hereinafter, in the description with reference to FIG. 1A (or FIG. 2A) and FIG. 24, the retroreflective portions 4a to 4c are collectively referred to as the retroreflective portion 4 as necessary.

<センサユニット1の詳細説明>
次に、センサユニット1L及び1R内の構成について、図25を用いて説明する。尚、ここでは、センサユニット1L及び1Rそれぞれが、光学ユニットL1及びL2と光学ユニットR1及びR2を内蔵する二眼構成の場合を例に挙げて説明する。
<Detailed description of sensor unit 1>
Next, the configuration in the sensor units 1L and 1R will be described with reference to FIG. Here, a case where the sensor units 1L and 1R have a twin-lens configuration in which the optical units L1 and L2 and the optical units R1 and R2 are incorporated will be described as an example.

図25は本発明の実施形態1のセンサユニットの詳細構成を示す図である。   FIG. 25 is a diagram showing a detailed configuration of the sensor unit according to the first embodiment of the present invention.

図25において、101A及び101Bは、赤外光を発する赤外LEDであり、各々投光レンズ102A及び102Bによって、再帰反射部4に向けて略90°範囲に光を投光する。ここで、センサユニット1L及び1R中の投光部は、この赤外LED101A及び101Bと、投光レンズ102A及び102Bによって実現される。これにより、センサユニット1L及び1Rには、それぞれ2つの投光部が構成されることになる。   In FIG. 25, 101A and 101B are infrared LEDs which emit infrared light, and project light in a range of approximately 90 ° toward the retroreflecting unit 4 by the light projecting lenses 102A and 102B, respectively. Here, the light projecting units in the sensor units 1L and 1R are realized by the infrared LEDs 101A and 101B and the light projecting lenses 102A and 102B. Thereby, each of the sensor units 1L and 1R includes two light projecting units.

そして、投光部より投光された赤外光は、再帰反射部4により到来方向に再帰反射され、センサユニット1L及び1R中の受光部によって、その光を検出する。   Then, the infrared light projected from the light projecting unit is retroreflected in the arrival direction by the retroreflecting unit 4, and the light is detected by the light receiving units in the sensor units 1L and 1R.

受光部は、光線の視野を制限すると共に電気的なシールドをになうシールド部材105を設けた1次元のラインCCD104を備える。また、集光光学系としての受光用レンズ(例えば、fθレンズ)106A及び106B、入射光の入射方向を概略制限する絞り108A及び108B、及び可視光等の余分な光(外乱光)の入射を防止する赤外フィルター107A及び107Bを備える。   The light receiving unit includes a one-dimensional line CCD 104 provided with a shield member 105 that restricts the field of view of light and provides an electrical shield. In addition, light receiving lenses (for example, fθ lenses) 106A and 106B as condensing optical systems, diaphragms 108A and 108B that roughly limit the incident direction of incident light, and incident of extraneous light (disturbance light) such as visible light. Infrared filters 107A and 107B for preventing are provided.

そして、再帰反射部4によって反射された光は、赤外フィルター107A及び107B、絞り108A及び108Bを抜けて受光用レンズ106A及び106Bによって、ラインCCD104の検出素子110面上に集光される。これにより、センサユニット1L及び1Rには、それぞれ2つの受光部が構成されることになる。   The light reflected by the retroreflecting unit 4 passes through the infrared filters 107A and 107B and the stops 108A and 108B, and is collected on the detection element 110 surface of the line CCD 104 by the light receiving lenses 106A and 106B. Thereby, each of the sensor units 1L and 1R includes two light receiving units.

部材103及び部材109は、投光部及び受光部を構成する光学部品を配置するとともに、投光部で投光した光が直接受光部に入射することを防ぐ、あるいは外来光をカットするための上フード103、下フード109として機能する。   The member 103 and the member 109 are arranged to dispose the optical components constituting the light projecting unit and the light receiving unit, and prevent light projected by the light projecting unit from directly entering the light receiving unit, or to cut off external light. It functions as an upper hood 103 and a lower hood 109.

尚、実施形態1においては、絞り108A及び108Bは下フード109に一体で成型されているが、別部品であってもよいことはいうまでもない。さらには、上フード103側に、絞り108A及び108Bと受光用レンズ106A及び106Bの位置決め部を設けても良い。これにより、投光部の発光中心に対する受光部の位置決めを容易にする構成(つまり、上フード103のみで、すべての主要な光学部品が配置される構成)に実現することも可能である。   In the first embodiment, the apertures 108A and 108B are integrally formed with the lower hood 109, but it goes without saying that they may be separate parts. Furthermore, positioning portions for the diaphragms 108A and 108B and the light receiving lenses 106A and 106B may be provided on the upper hood 103 side. Accordingly, it is possible to realize a configuration that facilitates positioning of the light receiving unit with respect to the light emission center of the light projecting unit (that is, a configuration in which all the main optical components are arranged only by the upper hood 103).

図26Aは、図25の状態のセンサユニット1L(1R)を組み上げた状態を、正面方向(座標入力面に対し垂直方向)から見た図である。図26Aに示すように、センサユニット1L(1R)中の2つの投光部は、所定距離d離れた状態で、それぞれの主光線方向が略平行となるように配置されている。そして、これらは、各々の投光レンズ102A及び102Bによって、それぞれ略90°範囲に光を投光するように構成されている。   26A is a view of the assembled state of the sensor unit 1L (1R) in the state of FIG. 25 as viewed from the front direction (perpendicular to the coordinate input surface). As shown in FIG. 26A, the two light projecting units in the sensor unit 1L (1R) are arranged so that their principal ray directions are substantially parallel with a predetermined distance d therebetween. These are configured to project light in a range of approximately 90 ° by the light projecting lenses 102A and 102B.

図26Bは、図26Aの太矢印で示される部分の断面図である。ここでは、赤外LED101A(101B)からの光は、投光レンズ102A(102B)により、座標入力面に略平行に制限された光束として、主に再帰反射部4に対して光が投光されるように構成している。   FIG. 26B is a cross-sectional view of the portion indicated by the thick arrow in FIG. 26A. Here, the light from the infrared LED 101A (101B) is mainly projected onto the retroreflecting unit 4 as a light beam limited substantially parallel to the coordinate input surface by the projection lens 102A (102B). It is constituted so that.

一方、図26Cは、図26Aにおける赤外LED101A及び101B、投光レンズ102A及び102B、上フード103を取り除いた状態を、正面方向(座標入力面に対し垂直方向)から見た図である。   On the other hand, FIG. 26C is a view of the state in which the infrared LEDs 101A and 101B, the projection lenses 102A and 102B, and the upper hood 103 in FIG. 26A are removed as viewed from the front direction (perpendicular to the coordinate input surface).

ここで、実施形態1の場合、投光部と受光部は、座標入力面である座標入力有効領域3の垂直方向に対し重ねた配置構成(図26B参照)となっている。また、正面方向(座標入力面に対し垂直方向)から見て、投光部の発光中心と受光部の基準位置が一致する構造となっている。   Here, in the case of the first embodiment, the light projecting unit and the light receiving unit have an arrangement configuration (see FIG. 26B) that overlaps the vertical direction of the coordinate input effective area 3 that is the coordinate input surface. In addition, when viewed from the front direction (perpendicular to the coordinate input surface), the light emission center of the light projecting unit matches the reference position of the light receiving unit.

ここで、基準位置とは、角度を計測するための基準点位置に相当し、実施形態1にあっては絞り108A(108B)の位置であって、図中の光線が交差する点となる。   Here, the reference position corresponds to a reference point position for measuring an angle. In the first embodiment, the reference position is the position of the stop 108A (108B), which is a point where the light rays in the drawing intersect.

従って、前述した通り、2つの投光部は所定距離d離れた状態で、それぞれの主光線方向略平行となるように配置されているので、2つの受光部も同様に所定距離d離れた状態で、かつ各々の光軸(光学的な対称軸)が略平行となるように構成されている。   Therefore, as described above, since the two light projecting portions are arranged so as to be substantially parallel to each other in the principal ray direction with a predetermined distance d apart, the two light receiving portions are similarly separated by the predetermined distance d. And each optical axis (optical symmetry axis) is substantially parallel.

また、投光部により投光された座標入力面に略平行な光束であって、面内方向に略90°方向に投光されている光は、再帰反射部4により光の到来方向に再帰反射される。その後、赤外フィルター107A(107B)、絞り108A(108B)、集光レンズ106A(106B)を経て、ラインCCD104の検出素子110面上に集光、結像することになる。   In addition, light that is approximately parallel to the coordinate input surface projected by the light projecting unit and is projected in a direction of approximately 90 ° in the in-plane direction is recursed in the light arrival direction by the retroreflecting unit 4. Reflected. Thereafter, the light passes through the infrared filter 107A (107B), the stop 108A (108B), and the condenser lens 106A (106B), and is condensed and imaged on the detection element 110 surface of the line CCD 104.

従って、ラインCCD104の出力信号は、反射光の入射角に応じた光量分布を出力することになるので、ラインCCD104を構成する各画素の画素番号が角度情報を示すことになる。   Accordingly, since the output signal of the line CCD 104 outputs a light amount distribution corresponding to the incident angle of the reflected light, the pixel number of each pixel constituting the line CCD 104 indicates angle information.

尚、図26Bに示す投光部と受光部の距離Lは、投光部から再帰反射部4までの距離に比べて十分に小さな値であり、距離Lを有していても十分な再帰反射光を受光部で検出することが可能な構成となっている。   Note that the distance L between the light projecting unit and the light receiving unit shown in FIG. 26B is sufficiently smaller than the distance from the light projecting unit to the retroreflective unit 4, and sufficient retroreflection is possible even if the distance L is present. The light can be detected by the light receiving unit.

以上説明したように、センサユニット1L(1R)は、少なくとも2つの投光部と、各々の投光部で投光された光を各々検出する2つの受光部(実施形態1の場合、投光部が2組、受光部が2組)を有する構成である。   As described above, the sensor unit 1L (1R) includes at least two light projecting units and two light receiving units that detect the light projected by each of the light projecting units (in the case of the first embodiment, the light projecting). Part has two sets and the light receiving part has two sets).

また、実施形態1にあっては、受光部の一部であるラインCCD104におけるライン状に配置された検出素子110の左側部分を第1受光部の集光領域、右側部分を第2受光部の集光領域としている。これにより、部品の共通化を図っているが、これに限定されるものでなく、各受光部毎に個別にラインCCDを設けてもよいことは言うまでもない。   Further, in the first embodiment, the left side portion of the detection elements 110 arranged in a line in the line CCD 104 which is a part of the light receiving unit is the condensing region of the first light receiving unit, and the right side portion is the second light receiving unit. Condensation area. Thus, the parts are shared, but the present invention is not limited to this. Needless to say, a line CCD may be provided for each light receiving unit.

<制御・演算ユニットの説明>
制御・演算ユニット2とセンサユニット1L及び1Rの間では、主に、受光部内のラインCCD104用のCCD制御信号、CCD用クロック信号と出力信号、及び投光部内の赤外LED101A及び101Bの駆動信号がやり取りされている。
<Description of control / arithmetic unit>
Between the control / arithmetic unit 2 and the sensor units 1L and 1R, the CCD control signal for the line CCD 104 in the light receiving unit, the CCD clock signal and output signal, and the drive signals for the infrared LEDs 101A and 101B in the light projecting unit are mainly used. Are being exchanged.

ここで、制御・演算ユニット2の詳細構成について、図27を用いて説明する。   Here, a detailed configuration of the control / arithmetic unit 2 will be described with reference to FIG.

図27は本発明の実施形態1の制御・演算ユニットの詳細構成を示すブロック図である。   FIG. 27 is a block diagram showing a detailed configuration of the control / arithmetic unit according to the first embodiment of the present invention.

CCD制御信号は、ワンチップマイコン等で構成される演算制御回路(CPU)21から出力され、ラインCCD104のシャッタタイミングやデータの出力制御等が行われる。   The CCD control signal is output from an arithmetic control circuit (CPU) 21 constituted by a one-chip microcomputer or the like, and shutter timing of the line CCD 104, data output control, and the like are performed.

尚、この演算制御回路21は、クロック発生回路(CLK)22からのクロック信号に従って動作する。また、CCD用のクロック信号は、クロック発生回路(CLK)22からセンサユニット1L及び1Rに送信されると共に、各センサユニット内部のラインCCD104との同期をとって各種制御を行うために、演算制御回路21にも入力されている。   The arithmetic control circuit 21 operates in accordance with the clock signal from the clock generation circuit (CLK) 22. The clock signal for the CCD is transmitted from the clock generation circuit (CLK) 22 to the sensor units 1L and 1R, and arithmetic control is performed to perform various controls in synchronization with the line CCD 104 in each sensor unit. It is also input to the circuit 21.

投光部の赤外LED101A及び101Bを駆動するためのLED駆動信号は、演算制御回路21からLED駆動回路(不図示)を介して、対応するセンサユニット1L及び1Rの投光部内の赤外LED101A及び101Bに供給されている。   The LED drive signal for driving the infrared LEDs 101A and 101B of the light projecting unit is sent from the arithmetic control circuit 21 via the LED drive circuit (not shown) to the infrared LEDs 101A in the light projecting units of the corresponding sensor units 1L and 1R. And 101B.

センサユニット1L及び1Rそれぞれの受光部内のラインCCD104からの検出信号は、A/Dコンバータ23に入力され、演算制御回路21からの制御によって、デジタル値に変換される。この変換されたデジタル値は、メモリ132に記憶され、指示具の角度計算に用いられる。そして、この計算された角度から座標値が算出され、外部端末にシリアルインタフェース7(例えば、USB、IEEE1394、RS232Cインタフェース等)を介して出力される。   Detection signals from the line CCDs 104 in the light receiving portions of the sensor units 1L and 1R are input to the A / D converter 23 and converted into digital values under the control of the arithmetic control circuit 21. The converted digital value is stored in the memory 132 and used for calculating the angle of the pointing tool. Then, a coordinate value is calculated from the calculated angle, and is output to the external terminal via the serial interface 7 (for example, USB, IEEE1394, RS232C interface, etc.).

また、指示具としてペンを用いる場合、ペンからのペン信号を受信するペン信号受信部5からは、ペン信号を復調したデジタル信号が出力される。その後、ペン信号検出回路としてのサブCPU24に入力され、ペン信号が解析された後、その解析結果が演算制御回路21に出力される。   When a pen is used as the pointing tool, the pen signal receiving unit 5 that receives the pen signal from the pen outputs a digital signal obtained by demodulating the pen signal. Thereafter, the signal is input to the sub CPU 24 serving as a pen signal detection circuit, the pen signal is analyzed, and the analysis result is output to the arithmetic control circuit 21.

<センサユニット1の光学配置に関する詳細説明>
図28は本発明の実施形態1の座標入力装置の光学的な配置を説明するための説明図である。
<Detailed description regarding optical arrangement of sensor unit 1>
FIG. 28 is an explanatory diagram for explaining the optical arrangement of the coordinate input device according to the first embodiment of the present invention.

図28では、特に、左側センサユニット1Lの配置について説明する。尚、右側センサユニット1Rについては、図中Y軸について左側センサユニット1Lと対称な関係にある以外は、その特徴は同一なので、その説明は省略する。   In FIG. 28, the arrangement of the left sensor unit 1L will be particularly described. The right sensor unit 1R has the same characteristics except for the symmetrical relationship with the left sensor unit 1L with respect to the Y-axis in the drawing, and thus the description thereof is omitted.

先に述べた通り、センサユニット1Lには、2組の投光部と受光部(光学ユニットL1及びL2)を有し、両者の光軸(光学的な対称軸であって、光線151、及び光線161に相当)は、略平行にかつ所定距離d離れて配置されている。また、センサユニット1Lは、そのセンサ面が、座標入力有効領域3の一辺に対し、θsだけ傾いた方向となるように配置されている。   As described above, the sensor unit 1L has two sets of light projecting units and light receiving units (optical units L1 and L2), and their optical axes (optical symmetry axes, the light beam 151, and (Corresponding to the light beam 161) are arranged substantially parallel and separated by a predetermined distance d. Further, the sensor unit 1L is arranged such that its sensor surface is inclined by θs with respect to one side of the coordinate input effective area 3.

また、センサユニット1L中の一方の投光部の投光範囲(もしくは受光部の検出角度範囲)を光線152及び光線153、もう一方のそれを光線162及び光線163と定義する。   Further, the light projecting range (or the detection angle range of the light receiving unit) of one light projecting unit in the sensor unit 1L is defined as a light beam 152 and a light beam 153, and the other is defined as a light beam 162 and a light beam 163.

尚、センサユニット1Rには、2組の投光部と受光部(光学ユニットR1及びR2)を有している。   The sensor unit 1R has two sets of light projecting units and light receiving units (optical units R1 and R2).

光線152及び光線153、もしくは光線162及び光線163で定義される2組の光学ユニット(投光部及び受光部)の有効視野範囲は略90°である。無論その範囲を、例えば、100°とすることも可能であるが、その有効視野範囲をより大きく設定、設計することは、例えば、光学ユニットを構成する光学部品(例えば、レンズ)の光学歪が大きくなり、安価に光学系を構成するという点で不利となる。   The effective visual field range of the two sets of optical units (light projecting unit and light receiving unit) defined by the light beam 152 and the light beam 153 or the light beam 162 and the light beam 163 is approximately 90 °. Of course, the range can be set to, for example, 100 °. However, setting and designing the effective visual field range to be larger may result in, for example, optical distortion of an optical component (for example, a lens) constituting the optical unit. This is disadvantageous in that the optical system is configured at a low cost.

従って、各々の受光部で、投光された光を遮光する指示具の指示位置情報を得るためには、光線152及び光線163で定義される領域内に、座標入力有効領域を設定するのが好ましい形態である。そこで、座標入力有効領域を図示が如く領域171に設定すれば、センサユニット1L中の2組の受光部で、領域171中の指示具(遮光物体)の遮光位置を検出することが可能となる。   Accordingly, in order to obtain the pointing position information of the pointing tool that blocks the projected light at each light receiving unit, it is necessary to set the coordinate input effective area within the area defined by the light beam 152 and the light beam 163. This is a preferred form. Therefore, if the coordinate input effective area is set to the area 171 as shown in the figure, the light shielding position of the pointing tool (light shielding object) in the area 171 can be detected by the two sets of light receiving units in the sensor unit 1L. .

しかしながら、このように設定することで、例えば、各部品を内蔵した座標入力装置の筐体172と座標入力可能な領域171の関係で決まる筐体枠が大きくなり、操作可能な領域に比べ、座標入力装置全体の大きさが大きくなってしまうという課題が生じる。この課題を解決するためには、センサユニット1L(1R)の形状を小さくすることはいうまでも無く、さらには、光線151及び光線161で定義される2組の光学ユニット(投光部及び受光部)の所定距離dをより小さくするのが好ましい。   However, by setting in this way, for example, the housing frame determined by the relationship between the housing 172 of the coordinate input device incorporating each component and the area 171 where the coordinates can be input becomes larger, and the coordinates are larger than the operable area. The subject that the magnitude | size of the whole input device will become large arises. In order to solve this problem, it is needless to say that the shape of the sensor unit 1L (1R) is reduced, and furthermore, two sets of optical units (light projecting unit and light receiving unit) defined by the light beam 151 and the light beam 161 are used. It is preferable to make the predetermined distance d of the part) smaller.

実施形態1の座標入力装置にあっては、座標入力有効領域3と筐体172で決まる筐体枠を極力小さくするために、センサユニット1L(1R)中の一方の受光部は、座標入力有効領域3の全ての領域を有効視野に収めている。これに対し、もう一方の受光部は、図中領域173で定義される領域が有効視野外となる設定となっている。   In the coordinate input device according to the first embodiment, in order to make the housing frame determined by the coordinate input effective area 3 and the housing 172 as small as possible, one light receiving unit in the sensor unit 1L (1R) All the areas 3 are within the effective field of view. On the other hand, the other light receiving unit is set so that the region defined by the region 173 in the figure is outside the effective visual field.

さて、距離dは、指示具が座標入力有効領域3の左右端部ないし上端部にあるときに、指示具の方向から見た投影成分、即ち、d*cos(θL−θs)が、指示具の半径と略等しくなるよう構成されている。   The distance d is determined by the projection component viewed from the direction of the pointing tool when the pointing tool is at the left or right end or upper end of the coordinate input effective area 3, that is, d * cos (θL−θs). It is comprised so that it may become substantially equal to the radius of.

このようにすることにより、図28において、背後の指示具が図中の光線151及び光線161の間の領域に完全に入り込んでしまうことがないように構成されている。   By doing so, in FIG. 28, the pointing tool behind is configured not to completely enter the region between the light beam 151 and the light beam 161 in the drawing.

<座標算出の手順>
実施形態1は、例えば、図28中の光学ユニットL1、L2、R2、R1夫々から得られる光強度分布を取得する。そして、この光強度分布から夫々の光学ユニットで得られる、影の数、影の位置(角度)を算出する。そして、センサユニット1Lを構成する光学ユニットL1/L2と、センサユニット1Rを構成する光学ユニットR1/R2から得られる4種類の組み合わせ、即ち、(L1,R1)、(L1,R2)、(L2,R1)及び(L2,R2)を順番に選択する。
<Coordinate calculation procedure>
In the first embodiment, for example, the light intensity distribution obtained from each of the optical units L1, L2, R2, and R1 in FIG. 28 is acquired. Then, the number of shadows and the position (angle) of the shadow obtained by each optical unit are calculated from this light intensity distribution. Then, four types of combinations obtained from the optical unit L1 / L2 constituting the sensor unit 1L and the optical unit R1 / R2 constituting the sensor unit 1R, that is, (L1, R1), (L1, R2), (L2 , R1) and (L2, R2) are selected in order.

次に、それぞれの組み合わせにおいて、座標候補点の確定ないし座標候補点の重複状況の確定を行い、その中から、適切な光学ユニットの組み合わせを選定する。これにより、座標候補点の中から、実入力点を判定(所謂、虚実判定)し、最終的に、2つの入力座標を決定する。   Next, in each combination, the coordinate candidate points are determined or the overlapping situation of the coordinate candidate points is determined, and an appropriate combination of the optical units is selected from them. Thereby, an actual input point is determined from so-called coordinate candidate points (so-called true / false determination), and finally two input coordinates are determined.

以降、(L1,R1)、(L1,R2)、(L2,R1)及び(L2,R2)の4通りの組み合わせを、「LR光学ユニット組み合わせ」ないし「LR組み合わせ」と表現する。
次に、実施形態1における座標算出処理について、図29を用いて説明する。
Hereinafter, the four combinations (L1, R1), (L1, R2), (L2, R1), and (L2, R2) are expressed as “LR optical unit combinations” or “LR combinations”.
Next, the coordinate calculation process in Embodiment 1 is demonstrated using FIG.

図29は本発明の実施形態1の座標入力装置が実行する座標算出処理を示すフローチャートである。   FIG. 29 is a flowchart showing coordinate calculation processing executed by the coordinate input device according to the first embodiment of the present invention.

まず、ステップS101で、光学ユニットL1、L2、R1及びR2の各光学ユニットにおける光強度分布データを取得する。次に、ステップS102で、取得した光強度分布データより、各光学ユニットが検出する影(遮光影)の数、影の位置(角度)を算出する。   First, in step S101, light intensity distribution data in each optical unit of the optical units L1, L2, R1, and R2 is acquired. Next, in step S102, the number of shadows (light-shielding shadows) detected by each optical unit and the position (angle) of the shadows are calculated from the acquired light intensity distribution data.

次に、「LR組み合わせ」及び各光学ユニットが検出する影数に基づいて、各光学ユニットにおける影数の検出状態を判定する。その、その判定結果に基づいて、座標算出に用いる座標候補点を確定する座標候補点確定ルーチン(ステップS103〜ステップS114)を実行する。   Next, based on the “LR combination” and the number of shadows detected by each optical unit, the detection state of the number of shadows in each optical unit is determined. Based on the determination result, a coordinate candidate point determination routine (step S103 to step S114) for determining a coordinate candidate point used for coordinate calculation is executed.

特に、実施形態1では、各光学ユニットにおける影数の検出状態として、以下の4種類について考慮する。尚、(Ln,Rm)(n=1、2、m=1、2)に対する影数の組み合わせを、[X−Y](X=1、2、Y=1、2)と表現する。   In particular, in the first embodiment, the following four types are considered as the detection state of the number of shadows in each optical unit. The combination of the number of shadows for (Ln, Rm) (n = 1, 2, m = 1, 2) is expressed as [XY] (X = 1, 2, Y = 1, 2).

検出状態[1]:全てのLR組み合わせにおいて、影数が[1−1]である。   Detection state [1]: The number of shadows is [1-1] in all LR combinations.

検出状態[2]:[2−2]のLR組み合わせが2つ以上存在する。   Detection state [2]: There are two or more LR combinations of [2-2].

検出状態[3]:[2−2]のLR組み合わせと[2−1]のLR組み合わせが存在する。   Detection state [3]: There is an LR combination of [2-2] and an LR combination of [2-1].

検出状態[4]:[2−1]のLR組み合わせが2つ存在する。   Detection state [4]: There are two LR combinations of [2-1].

実施形態1では、各光学ユニットにおける影数の検出状態を判定する(ステップS103〜ステップS105、ステップS108及びステップS109)。次に、その判定した検出状態に応じて予め定義された座標算出方法[1]〜[4]で座標算出を行う(ステップS110〜ステップS113)。そして、座標算出結果を出力する(ステップS114)。一方、上記の検出状態のいずれも判定されない場合は、座標検出が不可能であると判定して、処理を終了する(ステップS106あるいはステップS109)。   In the first embodiment, the detection state of the number of shadows in each optical unit is determined (steps S103 to S105, step S108, and step S109). Next, coordinate calculation is performed by the coordinate calculation methods [1] to [4] defined in advance according to the determined detection state (steps S110 to S113). Then, the coordinate calculation result is output (step S114). On the other hand, if none of the above detection states is determined, it is determined that coordinate detection is impossible, and the process ends (step S106 or step S109).

以下、座標算出方法[1]〜[4]それぞれの詳細について説明する。   The details of each of the coordinate calculation methods [1] to [4] will be described below.

座標算出方法[1](ステップS110:検出状態[1]の場合)
検出状態[1]の場合とは、単一入力がなされている場合である。この場合、どのLR組み合わせでも座標算出を実行することが可能であるが、例えば、(L1,R1)の光学ユニット組み合わせにおいて、後述する<座標算出処理(1)>によって座標算出を実行する。
Coordinate calculation method [1] (in the case of step S110: detection state [1])
The case of the detection state [1] is a case where a single input is made. In this case, coordinate calculation can be executed with any LR combination. For example, in the optical unit combination of (L1, R1), coordinate calculation is executed by <coordinate calculation processing (1)> described later.

座標算出方法[2](ステップS111:検出状態[2]の場合)
検出状態[2]の場合とは、LR組み合わせ(L1,R1)、(L1,R2)、(L2,R1)及び(L2,R2)の中から2組以上[2−2]が存在する場合である。
Coordinate calculation method [2] (in the case of step S111: detection state [2])
The detection state [2] means that there are two or more pairs [2-2] from among the LR combinations (L1, R1), (L1, R2), (L2, R1), and (L2, R2). It is.

この中から2つの組を選択し、其々から得られる4座標候補点を比較する。   Two sets are selected from these, and the four coordinate candidate points obtained from each are compared.

ここで、具体例として、(L1,R1)と(L2,R1)が[2−2]である場合を、図30及び図31を用いて説明する。   Here, as a specific example, the case where (L1, R1) and (L2, R1) are [2-2] will be described with reference to FIGS.

図30は(L1,R1)の組み合わせから、後述する<座標算出処理(1)>に基づいて、P11,P12,P21,P22を決定する。同様に、図31は(L2,R1)の組み合わせから、後述する<座標算出処理(2)>に基づいて、P’11,P’12,P’21,P’22を決定する。   In FIG. 30, P11, P12, P21, and P22 are determined from the combination of (L1, R1) based on <coordinate calculation processing (1)> described later. Similarly, in FIG. 31, P′11, P′12, P′21, and P′22 are determined from the combination of (L2, R1) based on <Coordinate calculation processing (2)> described later.

ここで、それぞれのLR組み合わせから得られた4座標候補点の値を比較する。   Here, the values of the four coordinate candidate points obtained from the respective LR combinations are compared.

この中で、現実に入力された座標に基づく座標候補点は、どちらのLR組み合わせにおいても原理的に同じ座標となる。一方、現実に入力された座標に基づかない座標(いわゆる、虚像としての座標候補点)は、光学ユニット位置のオフセットの影響で夫々の組み合わせにおいて異なった座標となる。   Among them, the coordinate candidate points based on the actually input coordinates are the same in principle in both LR combinations. On the other hand, coordinates that are not based on the actually input coordinates (so-called coordinate candidate points as virtual images) are different in each combination due to the offset of the optical unit position.

従って、それぞれのLR組みあわせから得られた4座標候補点の値を比較して、その比較結果が略一致した座標候補点が、2入力点の真実の座標値であるとして決定することができる。   Therefore, by comparing the values of the four coordinate candidate points obtained from the respective LR combinations, it is possible to determine that the coordinate candidate point whose comparison result substantially matches is the true coordinate value of the two input points. .

尚、図30及び図31の例では、P11,P22が現実の入力に基づく2入力点として決定されている。   In the example of FIGS. 30 and 31, P11 and P22 are determined as two input points based on actual inputs.

座標算出方法[3](ステップS112:検出状態[3]の場合)
検出状態[3]とは、[2−2]のLR組み合わせと[2−1]のLR組み合わせが存在する場合である。
Coordinate calculation method [3] (step S112: detection state [3])
The detection state [3] is a case where the LR combination [2-2] and the LR combination [2-1] exist.

ここで、具体例として、(L1,R2)が[2−2],(L1,R1)が[2−1]の場合を、図32及び図33を用いて説明する。   Here, as a specific example, the case where (L1, R2) is [2-2] and (L1, R1) is [2-1] will be described with reference to FIGS.

図32は(L1,R2)の組み合わせから、後述する<座標算出処理(2)>に基づいて、P11,P12,P21,P22を決定する。同様に、図33は(L1,R1)の組み合わせから、後述する<座標算出処理(1)>に基づいて、PP1,PP2を決定する。
ここで、図32におけるP11,P12,P21,P22のなかで、(P11,P22)または(P12,P21)のどちらかの内、図33における(PP1,PP2)に相対的に近い座標候補点を選択し、それらを2入力点の座標値の組として決定する。
In FIG. 32, P11, P12, P21, and P22 are determined from the combination of (L1, R2) based on <coordinate calculation processing (2)> described later. Similarly, FIG. 33 determines PP1 and PP2 from the combination of (L1, R1) based on <coordinate calculation processing (1)> described later.
Here, among P11, P12, P21, and P22 in FIG. 32, one of (P11, P22) and (P12, P21), which is a coordinate candidate point relatively close to (PP1, PP2) in FIG. And determine them as a set of coordinate values of two input points.

尚、図32及び図33の例では、P12,P21が現実の入力に基づく2入力点として決定されている。   In the example of FIGS. 32 and 33, P12 and P21 are determined as two input points based on actual inputs.

座標算出方法[4](ステップS113:検出状態[4]の場合)
検出状態[4]とは、[2−1]のLR組み合わせが2つ存在する場合である。
Coordinate calculation method [4] (in the case of step S113: detection state [4])
The detection state [4] is a case where there are two LR combinations of [2-1].

ここで、具体例として、(L1,R1)と(L1,R2)が[2−1]である場合を、図34及び図35を用いて説明する。   Here, as a specific example, the case where (L1, R1) and (L1, R2) are [2-1] will be described with reference to FIGS.

図34においては、光学ユニットR1から検出される重複した1つの影の両端の略中心部分を近似的に1つの角度θRとして扱い、<座標算出処理(2)>に基づいて、PP1、PP2を決定する。あるいは、図35においては、光学ユニットR2から検出される重複した1つの影の両端の略中心部分を近似的に1つの角度θRとして扱い、<座標算出処理(3)>に基づいて、PP’1、PP’2を決定する。   In FIG. 34, the substantially central portions of both ends of one overlapping shadow detected from the optical unit R1 are approximately treated as one angle θR, and PP1 and PP2 are represented based on <coordinate calculation processing (2)>. decide. Alternatively, in FIG. 35, approximately the center portions at both ends of one overlapping shadow detected from the optical unit R2 are approximately treated as one angle θR, and PP ′ is based on <coordinate calculation process (3)>. 1. Determine PP′2.

そして、通常は、図35に示すように、影の重複率の高い方の組み合わせを採用した方が、このような近似的な計算の場合には良好な算出結果が得られる。   In general, as shown in FIG. 35, when the combination with the higher shadow overlap rate is employed, a better calculation result can be obtained in the case of such approximate calculation.

以上のような、座標算出方法[1]〜[4]のいずれかで算出された1入力点ないし2入力点の座標算出結果は、外部端末にシリアルインタフェース7を介して出力され、画像表示装置等の出力装置にカーソルの動きないし軌跡として表示される。   The coordinate calculation result of one input point or two input points calculated by any one of the coordinate calculation methods [1] to [4] as described above is output to the external terminal via the serial interface 7, and the image display device Displayed on the output device as a cursor movement or locus.

次に、座標算出処理(1)〜(3)の処理内容の詳細について説明する。   Next, details of the contents of the coordinate calculation processes (1) to (3) will be described.

<座標算出処理(1)>
ここでは、光学ユニットL1及びR1の組み合わせによって座標を算出する座標算出処理(1)について、図36を用いて説明する。
<Coordinate calculation process (1)>
Here, a coordinate calculation process (1) for calculating coordinates by a combination of the optical units L1 and R1 will be described with reference to FIG.

図36のセンサユニット1L及び1Rにおいて、座標入力有効領域3に対し、左右外側の光学ユニットが光学ユニット(L1、R1)となる。また、左右内側の光学ユニットが光学ユニット(L2、R2)となる。   In the sensor units 1L and 1R of FIG. 36, the left and right optical units with respect to the coordinate input effective area 3 are optical units (L1, R1). The left and right inner optical units are optical units (L2, R2).

そして、各光学ユニットから得られる角度データは、対応するセンサユニットから見てY軸下方向を0°とし、内側に向かって、かつ左右対象な方向に角度が大となるように定義する。また、各光学ユニットが存在する座標位置をP(L1),P(L2),P(R1),P(R2)とする。   The angle data obtained from each optical unit is defined so that the Y axis downward direction is 0 ° when viewed from the corresponding sensor unit, and the angle increases inward and in the left and right target directions. In addition, the coordinate positions where each optical unit exists are P (L1), P (L2), P (R1), and P (R2).

そして、例えば、光学ユニットL1及びR1から得られる角度データに基づいて座標を算出する場合、点Oを原点として、図示のように、X及びY方向を決める、以下のような関数Xt、Ytを定義する。   For example, when calculating coordinates based on the angle data obtained from the optical units L1 and R1, the following functions Xt and Yt are used to determine the X and Y directions as shown in the figure with the point O as the origin. Define.

Xt(θL-45,θR-45)
=(tan(θL-45)-tan(θR-45))/[2*(1-tan(θL-45)*tan(θR-45))] (120)
Yt(θL-45 , B-45)
=(-1)*[(1-tan(θL-45))*(1-tan(θR-45))
/(2*(1-tan(θL-45)*tan(θR-45)))-0.5] (121)
このように定義すると、図36の点Oを原点としたときの点P(X,Y)の座標は、
X = DLR*Xt(θL-45,θR-45) (122)
Y = DLR*Yt(θL-45,θR-45) (123)
となる。
Xt (θL-45, θR-45)
= (tan (θL-45) -tan (θR-45)) / [2 * (1-tan (θL-45) * tan (θR-45))] (120)
Yt (θL-45, B-45)
= (-1) * [(1-tan (θL-45)) * (1-tan (θR-45))
/(2*(1-tan(θL-45)*tan(θR-45)))-0.5] (121)
When defined in this way, the coordinates of the point P (X, Y) when the point O in FIG.
X = DLR * Xt (θL-45, θR-45) (122)
Y = DLR * Yt (θL-45, θR-45) (123)
It becomes.

<座標算出処理(2)>
ここでは、光学ユニットL2とR1の組み合わせによって座標を算出する座標算出処理(2)について、図37を用いて説明する。
<Coordinate calculation process (2)>
Here, a coordinate calculation process (2) for calculating coordinates by a combination of the optical units L2 and R1 will be described with reference to FIG.

図37において、指示具の指示位置をP’とする。また、直線P(L1)−P(R1)と直線P(L2)−P’の交点をS’とする。   In FIG. 37, the pointing position of the pointing tool is P ′. Further, an intersection of the straight line P (L1) -P (R1) and the straight line P (L2) -P 'is defined as S'.

図37において、3点S’,P(R1),O’の位置関係からP’の座標を算出することは、図36で、3点P(L1),P(R1),OからPの座標を算出することと同等である。ここで、ベクトルO’P’をO’→P’、そのX成分を(O’→P’)x、Y成分を(O’→P’)yと表記し、式(120)及び(121)を用いると、
(O'→P')x = (DLR-ΔD)*Xt(θL-45,θR-45) (130)
(O'→P')y = (DLR-ΔD)*Yt(θL-45,θR-45) (131)
となる。
In FIG. 37, the calculation of the coordinates of P ′ from the positional relationship between the three points S ′, P (R1), and O ′ is performed from the three points P (L1), P (R1), and O to P in FIG. Equivalent to calculating coordinates. Here, the vector O′P ′ is expressed as O ′ → P ′, the X component is expressed as (O ′ → P ′) x, the Y component is expressed as (O ′ → P ′) y, and the equations (120) and (121) are expressed. )
(O '→ P') x = (DLR-ΔD) * Xt (θL-45, θR-45) (130)
(O '→ P') y = (DLR-ΔD) * Yt (θL-45, θR-45) (131)
It becomes.

ここで、図37より
ΔD = Sx+Sy*tan(θL) (132)
但し、Sx=d*cos(θs),Sy=d*sin(θs) (133)
さらに、図37から明らかなように
(O→O')x = ΔD/2 (134)
(O→O')y = (-1)*ΔD/2 (135)
となる。これにより、点Oを原点としたP’の座標は、(O→P')=(O→O')+(O→P')のX成分とY成分として算出することができる。
Here, from FIG. 37, ΔD = Sx + Sy * tan (θL) (132)
However, Sx = d * cos (θs), Sy = d * sin (θs) (133)
Furthermore, as apparent from FIG.
(O → O ') x = ΔD / 2 (134)
(O → O ') y = (-1) * ΔD / 2 (135)
It becomes. Thus, the coordinates of P ′ with the point O as the origin can be calculated as the X component and the Y component of (O → P ′) = (O → O ′) + (O → P ′).

ここで、同様に、光学ユニットL1、光学ユニットR2の組み合わせによって座標を算出する場合には、上述のX成分のみ符号を変えれば、同様に算出することができる。   Here, similarly, when the coordinates are calculated by the combination of the optical unit L1 and the optical unit R2, the calculation can be similarly performed by changing only the above-mentioned X component.

<座標算出処理(3)>
ここでは、光学ユニットL2及びR2の組み合わせによって座標を算出する座標算出処理(3)について、図38を用いて説明する。
<Coordinate calculation process (3)>
Here, a coordinate calculation process (3) for calculating coordinates by a combination of the optical units L2 and R2 will be described with reference to FIG.

図38において、3点P(L2),P(R2),O’’の位置関係からP’’の座標を算出することは、図36で、3点P(L1),P(R1),OからPの座標を算出することと同等である。ここで、ベクトルO’’P’’をO’’→P’’、そのX成分を(O’’→P’’)x、Y成分を(O’’→P’’)yと表記し、式(120)及び(121)を用いると、
(O''→P'')x = (DLR-2*Sx)*Xt(θL-45,θR-45) (141)
(O''→P'')y = (DLR-2*Sx)*Yt(θL-45,θR-45) (142)
となる。また、図38から明らかなように、
(O→O'')x = 0 (143)
(O→O'')y=(-1)*(Sx+Sy) (144)
となる。
In FIG. 38, calculating the coordinates of P ″ from the positional relationship of the three points P (L2), P (R2), and O ″ is shown in FIG. 36 as three points P (L1), P (R1), It is equivalent to calculating the coordinates of P from O. Here, the vector O ″ P ″ is expressed as O ″ → P ″, the X component is expressed as (O ″ → P ″) x, and the Y component is expressed as (O ″ → P ″) y. Using the equations (120) and (121),
(O '' → P '') x = (DLR-2 * Sx) * Xt (θL-45, θR-45) (141)
(O '' → P '') y = (DLR-2 * Sx) * Yt (θL-45, θR-45) (142)
It becomes. As is clear from FIG.
(O → O ″) x = 0 (143)
(O → O ″) y = (-1) * (Sx + Sy) (144)
It becomes.

これにより、点Oを原点としたP’’の座標は、(O→P'')=(O→O'')+(O→P'')のX成分とY成分として算出することができる。   As a result, the coordinates of P ″ with the point O as the origin can be calculated as the X and Y components of (O → P ″) = (O → O ″) + (O → P ″). it can.

以上のように、実施形態1では、LR組み合わせのすべてにおいて座標を算出することができる。   As described above, in the first embodiment, coordinates can be calculated for all LR combinations.

以上説明したように、実施形態1によれば、座標入力有効領域の周囲に配置する再帰反射部を、上述の特徴条件及び式(1)及び(2)を満足するように構成する。これにより、同一の入力に伴って、夫々のセンサユニットにて検出される影が、夫々のセンサユニットにおいて、レベル(遮光比率)の差をもって検知されることを防止する。また、常に互いに略同一のレベル(遮光比率)で検知されることが可能となる。   As described above, according to the first embodiment, the retroreflecting unit arranged around the coordinate input effective area is configured to satisfy the above-described feature condition and the expressions (1) and (2). This prevents a shadow detected by each sensor unit with the same input from being detected with a difference in level (light shielding ratio) in each sensor unit. In addition, detection can always be performed at substantially the same level (light shielding ratio).

これにより、単一入力時には、入力座標を検出しそこなうことを防止し、複数の入力時には、入力座標と異なる、誤った座標を検出して入力座標の数を誤ることを防止することができる。特に、指示具が入力に伴って遮光入力領域への入る際と出る際において、発生頻度が高くなる上記問題を回避して、安定した座標入力を実現することができる。   Accordingly, it is possible to prevent the input coordinates from being missed at the time of a single input, and to prevent an erroneous number of input coordinates from being detected by detecting wrong coordinates different from the input coordinates at the time of a plurality of inputs. In particular, when the pointing tool enters and exits the light-shielding input area with input, it is possible to avoid the above-mentioned problem that the frequency of occurrence is high and to realize stable coordinate input.

<実施形態2>
実施形態2は、実施形態1の図2Aに示す構成に対し、図39に示すように、センサユニット1Cを新たに追加した構成について説明する。
<Embodiment 2>
In the second embodiment, a configuration in which a sensor unit 1C is newly added as shown in FIG. 39 to the configuration shown in FIG. 2A of the first embodiment will be described.

図39では、P12及びP21点に複数入力を行った場合を示している。   FIG. 39 shows a case where a plurality of inputs are performed at points P12 and P21.

この場合、図40(a)のように、センサユニット1Lにおいて、θL1、θL2の位置に影が検出される。また、図40(b)のように、センサユニット1Rにおいて、θR1、θR2の位置に影が検出される。更に、図40(c)のように、センサユニット1Cにおいて、θC1、θC4の位置に影が検出される。この3組の角度データをもとに、4つの座標候補点P11、P12、P21及びP22が算出される。そして、これらの座標候補点の中から、何らかの手段によって虚実判定することにより、例えば、P11、P22は実像であり、P12、P21が虚像であることが判別され、座標入力点を決定することになる。   In this case, as shown in FIG. 40A, a shadow is detected at the positions of θL1 and θL2 in the sensor unit 1L. In addition, as shown in FIG. 40B, shadows are detected at the positions of θR1 and θR2 in the sensor unit 1R. Further, as shown in FIG. 40C, shadows are detected at the positions of θC1 and θC4 in the sensor unit 1C. Based on these three sets of angle data, four coordinate candidate points P11, P12, P21 and P22 are calculated. Then, from these coordinate candidate points, by determining whether the coordinates are true by some means, for example, it is determined that P11 and P22 are real images and P12 and P21 are virtual images, and the coordinate input points are determined. Become.

また、図39に示すセンサユニット1Cは、センサユニット1Lや1Rとほぼ同等の構成であるが、内蔵する光学ユニット(受光部及び投光部)の構造が異なる。具体的には、センサユニット1L及び1Rの座標入力面内方向の視野範囲がおよそ90度であるのに対し、センサユニット1Cの視野範囲はおよそ180度である。   The sensor unit 1C shown in FIG. 39 has substantially the same configuration as the sensor units 1L and 1R, but the structure of the built-in optical unit (light receiving unit and light projecting unit) is different. Specifically, the visual field range in the coordinate input plane direction of the sensor units 1L and 1R is approximately 90 degrees, whereas the visual field range of the sensor unit 1C is approximately 180 degrees.

最も重要なことは、センサユニット1L、1R及び1Cと、座標入力有効領域3の周囲に配置される再帰反射部の構成において、実施形態1におけるセンサユニット1L、1Rと同様の条件を満足することである。つまり、両者の関わる三次元的遮光検出領域が、略同一共通のものであるという条件を満足することである。   The most important thing is that the sensor units 1L, 1R, and 1C and the retroreflective portion arranged around the coordinate input effective area 3 satisfy the same conditions as the sensor units 1L and 1R in the first embodiment. It is. That is, the condition that the three-dimensional shading detection areas related to both are substantially the same is satisfied.

さらに、実施形態2では、センサユニット1Cに関する三次元的遮光検出領域が、センサユニット1L及び1Rの共通三次元遮光検出領域を包含することである。この場合は、センサユニット1Cに関する三次元遮光検出領域と、センサユニット1L及び1Rに関する三次元遮光検出領域を一致させる必要はなく、あくまでも前者が後者を包含すれば良い。   Furthermore, in the second embodiment, the three-dimensional shading detection area related to the sensor unit 1C includes the common three-dimensional shading detection area of the sensor units 1L and 1R. In this case, it is not necessary to match the three-dimensional shading detection area relating to the sensor unit 1C and the three-dimensional shading detection areas relating to the sensor units 1L and 1R, and the former only includes the latter.

このように構成することにより、指示具によって入力が行われた場合に、センサユニット1L、1Rの夫々で観測される遮光影の深さ(遮光率)が略同一の値として観測される。これにより、2つの座標を入力したときに、座標候補点を誤って検出することなく、正しく検出することができる。また、センサユニット1Cの三次元的遮光検出領域が、センサユニット1L及び1Rのそれを包含しているので、座標候補点の影は、センサユニット1Cで必ず観測される。そして、この観測される影に対応する角度により、座標候補点から真の座標を選択することができる。   With this configuration, when input is performed by the pointing tool, the depth (light shielding ratio) of the light shielding shadow observed by each of the sensor units 1L and 1R is observed as substantially the same value. Thus, when two coordinates are input, the coordinate candidate points can be detected correctly without being erroneously detected. Further, since the three-dimensional shading detection area of the sensor unit 1C includes that of the sensor units 1L and 1R, the shadow of the coordinate candidate point is always observed by the sensor unit 1C. Then, true coordinates can be selected from the coordinate candidate points according to the angle corresponding to the observed shadow.

従って、常に、センサユニット1L、1R及び1Cの関係から正しい座標検出を行うことができる。特に、指示具が座標入力有効領域に対して入力を行う入り際、または終了する出る際においても、遮光影を誤認識することなく安定した座標算出を実行することができる。   Therefore, correct coordinate detection can always be performed from the relationship between the sensor units 1L, 1R, and 1C. In particular, stable coordinate calculation can be performed without erroneously recognizing a light-shielding shadow even when the pointing tool enters or exits the input of the coordinate input effective area.

実施形態2においては、センサユニット1L及び1Rで座標候補点を検出し、センサユニット1Cで検知される影との位置関係によって、座標候補点の中から、実入力点を判定(所謂、虚実判定)し、最終的に、2つの入力座標を決定する。   In the second embodiment, the coordinate candidate points are detected by the sensor units 1L and 1R, and the actual input point is determined from the coordinate candidate points based on the positional relationship with the shadow detected by the sensor unit 1C (so-called true / false determination). Finally, two input coordinates are determined.

例えば、図39では、センサユニット1L及び1Rにより、4つの座標候補点P11,P12,P21,P22が観測される。そして、これらの座標候補点の中で、センサユニット1Cによって、所定方向に観測される座標候補点が、実入力点の座標候補点であり、これらが最終的に2つの入力座標として出力される。特に、図39の場合では、センサユニット1Cにおいて、θC1、θC4の影のみが観測されるので、P11とP22が実入力点の座標となる。   For example, in FIG. 39, four coordinate candidate points P11, P12, P21, and P22 are observed by the sensor units 1L and 1R. Among these coordinate candidate points, the coordinate candidate points observed in the predetermined direction by the sensor unit 1C are the coordinate candidate points of the actual input points, and these are finally output as two input coordinates. . In particular, in the case of FIG. 39, only the shadows of θC1 and θC4 are observed in the sensor unit 1C, so P11 and P22 are the coordinates of the actual input points.

以下、実施形態2における座標算出処理について、図41を用いて説明する。   Hereinafter, the coordinate calculation process according to the second embodiment will be described with reference to FIG.

図41は本発明の実施形態2の座標入力装置が実行する座標算出処理を示すフローチャートである。   FIG. 41 is a flowchart showing coordinate calculation processing executed by the coordinate input device according to the second embodiment of the present invention.

まず、ステップS201で、センサユニット1L、1R及び1Cにおける光強度分布データを取得する。次に、取得した光強度分布データより、各センサユニットが検出する影(遮光影)の数、影の位置(角度)を算出する。   First, in step S201, light intensity distribution data in the sensor units 1L, 1R, and 1C is acquired. Next, the number of shadows (light-shielding shadows) detected by each sensor unit and the position (angle) of the shadows are calculated from the acquired light intensity distribution data.

次に、各センサユニットが検出する影数に基づいて、各センサユニットにおける影数の検出状態を判定し、その判定結果に基づいて、座標算出に用いる座標候補点を確定する座標候補点確定ルーチン(ステップS202〜ステップS208)を実行する。   Next, based on the number of shadows detected by each sensor unit, a detection state of the number of shadows in each sensor unit is determined, and based on the determination result, a coordinate candidate point determination routine for determining coordinate candidate points used for coordinate calculation (Steps S202 to S208) are executed.

特に、実施形態2では、各センサユニットにおける影数の検出状態として、以下の3種類について考慮する。尚、実施形態2では、センサユニット1Lとセンサユニット1Rに対に影数の組み合わせを、[X−Y](X=1、2、Y=1、2)と表現する。   In particular, in the second embodiment, the following three types are considered as the detection state of the number of shadows in each sensor unit. In the second embodiment, the combination of the number of shadows for the sensor unit 1L and the sensor unit 1R is expressed as [XY] (X = 1, 2, Y = 1, 2).

検出状態[1]:センサユニット1Lとセンサユニット1Rによって決定される影数が[1−1]である。   Detection state [1]: The number of shadows determined by the sensor unit 1L and the sensor unit 1R is [1-1].

検出状態[2]:センサユニット1Lとセンサユニット1Rによって決定される影数が[2−2]である。   Detection state [2]: The number of shadows determined by the sensor unit 1L and the sensor unit 1R is [2-2].

検出状態[3]:センサユニット1Lとセンサユニット1Rによって決定される影数が[2−1]である。   Detection state [3]: The number of shadows determined by the sensor unit 1L and the sensor unit 1R is [2-1].

実施形態2では、センサユニット1Lとセンサユニット1Rにおける影数の検出状態を判定する(ステップS202〜ステップS204)。次に、その判定した検出状態に応じて予め定義された座標算出方法[5a]〜[5c]で座標算出を行う(ステップS205〜ステップS207)。そして、座標算出結果を出力する(ステップS208)。一方、上記の検出状態のいずれも判定されない場合は、座標検出が不可能であると判定して、処理を終了する(ステップS209)。   In the second embodiment, the detection state of the number of shadows in the sensor unit 1L and the sensor unit 1R is determined (steps S202 to S204). Next, coordinate calculation is performed by the coordinate calculation methods [5a] to [5c] defined in advance according to the determined detection state (steps S205 to S207). Then, the coordinate calculation result is output (step S208). On the other hand, if none of the above detection states is determined, it is determined that coordinate detection is impossible, and the process ends (step S209).

以下、座標算出方法[5a]〜[5c]それぞれの詳細について説明する。   Hereinafter, the details of each of the coordinate calculation methods [5a] to [5c] will be described.

座標算出方法[5a](ステップS205:検出状態[1]の場合)
検出状態[1]の場合とは、単一入力がなされている場合である。この場合、実施形態1で説明した<座標算出処理(1)>によって座標算出を実行する。
Coordinate calculation method [5a] (in the case of step S205: detection state [1])
The case of the detection state [1] is a case where a single input is made. In this case, the coordinate calculation is executed by the <coordinate calculation process (1)> described in the first embodiment.

座標算出方法[5b](ステップS206:検出状態[2]の場合)
検出状態[2]の場合とは、センサユニット1L及び1Rで[2−2]となる場合である。
Coordinate calculation method [5b] (in the case of step S206: detection state [2])
The case of the detection state [2] is a case where the sensor units 1L and 1R are [2-2].

この場合、実施形態1で説明した<座標算出処理(1)>によって、得られる4座標候補点の座標値を算出する。また、夫々の座標候補点をセンサユニット1Cから観測した場合の角度を予め計算する。   In this case, the coordinate values of the obtained four coordinate candidate points are calculated by the <coordinate calculation process (1)> described in the first embodiment. Further, the angle when each coordinate candidate point is observed from the sensor unit 1C is calculated in advance.

この中で、実際にセンサユニット1Cで観測された影の角度と略位置しているものを2つの入力座標として採用する。   Among these, what is substantially positioned with the shadow angle actually observed by the sensor unit 1C is adopted as two input coordinates.

座標算出方法[5c](ステップS206:検出状態[3]の場合)
検出状態[3]の場合とは、センサユニット1L及び1Rで[2−1]となる場合である。
Coordinate calculation method [5c] (in the case of step S206: detection state [3])
The case of the detection state [3] is a case where the sensor units 1L and 1R are [2-1].

この場合は、重複している方の影の両端の略中央の角度上に2つの入力座標が存在すると近似して、夫々他方の二つの影と組み合わせて、実施形態1で説明した<座標算出処理(1)>に基づいて、座標を決定する。尚、センサユニット1Cが検出する光強度分布データは、虚実判定には用いず、決定した座標値の精度を向上させるための検算用に用いる。   In this case, it is approximated that there are two input coordinates on the substantially central angle at both ends of the overlapping shadow, and each of them is combined with the other two shadows in the <coordinate calculation described in the first embodiment. Coordinates are determined based on processing (1)>. The light intensity distribution data detected by the sensor unit 1C is not used for true / false determination but is used for verification to improve the accuracy of the determined coordinate value.

以上説明したように、実施形態2によれば、実施形態1で説明した効果に加えて、センサユニット1Cを構成することにより、より効率良くかつ精度良く、座標算出に係る虚実判定を実現することができる。   As described above, according to the second embodiment, in addition to the effects described in the first embodiment, by configuring the sensor unit 1C, it is possible to realize the true / false determination related to the coordinate calculation more efficiently and accurately. Can do.

以上、実施形態例を詳述したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。   Although the embodiment has been described in detail above, the present invention can take an embodiment as, for example, a system, apparatus, method, program, or storage medium. Specifically, the present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of a single device.

尚、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図に示すフローチャートに対応したプログラム)を、システムあるいは装置に直接あるいは遠隔から供給する。そして、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。   In the present invention, a software program (in the embodiment, a program corresponding to the flowchart shown in the drawing) that realizes the functions of the above-described embodiments is directly or remotely supplied to a system or apparatus. This includes the case where the system or the computer of the apparatus is also achieved by reading and executing the supplied program code.

従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.

プログラムを供給するための記録媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスクがある。また、更に、記録媒体としては、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などがある。   Examples of the recording medium for supplying the program include a floppy (registered trademark) disk, a hard disk, and an optical disk. Further, as a recording medium, magneto-optical disk, MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R), etc. is there.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、その接続先のホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   As another program supply method, a browser on a client computer is used to connect to an Internet home page. Then, the computer program of the present invention itself or a compressed file including an automatic installation function can be downloaded from a homepage of the connection destination to a recording medium such as a hard disk. It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, the present invention includes a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. Let It is also possible to execute the encrypted program by using the key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。また、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. Further, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can be realized by the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現される。   Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.

本発明の実施形態1の座標入力装置の外観構成を示す図である。It is a figure which shows the external appearance structure of the coordinate input device of Embodiment 1 of this invention. 本発明の実施形態1の座標入力装置における遮光検出領域の形状を説明するための図である。It is a figure for demonstrating the shape of the light-shielding detection area | region in the coordinate input device of Embodiment 1 of this invention. 本発明の実施形態1の座標入力装置の外観構成を示す図である。It is a figure which shows the external appearance structure of the coordinate input device of Embodiment 1 of this invention. 本発明の実施形態1の座標入力装置における遮光検出領域の形状を説明するための図である。It is a figure for demonstrating the shape of the light-shielding detection area | region in the coordinate input device of Embodiment 1 of this invention. 本発明における課題を説明するための図である。It is a figure for demonstrating the subject in this invention. 本発明における遮光検出領域の概念を説明するための図である。It is a figure for demonstrating the concept of the light-shielding detection area | region in this invention. 本発明におけるセンサユニット夫々の三次元的遮光検出領域を説明するための図である。It is a figure for demonstrating the three-dimensional shading detection area | region of each sensor unit in this invention. 本発明におけるセンサユニット夫々の三次元的遮光検出領域を説明するための図である。It is a figure for demonstrating the three-dimensional shading detection area | region of each sensor unit in this invention. 本発明における「ペン先高さ 対 遮光率」特性を説明するための図である。It is a figure for demonstrating the "pen-tip height vs. light-shielding rate" characteristic in this invention. 本発明における「ペン先高さ 対 遮光率」特性を説明するための図である。It is a figure for demonstrating the "pen-tip height vs. light-shielding rate" characteristic in this invention. 本発明における単一入力操作を説明するための図である。It is a figure for demonstrating the single input operation in this invention. 図7の入力操作におけるセンサユニットから得られる光強度分布を示す図である。It is a figure which shows the light intensity distribution obtained from the sensor unit in input operation of FIG. 図7の入力操作におけるセンサユニットから得られる光強度分布を示す図である。It is a figure which shows the light intensity distribution obtained from the sensor unit in input operation of FIG. 本発明における複数入力操作を説明するための図である。It is a figure for demonstrating the multiple input operation in this invention. 図10の入力操作におけるセンサユニットから得られる光強度分布を示す図である。It is a figure which shows the light intensity distribution obtained from the sensor unit in input operation of FIG. 本発明における誤検出の例を説明するための図である。It is a figure for demonstrating the example of the erroneous detection in this invention. 図12の入力操作におけるセンサユニットから得られる光強度分布を示す図である。It is a figure which shows the light intensity distribution obtained from the sensor unit in input operation of FIG. 本発明における誤検出の例を説明するための図である。It is a figure for demonstrating the example of the erroneous detection in this invention. 図13の入力操作におけるセンサユニットから得られる光強度分布を示す図である。It is a figure which shows the light intensity distribution obtained from the sensor unit in input operation of FIG. 本発明における誤検出の例を説明するための図である。It is a figure for demonstrating the example of the erroneous detection in this invention. 本発明における誤検出の例を説明するための図である。It is a figure for demonstrating the example of the erroneous detection in this invention. 本発明の実施形態1の遮光検出領域の概念を説明するための図である。It is a figure for demonstrating the concept of the light-shielding detection area | region of Embodiment 1 of this invention. 本発明の実施形態1の遮光検出領域の概念を説明するための図である。It is a figure for demonstrating the concept of the light-shielding detection area | region of Embodiment 1 of this invention. 本発明の実施形態1の遮光検出領域の概念を説明するための図である。It is a figure for demonstrating the concept of the light-shielding detection area | region of Embodiment 1 of this invention. 本発明の実施形態1の遮光検出領域の概念を説明するための図である。It is a figure for demonstrating the concept of the light-shielding detection area | region of Embodiment 1 of this invention. 本発明の実施形態1の遮光検出領域の概念を説明するための図である。It is a figure for demonstrating the concept of the light-shielding detection area | region of Embodiment 1 of this invention. 本発明の実施形態1の遮光検出領域の概念を説明するための図である。It is a figure for demonstrating the concept of the light-shielding detection area | region of Embodiment 1 of this invention. 本発明の実施形態1の遮光検出領域の概念を説明するための図である。It is a figure for demonstrating the concept of the light-shielding detection area | region of Embodiment 1 of this invention. 本発明の実施形態1の遮光検出領域の概念を説明するための図である。It is a figure for demonstrating the concept of the light-shielding detection area | region of Embodiment 1 of this invention. 本発明における「ペン先高さ 対 遮光率」特性を説明するための図である。It is a figure for demonstrating the "pen-tip height vs. light-shielding rate" characteristic in this invention. 本発明におけるセンサユニット夫々の三次元的遮光検出領域を説明するための図である。It is a figure for demonstrating the three-dimensional shading detection area | region of each sensor unit in this invention. 本発明におけるセンサユニット夫々の三次元的遮光検出領域を説明するための図である。It is a figure for demonstrating the three-dimensional shading detection area | region of each sensor unit in this invention. 本発明の実施形態1の座標入力装置のセンサユニットの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of the sensor unit of the coordinate input device of Embodiment 1 of this invention. 本発明の実施形態1の座標検出原理を説明するための図である。It is a figure for demonstrating the coordinate detection principle of Embodiment 1 of this invention. 本発明の実施形態1のセンサユニットの詳細構成を示す図である。It is a figure which shows the detailed structure of the sensor unit of Embodiment 1 of this invention. 本発明の実施形態1のセンサユニットの光学的配置図である。It is an optical arrangement | positioning figure of the sensor unit of Embodiment 1 of this invention. 本発明の実施形態1のセンサユニットの光学的配置図である。It is an optical arrangement | positioning figure of the sensor unit of Embodiment 1 of this invention. 本発明の実施形態1のセンサユニットの光学的配置図である。It is an optical arrangement | positioning figure of the sensor unit of Embodiment 1 of this invention. 本発明の実施形態1の制御・演算ユニットの詳細構成を示すブロック図である。It is a block diagram which shows the detailed structure of the control / arithmetic unit of Embodiment 1 of this invention. 本発明の実施形態1の座標入力装置の光学的な配置を説明するための説明図である。It is explanatory drawing for demonstrating the optical arrangement | positioning of the coordinate input device of Embodiment 1 of this invention. 本発明の実施形態1の座標入力装置が実行する座標算出処理を示すフローチャートである。It is a flowchart which shows the coordinate calculation process which the coordinate input device of Embodiment 1 of this invention performs. 本発明の実施形態1の座標算出方法を説明するための図である。It is a figure for demonstrating the coordinate calculation method of Embodiment 1 of this invention. 本発明の実施形態1の座標算出方法を説明するための図である。It is a figure for demonstrating the coordinate calculation method of Embodiment 1 of this invention. 本発明の実施形態1の座標算出方法を説明するための図である。It is a figure for demonstrating the coordinate calculation method of Embodiment 1 of this invention. 本発明の実施形態1の座標算出方法を説明するための図である。It is a figure for demonstrating the coordinate calculation method of Embodiment 1 of this invention. 本発明の実施形態1の座標算出方法を説明するための図である。It is a figure for demonstrating the coordinate calculation method of Embodiment 1 of this invention. 本発明の実施形態1の座標算出方法を説明するための図である。It is a figure for demonstrating the coordinate calculation method of Embodiment 1 of this invention. 本発明の実施形態1の座標算出処理を説明するための図である。It is a figure for demonstrating the coordinate calculation process of Embodiment 1 of this invention. 本発明の実施形態1の座標算出処理を説明するための図である。It is a figure for demonstrating the coordinate calculation process of Embodiment 1 of this invention. 本発明の実施形態1の座標算出処理を説明するための図である。It is a figure for demonstrating the coordinate calculation process of Embodiment 1 of this invention. 本発明の実施形態2の座標入力装置の構成を示す図である。It is a figure which shows the structure of the coordinate input device of Embodiment 2 of this invention. 図39の入力操作におけるセンサユニットから得られる光強度分布を示す図である。It is a figure which shows the light intensity distribution obtained from the sensor unit in input operation of FIG. 本発明の実施形態2の座標入力装置が実行する座標算出処理を示すフローチャートである。It is a flowchart which shows the coordinate calculation process which the coordinate input device of Embodiment 2 of this invention performs.

符号の説明Explanation of symbols

1L、1R センサユニット
2 演算・制御ユニット
3 座標入力有効領域
4a〜4c 再帰反射部
5 ペン信号受信部
1L, 1R Sensor unit 2 Arithmetic / control unit 3 Coordinate input effective area 4a-4c Retroreflecting unit 5 Pen signal receiving unit

Claims (7)

座標入力領域上の指示位置を検出する座標入力装置であって、
前記座標入力領域に対し光を投光する投光部と、到来光を受光する受光部とを備える複数のセンサ手段と、
入射光を再帰的に反射する複数の再帰反射手段と、
指示手段による指示によって、前記複数のセンサ手段それぞれから得られる、光量分布に基づいて、前記指示手段の指示位置の座標を算出する算出手段とを備え、
前記複数のセンサ手段に関わる三次元的遮光検出領域が、前記座標入力領域に対応する共通の三次元的立体形状であり、かつ前記三次元的遮光検出領域は、観測される光強度の変化率によって、前記指示手段の高さ方向の位置の変化が検出できる三次元的領域として定義され
前記複数のセンサ手段の内、一方のセンサ手段が対向し、かつ他方のセンサ手段が対向しない前記再帰反射手段の形状は、
前記他方のセンサ手段と、
前記他方のセンサ手段の前記座標入力領域に対する鏡像と、
前記他方のセンサ手段が対向する前記再帰反射手段と、
前記他方のセンサ手段が対向する前記再帰反射手段の前記座標入力領域に対する鏡像とで規定される形状であり、
この形状に対し、前記一方のセンサ手段が対向する再帰反射手段に沿った断面の形状に対応する三次元的立体として、前記三次元的立体形状が定義される
ことを特徴とする座標入力装置。
A coordinate input device for detecting a designated position on a coordinate input area,
A plurality of sensor means comprising: a light projecting unit that projects light to the coordinate input region; and a light receiving unit that receives incoming light;
A plurality of retroreflective means for recursively reflecting incident light;
Calculation means for calculating the coordinates of the indicated position of the instruction means based on the light amount distribution obtained from each of the plurality of sensor means by an instruction by the instruction means;
The three-dimensional shading detection area related to the plurality of sensor means has a common three-dimensional solid shape corresponding to the coordinate input area, and the three-dimensional shading detection area is a rate of change in observed light intensity. Is defined as a three-dimensional region in which a change in position in the height direction of the indicating means can be detected ,
Of the plurality of sensor means, one sensor means faces and the other sensor means does not face the shape of the retroreflective means,
The other sensor means;
A mirror image of the other sensor means with respect to the coordinate input area;
The retroreflective means facing the other sensor means;
A shape defined by a mirror image of the retroreflective means facing the coordinate input area of the other sensor means;
The coordinate input device according to claim 1 , wherein the three-dimensional solid shape is defined as a three-dimensional solid corresponding to the shape of a cross section along the retroreflective means opposed to the one sensor means .
実像である第1の遮光検知窓の上端をOpt1、下端をOpt2、
鏡像である第2の遮光検知窓の上端をOpt4’下端をOpt3’、
前記第1の遮光検知窓の前記座標入力領域上の位置をOpt0、
対向する前記再帰反射手段の実像の上端をRef1、下端をRef2、
前記再帰反射手段の鏡像の上端をRef1’、下端をRef2’、
前記再帰反射手段の前記座標入力領域上の位置をRef0、
線分Ref2−Opt3’と、線分Ref0−Opt0の交点をQ1、
線分Ref1’−Opt2と、線分Ref0−Opt0の交点をQ2、
線分Ref1−Opt3と、線分Ref2−Opt1’の交点をQ3、
線分Ref2−Opt0と、線分Ref0_Opt2の交点をQ4、
とする場合、
前記断面の上辺は、線分Ref1−Opt1より低く、かつ線分Ref1−Q3−Opt1より高い位置にあり、
前記断面の下辺は、線分Ref2−Q4−Opt2より低く、かつ線分Ref2−Q1−Q2−Opt2より高い位置にある
ことを特徴とする請求項1に記載の座標入力装置。
The upper end of the first light-shielding detection window, which is a real image, is Opt1, the lower end is Opt2,
The upper end of the second light-shielding detection window that is a mirror image is Opt4 ′, the lower end is Opt3 ′,
The position of the first light shielding detection window on the coordinate input area is Opt0,
Ref1 is the upper end of the real image of the retroreflective means facing, Ref2 is the lower end,
The upper end of the mirror image of the retroreflective means is Ref1 ′, the lower end is Ref2 ′,
The position of the retroreflective means on the coordinate input area is Ref0,
The intersection of the line segment Ref2-Opt3 ′ and the line segment Ref0-Opt0 is defined as Q1,
The intersection of the line segment Ref1′-Opt2 and the line segment Ref0-Opt0 is defined as Q2,
The intersection of the line segment Ref1-Opt3 and the line segment Ref2-Opt1 ′ is defined as Q3,
The intersection of the line segment Ref2-Opt0 and the line segment Ref0_Opt2 is defined as Q4,
If
The upper side of the cross-section is at a position lower than the line segment Ref1-Opt1 and higher than the line segment Ref1-Q3-Opt1;
The coordinate input device according to claim 1, wherein the lower side of the cross section is located at a position lower than the line segment Ref2-Q4-Opt2 and higher than the line segment Ref2-Q1-Q2-Opt2.
前記Opt1は、前記センサ手段の投光部の投光範囲である投光窓の上端と、受光部の受光範囲である受光窓の上端の高い方を選択したものであり、
前記Opt2は、前記センサ手段の投光部の投光範囲である投光窓の下端と、受光部の受光範囲である受光窓の下端の高い方を選択したものであり、
前記Opt4’は、前記センサ手段の投光部の投光範囲である投光窓の下端と、受光部の受光範囲である受光窓の下端の低い方の選択結果の前記座標入力領域に対する鏡像であり、
前記Opt3’は、前記センサ手段の投光部の投光範囲である投光窓の上端と、受光部の受光範囲である受光窓の上端の低い方の選択結果の前記座標入力領域に対する鏡像である
ことを特徴とする請求項に記載の座標入力装置。
The Opt1 is selected from the higher one of the upper end of the light projecting window that is the light projecting range of the light projecting unit of the sensor means and the upper end of the light receiving window that is the light receiving range of the light receiving unit,
The Opt 2 is a higher one of the lower end of the light projecting window that is the light projecting range of the light projecting unit of the sensor means and the lower end of the light receiving window that is the light receiving range of the light receiving unit,
The Opt4 ′ is a mirror image of the coordinate input region of the lower selection result of the lower end of the light projecting window that is the light projecting range of the light projecting unit of the sensor means and the lower end of the light receiving window that is the light receiving range of the light receiving unit. Yes,
The Opt3 ′ is a mirror image of the coordinate input region of the selection result of the lower of the upper end of the light projecting window that is the light projecting range of the light projecting unit of the sensor means and the upper end of the light receiving window that is the light receiving range of the light receiving unit. The coordinate input device according to claim 2 , wherein:
前記複数のセンサ手段は、前記座標入力領域の一辺の両端に設けられ、
前記複数の再帰反射手段は、前記座標入力領域の前記一辺を除く辺に設けられ、
前記複数のセンサ手段の内一方のセンサ手段が対向し、かつ他方のセンサ手段が対向しない再帰反射手段の形状、その再帰反射手段の1つの端部の延長上に、前記他方のセンサ手段の遮光検知窓が一致するような、もう1つの再帰反射手段の端部の辺が、前記複数のセンサ手段で共通に対向する再帰反射手段の端部の辺に一致するような、かつ少なくとも下辺が弓なりの形状である
ことを特徴とする請求項1に記載の座標入力装置。
The plurality of sensor means are provided at both ends of one side of the coordinate input area,
The plurality of retroreflective means are provided on a side excluding the one side of the coordinate input area,
Of the plurality of sensor means , one of the sensor means faces and the other sensor means does not face the shape of the retroreflective means , and the other sensor means has an extension of one end of the retroreflective means. The end side of the other retroreflective means such that the light-shielding detection windows coincide with each other coincides with the end side of the retroreflective means opposed in common by the plurality of sensor means, and at least the lower side The coordinate input device according to claim 1, wherein is a bow shape.
前記遮光検知窓は、前記センサ手段における実効的に投光に寄与する部分である投光窓の上端と、実効的に受光に寄与する部分である受光窓の上端の高い方を上端とし、かつ前記投光窓の下端と前記受光窓の下端の高い方を下端として決められる範囲の部分である
ことを特徴とする請求項に記載の座標入力装置。
The light-shielding detection window has an upper end at the upper end of a light projection window that is a portion that contributes to effective light projection in the sensor means, and a higher end of the light reception window that is a portion that effectively contributes to light reception, and The coordinate input device according to claim 4 , wherein the coordinate input device is a part of a range determined by setting a lower end of the light projection window and a lower end of the light receiving window as a lower end.
前記センサ手段は、前記投光部と前記受光部からなる光学ユニットを1つ備える
ことを特徴とする請求項1に記載の座標入力装置。
The coordinate input device according to claim 1, wherein the sensor unit includes one optical unit including the light projecting unit and the light receiving unit.
前記センサ手段は、前記投光部と前記受光部からなる光学ユニットを2つ備える
ことを特徴とする請求項1に記載の座標入力装置。
The coordinate input device according to claim 1, wherein the sensor unit includes two optical units including the light projecting unit and the light receiving unit.
JP2005264426A 2005-04-15 2005-09-12 Coordinate input device Active JP4484796B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005264426A JP4484796B2 (en) 2005-09-12 2005-09-12 Coordinate input device
US11/401,389 US7538894B2 (en) 2005-04-15 2006-04-11 Coordinate input apparatus, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005264426A JP4484796B2 (en) 2005-09-12 2005-09-12 Coordinate input device

Publications (3)

Publication Number Publication Date
JP2007079744A JP2007079744A (en) 2007-03-29
JP2007079744A5 JP2007079744A5 (en) 2008-09-11
JP4484796B2 true JP4484796B2 (en) 2010-06-16

Family

ID=37940008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005264426A Active JP4484796B2 (en) 2005-04-15 2005-09-12 Coordinate input device

Country Status (1)

Country Link
JP (1) JP4484796B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI423100B (en) * 2010-10-20 2014-01-11 Pixart Imaging Inc Optical sensing system

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI386835B (en) * 2009-06-17 2013-02-21 Pixart Imaging Inc Sensing system and method for obtaining position of pointer thereof
JP5412868B2 (en) * 2009-02-23 2014-02-12 エプソンイメージングデバイス株式会社 POSITION DETECTION DEVICE, ELECTRO-OPTICAL DEVICE, AND ELECTRONIC DEVICE
CN102402339B (en) * 2010-09-07 2014-11-05 北京汇冠新技术股份有限公司 Touch positioning method, touch screen, touch system and display
GB2486445B (en) * 2010-12-14 2013-08-14 Epson Norway Res And Dev As Camera-based multi-touch interaction apparatus system and method
WO2014076993A1 (en) * 2012-11-14 2014-05-22 日本電気株式会社 Interface device and input reception method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084108A (en) * 1999-09-13 2001-03-30 Ricoh Co Ltd Device for inputting and detecting and displaying coordinate
JP2001331265A (en) * 2000-05-19 2001-11-30 Ricoh Co Ltd Coordinate detecting device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084108A (en) * 1999-09-13 2001-03-30 Ricoh Co Ltd Device for inputting and detecting and displaying coordinate
JP2001331265A (en) * 2000-05-19 2001-11-30 Ricoh Co Ltd Coordinate detecting device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI423100B (en) * 2010-10-20 2014-01-11 Pixart Imaging Inc Optical sensing system

Also Published As

Publication number Publication date
JP2007079744A (en) 2007-03-29

Similar Documents

Publication Publication Date Title
US7538894B2 (en) Coordinate input apparatus, control method thereof, and program
JP4455391B2 (en) Coordinate input device, control method therefor, and program
JP4522113B2 (en) Coordinate input device
JP4455392B2 (en) Coordinate input device, control method therefor, and program
JP4757144B2 (en) Coordinate input device, control method therefor, and program
JP4429047B2 (en) Coordinate input device, control method therefor, and program
JP4442877B2 (en) Coordinate input device and control method thereof
EP3005047B1 (en) Optical proximity sensors
CN102063230B (en) Optical imaging touch sensing system and imaging method
JP4484796B2 (en) Coordinate input device
JP4590296B2 (en) Coordinate input device
JP4590295B2 (en) Coordinate input device, control method therefor, and program
JP4546224B2 (en) Coordinate input method and apparatus
JP2003186616A (en) Information input device, information input and output system, program, and recording medium
JP2006099273A (en) Coordinate input device and its method
JP5865053B2 (en) Coordinate input device, control method of coordinate input device, and program
JP5717514B2 (en) Coordinate input device, control method therefor, and program
JP2007072508A (en) Coordinate input device and control method and program therefor
JP2006251878A (en) Device and program for inputting coordinate, and coordinate input control method
JP2006251877A (en) Coordinate input device
JP2016045527A (en) Coordinate input device, control method of the same and program thereof
JP2016045528A (en) Coordinate input device, control method of the same and program thereof
JP2015170294A (en) Coordinate input device, control method therefore, and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080728

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100319

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100323

R150 Certificate of patent or registration of utility model

Ref document number: 4484796

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140402

Year of fee payment: 4