JP4484796B2 - Coordinate input device - Google Patents
Coordinate input device Download PDFInfo
- Publication number
- JP4484796B2 JP4484796B2 JP2005264426A JP2005264426A JP4484796B2 JP 4484796 B2 JP4484796 B2 JP 4484796B2 JP 2005264426 A JP2005264426 A JP 2005264426A JP 2005264426 A JP2005264426 A JP 2005264426A JP 4484796 B2 JP4484796 B2 JP 4484796B2
- Authority
- JP
- Japan
- Prior art keywords
- light
- coordinate input
- unit
- sensor
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、座標入力領域上の指示位置を検出する座標入力装置に関するものである。 The present invention relates to a coordinate input device that detects a designated position on a coordinate input area.
座標入力面に、指示具(例えば、専用入力ペン、指等)によって指示して座標を入力することにより、接続されたコンピュータを制御したり、文字や図形などを書き込むために用いられる座標入力装置が存在する。 A coordinate input device used to control a connected computer or to write characters, figures, etc. by inputting coordinates on a coordinate input surface by pointing with a pointing tool (for example, a dedicated input pen, finger, etc.) Exists.
従来より、この種の座標入力装置としては、タッチパネルとして、各種方式のものが提案、または製品化されており、特殊な器具などを用いずに、画面上でパーソナルコンピュータ等の端末の操作が簡単にできるため、広く用いられている。 Conventionally, as this type of coordinate input device, various types of touch panels have been proposed or commercialized, and it is easy to operate terminals such as personal computers on the screen without using special equipment. Since it can be used, it is widely used.
座標入力方式としては、抵抗膜を用いたもの、また、超音波を用いたものなど、さまざまなものがあるが、光を用いたものとして、例えば、特許文献1がある。この特許文献1では、座標入力領域の外側に再帰性反射シートを設け、座標入力領域の角端部に配置された光を照明する照明部と光を受光する受光部を備える。そして、この構成により、座標入力領域内において指等の光を遮蔽する遮蔽物と受光部間の角度を検出し、その検出結果に基づいて、その遮蔽物の指示位置を決定する。
There are various coordinate input methods such as those using a resistive film and those using ultrasonic waves. For example,
また、特許文献2や3等にあるように、再帰反射部材を座標入力領域周辺に構成し、再帰反射光が遮光される部分(遮光部分)の座標を検出する座標入力装置が開示されている。
Further, as disclosed in
これらの装置において、例えば、特許文献2では、微分等の波形処理演算によって受光部が受光する遮蔽物による遮光部分のピークを検出することにより、受光部に対する遮光部分の角度を検出し、その検出結果からその遮蔽物の座標を算出している。また、特許文献3では、特定のレベルパターンとの比較によって遮光部位の一方の端と他方の端を検出し、それらの座標の中心を検出する構成が示されている。
In these apparatuses, for example, in
ここで、特許文献1乃至3のような、遮光位置を検出して座標を算出する方式を、以下、遮光方式と称する。
Here, a method of detecting coordinates and calculating coordinates as in
また、更に、このような遮光方式の座標入力装置においては、特に、その座標入力領域のサイズが大きい場合には、複数の操作者が同時に入力することを許容して、利便性を向上し、より効率的な会議等の用途での要求がある。そのため、複数の同時入力に対応する座標入力装置が考案されている。 Furthermore, in such a coordinate input device of the light shielding method, in particular, when the size of the coordinate input area is large, a plurality of operators are allowed to input simultaneously, improving convenience, There is a demand for more efficient applications such as meetings. Therefore, a coordinate input device corresponding to a plurality of simultaneous inputs has been devised.
複数の座標を同時に入力するために、特許文献4〜特許文献6では、一つの受光センサで複数の遮光部分の角度を検出し、各センサの角度の組み合わせから数点の入力座標候補を算出する。更に、その算出した入力座標候補から実際に入力した座標を判別する技術が開示されている。
In
例えば、2点入力の場合には、入力座標候補として最大4点の座標を算出し、この4点の内、実際に入力した座標2点を判定し、出力する。つまり、この判定は、複数の入力座標候補の中から、実際の入力座標と虚偽の入力座標を選別して、最終的な入力座標を判定する。そして、この判定を、ここでは「虚実判定」と呼ぶことにする。 For example, in the case of two-point input, the coordinates of a maximum of four points are calculated as input coordinate candidates, and two of the four points actually input are determined and output. That is, in this determination, actual input coordinates and false input coordinates are selected from a plurality of input coordinate candidates, and the final input coordinates are determined. This determination will be referred to as “false determination” here.
この虚実判定の具体的な方法としては、特許文献5や特許文献6では、従来の座標入力領域の一辺の両端に、座標入力領域内で指示された座標を精度良く算出するに十分な距離を隔てて設置される第1及び第2センサを設ける。この他に、第1及び第2センサから入力領域内で指示された座標を精度良く算出するに十分な距離を隔てて第1及び第2センサの間の位置に設置される第3センサを設ける。そして、この第3センサにおける第1及び第2センサの角度情報とは異なる角度情報に基づいて、第1及び第2センサで検出された複数の角度情報に対し、この虚実判定を行う技術が開示されている。
As a concrete method of this truth determination, in
一方で、複数のセンサユニットを所定間隔空けて座標入力領域上の周囲に配置し、ほぼ同じ方向、ほぼ同じ領域を観測させることにより、複数の遮光影が重複した場合でも、一方の影が他方の影に完全に隠れて検出されることを回避する方法が提案されている。また、複数の影が重複したとき、其々の影の一方の端部を観測することにより、影が存在する方向を其々検出する方法が提案されている。
上述の遮光方式の座標入力装置では、光を遮ることによって形成された影を、その数、位置、影の強度とも全てのセンサが互いに矛盾のない基準で正確に検出しなければならない。しかるに、センサと再帰反射部材との位置関係、及びセンサにおける投光部と受光部の位置関係等から、それぞれのセンサから見た影の強度(遮光による光強度の低下率)は、常に、必ずしもそれぞれのセンサで互いに同じ値にはならない。 In the above-described light shielding type coordinate input apparatus, all sensors must accurately detect shadows formed by blocking light based on standards consistent with each other in terms of the number, position, and shadow intensity. However, due to the positional relationship between the sensor and the retroreflective member, and the positional relationship between the light projecting unit and the light receiving unit in the sensor, the intensity of the shadow viewed from each sensor (the rate of decrease in light intensity due to light shielding) is not always necessarily. Each sensor does not have the same value.
以下、影の強度(遮光による光強度の低下率)を、「遮光深さ」、「遮光比率」、「遮光率」等と表現する。 Hereinafter, the intensity of the shadow (light intensity reduction rate due to light shielding) is expressed as “light shielding depth”, “light shielding ratio”, “light shielding ratio”, and the like.
このように、影の遮光深さに違いがあると、例えば、本来、所定の複数のセンサから同時に検知されるべき影が、特定のセンサにおいては所定の位置に検知されるにもかかわらず、他の特定のセンサにおいては所定の位置に検知されるべき影が検知されない。即ち、この影を見逃してしまうということが発生する可能性がある。 In this way, if there is a difference in the shading depth of the shadow, for example, a shadow that should originally be detected simultaneously from a plurality of predetermined sensors is detected at a predetermined position in a specific sensor. In other specific sensors, a shadow to be detected at a predetermined position is not detected. In other words, this shadow may be missed.
このように、何れか1つののセンサで本来検出すべき影を検出できなかった場合、入力された座標を正しく検出することができなくなる。また、特に、この問題は、複数の指示具で同時に、複数の入力を行った場合に影響が大きい。例えば、あるセンサで本来検知できるべき影が検知でき無い場合、そのセンサから見て、その影が他の影と重複していると誤認識してしまうこととなる。その結果、実際に指示具によって入力された位置とは異なる本来ありえない位置、即ち、誤った位置の座標を検出してしまう可能性がある。 In this way, if any one of the sensors cannot detect a shadow that should be detected, the input coordinates cannot be detected correctly. In particular, this problem has a great effect when a plurality of inputs are performed simultaneously with a plurality of pointing devices. For example, when a shadow that should be detected by a certain sensor cannot be detected, it is erroneously recognized that the shadow overlaps with other shadows as viewed from the sensor. As a result, there is a possibility of detecting a position that is not originally possible and that is different from the position actually input by the pointing tool, that is, the coordinates of an incorrect position.
また、複数のセンサで、本来、検知できるはずの影を検知できない場合、座標をあやまると同時に影の数すなわち入力の数を誤る可能性もある。 In addition, when a plurality of sensors cannot detect a shadow that should originally be detected, there is a possibility that the number of shadows, that is, the number of inputs may be mistaken at the same time that the coordinates are distorted.
本発明は上記の課題を解決するためになされたものであり、入力された座標を精度良く検出することができる座標入力装置を提供することを目的とする。 The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a coordinate input device that can accurately detect input coordinates.
上記の目的を達成するための本発明による座標入力装置は以下の構成を備える。即ち、 座標入力領域上の指示位置を検出する座標入力装置であって、
前記座標入力領域に対し光を投光する投光部と、到来光を受光する受光部とを備える複数のセンサ手段と、
入射光を再帰的に反射する複数の再帰反射手段と、
指示手段による指示によって、前記複数のセンサ手段それぞれから得られる、光量分布に基づいて、前記指示手段の指示位置の座標を算出する算出手段とを備え、
前記複数のセンサ手段に関わる三次元的遮光検出領域が、前記座標入力領域に対応する共通の三次元的立体形状であり、かつ前記三次元的遮光検出領域は、観測される光強度の変化率によって、前記指示手段の高さ方向の位置の変化が検出できる三次元的領域として定義され、
前記複数のセンサ手段の内、一方のセンサ手段が対向し、かつ他方のセンサ手段が対向しない前記再帰反射手段の形状は、
前記他方のセンサ手段と、
前記他方のセンサ手段の前記座標入力領域に対する鏡像と、
前記他方のセンサ手段が対向する前記再帰反射手段と、
前記他方のセンサ手段が対向する前記再帰反射手段の前記座標入力領域に対する鏡像とで規定される形状であり、
この形状に対し、前記一方のセンサ手段が対向する再帰反射手段に沿った断面の形状に対応する三次元的立体として、前記三次元的立体形状が定義される。
In order to achieve the above object, a coordinate input device according to the present invention comprises the following arrangement. That is, a coordinate input device that detects a designated position on a coordinate input area,
A plurality of sensor means comprising: a light projecting unit that projects light to the coordinate input region; and a light receiving unit that receives incoming light;
A plurality of retroreflective means for recursively reflecting incident light;
Calculation means for calculating the coordinates of the indicated position of the instruction means based on the light amount distribution obtained from each of the plurality of sensor means by an instruction by the instruction means;
The three-dimensional shading detection area related to the plurality of sensor means has a common three-dimensional solid shape corresponding to the coordinate input area, and the three-dimensional shading detection area is a rate of change in observed light intensity. Is defined as a three-dimensional region in which a change in position in the height direction of the indicating means can be detected ,
Of the plurality of sensor means, one sensor means faces and the other sensor means does not face the shape of the retroreflective means,
The other sensor means;
A mirror image of the other sensor means with respect to the coordinate input area;
The retroreflective means facing the other sensor means;
A shape defined by a mirror image of the retroreflective means facing the coordinate input area of the other sensor means;
With respect to this shape, the three-dimensional solid shape is defined as a three-dimensional solid corresponding to the cross-sectional shape along the retroreflective means facing the one sensor means .
また、好ましくは、
実像である第1の遮光検知窓の上端をOpt1、下端をOpt2、
鏡像である第2の遮光検知窓の上端をOpt4’下端をOpt3’、
前記第1の遮光検知窓の前記座標入力領域上の位置をOpt0、
対向する前記再帰反射手段の実像の上端をRef1、下端をRef2、
前記再帰反射手段の鏡像の上端をRef1’、下端をRef2’、
前記再帰反射手段の前記座標入力領域上の位置をRef0、
線分Ref2−Opt3’と、線分Ref0−Opt0の交点をQ1、
線分Ref1’−Opt2と、線分Ref0−Opt0の交点をQ2、
線分Ref1−Opt3と、線分Ref2−Opt1’の交点をQ3、
線分Ref2−Opt0と、線分Ref0_Opt2の交点をQ4、
とする場合、
前記断面の上辺は、線分Ref1−Opt1より低く、かつ線分Ref1−Q3−Opt1より高い位置にあり、
前記断面の下辺は、線分Ref2−Q4−Opt2より低く、かつ線分Ref2−Q1−Q2−Opt2より高い位置にある。
Also preferably,
The upper end of the first light-shielding detection window, which is a real image, is Opt1, the lower end is Opt2,
The upper end of the second light-shielding detection window that is a mirror image is Opt4 ′, the lower end is Opt3 ′,
The position of the first light shielding detection window on the coordinate input area is Opt0,
Ref1 is the upper end of the real image of the retroreflective means facing, Ref2 is the lower end,
The upper end of the mirror image of the retroreflective means is Ref1 ′, the lower end is Ref2 ′,
The position of the retroreflective means on the coordinate input area is Ref0,
The intersection of the line segment Ref2-Opt3 ′ and the line segment Ref0-Opt0 is defined as Q1,
The intersection of the line segment Ref1′-Opt2 and the line segment Ref0-Opt0 is defined as Q2,
The intersection of the line segment Ref1-Opt3 and the line segment Ref2-Opt1 ′ is defined as Q3,
The intersection of the line segment Ref2-Opt0 and the line segment Ref0_Opt2 is defined as Q4,
If
The upper side of the cross-section is at a position lower than the line segment Ref1-Opt1 and higher than the line segment Ref1-Q3-Opt1;
The lower side of the cross section is at a position lower than the line segment Ref2-Q4-Opt2 and higher than the line segment Ref2-Q1-Q2-Opt2.
また、好ましくは、前記Opt1は、前記センサ手段の投光部の投光範囲である投光窓の上端と、受光部の受光範囲である受光窓の上端の高い方を選択したものであり、
前記Opt2は、前記センサ手段の投光部の投光範囲である投光窓の下端と、受光部の受光範囲である受光窓の下端の高い方を選択したものであり、
前記Opt4’は、前記センサ手段の投光部の投光範囲である投光窓の下端と、受光部の受光範囲である受光窓の下端の低い方の選択結果の前記座標入力領域に対する鏡像であり、
前記Opt3’は、前記センサ手段の投光部の投光範囲である投光窓の上端と、受光部の受光範囲である受光窓の上端の低い方の選択結果の前記座標入力領域に対する鏡像である。
Preferably, the
The
The Opt4 ′ is a mirror image of the coordinate input region of the lower selection result of the lower end of the light projecting window that is the light projecting range of the light projecting unit of the sensor means and the lower end of the light receiving window that is the light receiving range of the light receiving unit. Yes,
The Opt3 ′ is a mirror image of the coordinate input region of the selection result of the lower of the upper end of the light projecting window that is the light projecting range of the light projecting unit of the sensor means and the upper end of the light receiving window that is the light receiving range of the light receiving unit. is there.
また、好ましくは、前記複数のセンサ手段は、前記座標入力領域の一辺の両端に設けられ、
前記複数の再帰反射手段は、前記座標入力領域の前記一辺を除く辺に設けられ、
前記複数のセンサ手段の内、一方のセンサ手段が対向し、かつ他方のセンサ手段が対向しない再帰反射手段の形状は、その再帰反射手段の1つの端部の延長上に、前記他方のセンサ手段の遮光検知窓が一致するような、もう1つの再帰反射手段の端部の辺が、前記複数のセンサ手段で共通に対向する再帰反射手段の端部の辺に一致するような、かつ少なくとも下辺が弓なりの形状である。
Preferably, the plurality of sensor means are provided at both ends of one side of the coordinate input area,
The plurality of retroreflective means are provided on a side excluding the one side of the coordinate input area,
Of the plurality of sensor means , one of the sensor means faces and the other sensor means does not face the shape of the retroreflective means , and the other sensor means has an extension of one end of the retroreflective means. The end side of the other retroreflective means such that the light-shielding detection windows coincide with each other coincides with the end side of the retroreflective means opposed in common by the plurality of sensor means, and at least the lower side Is the shape of a bow.
また、好ましくは、前記遮光検知窓は、前記センサ手段における実効的に投光に寄与する部分である投光窓の上端と、実効的に受光に寄与する部分である受光窓の上端の高い方を上端とし、かつ前記投光窓の下端と前記受光窓の下端の高い方を下端として決められる範囲の部分である。 Preferably, the light-shielding detection window is a higher one of an upper end of a light projection window that is a portion that effectively contributes to light projection in the sensor means and a top end of the light reception window that is a portion that effectively contributes to light reception. The upper end of the light projecting window and the higher end of the lower end of the light receiving window.
また、好ましくは、前記センサ手段は、前記投光部と前記受光部からなる光学ユニットを1つ備える。 Preferably, the sensor means includes one optical unit including the light projecting unit and the light receiving unit.
また、好ましくは、前記センサ手段は、前記投光部と前記受光部からなる光学ユニットを2つ備える。 Preferably, the sensor means includes two optical units including the light projecting unit and the light receiving unit.
本発明によれば、入力された座標を精度良く検出することができる座標入力装置を提供できる。 ADVANTAGE OF THE INVENTION According to this invention, the coordinate input device which can detect the input coordinate accurately can be provided.
以下、本発明の実施の形態について図面を用いて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
<実施形態1>
図1Aは本発明の実施形態1の座標入力装置の外観構成を示す図である。
<
FIG. 1A is a diagram showing an external configuration of a coordinate input device according to
図1Aにおいて、L1及びL2はそれぞれ投光部および受光部を有する光学ユニットであり、これらの2組の光学ユニットによって、センサユニット1Lが構成されている。同様に、R1及びR2はそれぞれ投光部および受光部を有する光学ユニットであり、これらの2組の光学ユニットによって、センサユニット1Rが構成されている。
In FIG. 1A, L1 and L2 are optical units each having a light projecting unit and a light receiving unit, and a
また、センサユニット1L内の光学ユニットL1及びL2は、ほぼ同一の方向、同一の視野で、投光/受光を行い、所定の視差をもって到来光を観測するように配置されている。同様に、センサユニット1R内の光学ユニットR1及びR2は、ほぼ同一の方向、同一の視野で、投光/受光を行い、所定の視差をもって到来光を観測するように配置されている。
In addition, the optical units L1 and L2 in the
更に、センサユニット1L及び1Rは、図示の如く座標入力面であるところの座標入力有効領域3のX軸に平行に、かつY軸に対称な位置に、所定距離離れて配置されている。センサユニット1L及び1Rは、制御・演算ユニット2に接続され、制御信号を制御・演算ユニット2から受信すると共に、検出した信号を制御・演算ユニット2に送信する。
Further, the
4a〜4cは入射光を到来方向に反射する再帰反射面を有する再帰反射部であり、座標入力有効領域3の外側3辺に図示が如く配置されている。また、これらの再帰反射部4a〜4cは、それぞれのセンサユニット1L及び1Rから略90°範囲に投光された光を、センサユニット1L及び1Rに向けて再帰反射する。
尚、再帰反射部4a〜4cは、ミクロ的に見て三次元的な構造を有し、現在では、主にビーズタイプの再帰反射テープ、或いはコーナキューブを機械加工等により規則正しく配列することで再帰現象を起こす再帰反射テープが知られている。
The
再帰反射部4a〜4cで再帰反射された光は、センサユニット1L(光学ユニットL1及びL2)及び1R(光学ユニットR1及びR2)によって1次元的に検出され、その光量分布が制御・演算ユニット2に送信される。
The light retroreflected by the
座標入力有効領域3は、PDPやリアプロジェクタ、LCDパネルなどの表示装置の表示画面で構成することで、インタラクティブな入力装置として、利用可能となっている。
The coordinate input
このような構成において、座標入力有効領域3に指や指示具等の指示手段による入力指示がなされると、センサユニット1L及び1R内のそれぞれの、光学ユニットL1及びL2と光学ユニットR1及びR2の投光部から投光された光が遮られる(遮光部分)。この場合、センサユニット1L及び1R内のそれぞれの、光学ユニットL1及びL2と光学ユニットR1及びR2の受光部では、その遮光部分の光(再帰反射による反射光)を検出できない。そこで、この検出状況に基づいて、光学ユニットL1及びL2それぞれが、どの方向からの光が検出できなかったかを判別することが可能となる。
In such a configuration, when an input instruction is given to the coordinate input
そこで、制御・演算ユニット2は、センサユニット1L(光学ユニットL1及びL2)及び1R(光学ユニットR1及びR2)が検出する光量変化から、指示具によって入力指示された部分の複数の遮光範囲を検出する。次に、その遮光範囲の情報から、センサユニット1L(光学ユニットL1及びL2)及び1R(光学ユニットR1及びR2)それぞれに対する遮光範囲の端部の方向(角度)をそれぞれ算出する。また、指示具が信号発信部を有する場合には、その指示具からのペン信号をペン信号受信部5が受信する。
Therefore, the control /
そして、検出された遮光範囲の数に基づいて、座標算出に用いる遮光範囲から得られるデータを決定する。次に、それぞれ算出された方向(角度)、及びセンサユニット1L(光学ユニットL1及びL2)及び1R(光学ユニットR1及びR2)間の距離情報等から、座標入力有効領域3上の指示具の遮光位置を幾何学的に算出する。そして、表示装置に接続されているホストコンピュータ等の外部端末に、インタフェース7(例えば、USB、IEEE1394等)を経由してその座標値を出力する。
Then, based on the number of detected light shielding ranges, data obtained from the light shielding ranges used for coordinate calculation is determined. Next, based on the calculated direction (angle) and distance information between the
このようにして、指示具によって、画面上に線を描画したり、表示装置に表示されるアイコンを操作する等の外部端末の操作が可能になる。 In this way, the operation of the external terminal such as drawing a line on the screen or operating an icon displayed on the display device can be performed by the pointing tool.
尚、以下の説明では、座標入力有効領域3に垂直な方向を高さ方向(Z方向)とし、座標入力有効領域3に近い方向を「下」、遠い方向を「上」と表現する。また、図1Aにおいて、センサユニット1L(光学ユニットL1及びL2)及び1R(光学ユニットR1及びR2)は、遮光を実効的に検知する範囲、即ち、第1の遮光検知窓の実態的存在として表現される。
In the following description, a direction perpendicular to the coordinate input
即ち、センサユニット1L(光学ユニットL1及びL2)及び1R(光学ユニットR1及びR2)の半円筒形状の厚さ(Z方向)が、高さ方向に定義される実効的遮光検知窓の大きさである。
That is, the semi-cylindrical thickness (Z direction) of the
特に、高さ方向における第1の遮光検知窓の定義は、センサユニットの投光窓ないし受光窓ではない。実際に、センサユニットのごく近傍において上側から指示具を挿入して遮光を行った場合に、実際に遮光を検知し始める高さを第1の遮光検知窓の上端、遮光の比率が実質的に100%になる高さを第1の遮光検知窓の下端としている。そして、このような、上端、下端で定義される窓を第1の遮光検知窓と定義する。 In particular, the definition of the first light shielding detection window in the height direction is not a light projecting window or a light receiving window of the sensor unit. Actually, when the indicator is inserted from the upper side in the very vicinity of the sensor unit to perform light shielding, the height at which the light shielding is actually detected is the upper end of the first light shielding detection window, and the light shielding ratio is substantially The height of 100% is used as the lower end of the first light shielding detection window. Such a window defined by the upper end and the lower end is defined as a first light shielding detection window.
また、遮光検出領域とは、センサユニットから投光された光が再帰反射して、センサユニットで受光されるまでの光路の領域の中で、その部分を指示具で上側から一部でも遮った時に、その受光される光強度が低下し、そのことが検出できる領域として定義する。従って、遮光検出領域は、ある座標位置においては、高さの範囲として定義され、所定の範囲をもつ座標入力有効領域に対しては、3次元的領域として定義される。また、センサユニットから見たある方向に対しては、3次元的領域の断面をなす2次元的領域として定義される。 The light-shielding detection area is a part of the optical path from the time when the light projected from the sensor unit is retroreflected until it is received by the sensor unit. Sometimes it is defined as a region where the intensity of the received light decreases and that can be detected. Therefore, the shading detection area is defined as a height range at a certain coordinate position, and is defined as a three-dimensional area for a coordinate input effective area having a predetermined range. Further, a certain direction viewed from the sensor unit is defined as a two-dimensional region that forms a cross section of a three-dimensional region.
このように、構成することにより、指示具によって遮光された場合に、センサユニット1L及び1Rでは、常に互いに略同一レベルの遮光比率で影を検出することができる。また、図1Bにおける縦じまの部分は、三次元的遮光検出領域の三次元的形状を分かりやすくするために付け加えた断面図であり、本発明において特別な意味をなす断面ではない。
By configuring in this way, when the light is shielded by the pointing tool, the
尚、図1A及び図1Bでは、1つのセンサユニット内に、2つの光学ユニットを内蔵する複眼(二眼)構成の例を挙げているが、図2A及び図2Bに示すように、1つのセンサユニット内に1つの光学ユニットを内蔵する単眼構成とすることも可能である。 In FIGS. 1A and 1B, an example of a compound eye (two-lens) configuration in which two optical units are built in one sensor unit is shown. However, as shown in FIGS. 2A and 2B, one sensor A monocular configuration in which one optical unit is built in the unit is also possible.
そこで、以下では、説明を簡単にするために、図3〜図23では、図2A及び図2Bの単眼構成の場合を例に挙げて説明するが、これに限定されるものではない。例えば、図1A及び図1Bの複眼(二眼)構成、あるいは、1つのセンサユニット内に3個以上の光学ユニットを内蔵する複眼構成であっても、本発明を適用することができる。 Therefore, in the following, in order to simplify the description, FIGS. 3 to 23 will be described by taking the case of the monocular configuration of FIGS. 2A and 2B as an example, but the present invention is not limited to this. For example, the present invention can be applied even to the compound eye (two-eye) structure shown in FIGS. 1A and 1B or the compound eye structure in which three or more optical units are built in one sensor unit.
但し、複眼構成の場合は、センサユニットを構成する各光学ユニットに対して、以下の説明が適用される。つまり、単眼構成の場合、センサユニットとそれが内蔵する1つの光学ユニットは同一視して説明することができる。一方、複眼構成の場合、センサユニットを構成する複数の光学ユニットそれぞれに対して、図3〜図23の説明が適用されることに注意されたい。 However, in the case of a compound eye configuration, the following description is applied to each optical unit constituting the sensor unit. That is, in the case of a monocular configuration, the sensor unit and one optical unit built in the sensor unit can be described as being the same. On the other hand, in the case of a compound eye configuration, it should be noted that the description of FIGS. 3 to 23 is applied to each of a plurality of optical units constituting the sensor unit.
<課題の説明>
ここで、本発明における課題を、図を用いて詳しく説明する。
<Explanation of issues>
Here, the problem in the present invention will be described in detail with reference to the drawings.
図3は本発明における課題を説明するための図である。 FIG. 3 is a diagram for explaining the problem in the present invention.
従来より、センサユニット1L及び1R、および再帰反射部4(4a〜4c)は、できるだけ座標入力面に近づけるよう設計されてきた。また、上記特許文献2等で見られるように、センサユニットにおいて、反射ミラー等の光学部材を用いることにより、投光位置と受光位置をできるだけ、同じ位置、高さにすること、できるだけ座標入力面に近づけることが言及されている。また、投光/受光ともできる限り平行にする(コリメートする)ことを想定した座標入力装置について言及されている。
Conventionally, the
ここで、仮に、投光/受光が厚み方向に完全に平行にされていて、再帰反射部が投光の指向範囲(視野範囲)、受光の指向範囲(視野範囲)を厚み方向において包含するような形と大きさに設定されているとする。この場合、三次元的遮光検出領域は、再帰反射部の形状にはよらず、投光あるいは受光の光路のみで決まるということができる。 Here, it is assumed that the light projection / light reception is completely parallel to the thickness direction, and the retroreflective portion includes the light projection directivity range (field range) and the light reception directivity range (field range) in the thickness direction. Suppose that the shape and size are set. In this case, it can be said that the three-dimensional shading detection area is determined only by the light projecting or receiving light path, regardless of the shape of the retroreflective portion.
ここで、厚み方向とは、座標入力面(座標入力有効領域3)に垂直な方向(Z方向)を意味する。 Here, the thickness direction means a direction (Z direction) perpendicular to the coordinate input surface (coordinate input effective area 3).
しかしながら、実際には、例えば、エコーバックを表示する表示画面との関わり、装置全体の構造等による実装制限、またコスト、精度等の制限により多くの場合、投光/受光とも厚み方向に十分なコリメートができると状態にあるとは言えない。 However, in practice, for example, there are many cases where light projection / light reception is sufficient in the thickness direction due to, for example, the relationship with a display screen that displays echo back, mounting restrictions due to the structure of the entire apparatus, and restrictions on cost, accuracy, etc. It cannot be said that it is in a state when collimation is possible.
このため、多くの場合、現実的には、再帰反射部の幅(厚み方向の幅)より、光学ユニットの投光の指向範囲/受光の指向範囲を厚み方向において広く構成する。即ち、投光/受光の厚み方向の指向範囲が再帰反射部を包含するように構成することにより、三次元的遮光検出領域は、再帰反射部の形状によって決まるように構成されている。 For this reason, in many cases, practically, the light projecting directivity range / light receiving directivity range of the optical unit is configured wider in the thickness direction than the width of the retroreflective portion (width in the thickness direction). In other words, the three-dimensional shading detection region is configured to be determined by the shape of the retroreflective portion by configuring the directivity range in the light emitting / receiving thickness direction to include the retroreflective portion.
特に、本発明においては、投光/受光の厚み方向の指向範囲が再帰反射部を包含するのみでなく、座標入力面の多くの部分を、詳しくはセンサユニットの近傍を除いたほとんどの部分を包含するように構成されている。 In particular, in the present invention, the directivity range in the thickness direction of light projection / light reception includes not only the retroreflective portion, but also a large part of the coordinate input surface, in particular, most of the portion excluding the vicinity of the sensor unit. It is configured to include.
ここで、投光の指向範囲/受光の指向範囲は再帰反射部を包含し、かつ座標入力面は包含しない、ないし座標入力面が光を反射しないという構成もある。 Here, there is a configuration in which the directivity range of light projection / directivity range of light reception includes a retroreflective portion and does not include a coordinate input surface, or the coordinate input surface does not reflect light.
これに対し、本発明は、投光の指向範囲/受光の厚み方向の指向範囲は、再帰反射部を包含するのみでなく、座標入力面のセンサユニットの近傍を除く大半を包含するものである。 In contrast, in the present invention, the directivity range of light projection / the directivity range in the thickness direction of light reception includes not only the retroreflective portion but also most of the coordinate input surface except the vicinity of the sensor unit. .
いずれの場合も、現実の構成として成立するものであるが、厚み方向の指向範囲を制限しない場合の方が、センサユニット自体の精度、取り付け精度、全体の構造体の剛性、製造コスト、設計の自由度等、多くの面で扱いが容易である。 In either case, the actual configuration is established, but the accuracy of the sensor unit itself, the mounting accuracy, the rigidity of the entire structure, the manufacturing cost, and the design are less when the directivity range in the thickness direction is not limited. It is easy to handle in many aspects such as the degree of freedom.
一方、このような場合、夫々のセンサユニット1L及び1Rから見た三次元的遮光検出領域は複雑な形状となり、センサユニット1L及び1Rの三次元的遮光検出領域は、共通領域とは必ずしもなっていないのが現状である。
On the other hand, in such a case, the three-dimensional shading detection areas viewed from the
このため、夫々のセンサユニット1L及び1Rから見た三次元的遮光検出領域は妥協的な形となり、センサユニット1L及び1Rの三次元的遮光検出領域は、共通領域とは必ずしもなっていないのが現状である。
For this reason, the three-dimensional shading detection areas viewed from the
本発明は、このような構成において発生する課題を解決する手法を提案するものである。 The present invention proposes a technique for solving the problems that occur in such a configuration.
以下、図3を例に、課題を説明する。 The problem will be described below with reference to FIG.
図3では、センサユニット1L及び1Rは、座標入力面である座標入力有効領域3に対し、再帰反射部4a〜4cと比べて、より高い位置に設置されている。
In FIG. 3, the
実際、表示装置に、この種の遮光方式の座標入力装置を組み込むあるいはオーバーレイする場合、このような構成配置にならざるを得ないことが多い。 Actually, when such a light-shielding coordinate input device is incorporated in or overlaid on a display device, this arrangement is often unavoidable.
センサユニット1L及び1Rは、一定の大きさがあるので、表示画面の黒枠(表示面と同一平面で実際には表示されない外側の部分)に設置することができない。そのため、表示装置の外枠(表示面より一段飛び出した部分、いわゆる額縁)に乗り上げるような配置となる。
Since the
一方、座標入力装置としては、違和感のない書き味にするためには、遮光検出領域をできるだけ座標入力面に近づけたいという要望がある。また、実装の容易性という長所もあるため、図3に示すように、細長い形状の再帰反射部は、表示画面の黒枠に収める、即ち、表示面に接近した配置となる。 On the other hand, there is a demand for the coordinate input device to make the light-shielding detection region as close as possible to the coordinate input surface in order to make the writing feel comfortable. Further, since there is an advantage of ease of mounting, as shown in FIG. 3, the elongated retroreflective portion is placed in the black frame of the display screen, that is, placed close to the display surface.
ここで、センサユニット1L及び1R夫々の三次元的遮光検出領域を考えてみる。
Here, consider the three-dimensional shading detection area of each of the
まず、図4に示すように、センサユニット1L(1R)の投光部から投光された光は、一部は直接再帰反射部4に到達する。次に、そこで再帰反射された光は、一部は直接に受光部に到達し、一部は座標入力有効領域3の座標入力面で反射した後、受光部に到達する。
First, as shown in FIG. 4, part of the light projected from the light projecting unit of the
一方、投光部から投光された他の一部は、座標入力有効領域3の座標入力面で反射した後、再帰反射部4に到達する。次に、そこで再帰反射された光は、一部は直接受光部に到達し、一部は座標入力有効領域3の座標入力面で反射した後、受光部に到達する。
On the other hand, another part projected from the light projecting unit is reflected by the coordinate input surface of the coordinate input
即ち、本構成の場合、図4に示すように、指示具によって遮光するための光は、4つの光路(光路1、光路2、光路3、光路4)に分けて考えることができる。
That is, in the case of this configuration, as shown in FIG. 4, the light to be shielded by the pointing tool can be divided into four optical paths (
ここで、再帰反射とは、本来、投光された光を、そのまま投光された方向に反射するものであるが、実際には、反射方向は、投光された方向に対して若干の広がりを持つ。例えば、かなり性能の良いものでも、半値幅で1〜2度程度の広がりを持つ。 Here, the retroreflection means that the projected light is reflected in the projected direction as it is, but in reality, the reflection direction is slightly wider than the projected direction. have. For example, even if the performance is quite good, the width at half maximum is about 1 to 2 degrees.
従って、センサユニットの大きさと、座標入力有効領域3の大きさにもよるが、多くの場合、光路1〜4が成立し、かつ光路2、3における観測角(投光と反射光の相対角度)が上記の半値幅に対して無視できない場合がある。この場合、それに応じて光強度に減衰係数がかかると考えて扱えば、やはり、光路1〜4は成立する。
Therefore, depending on the size of the sensor unit and the size of the coordinate input
そこで、実際の遮光検出領域であるが、センサユニット1Lに関しては、センサユニット1Lから投光される光は、対向する再帰反射部4との間で、光路1〜4を通って受光部に戻ってくる。このため、図5Aに示すように、センサユニットの検知窓と対向する再帰反射部の間は、下に凸形状を成す2つの面ではさんだような形状となり、また、その凸の部分において、三次元的遮光検出領域は座標入力面にほぼ接するような形状となる。
Therefore, although it is an actual light-shielding detection region, with respect to the
同様に、センサユニット1Rに関しても、図5Bに示すような三次元的遮光検出領域を形成することとなる。
Similarly, a three-dimensional shading detection region as shown in FIG. 5B is also formed for the
図5A及び図5Bから明らかなように、センサユニット1Lに関わる三次元的遮光検出領域と、センサユニット1Rに関わる三次元的遮光検出領域とでは、立体的に異なる。即ち、両者間では、略同一の三次元遮光検出領域を構成しているわけではない。
As is clear from FIGS. 5A and 5B, the three-dimensional shading detection area relating to the
ここで、図3のC1点ないしC2点に指示具を挿入することを考える。 Here, consider inserting an indicator at points C1 and C2 in FIG.
C1点では、図5Aに示すように、センサユニット1Lに関する三次元的遮光検出領域は、センサユニット1Lに近いため、比較的高い位置(座標入力面から離れた位置)にある。
At the point C1, as shown in FIG. 5A, the three-dimensional shading detection area related to the
一方、図5Bに示すように、センサユニット1Rに関する三次元的遮光検出領域は、C1点では、近傍の再帰反射部4bの高さに近い高さ、即ち、比較的低い位置(座標入力面に接近した位置)にある。
On the other hand, as shown in FIG. 5B, the three-dimensional shading detection region relating to the
ここで、図6A及び図6Bに示すような、「ペン先高さ 対 遮光率」特性または「指示具高さ 対 遮光率」を考える。図6A及び図6Bにおいて、横軸は、ペン先高さH(即ち、指示具の実効的先端と座標入力面との距離)である。一方、縦軸は、センサユニットにおける遮光率であり、例えば、指示具を座標入力面に近づけて行く場合は、図6A及び図6Bにおいて、右から左に移動することとなる。 Here, the “pen tip height vs. shading rate” characteristic or “indicator height vs. shading rate” as shown in FIGS. 6A and 6B is considered. 6A and 6B, the horizontal axis represents the pen tip height H (that is, the distance between the effective tip of the pointing tool and the coordinate input surface). On the other hand, the vertical axis represents the light shielding rate in the sensor unit. For example, when the pointing tool is moved closer to the coordinate input surface, the vertical axis moves from right to left in FIGS. 6A and 6B.
指示具が挿入されていない時点は、遮光率は0%(規格化光強度100%)である。また、指示具が座標入力面に対しある高さ位置まで近づくと、遮光率は上昇し始める(規格化光強度は低下し始める)。その後、遮光率は、ある位置でおよそ100%近くに達し、その後、一定となる。
When the pointing tool is not inserted, the light shielding rate is 0% (standardized
まず、C1点の位置において、指示具の挿入操作を行った場合、図6A中の破線がセンサユニット1Lに関する遮光率の変位を示す軌跡であり、実線がセンサユニット1Rに関するものである。
First, when the pointing tool is inserted at the position C1, the broken line in FIG. 6A is a locus indicating the displacement of the light shielding rate with respect to the
C1点の近傍において、センサユニット1Lに関する三次元的遮光検出領域は高い位置にあるので、図6Aで示す破線の軌跡が大きく変化する部分は右に寄っている。
In the vicinity of the point C1, since the three-dimensional shading detection region related to the
一方、センサユニット1Rに関する三次元的遮光検出領域は、再帰反射部4bの高さにほぼ一致する関係にあるので、図6A中で示す実線の軌跡はほぼそれに従った位置にある。
On the other hand, since the three-dimensional shading detection region relating to the
即ち、何れもこの大きく変化する部分が、センサユニット1L及び1Rの各センサユニットの三次元遮光検出領域を通過する部分であるということができる。
That is, it can be said that the part that greatly changes is a part that passes through the three-dimensional shading detection region of each of the
また、これらの図3、図5A及び図5Bに示す構成の場合、C1点の近傍において、センサユニット1Lに関する三次元的遮光検出領域は、センサユニット1Rに関する三次元的遮光検出領域よりも高さ方向に対して薄い。そのため、図6Aにおいて、遮光率の軌跡(カーブ)の変化する部分が、センサユニット1Lの方がセンサユニット1Rに比べて狭くて急峻である。
In the configurations shown in FIGS. 3, 5A, and 5B, the three-dimensional shading detection area for the
以上のように、従来構成においては、左右のセンサユニット1L及び1Rで検知する「ペン先高さ 対 遮光率」特性が異なる。
As described above, in the conventional configuration, the “pen tip height vs. light shielding rate” characteristics detected by the left and
そして、このよう特性において遮光検知を行う場合、次のような問題が発生する。 When the light shielding detection is performed with such characteristics, the following problems occur.
例えば、影が有りと判定するとするのは、次の場合とする。指示具が座標入力面に対して上から挿入されて行き、その高さHが、図6AのHth_R≦H≦Hth_Lで示される範囲に至った時で、かつセンサユニット1L及び1R夫々が検出する影の強度、即ち、遮光率が所定閾値thsh0を超えた時である。
For example, it is assumed that there is a shadow in the following case. When the pointing tool is inserted into the coordinate input surface from above and its height H reaches the range indicated by Hth_R ≦ H ≦ Hth_L in FIG. 6A, each of the
このような構成の場合、センサユニット1Lでは、H=Hth_Lのとき、影を最初に検知する。一方、センサユニット1Rでは、H=Hth_Rのとき、影を最初に検知する。
In such a configuration, the
従って、Hth_R≦H≦Hth_Lで示される範囲にあっては、指示具の影は、センサユニット1Lでは観測されるが、センサユニット1Rでは観測されない状態となる。
Therefore, in the range indicated by Hth_R ≦ H ≦ Hth_L, the shadow of the pointing tool is observed in the
同様に、C2点の場合を、図6Bに示す。C2点の近傍においては、センサユニット1Lに関する三次元的遮光検出領域は、座標入力面の反射の影響で該座標入力面に接近している。一方、センサユニット1Rに関する三次元的遮光検出領域は、再帰反射部4bの高さにほぼ一致する関係にある。
Similarly, the case of point C2 is shown in FIG. 6B. In the vicinity of the point C2, the three-dimensional shading detection area related to the
従って、図6Bに示すように、C2点の位置において、指示具の挿入操作を行った場合、図6B中の破線がセンサユニット1Lに関する遮光率の変位を示す軌跡であり、実線がセンサユニット1Rに関するものである。
Accordingly, as shown in FIG. 6B, when the pointing tool is inserted at the position of point C2, the broken line in FIG. 6B is a locus indicating the displacement of the light shielding rate with respect to the
C2点の近傍において、センサユニット1Lに関する三次元的遮光検出領域は、座標入力面の反射の影響で座標入力面に接近している、即ち、低い位置にあるので、図6Bで示す破線の軌跡が大きく変化する部分は左に寄っている。
In the vicinity of the point C2, the three-dimensional shading detection region related to the
一方、センサユニット1Rに関する三次元的遮光検出領域は、再帰反射部4bの高さにほぼ一致する関係にあるので、図6B中で示す実線の軌跡は、ほぼそれに従った位置にある。
On the other hand, since the three-dimensional shading detection area related to the
即ち、何れもこの大きく変化する部分が、センサユニット1L及び1Rの各センサユニットの三次元遮光検出領域を通過する部分であるということができる。
That is, it can be said that the part that greatly changes is a part that passes through the three-dimensional shading detection region of each of the
そして、このよう特性において遮光検知を行う場合、次のような問題が発生する。 When the light shielding detection is performed with such characteristics, the following problems occur.
このような構成の場合、センサユニット1Lでは、H=Hth_Lのとき、影を最初に検知する。一方、センサユニット1Rでは、H=Hth_Rのとき、影を最初に検知する。従って、Hth_L≦H≦Hth_Rで示される範囲にあっては、指示具の影は、センサユニット1Lでは観測されるが、センサユニット1Rでは観測されない状態となる。
In such a configuration, the
ここまで述べてきたことは、複数の指示具で同時に入力(複数入力操作)を行ったときに、大きな問題となる。 What has been described so far becomes a serious problem when simultaneous input (multiple input operation) is performed using a plurality of pointing devices.
以下、この複数入力時の問題について説明する。まず、この問題を説明するに当たり、単一入力時の座標検出について説明する。 Hereinafter, the problem at the time of multiple input will be described. First, in explaining this problem, coordinate detection at the time of single input will be explained.
図7は、図3における単一入力操作を上から見た図である。 FIG. 7 is a top view of the single input operation in FIG.
図7において、C1点の位置に入力を行った場合、通常、図8及び図9のθL、θRの位置に影ができる。ここで、図8は、指示具の高さH≦H2_Rのとき(即ち、指示具が十分座標入力面近傍まできたとき)の、センサユニット1L及び1Rそれぞれが検出する影の形を表している。また、図9は、Hth_R≦H≦Hth_Lのとき(即ち、指示具が座標入力有効領域に入る際、ないし出る際)のときの、センサユニット1L及び1Rそれぞれが検出する影の形を表している。
In FIG. 7, when an input is made at the position of the point C1, a shadow is usually formed at the positions of θL and θR in FIGS. Here, FIG. 8 shows the shape of the shadow detected by each of the
このとき、上述のように、センサユニット1Lからは、指示具の影が検知されていて、センサユニット1Rからは指示具の影は検知されていない。
At this time, as described above, the shadow of the pointing tool is detected from the
ここで、単一入力の場合は、2つのセンサユニット両方が影を検出した場合のみ、入力あり(一方のみ検知した場合は入力なし)として扱えば問題ない。 Here, in the case of a single input, there is no problem if it is treated as having an input (no input when only one of the two sensor units detects a shadow).
ところが、複数入力の場合は問題が大きい、以下、これについて説明する。 However, in the case of multiple inputs, the problem is great. This will be described below.
図10は複数入力操作を上から見た図である。 FIG. 10 is a view of a multi-input operation as viewed from above.
図10では、P12及びP21点に複数入力を行った場合を示している。 FIG. 10 shows a case where a plurality of inputs are performed at points P12 and P21.
この場合、図11のように、センサユニット1Lにおいて、θL1、θL2の位置に影が検出される。また、センサユニット1Rにおいて、θR1、θR2の位置に影が検出される。この2組の角度データをもとに、4つの座標候補点P11、P12、P21及びP22が算出される。そして、これらの座標候補点の中から、何らかの手段によって虚実判定することにより、例えば、P11、P22は虚像であり、P12、P21が実像であることが判別され、座標入力点を決定することになる。
In this case, as shown in FIG. 11, in the
次に、座標入力点が誤検出される場合の複数入力例について説明する。この誤検出パターン(1)としては、次のようになる。つまり、図12に示すように、P12点(図7のC1点に対応)及びP21点で複数入力を行った場合で、かつ各点における指示具の高さHが図6に示すHth_R≦H≦Hth_Lの場合を考える。 Next, an example of a plurality of inputs when a coordinate input point is erroneously detected will be described. The false detection pattern (1) is as follows. That is, as shown in FIG. 12, when a plurality of inputs are made at point P12 (corresponding to point C1 in FIG. 7) and point P21, the height H of the pointing tool at each point is Hth_R ≦ H shown in FIG. Consider the case of ≦ Hth_L.
このとき、図13に示すように、センサユニット1Rでは、θR2が検知されない。
At this time, as shown in FIG. 13, the
この場合、実際には、C1点(P12)、P21の位置に2つの入力を行っているにも関わらず、センサユニット1Rからは、θR1のみ検知されてθR2が検知されない(即ち、P12の入力の影が観測されない)。そのため、P12は、センサユニット1Rから重複して観測される点、即ち、図12のP11が座標入力点であると誤認識をしてしまう。即ち、本来の座標入力点P12を座標入力点P11と誤検出してしまう。
In this case, in practice, although two inputs are made at the positions of C1 point (P12) and P21, only θR1 is detected and θR2 is not detected from the
次に、誤検出パターン(2)としては、次のようになる。つまり、図14に示すように、P12点(図7のC1点に対応)及びP21点(C1点に対して、およそ左右対称な位置C1’点)に複数入力を行った場合である。この場合、C1点の位置での指示具の高さHは図6Bに示すHth_R ≦ H ≦ Hth_Lで、C1’点の位置での指示具の高さHは、図6Bのセンサユニット1Lと1Rとの関係を入れ替えた関係である。更に、Hth_L(C1´)≦H(C1´)≦Hth_R(C1´)である。
Next, the false detection pattern (2) is as follows. That is, as shown in FIG. 14, a plurality of inputs are performed at point P12 (corresponding to point C1 in FIG. 7) and point P21 (point C1 'that is approximately symmetrical with respect to point C1). In this case, the height H of the pointing tool at the position of the point C1 is Hth_R ≦ H ≦ Hth_L shown in FIG. 6B, and the height H of the pointing tool at the position of the point C1 ′ is the
このとき、図15に示すように、センサユニット1LからはθL2が観測されず、同様に、センサユニット1RからはθR2が観測されない。この場合、実際には、C1(P12)、C1’(P21)に入力しているにもかかわらず、夫々、実際に検出している角度θL1、θR1の交点、即ち、図14のP11が座標入力点であると誤認識してしまう。即ち、この場合、単一入力であると誤検出してしまう。
At this time, as shown in FIG. 15, θL2 is not observed from the
このように、指示具の高さHが所定範囲(例えば、C1点の位置である場合、Hth_R≦H≦Hth_L)であるとき、本来、センサユニット1L及び1Rの両者で検出されるべき影が、ぞれぞれの三次元的遮光検出領域が異なる。そのために、複数入力時で検出した座標候補点から正しい組み合せで座標入力点を検出できない。
As described above, when the height H of the pointing device is within a predetermined range (for example, Hth_R ≦ H ≦ Hth_L in the case of the position of the C1 point), a shadow that should be originally detected by both the
また、この所定範囲(例えば、C1点の位置である場合、Hth_R≦H≦Hth_L)は、座標入力有効領域に対し、指示具が入る際ないし出る際において必ず存在する。そのため、座標の誤検出や、座標候補点の誤算出が発生してしまう。 Further, this predetermined range (for example, Hth_R ≦ H ≦ Hth_L in the case of the position of the point C1) always exists when the pointing tool enters or leaves the coordinate input effective area. For this reason, erroneous detection of coordinates and erroneous calculation of coordinate candidate points occur.
以上の問題は、C2点でも同じことが起こる。C2点の場合は、センサユニット1Lから見える影の強度と、センサユニット1Rから見える影の強度の関係は逆である。
The same problem occurs at point C2. In the case of point C2, the relationship between the intensity of the shadow seen from the
従って、C1点における場合の図12のパターンに対応するものは、図16Aに示すパターンである。この場合、センサユニット1LからθL1方向の影が見えない瞬間において、C2(P12)の座標をP22と見誤って検出してしまう。
Accordingly, the pattern shown in FIG. 16A corresponds to the pattern shown in FIG. 12 at the point C1. In this case, at the moment when no shadow in the θL1 direction is visible from the
また、C1点における場合の図14のパターンに対応するものは、図16Bに示すパターンである。この場合、センサユニット1LからθL1が見えなくて、かつセンサユニット1RからθR1が見えない瞬間において、C2(P12)とC2’(P21)に入力しているにもかかわらず、P22の位置に見誤って検出してしまう。
Further, the pattern shown in FIG. 16B corresponds to the pattern shown in FIG. 14 at the point C1. In this case, at the moment when θL1 cannot be seen from the
<三次元的遮光検出領域の共通化>
そこで、本発明は、これらの問題を解決する構成を提案するものであり、特に、本発明においては、左右のセンサユニット1L及び1Rの三次元的遮光検出領域を同一(共通)にすることにより、これらの問題を解決するものである。
<Shared 3D shading detection area>
Therefore, the present invention proposes a configuration that solves these problems. In particular, in the present invention, the three-dimensional shading detection areas of the left and
<共通の三次元的遮光検出領域の定義>
まず、本発明において提案する構成は、例えば、図5Aと図5Bに示す、センサユニット1L及び1R夫々の三次元的遮光検出領域をいかに同一空間にするかということである。
<Definition of common 3D shading detection area>
First, the configuration proposed in the present invention is, for example, how to make the three-dimensional shading detection areas of the
このため、本発明では、次のような構成(特徴条件)を採用する。 For this reason, in the present invention, the following configuration (characteristic condition) is adopted.
2つのセンサユニットで構成される遮光型座標入力装置において、センサユニットのうち互いに一方のみが対向する再帰反射部の形状を、他方に関する三次元的遮光検出領域の前記一方のみが対向する再帰反射部に沿った面における断面に略等しくする。 In a light-shielding coordinate input device composed of two sensor units, a retroreflective portion in which only one of the three-dimensional light-shielding detection areas related to the other is shaped in the shape of a retroreflective portion in which only one of the sensor units faces each other. The cross section in the plane along
具体的には、センサユニット1Lに関わる三次元的遮光検出領域の左辺近傍における断面と、センサユニット1Rに対向し、かつセンサユニット1Lには対向しない再帰反射部4bの形状を略同一にする。
Specifically, the cross section in the vicinity of the left side of the three-dimensional shading detection region related to the
同様に、センサユニット1Rに関わる三次元的遮光検出領域の右辺近傍における断面と、センサユニット1Lに対向し、かつセンサユニット1Rには対向しない再帰反射部4aの形状を略同一にする。
Similarly, the cross section in the vicinity of the right side of the three-dimensional shading detection area related to the
実際に、このようにするためには、図2Aに示すように、例えば、再帰反射部4aの形状は、一方の端部の辺の延長が、対向しないセンサユニット1Rの第1の遮光検知窓と略一致する。また、他方の端部の辺がセンサユニット1L、センサユニット1Rが共通に対向する再帰反射部4cの端部の辺に略一致する。更に、再帰反射部4aの下辺は弓なりの形状で、中ほどの部分で座標入力面に近接(略一致ないし接近)するような形状であり、上辺は直線か、もしくは中ほどで下に下がる弓なりの形状である。
Actually, in order to do this, as shown in FIG. 2A, for example, the shape of the
また、再帰反射部4bの形状も同様に、一方の端部の辺の延長が、対向しないセンサユニット1Lの第1の遮光検知窓と略一致する。また、他方の端部の辺がセンサユニット1L、センサユニット1Rが共通に対向する再帰反射部4cの端部の辺に略一致する。更に、再帰反射部4bの下辺は弓なりの形状で、中ほどの部分で入力面に略一致ないし接近するような形状であり、上辺は直線か、もしくは中ほどで下に下がる弓なりの形状である。
Similarly, in the shape of the
このような形状にすることにより、共通の三次元的遮光検出領域は、周囲の断面は、それぞれの面の再帰反射部であって、かつ上面下面とも座標入力領域の中ほどで下に窪むような形状である。かつ、前記下面は座標入力領域の中ほどで、座標入力面に略接するないし接近するような形状で、成立することとなる。 By adopting such a shape, the common three-dimensional shading detection area is such that the surrounding cross-section is a retroreflective portion of each surface, and the upper and lower surfaces are depressed downward in the middle of the coordinate input area. Shape. In addition, the lower surface is formed in the middle of the coordinate input area and in a shape that substantially touches or approaches the coordinate input surface.
具体的には、図2Aの再帰反射部4a及び4bを、図示の形状にすることにより、図2Bに示す三次元的遮光検出領域、即ち、センサユニット1L及び1Rにおいて共通となる三次元的遮光検出領域を形成することができる。
Specifically, the
ここで、図2Bにおける縦じまの部分は、三次元的遮光検出領域の三次元的形状を分かりやすくするために付け加えた断面図であり、本発明において特別な意味をなす断面ではない。 Here, the vertical stripes in FIG. 2B are sectional views added for easy understanding of the three-dimensional shape of the three-dimensional shading detection region, and are not special in the present invention.
尚、図2Aに示すように、再帰反射部4cは長方形である。また、再帰反射部4a及び4bは同一形状で、両者の端部の辺とセンサユニットの検出位置を弓なりの形状でつなげたものであり、およそ中央部分付近において座標入力面にほぼ接する形状である。
In addition, as shown to FIG. 2A, the retroreflection part 4c is a rectangle. The
また、センサユニット1Lの上端は、再帰反射部4bの上辺の延長上にあり、下端は下辺の延長上にある。また、センサユニット1Rの上端は、再帰反射部4aの上辺の延長上にあり、下端は下辺の延長上にある。
The upper end of the
<三次元的遮光検出領域の断面形状>
次に、再帰反射部4a及び4bの形状、即ち、三次元的遮光検出領域の断面形状を決定する方法について説明する。
<Cross-sectional shape of three-dimensional shading detection area>
Next, a method for determining the shapes of the
既に述べたように、センサユニットの投光部から投光されて受光部に戻ってくる光は、図4に示すように、4つの光路、即ち、光路1〜光路4が想定される。
As already described, the light that is projected from the light projecting unit of the sensor unit and returned to the light receiving unit is assumed to have four optical paths, that is,
それぞれの光路について、その伝わる順をまとめると、以下のようになる。 The order of transmission for each optical path is summarized as follows.
光路1:投光 → 再帰反射 → 受光
光路2:投光 → 再帰反射 → 座標入力面反射 → 受光
光路3:投光 → 座標入力面反射 → 再帰反射 → 受光
光路4:投光 → 座標入力面反射 → 再帰反射 → 座標入力面反射 → 受光
次に、図17A〜図17Cと、図18A〜図18Cを用いて、これらの光路と遮光検出領域との関係を説明する。
Optical path 1: Projection → Retroreflection → Reception Optical path 2: Projection → Retroreflection → Coordinate input surface reflection → Reception Optical path 3: Projection → Coordinate input surface reflection → Retroreflection → Reception Optical path 4: Projection → Coordinate input surface reflection → Recursive reflection → Coordinate input surface reflection → Light reception Next, the relationship between these optical paths and the light shielding detection area will be described with reference to FIGS. 17A to 17C and FIGS. 18A to 18C.
図17A〜図17Cについては、光路1及び光路2を図中の上部に、光路3及び光路4を図中の下部に示している。また、図18A〜図18Cについては、光路1及び光路3を図中の上部に、光路2及び光路4を図中の下部に示している。
About FIG. 17A-FIG. 17C, the
ここに関連する全ての図について、投光側(投光部から再帰反射部まで)の有効な光通過領域を格子模様パターンで表現し、受光側(再帰反射部から受光部まで)の有効な光通過領域をグレーパターンで表現する。 For all the figures related here, the effective light passage area on the light emitting side (from the light projecting part to the retroreflective part) is expressed by a lattice pattern, and the effective light receiving side (from the retroreflective part to the light receiving part) is expressed. The light passage area is represented by a gray pattern.
センサユニットにおける投光部と受光部の位置関係に関して、図17Aは、投光部が受光部より高い位置にあり、両者の重なり部分がない場合を示している。図17Bは、投光部が受光部より高い位置にあり、両者の重なり部分がある場合を示している。図17Cは、投光部が受光部を高さ方向の位置で包含している場合を示している。 Regarding the positional relationship between the light projecting unit and the light receiving unit in the sensor unit, FIG. 17A shows a case where the light projecting unit is located higher than the light receiving unit and there is no overlapping portion between the two. FIG. 17B shows a case where the light projecting unit is at a higher position than the light receiving unit, and there is an overlapping portion between them. FIG. 17C illustrates a case where the light projecting unit includes the light receiving unit at a position in the height direction.
また、図18Aは、受光部が投光部より高い位置にあり、両者の重なり部分がない場合を示している。図18Bは、受光部が投光部より高い位置にあり、両者の重なり部分がある場合を示している。図18Cは、受光部が投光部を高さ方向の位置で包含している場合を示している。 FIG. 18A shows a case where the light receiving unit is at a higher position than the light projecting unit and there is no overlapping portion. FIG. 18B shows a case where the light receiving unit is at a higher position than the light projecting unit and there is an overlapping portion of both. FIG. 18C shows a case where the light receiving unit includes the light projecting unit at a position in the height direction.
これらの図を比較すると、図17A〜図17Cと、図18A〜図18Cでは、図示される格子模様パターンと、グレーパターンの位置が入れ替わること以外は、同じ形の図となる。 Comparing these figures, FIGS. 17A to 17C and FIGS. 18A to 18C are the same shape except that the positions of the lattice pattern and the gray pattern shown in FIG. 17 are interchanged.
次に、これらそれぞれの場合に、遮光が検知されるための指示具と光通過領域の位置関係を判定し、それらの判定結果を一般化し統合することにより、左右辺の遮光検出領域、即ち、三次元的遮光検出領域の左右辺近傍における断面形状を決定する。 Next, in each of these cases, the positional relationship between the indicator for detecting light shielding and the light passage region is determined, and by generalizing and integrating the determination results, the left and right light shielding detection regions, that is, A cross-sectional shape in the vicinity of the left and right sides of the three-dimensional shading detection area is determined.
説明のために、以下のように用語を定義する。 For the sake of explanation, terms are defined as follows.
遮光率0%境界線:所定の光路において、指示具を上から挿入していった時に、最初に遮光を検知し始める境界線。
遮光率100%境界線:所定の光路において指示具を上から挿入していった時に、遮光率が100%に至る境界線。
以下、それぞれの場合について説明する。 Hereinafter, each case will be described.
図17Aの上図には、光路1及び光路2を、下図は光路3及び光路4を示している。
17A shows the
図17Aの上図において、遮光率0%境界線は、2点鎖線で示す線分(Ref1,Led1)である。また、遮光率100%境界線は、点線で示す線分(Ref2,Led2)である。 In the upper diagram of FIG. 17A, the 0% light shielding rate boundary line is a line segment (Ref1, Led1) indicated by a two-dot chain line. Further, the 100% light shielding rate boundary line is a line segment (Ref2, Led2) indicated by a dotted line.
図17Aの上図において、線分(Ref2,Led2)より下の部分に、グレーパターン、即ち、光路1及び光路2の再帰反射→受光の部分が存在する。但し、線分(Ref2,Led2)において、投光側の光路が完全に遮断されているので、当該部分は遮光率100%境界線を決定するには直接関係ないといえる。
In the upper diagram of FIG. 17A, a gray pattern, that is, a retroreflective → light-receiving portion of the
図17Aの下図においては、遮光率0%境界線は、線分(Ref1,Sens1)と線分(Ref2’,Led1)とで決まる点線の部分である。また、遮光率100%境界線は、線分(Ref2,Sens1’)と線分(Ref1’,Led2)と、座標入力面3で決まる1点鎖線の部分である。
In the lower diagram of FIG. 17A, the 0% light shielding rate boundary line is a dotted line portion determined by the line segment (Ref1, Sens1) and the line segment (Ref2 ′, Led1). Further, the 100% light shielding rate boundary line is a line segment (
この1点鎖線より下の部分に、例えば、再帰反射側には投光側の光路、センサユニット側には受光側の光路が存在する。ここで、前者においては、1点鎖線において受光側が、後者においては、1点鎖線における投光側が完全に遮光される。これにより、それより下側の部分は、遮光率100%境界線を決定するのには直接関係ない。 In the portion below the one-dot chain line, for example, there is a light path on the light projecting side on the retroreflective side and a light path on the light receiving side on the sensor unit side. Here, in the former, the light-receiving side is completely shielded from the one-dot chain line, and in the latter, the light-projecting side in the one-dot chain line is completely shielded. As a result, the lower part is not directly related to determining the 100% light shielding rate boundary line.
実際には、これらの上下の図を両方考慮することにより、光路1〜4における遮光率100%境界線、遮光率0%境界線を決定する。
Actually, by considering both the upper and lower figures, the 100% light shielding rate boundary line and the
即ち、光路1〜4全体としての遮光率0%境界線は、光路1及び光路2(上図)の遮光率0%境界線と、光路3及び光路4(下図)の遮光率0%境界線の高い位置にある方で決定される。同様に、光路1〜4全体としての遮光率100%境界線は、光路1及び光路2(上図)の遮光率100%境界線と、光路3及び光路4(下図)の遮光率100%境界線の低い位置にある方で決定される。
In other words, the 0% light shielding rate boundary line of the
即ち、それぞれの光路において、投光側もしくは受光側の一方が少なくとも遮光され始める位置が、その場所における遮光率0%境界線である。また、投光側もしくは受光側の一方が完全に遮光される位置が、その場所における遮光率100%境界線である。 That is, in each optical path, a position where at least one of the light projecting side or the light receiving side begins to be shielded is a boundary line with a light shielding rate of 0% at that location. Further, the position where one of the light projecting side or the light receiving side is completely shielded is a boundary line with 100% light shielding rate at that place.
即ち、その場所で光路1〜4の中で、最も高い位置にある遮光率0%境界線が、その場所における光路1〜4全体としての遮光率0%境界線である。また、光路1〜4の中で最も低い位置にある遮光率100%境界線が、その場所における光路1〜4全体としての遮光率100%境界線である。
That is, the 0% light shielding rate boundary line at the highest position among the
図17Aでは、光路1〜4全体の遮光率0%境界線を2点鎖線、光路1〜4全体の遮光率100%境界線を1点鎖線で示している。同様に、図17B〜図18Cについても、光路1〜4全体の遮光率0%境界線を2点鎖線、光路1〜4全体の遮光率100%境界線を1点鎖線で示している。
In FIG. 17A, a boundary line with a light shielding rate of 0% for the
ここで、各図において、遮光率0%境界線、遮光率100%境界線は、図中のSens1、Sens2、Sens1’、Sens2’、Led1、Led2、Led1’、Led2’、及びRef1、Ref2、Ref1’、Ref2’の組み合せで表現される。
Here, in each figure, the
ここで、以下のように用語の定義を行う
Opt1 = higer(Led1,Sens1)
Opt2 = higer(Led2,Sens2)
Opt3 = lower(Led1,Sens1)
Opt3’= Opt3の鏡像
ここで、higer(*1,*2)は、*1と*2のZ方向に高い方の位置を選択するという演算式を示している。
Here, terms are defined as follows: Opt1 = higer (Led1, Sens1)
Opt2 = higer (Led2, Sens2)
Opt3 = lower (Led1, Sens1)
Here, higer (* 1, * 2) represents an arithmetic expression that selects a higher position in the Z direction of * 1 and * 2.
このように定義すると、図19Aに示すように、光路1〜4全体としての遮光率0%境界線は必ず線分(Ref1,Opt1)、遮光率100%境界線は必ず線分(Ref2,Q1,Q2,Opt2)となる。
When defined in this way, as shown in FIG. 19A, the 0% light shielding rate boundary line as a whole of the
ここで、図19B中に示すように、遮光率0%境界線、遮光率100%境界線とは別に、線分(Ref1,Q3,Opt1)を第3の遮光率境界線とする。これは、4つの光路1〜4のいずれもが有効な遮光率を発生する境界線である。即ち、遮光率0%境界線と第3の遮光率境界線の間では、光路1〜4の内の何れか一部が指示具の高さに応じて遮光される。また、第3の境界線より下では、光路1〜4の全てが指示具の高さに応じて遮光される。
Here, as shown in FIG. 19B, a line segment (Ref1, Q3, Opt1) is set as a third light shielding rate boundary line, separately from the
ここで、第1の遮光検知窓の定義として、その上端をOpt1、下端をOpt2とする。また、第1の遮光検知窓の座標入力有効領域3に対する鏡像となる、第2の遮光検知窓の定義として、その上端をOpt4’、下端をOpt3’とする。
Here, as the definition of the first light shielding detection window, the upper end is Opt1 and the lower end is Opt2. In addition, as the definition of the second light shielding detection window that is a mirror image of the coordinate input
このように定義すると、第1の遮光検知窓は、センサユニットの実像においての遮光検知窓を実態的に意味すると言うことができる。また、第2の遮光検知窓は、センサユニットの鏡像においての遮光検知窓を実態的に意味すると言うことができる。また、Opt3、Opt4、Ref1、Ref1’、Ref2、Ref2’及び交点位置Q1、Q2、Q3は、遮光検出領域を決定するパラメータ群ということができる。 If it defines in this way, it can be said that the 1st shading detection window actually means the shading detection window in the real image of a sensor unit. Moreover, it can be said that the 2nd light-shielding detection window actually means the light-shielding detection window in the mirror image of a sensor unit. Further, Opt3, Opt4, Ref1, Ref1 ', Ref2, Ref2' and the intersection positions Q1, Q2, Q3 can be referred to as parameter groups for determining the light shielding detection region.
以上のように構成することにより、図19Aの2点鎖線(遮光率0%境界線)と1点鎖線(遮光0%境界線)とで挟まれる領域として、三次元的遮光検出領域の断面形状を決定することができる。
By configuring as described above, the cross-sectional shape of the three-dimensional shading detection region as a region sandwiched between the two-dot chain line (the
換言すれば、複数のセンサユニット1L及び1Rの内、一方のセンサユニットが対向し、かつ他方のセンサユニットが対向しない再帰反射部の形状は、次の条件で規定される形状である。つまり、1)他方のセンサユニットと、2)他方のセンサユニットの座標入力有効領域に対する鏡像と、3)他方のセンサユニットが対向する再帰反射部と4)他方のセンサユニットが対向する再帰反射部の座標入力領域に対する鏡像とで規定される形状である。そして、この形状に対し、一方のセンサユニットが対向する再帰反射部に沿った断面の形状と略等しくなるように、三次元的遮光検出領域が定義される。
In other words, of the plurality of
より詳しくは、この断面の形状は、以下のように表現することができる。 More specifically, the shape of the cross section can be expressed as follows.
まず、その前提として、実像である第1の遮光検知窓の上端をOpt1、下端をOpt2とする。鏡像である第2の遮光検知窓の上端をOpt4’下端をOpt3’とする。第1の遮光検知窓の座標入力有効領域上の位置をOpt0とする。対向する再帰反射部の実像の上端をRef1、下端をRef2とする。再帰反射部の鏡像の上端をRef1’、下端をRef2’とする。再帰反射部の座標入力有効領域上の位置をRef0とする。 First, as the premise, the upper end of the first light-shielding detection window, which is a real image, is Opt1, and the lower end is Opt2. The upper end of the second light-shielding detection window, which is a mirror image, is Opt4 'and the lower end is Opt3'. The position of the first light shielding detection window on the coordinate input effective area is Opt0. Let Ref1 be the upper end of the real image of the retroreflective part facing, and Ref2 be the lower end. The upper end of the mirror image of the retroreflective portion is Ref1 ', and the lower end is Ref2'. The position of the retroreflective portion on the coordinate input effective area is Ref0.
また、線分Ref2−Opt3’と、線分Ref0−Opt0の交点をQ1とする。線分Ref1’−Opt2と、線分Ref0−Opt0の交点をQ2とする。線分Ref1−Opt3と、線分Ref2−Opt1’の交点をQ3とする。線分Ref2−Opt0と、線分Ref0_Opt2の交点をQ4とする。 Further, the intersection of the line segment Ref2-Opt3 'and the line segment Ref0-Opt0 is defined as Q1. Let Q2 be the intersection of the line segment Ref1'-Opt2 and the line segment Ref0-Opt0. The intersection of the line segment Ref1-Opt3 and the line segment Ref2-Opt1 'is defined as Q3. Let Q4 be the intersection of the line segment Ref2-Opt0 and the line segment Ref0_Opt2.
この場合、断面の上辺は、線分Ref1−Opt1より低く、かつ線分Ref1−Q3−Opt1より高い位置にある。また、断面の下辺は、線分Ref2−Q4−Opt2より低く、かつ線分Ref2−Q1−Q2−Opt2より高い位置にある。 In this case, the upper side of the cross section is lower than the line segment Ref1-Opt1 and higher than the line segment Ref1-Q3-Opt1. The lower side of the cross section is lower than the line segment Ref2-Q4-Opt2 and higher than the line segment Ref2-Q1-Q2-Opt2.
<現実的な断面形状>
ここで、例えば、図19A中の点Bにおける「指示具高さ 対 遮光率」特性を考えてみる。そこで、この「指示具高さ 対 遮光率」特性を図20に示す。
<Realistic cross-sectional shape>
Here, for example, consider the “indicator height vs. shading rate” characteristic at point B in FIG. 19A. Therefore, this “indicator height vs. shading rate” characteristic is shown in FIG.
上述したように、点Bにおいては、点B1(点Bにおける遮光率0%境界線の高さ)で遮光検知が始まり、点B4(点Bにおける遮光率0%境界線の高さ)で遮光率が100%に達することはたしかである。 As described above, at the point B, the light shielding detection starts at the point B1 (the height of the boundary line where the light shielding rate is 0% at the point B) and the light is shielded at the point B4 (the height of the boundary line where the light shielding rate is 0% at the point B). It is true that the rate reaches 100%.
しかしながら、点Bにおいては、点B1〜B4の間の部分区間ごとに、光路1〜4のそれぞれの遮光検知に対するかかわり方が異なる。例えば、点B1〜B2の部分では、遮光検知に関わる光路は、光路1〜4のうち二つのみである。また、ケースによって異なるがB2〜B3の部分よりも、B3〜B4の部分の方が遮光検知に関わる光路の数が少ない場合がある。
However, at the point B, the manner in which each of the
これらの関係により、点Bにおける実際の「指示具高さ 対 遮光率」は、図20に示すような曲線となる。即ち、B1〜B2の間とB3〜B4の間は比較的勾配が緩やかであり、B2〜B3の間は比較的勾配が急である。 Due to these relationships, the actual “indicator height vs. shading rate” at point B is a curve as shown in FIG. That is, the gradient between B1 and B2 and between B3 and B4 is relatively gentle, and the gradient between B2 and B3 is relatively steep.
図6A及び図6Bを用いて既に説明したように、本発明において、三次元的遮光検出領域の断面と、その断面に位置する再帰反射形状を略等しくするということは、次のようなことである。つまり、図6A及び図6Bで、実線で示す「指示具高さ 対 遮光率」曲線に対して、破線で示すところの「指示具高さ 対 遮光率」曲線を再帰反射形状を工夫することにより近づけて、その形状も合わせるということである。 As already described with reference to FIGS. 6A and 6B, in the present invention, the cross-section of the three-dimensional shading detection region and the retroreflective shape positioned in the cross-section are substantially equal to the following. is there. In other words, in FIG. 6A and FIG. 6B, by devising the retroreflective shape of the “indicator height vs. shading rate” curve shown by the broken line, the “indicator height vs. shading rate” curve shown by the solid line It means that the shape will be matched.
従って、この思想を、図20に当てはめると、次のようなことがいえる。つまり、実線で示す直線と破線で示す曲線を最も近いものにするためには、B1とB4、及びB2とB3をそれぞれ直線で結ぶのでなく、B1とB2、及びB3とB4の間の所定部分を直線で結ぶのが適切である。 Therefore, when this idea is applied to FIG. 20, the following can be said. In other words, in order to make the straight line indicated by the solid line and the curve indicated by the broken line closest to each other, instead of connecting B1 and B4 and B2 and B3 with a straight line, respectively, a predetermined portion between B1 and B2 and B3 and B4 It is appropriate to connect
即ち、図20の点H1_Bが現実的な意味での遮光率0%境界線に属し、点H2_Bが現実的な意味での遮光率100%境界線に属するとすると、次のようなことがいえる。つまり、図19Aにおいて、現実的な遮光率0%曲線は、同図の2点鎖線ではなく、両端の点、Ref1ないし、Opt1から離れるに従って、その2点鎖線よりも少し下側を通ることとなる。また、現実的な遮光率100%曲線は、同図の1点鎖線ではなく、両端の点、Ref2ないし、Opt2から離れるに従って、その1点鎖線よりも少し上側を通ることとなる。
That is, assuming that the point H1_B in FIG. 20 belongs to a boundary line with a light shielding rate of 0% in a practical sense and the point H2_B belongs to a boundary line with a light shielding rate of 100% in a practical sense, the following can be said. . That is, in FIG. 19A, a realistic
<共通の三次元的遮光検出領域の定義の拡張>
ここまで述べてきたように、本発明の構成は、例えば、センサユニット1L及び1R夫々の三次元的遮光検出領域をいかに同一空間にするかである。そのために、センサユニット1L及び1Rの内、互いに一方のみが対向する再帰反射部の形状を他方に関する三次元的遮光検出領域の前記一方のみが対向する再帰反射部に沿った面における断面に略等しくする。
<Extended definition of common 3D shading detection area>
As described so far, the configuration of the present invention is, for example, how to make the three-dimensional shading detection areas of the
具体的には、センサユニット1Lに関わる三次元的遮光検出領域の左辺近傍における断面と、センサユニット1Rに対向する再帰反射部4bの形状を略同一にする。同様に、センサユニット1Rに関わる三次元的遮光検出領域の右辺近傍における断面と、センサユニット1Lに対向する再帰反射部4aの形状を略同一にするということである。
Specifically, the cross section in the vicinity of the left side of the three-dimensional shading detection region related to the
従って、必ずしも図2Aのように、再帰反射部4a及び4bの形状は左右対称である必要はない。例えば、図21に示すように、夫々のセンサユニット1L及び1Rの高さが異なっている場合で、両者に共通の再帰反射部分4cの両端の高さが異なる構成でも良い。あるいは、図22に示すように、夫々のセンサユニット1L及び1Rの遮光検知窓の大きさが異なっている場合で、両者に共通の再帰反射部分4cの両端の高さが異なる構成でも良い。
Therefore, as shown in FIG. 2A, the shapes of the
また、上記2つのセンサユニットの場合に限らず、一般的に、図23に示すような、3個以上の複数のセンサユニットで構成される座標入力装置においても、同様のことが言える。 The same can be said for a coordinate input apparatus including three or more sensor units as shown in FIG. 23, not limited to the above two sensor units.
以上のように構成することにより、それぞれのセンサユニットに関する三次元的遮光検出領域は略同一共通の立体(三次元的立体形状)となり、夫々のセンサユニット1L及び1Rで観測される遮光影の深さ(遮光率)は、略同一の値として観測される。換言すれば、観測される光強度の変化率によって、指示具の高さ方向の位置の変化を検出することができる
以上、ここまで説明した条件は、あくまでも、指示具による入力があった場合にセンサユニットで観測される影の深さ(遮光率)が、全てのセンサユニットで略同じ値に観測できるということであり、正しい座標を算出するための条件ではない。
By configuring as described above, the three-dimensional shading detection areas for the respective sensor units become substantially the same solid (three-dimensional solid shape), and the depth of the shading shadow observed by the
即ち、正しい座標を算出するためには、座標入力面方向において、夫々の再帰反射部、夫々のセンサユニットが適正な関係で平面内に配置されていなければならないことは言うまでもない。 In other words, in order to calculate correct coordinates, it goes without saying that each retroreflecting unit and each sensor unit must be arranged in a plane in an appropriate relationship in the direction of the coordinate input surface.
本発明の実施形態1及び、後述する実施形態2は、もちろん、上記の条件をも満足するものである。
Of course,
<座標検出原理>
実施形態1における座標検出原理について説明する。
<Coordinate detection principle>
The coordinate detection principle in the first embodiment will be described.
図24は本発明の実施形態1の座標検出原理を説明するための図である。 FIG. 24 is a diagram for explaining the principle of coordinate detection according to the first embodiment of the present invention.
ここで、図24は、図1A(あるいは図2A)の座標入力装置を上方から見た場合の概略図となっている。また、以下で、図1A(あるいは図2A)や図24での説明では、必要に応じて、再帰反射部4a〜4cは、再帰反射部4と総称する。
Here, FIG. 24 is a schematic diagram when the coordinate input device of FIG. 1A (or FIG. 2A) is viewed from above. Further, hereinafter, in the description with reference to FIG. 1A (or FIG. 2A) and FIG. 24, the
<センサユニット1の詳細説明>
次に、センサユニット1L及び1R内の構成について、図25を用いて説明する。尚、ここでは、センサユニット1L及び1Rそれぞれが、光学ユニットL1及びL2と光学ユニットR1及びR2を内蔵する二眼構成の場合を例に挙げて説明する。
<Detailed description of
Next, the configuration in the
図25は本発明の実施形態1のセンサユニットの詳細構成を示す図である。 FIG. 25 is a diagram showing a detailed configuration of the sensor unit according to the first embodiment of the present invention.
図25において、101A及び101Bは、赤外光を発する赤外LEDであり、各々投光レンズ102A及び102Bによって、再帰反射部4に向けて略90°範囲に光を投光する。ここで、センサユニット1L及び1R中の投光部は、この赤外LED101A及び101Bと、投光レンズ102A及び102Bによって実現される。これにより、センサユニット1L及び1Rには、それぞれ2つの投光部が構成されることになる。
In FIG. 25, 101A and 101B are infrared LEDs which emit infrared light, and project light in a range of approximately 90 ° toward the
そして、投光部より投光された赤外光は、再帰反射部4により到来方向に再帰反射され、センサユニット1L及び1R中の受光部によって、その光を検出する。
Then, the infrared light projected from the light projecting unit is retroreflected in the arrival direction by the
受光部は、光線の視野を制限すると共に電気的なシールドをになうシールド部材105を設けた1次元のラインCCD104を備える。また、集光光学系としての受光用レンズ(例えば、fθレンズ)106A及び106B、入射光の入射方向を概略制限する絞り108A及び108B、及び可視光等の余分な光(外乱光)の入射を防止する赤外フィルター107A及び107Bを備える。
The light receiving unit includes a one-
そして、再帰反射部4によって反射された光は、赤外フィルター107A及び107B、絞り108A及び108Bを抜けて受光用レンズ106A及び106Bによって、ラインCCD104の検出素子110面上に集光される。これにより、センサユニット1L及び1Rには、それぞれ2つの受光部が構成されることになる。
The light reflected by the
部材103及び部材109は、投光部及び受光部を構成する光学部品を配置するとともに、投光部で投光した光が直接受光部に入射することを防ぐ、あるいは外来光をカットするための上フード103、下フード109として機能する。
The
尚、実施形態1においては、絞り108A及び108Bは下フード109に一体で成型されているが、別部品であってもよいことはいうまでもない。さらには、上フード103側に、絞り108A及び108Bと受光用レンズ106A及び106Bの位置決め部を設けても良い。これにより、投光部の発光中心に対する受光部の位置決めを容易にする構成(つまり、上フード103のみで、すべての主要な光学部品が配置される構成)に実現することも可能である。
In the first embodiment, the
図26Aは、図25の状態のセンサユニット1L(1R)を組み上げた状態を、正面方向(座標入力面に対し垂直方向)から見た図である。図26Aに示すように、センサユニット1L(1R)中の2つの投光部は、所定距離d離れた状態で、それぞれの主光線方向が略平行となるように配置されている。そして、これらは、各々の投光レンズ102A及び102Bによって、それぞれ略90°範囲に光を投光するように構成されている。
26A is a view of the assembled state of the
図26Bは、図26Aの太矢印で示される部分の断面図である。ここでは、赤外LED101A(101B)からの光は、投光レンズ102A(102B)により、座標入力面に略平行に制限された光束として、主に再帰反射部4に対して光が投光されるように構成している。
FIG. 26B is a cross-sectional view of the portion indicated by the thick arrow in FIG. 26A. Here, the light from the
一方、図26Cは、図26Aにおける赤外LED101A及び101B、投光レンズ102A及び102B、上フード103を取り除いた状態を、正面方向(座標入力面に対し垂直方向)から見た図である。
On the other hand, FIG. 26C is a view of the state in which the
ここで、実施形態1の場合、投光部と受光部は、座標入力面である座標入力有効領域3の垂直方向に対し重ねた配置構成(図26B参照)となっている。また、正面方向(座標入力面に対し垂直方向)から見て、投光部の発光中心と受光部の基準位置が一致する構造となっている。
Here, in the case of the first embodiment, the light projecting unit and the light receiving unit have an arrangement configuration (see FIG. 26B) that overlaps the vertical direction of the coordinate input
ここで、基準位置とは、角度を計測するための基準点位置に相当し、実施形態1にあっては絞り108A(108B)の位置であって、図中の光線が交差する点となる。
Here, the reference position corresponds to a reference point position for measuring an angle. In the first embodiment, the reference position is the position of the
従って、前述した通り、2つの投光部は所定距離d離れた状態で、それぞれの主光線方向略平行となるように配置されているので、2つの受光部も同様に所定距離d離れた状態で、かつ各々の光軸(光学的な対称軸)が略平行となるように構成されている。 Therefore, as described above, since the two light projecting portions are arranged so as to be substantially parallel to each other in the principal ray direction with a predetermined distance d apart, the two light receiving portions are similarly separated by the predetermined distance d. And each optical axis (optical symmetry axis) is substantially parallel.
また、投光部により投光された座標入力面に略平行な光束であって、面内方向に略90°方向に投光されている光は、再帰反射部4により光の到来方向に再帰反射される。その後、赤外フィルター107A(107B)、絞り108A(108B)、集光レンズ106A(106B)を経て、ラインCCD104の検出素子110面上に集光、結像することになる。
In addition, light that is approximately parallel to the coordinate input surface projected by the light projecting unit and is projected in a direction of approximately 90 ° in the in-plane direction is recursed in the light arrival direction by the
従って、ラインCCD104の出力信号は、反射光の入射角に応じた光量分布を出力することになるので、ラインCCD104を構成する各画素の画素番号が角度情報を示すことになる。
Accordingly, since the output signal of the
尚、図26Bに示す投光部と受光部の距離Lは、投光部から再帰反射部4までの距離に比べて十分に小さな値であり、距離Lを有していても十分な再帰反射光を受光部で検出することが可能な構成となっている。
Note that the distance L between the light projecting unit and the light receiving unit shown in FIG. 26B is sufficiently smaller than the distance from the light projecting unit to the
以上説明したように、センサユニット1L(1R)は、少なくとも2つの投光部と、各々の投光部で投光された光を各々検出する2つの受光部(実施形態1の場合、投光部が2組、受光部が2組)を有する構成である。
As described above, the
また、実施形態1にあっては、受光部の一部であるラインCCD104におけるライン状に配置された検出素子110の左側部分を第1受光部の集光領域、右側部分を第2受光部の集光領域としている。これにより、部品の共通化を図っているが、これに限定されるものでなく、各受光部毎に個別にラインCCDを設けてもよいことは言うまでもない。
Further, in the first embodiment, the left side portion of the
<制御・演算ユニットの説明>
制御・演算ユニット2とセンサユニット1L及び1Rの間では、主に、受光部内のラインCCD104用のCCD制御信号、CCD用クロック信号と出力信号、及び投光部内の赤外LED101A及び101Bの駆動信号がやり取りされている。
<Description of control / arithmetic unit>
Between the control /
ここで、制御・演算ユニット2の詳細構成について、図27を用いて説明する。
Here, a detailed configuration of the control /
図27は本発明の実施形態1の制御・演算ユニットの詳細構成を示すブロック図である。 FIG. 27 is a block diagram showing a detailed configuration of the control / arithmetic unit according to the first embodiment of the present invention.
CCD制御信号は、ワンチップマイコン等で構成される演算制御回路(CPU)21から出力され、ラインCCD104のシャッタタイミングやデータの出力制御等が行われる。
The CCD control signal is output from an arithmetic control circuit (CPU) 21 constituted by a one-chip microcomputer or the like, and shutter timing of the
尚、この演算制御回路21は、クロック発生回路(CLK)22からのクロック信号に従って動作する。また、CCD用のクロック信号は、クロック発生回路(CLK)22からセンサユニット1L及び1Rに送信されると共に、各センサユニット内部のラインCCD104との同期をとって各種制御を行うために、演算制御回路21にも入力されている。
The
投光部の赤外LED101A及び101Bを駆動するためのLED駆動信号は、演算制御回路21からLED駆動回路(不図示)を介して、対応するセンサユニット1L及び1Rの投光部内の赤外LED101A及び101Bに供給されている。
The LED drive signal for driving the
センサユニット1L及び1Rそれぞれの受光部内のラインCCD104からの検出信号は、A/Dコンバータ23に入力され、演算制御回路21からの制御によって、デジタル値に変換される。この変換されたデジタル値は、メモリ132に記憶され、指示具の角度計算に用いられる。そして、この計算された角度から座標値が算出され、外部端末にシリアルインタフェース7(例えば、USB、IEEE1394、RS232Cインタフェース等)を介して出力される。
Detection signals from the
また、指示具としてペンを用いる場合、ペンからのペン信号を受信するペン信号受信部5からは、ペン信号を復調したデジタル信号が出力される。その後、ペン信号検出回路としてのサブCPU24に入力され、ペン信号が解析された後、その解析結果が演算制御回路21に出力される。
When a pen is used as the pointing tool, the pen
<センサユニット1の光学配置に関する詳細説明>
図28は本発明の実施形態1の座標入力装置の光学的な配置を説明するための説明図である。
<Detailed description regarding optical arrangement of
FIG. 28 is an explanatory diagram for explaining the optical arrangement of the coordinate input device according to the first embodiment of the present invention.
図28では、特に、左側センサユニット1Lの配置について説明する。尚、右側センサユニット1Rについては、図中Y軸について左側センサユニット1Lと対称な関係にある以外は、その特徴は同一なので、その説明は省略する。
In FIG. 28, the arrangement of the
先に述べた通り、センサユニット1Lには、2組の投光部と受光部(光学ユニットL1及びL2)を有し、両者の光軸(光学的な対称軸であって、光線151、及び光線161に相当)は、略平行にかつ所定距離d離れて配置されている。また、センサユニット1Lは、そのセンサ面が、座標入力有効領域3の一辺に対し、θsだけ傾いた方向となるように配置されている。
As described above, the
また、センサユニット1L中の一方の投光部の投光範囲(もしくは受光部の検出角度範囲)を光線152及び光線153、もう一方のそれを光線162及び光線163と定義する。
Further, the light projecting range (or the detection angle range of the light receiving unit) of one light projecting unit in the
尚、センサユニット1Rには、2組の投光部と受光部(光学ユニットR1及びR2)を有している。
The
光線152及び光線153、もしくは光線162及び光線163で定義される2組の光学ユニット(投光部及び受光部)の有効視野範囲は略90°である。無論その範囲を、例えば、100°とすることも可能であるが、その有効視野範囲をより大きく設定、設計することは、例えば、光学ユニットを構成する光学部品(例えば、レンズ)の光学歪が大きくなり、安価に光学系を構成するという点で不利となる。
The effective visual field range of the two sets of optical units (light projecting unit and light receiving unit) defined by the
従って、各々の受光部で、投光された光を遮光する指示具の指示位置情報を得るためには、光線152及び光線163で定義される領域内に、座標入力有効領域を設定するのが好ましい形態である。そこで、座標入力有効領域を図示が如く領域171に設定すれば、センサユニット1L中の2組の受光部で、領域171中の指示具(遮光物体)の遮光位置を検出することが可能となる。
Accordingly, in order to obtain the pointing position information of the pointing tool that blocks the projected light at each light receiving unit, it is necessary to set the coordinate input effective area within the area defined by the
しかしながら、このように設定することで、例えば、各部品を内蔵した座標入力装置の筐体172と座標入力可能な領域171の関係で決まる筐体枠が大きくなり、操作可能な領域に比べ、座標入力装置全体の大きさが大きくなってしまうという課題が生じる。この課題を解決するためには、センサユニット1L(1R)の形状を小さくすることはいうまでも無く、さらには、光線151及び光線161で定義される2組の光学ユニット(投光部及び受光部)の所定距離dをより小さくするのが好ましい。
However, by setting in this way, for example, the housing frame determined by the relationship between the
実施形態1の座標入力装置にあっては、座標入力有効領域3と筐体172で決まる筐体枠を極力小さくするために、センサユニット1L(1R)中の一方の受光部は、座標入力有効領域3の全ての領域を有効視野に収めている。これに対し、もう一方の受光部は、図中領域173で定義される領域が有効視野外となる設定となっている。
In the coordinate input device according to the first embodiment, in order to make the housing frame determined by the coordinate input
さて、距離dは、指示具が座標入力有効領域3の左右端部ないし上端部にあるときに、指示具の方向から見た投影成分、即ち、d*cos(θL−θs)が、指示具の半径と略等しくなるよう構成されている。
The distance d is determined by the projection component viewed from the direction of the pointing tool when the pointing tool is at the left or right end or upper end of the coordinate input
このようにすることにより、図28において、背後の指示具が図中の光線151及び光線161の間の領域に完全に入り込んでしまうことがないように構成されている。
By doing so, in FIG. 28, the pointing tool behind is configured not to completely enter the region between the
<座標算出の手順>
実施形態1は、例えば、図28中の光学ユニットL1、L2、R2、R1夫々から得られる光強度分布を取得する。そして、この光強度分布から夫々の光学ユニットで得られる、影の数、影の位置(角度)を算出する。そして、センサユニット1Lを構成する光学ユニットL1/L2と、センサユニット1Rを構成する光学ユニットR1/R2から得られる4種類の組み合わせ、即ち、(L1,R1)、(L1,R2)、(L2,R1)及び(L2,R2)を順番に選択する。
<Coordinate calculation procedure>
In the first embodiment, for example, the light intensity distribution obtained from each of the optical units L1, L2, R2, and R1 in FIG. 28 is acquired. Then, the number of shadows and the position (angle) of the shadow obtained by each optical unit are calculated from this light intensity distribution. Then, four types of combinations obtained from the optical unit L1 / L2 constituting the
次に、それぞれの組み合わせにおいて、座標候補点の確定ないし座標候補点の重複状況の確定を行い、その中から、適切な光学ユニットの組み合わせを選定する。これにより、座標候補点の中から、実入力点を判定(所謂、虚実判定)し、最終的に、2つの入力座標を決定する。 Next, in each combination, the coordinate candidate points are determined or the overlapping situation of the coordinate candidate points is determined, and an appropriate combination of the optical units is selected from them. Thereby, an actual input point is determined from so-called coordinate candidate points (so-called true / false determination), and finally two input coordinates are determined.
以降、(L1,R1)、(L1,R2)、(L2,R1)及び(L2,R2)の4通りの組み合わせを、「LR光学ユニット組み合わせ」ないし「LR組み合わせ」と表現する。
次に、実施形態1における座標算出処理について、図29を用いて説明する。
Hereinafter, the four combinations (L1, R1), (L1, R2), (L2, R1), and (L2, R2) are expressed as “LR optical unit combinations” or “LR combinations”.
Next, the coordinate calculation process in
図29は本発明の実施形態1の座標入力装置が実行する座標算出処理を示すフローチャートである。 FIG. 29 is a flowchart showing coordinate calculation processing executed by the coordinate input device according to the first embodiment of the present invention.
まず、ステップS101で、光学ユニットL1、L2、R1及びR2の各光学ユニットにおける光強度分布データを取得する。次に、ステップS102で、取得した光強度分布データより、各光学ユニットが検出する影(遮光影)の数、影の位置(角度)を算出する。 First, in step S101, light intensity distribution data in each optical unit of the optical units L1, L2, R1, and R2 is acquired. Next, in step S102, the number of shadows (light-shielding shadows) detected by each optical unit and the position (angle) of the shadows are calculated from the acquired light intensity distribution data.
次に、「LR組み合わせ」及び各光学ユニットが検出する影数に基づいて、各光学ユニットにおける影数の検出状態を判定する。その、その判定結果に基づいて、座標算出に用いる座標候補点を確定する座標候補点確定ルーチン(ステップS103〜ステップS114)を実行する。 Next, based on the “LR combination” and the number of shadows detected by each optical unit, the detection state of the number of shadows in each optical unit is determined. Based on the determination result, a coordinate candidate point determination routine (step S103 to step S114) for determining a coordinate candidate point used for coordinate calculation is executed.
特に、実施形態1では、各光学ユニットにおける影数の検出状態として、以下の4種類について考慮する。尚、(Ln,Rm)(n=1、2、m=1、2)に対する影数の組み合わせを、[X−Y](X=1、2、Y=1、2)と表現する。 In particular, in the first embodiment, the following four types are considered as the detection state of the number of shadows in each optical unit. The combination of the number of shadows for (Ln, Rm) (n = 1, 2, m = 1, 2) is expressed as [XY] (X = 1, 2, Y = 1, 2).
検出状態[1]:全てのLR組み合わせにおいて、影数が[1−1]である。 Detection state [1]: The number of shadows is [1-1] in all LR combinations.
検出状態[2]:[2−2]のLR組み合わせが2つ以上存在する。 Detection state [2]: There are two or more LR combinations of [2-2].
検出状態[3]:[2−2]のLR組み合わせと[2−1]のLR組み合わせが存在する。 Detection state [3]: There is an LR combination of [2-2] and an LR combination of [2-1].
検出状態[4]:[2−1]のLR組み合わせが2つ存在する。 Detection state [4]: There are two LR combinations of [2-1].
実施形態1では、各光学ユニットにおける影数の検出状態を判定する(ステップS103〜ステップS105、ステップS108及びステップS109)。次に、その判定した検出状態に応じて予め定義された座標算出方法[1]〜[4]で座標算出を行う(ステップS110〜ステップS113)。そして、座標算出結果を出力する(ステップS114)。一方、上記の検出状態のいずれも判定されない場合は、座標検出が不可能であると判定して、処理を終了する(ステップS106あるいはステップS109)。 In the first embodiment, the detection state of the number of shadows in each optical unit is determined (steps S103 to S105, step S108, and step S109). Next, coordinate calculation is performed by the coordinate calculation methods [1] to [4] defined in advance according to the determined detection state (steps S110 to S113). Then, the coordinate calculation result is output (step S114). On the other hand, if none of the above detection states is determined, it is determined that coordinate detection is impossible, and the process ends (step S106 or step S109).
以下、座標算出方法[1]〜[4]それぞれの詳細について説明する。 The details of each of the coordinate calculation methods [1] to [4] will be described below.
座標算出方法[1](ステップS110:検出状態[1]の場合)
検出状態[1]の場合とは、単一入力がなされている場合である。この場合、どのLR組み合わせでも座標算出を実行することが可能であるが、例えば、(L1,R1)の光学ユニット組み合わせにおいて、後述する<座標算出処理(1)>によって座標算出を実行する。
Coordinate calculation method [1] (in the case of step S110: detection state [1])
The case of the detection state [1] is a case where a single input is made. In this case, coordinate calculation can be executed with any LR combination. For example, in the optical unit combination of (L1, R1), coordinate calculation is executed by <coordinate calculation processing (1)> described later.
座標算出方法[2](ステップS111:検出状態[2]の場合)
検出状態[2]の場合とは、LR組み合わせ(L1,R1)、(L1,R2)、(L2,R1)及び(L2,R2)の中から2組以上[2−2]が存在する場合である。
Coordinate calculation method [2] (in the case of step S111: detection state [2])
The detection state [2] means that there are two or more pairs [2-2] from among the LR combinations (L1, R1), (L1, R2), (L2, R1), and (L2, R2). It is.
この中から2つの組を選択し、其々から得られる4座標候補点を比較する。 Two sets are selected from these, and the four coordinate candidate points obtained from each are compared.
ここで、具体例として、(L1,R1)と(L2,R1)が[2−2]である場合を、図30及び図31を用いて説明する。 Here, as a specific example, the case where (L1, R1) and (L2, R1) are [2-2] will be described with reference to FIGS.
図30は(L1,R1)の組み合わせから、後述する<座標算出処理(1)>に基づいて、P11,P12,P21,P22を決定する。同様に、図31は(L2,R1)の組み合わせから、後述する<座標算出処理(2)>に基づいて、P’11,P’12,P’21,P’22を決定する。 In FIG. 30, P11, P12, P21, and P22 are determined from the combination of (L1, R1) based on <coordinate calculation processing (1)> described later. Similarly, in FIG. 31, P′11, P′12, P′21, and P′22 are determined from the combination of (L2, R1) based on <Coordinate calculation processing (2)> described later.
ここで、それぞれのLR組み合わせから得られた4座標候補点の値を比較する。 Here, the values of the four coordinate candidate points obtained from the respective LR combinations are compared.
この中で、現実に入力された座標に基づく座標候補点は、どちらのLR組み合わせにおいても原理的に同じ座標となる。一方、現実に入力された座標に基づかない座標(いわゆる、虚像としての座標候補点)は、光学ユニット位置のオフセットの影響で夫々の組み合わせにおいて異なった座標となる。 Among them, the coordinate candidate points based on the actually input coordinates are the same in principle in both LR combinations. On the other hand, coordinates that are not based on the actually input coordinates (so-called coordinate candidate points as virtual images) are different in each combination due to the offset of the optical unit position.
従って、それぞれのLR組みあわせから得られた4座標候補点の値を比較して、その比較結果が略一致した座標候補点が、2入力点の真実の座標値であるとして決定することができる。 Therefore, by comparing the values of the four coordinate candidate points obtained from the respective LR combinations, it is possible to determine that the coordinate candidate point whose comparison result substantially matches is the true coordinate value of the two input points. .
尚、図30及び図31の例では、P11,P22が現実の入力に基づく2入力点として決定されている。 In the example of FIGS. 30 and 31, P11 and P22 are determined as two input points based on actual inputs.
座標算出方法[3](ステップS112:検出状態[3]の場合)
検出状態[3]とは、[2−2]のLR組み合わせと[2−1]のLR組み合わせが存在する場合である。
Coordinate calculation method [3] (step S112: detection state [3])
The detection state [3] is a case where the LR combination [2-2] and the LR combination [2-1] exist.
ここで、具体例として、(L1,R2)が[2−2],(L1,R1)が[2−1]の場合を、図32及び図33を用いて説明する。 Here, as a specific example, the case where (L1, R2) is [2-2] and (L1, R1) is [2-1] will be described with reference to FIGS.
図32は(L1,R2)の組み合わせから、後述する<座標算出処理(2)>に基づいて、P11,P12,P21,P22を決定する。同様に、図33は(L1,R1)の組み合わせから、後述する<座標算出処理(1)>に基づいて、PP1,PP2を決定する。
ここで、図32におけるP11,P12,P21,P22のなかで、(P11,P22)または(P12,P21)のどちらかの内、図33における(PP1,PP2)に相対的に近い座標候補点を選択し、それらを2入力点の座標値の組として決定する。
In FIG. 32, P11, P12, P21, and P22 are determined from the combination of (L1, R2) based on <coordinate calculation processing (2)> described later. Similarly, FIG. 33 determines PP1 and PP2 from the combination of (L1, R1) based on <coordinate calculation processing (1)> described later.
Here, among P11, P12, P21, and P22 in FIG. 32, one of (P11, P22) and (P12, P21), which is a coordinate candidate point relatively close to (PP1, PP2) in FIG. And determine them as a set of coordinate values of two input points.
尚、図32及び図33の例では、P12,P21が現実の入力に基づく2入力点として決定されている。 In the example of FIGS. 32 and 33, P12 and P21 are determined as two input points based on actual inputs.
座標算出方法[4](ステップS113:検出状態[4]の場合)
検出状態[4]とは、[2−1]のLR組み合わせが2つ存在する場合である。
Coordinate calculation method [4] (in the case of step S113: detection state [4])
The detection state [4] is a case where there are two LR combinations of [2-1].
ここで、具体例として、(L1,R1)と(L1,R2)が[2−1]である場合を、図34及び図35を用いて説明する。 Here, as a specific example, the case where (L1, R1) and (L1, R2) are [2-1] will be described with reference to FIGS.
図34においては、光学ユニットR1から検出される重複した1つの影の両端の略中心部分を近似的に1つの角度θRとして扱い、<座標算出処理(2)>に基づいて、PP1、PP2を決定する。あるいは、図35においては、光学ユニットR2から検出される重複した1つの影の両端の略中心部分を近似的に1つの角度θRとして扱い、<座標算出処理(3)>に基づいて、PP’1、PP’2を決定する。 In FIG. 34, the substantially central portions of both ends of one overlapping shadow detected from the optical unit R1 are approximately treated as one angle θR, and PP1 and PP2 are represented based on <coordinate calculation processing (2)>. decide. Alternatively, in FIG. 35, approximately the center portions at both ends of one overlapping shadow detected from the optical unit R2 are approximately treated as one angle θR, and PP ′ is based on <coordinate calculation process (3)>. 1. Determine PP′2.
そして、通常は、図35に示すように、影の重複率の高い方の組み合わせを採用した方が、このような近似的な計算の場合には良好な算出結果が得られる。 In general, as shown in FIG. 35, when the combination with the higher shadow overlap rate is employed, a better calculation result can be obtained in the case of such approximate calculation.
以上のような、座標算出方法[1]〜[4]のいずれかで算出された1入力点ないし2入力点の座標算出結果は、外部端末にシリアルインタフェース7を介して出力され、画像表示装置等の出力装置にカーソルの動きないし軌跡として表示される。
The coordinate calculation result of one input point or two input points calculated by any one of the coordinate calculation methods [1] to [4] as described above is output to the external terminal via the
次に、座標算出処理(1)〜(3)の処理内容の詳細について説明する。 Next, details of the contents of the coordinate calculation processes (1) to (3) will be described.
<座標算出処理(1)>
ここでは、光学ユニットL1及びR1の組み合わせによって座標を算出する座標算出処理(1)について、図36を用いて説明する。
<Coordinate calculation process (1)>
Here, a coordinate calculation process (1) for calculating coordinates by a combination of the optical units L1 and R1 will be described with reference to FIG.
図36のセンサユニット1L及び1Rにおいて、座標入力有効領域3に対し、左右外側の光学ユニットが光学ユニット(L1、R1)となる。また、左右内側の光学ユニットが光学ユニット(L2、R2)となる。
In the
そして、各光学ユニットから得られる角度データは、対応するセンサユニットから見てY軸下方向を0°とし、内側に向かって、かつ左右対象な方向に角度が大となるように定義する。また、各光学ユニットが存在する座標位置をP(L1),P(L2),P(R1),P(R2)とする。 The angle data obtained from each optical unit is defined so that the Y axis downward direction is 0 ° when viewed from the corresponding sensor unit, and the angle increases inward and in the left and right target directions. In addition, the coordinate positions where each optical unit exists are P (L1), P (L2), P (R1), and P (R2).
そして、例えば、光学ユニットL1及びR1から得られる角度データに基づいて座標を算出する場合、点Oを原点として、図示のように、X及びY方向を決める、以下のような関数Xt、Ytを定義する。 For example, when calculating coordinates based on the angle data obtained from the optical units L1 and R1, the following functions Xt and Yt are used to determine the X and Y directions as shown in the figure with the point O as the origin. Define.
Xt(θL-45,θR-45)
=(tan(θL-45)-tan(θR-45))/[2*(1-tan(θL-45)*tan(θR-45))] (120)
Yt(θL-45 , B-45)
=(-1)*[(1-tan(θL-45))*(1-tan(θR-45))
/(2*(1-tan(θL-45)*tan(θR-45)))-0.5] (121)
このように定義すると、図36の点Oを原点としたときの点P(X,Y)の座標は、
X = DLR*Xt(θL-45,θR-45) (122)
Y = DLR*Yt(θL-45,θR-45) (123)
となる。
Xt (θL-45, θR-45)
= (tan (θL-45) -tan (θR-45)) / [2 * (1-tan (θL-45) * tan (θR-45))] (120)
Yt (θL-45, B-45)
= (-1) * [(1-tan (θL-45)) * (1-tan (θR-45))
/(2*(1-tan(θL-45)*tan(θR-45)))-0.5] (121)
When defined in this way, the coordinates of the point P (X, Y) when the point O in FIG.
X = DLR * Xt (θL-45, θR-45) (122)
Y = DLR * Yt (θL-45, θR-45) (123)
It becomes.
<座標算出処理(2)>
ここでは、光学ユニットL2とR1の組み合わせによって座標を算出する座標算出処理(2)について、図37を用いて説明する。
<Coordinate calculation process (2)>
Here, a coordinate calculation process (2) for calculating coordinates by a combination of the optical units L2 and R1 will be described with reference to FIG.
図37において、指示具の指示位置をP’とする。また、直線P(L1)−P(R1)と直線P(L2)−P’の交点をS’とする。 In FIG. 37, the pointing position of the pointing tool is P ′. Further, an intersection of the straight line P (L1) -P (R1) and the straight line P (L2) -P 'is defined as S'.
図37において、3点S’,P(R1),O’の位置関係からP’の座標を算出することは、図36で、3点P(L1),P(R1),OからPの座標を算出することと同等である。ここで、ベクトルO’P’をO’→P’、そのX成分を(O’→P’)x、Y成分を(O’→P’)yと表記し、式(120)及び(121)を用いると、
(O'→P')x = (DLR-ΔD)*Xt(θL-45,θR-45) (130)
(O'→P')y = (DLR-ΔD)*Yt(θL-45,θR-45) (131)
となる。
In FIG. 37, the calculation of the coordinates of P ′ from the positional relationship between the three points S ′, P (R1), and O ′ is performed from the three points P (L1), P (R1), and O to P in FIG. Equivalent to calculating coordinates. Here, the vector O′P ′ is expressed as O ′ → P ′, the X component is expressed as (O ′ → P ′) x, the Y component is expressed as (O ′ → P ′) y, and the equations (120) and (121) are expressed. )
(O '→ P') x = (DLR-ΔD) * Xt (θL-45, θR-45) (130)
(O '→ P') y = (DLR-ΔD) * Yt (θL-45, θR-45) (131)
It becomes.
ここで、図37より
ΔD = Sx+Sy*tan(θL) (132)
但し、Sx=d*cos(θs),Sy=d*sin(θs) (133)
さらに、図37から明らかなように
(O→O')x = ΔD/2 (134)
(O→O')y = (-1)*ΔD/2 (135)
となる。これにより、点Oを原点としたP’の座標は、(O→P')=(O→O')+(O→P')のX成分とY成分として算出することができる。
Here, from FIG. 37, ΔD = Sx + Sy * tan (θL) (132)
However, Sx = d * cos (θs), Sy = d * sin (θs) (133)
Furthermore, as apparent from FIG.
(O → O ') x = ΔD / 2 (134)
(O → O ') y = (-1) * ΔD / 2 (135)
It becomes. Thus, the coordinates of P ′ with the point O as the origin can be calculated as the X component and the Y component of (O → P ′) = (O → O ′) + (O → P ′).
ここで、同様に、光学ユニットL1、光学ユニットR2の組み合わせによって座標を算出する場合には、上述のX成分のみ符号を変えれば、同様に算出することができる。 Here, similarly, when the coordinates are calculated by the combination of the optical unit L1 and the optical unit R2, the calculation can be similarly performed by changing only the above-mentioned X component.
<座標算出処理(3)>
ここでは、光学ユニットL2及びR2の組み合わせによって座標を算出する座標算出処理(3)について、図38を用いて説明する。
<Coordinate calculation process (3)>
Here, a coordinate calculation process (3) for calculating coordinates by a combination of the optical units L2 and R2 will be described with reference to FIG.
図38において、3点P(L2),P(R2),O’’の位置関係からP’’の座標を算出することは、図36で、3点P(L1),P(R1),OからPの座標を算出することと同等である。ここで、ベクトルO’’P’’をO’’→P’’、そのX成分を(O’’→P’’)x、Y成分を(O’’→P’’)yと表記し、式(120)及び(121)を用いると、
(O''→P'')x = (DLR-2*Sx)*Xt(θL-45,θR-45) (141)
(O''→P'')y = (DLR-2*Sx)*Yt(θL-45,θR-45) (142)
となる。また、図38から明らかなように、
(O→O'')x = 0 (143)
(O→O'')y=(-1)*(Sx+Sy) (144)
となる。
In FIG. 38, calculating the coordinates of P ″ from the positional relationship of the three points P (L2), P (R2), and O ″ is shown in FIG. 36 as three points P (L1), P (R1), It is equivalent to calculating the coordinates of P from O. Here, the vector O ″ P ″ is expressed as O ″ → P ″, the X component is expressed as (O ″ → P ″) x, and the Y component is expressed as (O ″ → P ″) y. Using the equations (120) and (121),
(O '' → P '') x = (DLR-2 * Sx) * Xt (θL-45, θR-45) (141)
(O '' → P '') y = (DLR-2 * Sx) * Yt (θL-45, θR-45) (142)
It becomes. As is clear from FIG.
(O → O ″) x = 0 (143)
(O → O ″) y = (-1) * (Sx + Sy) (144)
It becomes.
これにより、点Oを原点としたP’’の座標は、(O→P'')=(O→O'')+(O→P'')のX成分とY成分として算出することができる。 As a result, the coordinates of P ″ with the point O as the origin can be calculated as the X and Y components of (O → P ″) = (O → O ″) + (O → P ″). it can.
以上のように、実施形態1では、LR組み合わせのすべてにおいて座標を算出することができる。 As described above, in the first embodiment, coordinates can be calculated for all LR combinations.
以上説明したように、実施形態1によれば、座標入力有効領域の周囲に配置する再帰反射部を、上述の特徴条件及び式(1)及び(2)を満足するように構成する。これにより、同一の入力に伴って、夫々のセンサユニットにて検出される影が、夫々のセンサユニットにおいて、レベル(遮光比率)の差をもって検知されることを防止する。また、常に互いに略同一のレベル(遮光比率)で検知されることが可能となる。 As described above, according to the first embodiment, the retroreflecting unit arranged around the coordinate input effective area is configured to satisfy the above-described feature condition and the expressions (1) and (2). This prevents a shadow detected by each sensor unit with the same input from being detected with a difference in level (light shielding ratio) in each sensor unit. In addition, detection can always be performed at substantially the same level (light shielding ratio).
これにより、単一入力時には、入力座標を検出しそこなうことを防止し、複数の入力時には、入力座標と異なる、誤った座標を検出して入力座標の数を誤ることを防止することができる。特に、指示具が入力に伴って遮光入力領域への入る際と出る際において、発生頻度が高くなる上記問題を回避して、安定した座標入力を実現することができる。 Accordingly, it is possible to prevent the input coordinates from being missed at the time of a single input, and to prevent an erroneous number of input coordinates from being detected by detecting wrong coordinates different from the input coordinates at the time of a plurality of inputs. In particular, when the pointing tool enters and exits the light-shielding input area with input, it is possible to avoid the above-mentioned problem that the frequency of occurrence is high and to realize stable coordinate input.
<実施形態2>
実施形態2は、実施形態1の図2Aに示す構成に対し、図39に示すように、センサユニット1Cを新たに追加した構成について説明する。
<
In the second embodiment, a configuration in which a
図39では、P12及びP21点に複数入力を行った場合を示している。 FIG. 39 shows a case where a plurality of inputs are performed at points P12 and P21.
この場合、図40(a)のように、センサユニット1Lにおいて、θL1、θL2の位置に影が検出される。また、図40(b)のように、センサユニット1Rにおいて、θR1、θR2の位置に影が検出される。更に、図40(c)のように、センサユニット1Cにおいて、θC1、θC4の位置に影が検出される。この3組の角度データをもとに、4つの座標候補点P11、P12、P21及びP22が算出される。そして、これらの座標候補点の中から、何らかの手段によって虚実判定することにより、例えば、P11、P22は実像であり、P12、P21が虚像であることが判別され、座標入力点を決定することになる。
In this case, as shown in FIG. 40A, a shadow is detected at the positions of θL1 and θL2 in the
また、図39に示すセンサユニット1Cは、センサユニット1Lや1Rとほぼ同等の構成であるが、内蔵する光学ユニット(受光部及び投光部)の構造が異なる。具体的には、センサユニット1L及び1Rの座標入力面内方向の視野範囲がおよそ90度であるのに対し、センサユニット1Cの視野範囲はおよそ180度である。
The
最も重要なことは、センサユニット1L、1R及び1Cと、座標入力有効領域3の周囲に配置される再帰反射部の構成において、実施形態1におけるセンサユニット1L、1Rと同様の条件を満足することである。つまり、両者の関わる三次元的遮光検出領域が、略同一共通のものであるという条件を満足することである。
The most important thing is that the
さらに、実施形態2では、センサユニット1Cに関する三次元的遮光検出領域が、センサユニット1L及び1Rの共通三次元遮光検出領域を包含することである。この場合は、センサユニット1Cに関する三次元遮光検出領域と、センサユニット1L及び1Rに関する三次元遮光検出領域を一致させる必要はなく、あくまでも前者が後者を包含すれば良い。
Furthermore, in the second embodiment, the three-dimensional shading detection area related to the
このように構成することにより、指示具によって入力が行われた場合に、センサユニット1L、1Rの夫々で観測される遮光影の深さ(遮光率)が略同一の値として観測される。これにより、2つの座標を入力したときに、座標候補点を誤って検出することなく、正しく検出することができる。また、センサユニット1Cの三次元的遮光検出領域が、センサユニット1L及び1Rのそれを包含しているので、座標候補点の影は、センサユニット1Cで必ず観測される。そして、この観測される影に対応する角度により、座標候補点から真の座標を選択することができる。
With this configuration, when input is performed by the pointing tool, the depth (light shielding ratio) of the light shielding shadow observed by each of the
従って、常に、センサユニット1L、1R及び1Cの関係から正しい座標検出を行うことができる。特に、指示具が座標入力有効領域に対して入力を行う入り際、または終了する出る際においても、遮光影を誤認識することなく安定した座標算出を実行することができる。
Therefore, correct coordinate detection can always be performed from the relationship between the
実施形態2においては、センサユニット1L及び1Rで座標候補点を検出し、センサユニット1Cで検知される影との位置関係によって、座標候補点の中から、実入力点を判定(所謂、虚実判定)し、最終的に、2つの入力座標を決定する。
In the second embodiment, the coordinate candidate points are detected by the
例えば、図39では、センサユニット1L及び1Rにより、4つの座標候補点P11,P12,P21,P22が観測される。そして、これらの座標候補点の中で、センサユニット1Cによって、所定方向に観測される座標候補点が、実入力点の座標候補点であり、これらが最終的に2つの入力座標として出力される。特に、図39の場合では、センサユニット1Cにおいて、θC1、θC4の影のみが観測されるので、P11とP22が実入力点の座標となる。
For example, in FIG. 39, four coordinate candidate points P11, P12, P21, and P22 are observed by the
以下、実施形態2における座標算出処理について、図41を用いて説明する。 Hereinafter, the coordinate calculation process according to the second embodiment will be described with reference to FIG.
図41は本発明の実施形態2の座標入力装置が実行する座標算出処理を示すフローチャートである。 FIG. 41 is a flowchart showing coordinate calculation processing executed by the coordinate input device according to the second embodiment of the present invention.
まず、ステップS201で、センサユニット1L、1R及び1Cにおける光強度分布データを取得する。次に、取得した光強度分布データより、各センサユニットが検出する影(遮光影)の数、影の位置(角度)を算出する。
First, in step S201, light intensity distribution data in the
次に、各センサユニットが検出する影数に基づいて、各センサユニットにおける影数の検出状態を判定し、その判定結果に基づいて、座標算出に用いる座標候補点を確定する座標候補点確定ルーチン(ステップS202〜ステップS208)を実行する。 Next, based on the number of shadows detected by each sensor unit, a detection state of the number of shadows in each sensor unit is determined, and based on the determination result, a coordinate candidate point determination routine for determining coordinate candidate points used for coordinate calculation (Steps S202 to S208) are executed.
特に、実施形態2では、各センサユニットにおける影数の検出状態として、以下の3種類について考慮する。尚、実施形態2では、センサユニット1Lとセンサユニット1Rに対に影数の組み合わせを、[X−Y](X=1、2、Y=1、2)と表現する。
In particular, in the second embodiment, the following three types are considered as the detection state of the number of shadows in each sensor unit. In the second embodiment, the combination of the number of shadows for the
検出状態[1]:センサユニット1Lとセンサユニット1Rによって決定される影数が[1−1]である。
Detection state [1]: The number of shadows determined by the
検出状態[2]:センサユニット1Lとセンサユニット1Rによって決定される影数が[2−2]である。
Detection state [2]: The number of shadows determined by the
検出状態[3]:センサユニット1Lとセンサユニット1Rによって決定される影数が[2−1]である。
Detection state [3]: The number of shadows determined by the
実施形態2では、センサユニット1Lとセンサユニット1Rにおける影数の検出状態を判定する(ステップS202〜ステップS204)。次に、その判定した検出状態に応じて予め定義された座標算出方法[5a]〜[5c]で座標算出を行う(ステップS205〜ステップS207)。そして、座標算出結果を出力する(ステップS208)。一方、上記の検出状態のいずれも判定されない場合は、座標検出が不可能であると判定して、処理を終了する(ステップS209)。
In the second embodiment, the detection state of the number of shadows in the
以下、座標算出方法[5a]〜[5c]それぞれの詳細について説明する。 Hereinafter, the details of each of the coordinate calculation methods [5a] to [5c] will be described.
座標算出方法[5a](ステップS205:検出状態[1]の場合)
検出状態[1]の場合とは、単一入力がなされている場合である。この場合、実施形態1で説明した<座標算出処理(1)>によって座標算出を実行する。
Coordinate calculation method [5a] (in the case of step S205: detection state [1])
The case of the detection state [1] is a case where a single input is made. In this case, the coordinate calculation is executed by the <coordinate calculation process (1)> described in the first embodiment.
座標算出方法[5b](ステップS206:検出状態[2]の場合)
検出状態[2]の場合とは、センサユニット1L及び1Rで[2−2]となる場合である。
Coordinate calculation method [5b] (in the case of step S206: detection state [2])
The case of the detection state [2] is a case where the
この場合、実施形態1で説明した<座標算出処理(1)>によって、得られる4座標候補点の座標値を算出する。また、夫々の座標候補点をセンサユニット1Cから観測した場合の角度を予め計算する。
In this case, the coordinate values of the obtained four coordinate candidate points are calculated by the <coordinate calculation process (1)> described in the first embodiment. Further, the angle when each coordinate candidate point is observed from the
この中で、実際にセンサユニット1Cで観測された影の角度と略位置しているものを2つの入力座標として採用する。
Among these, what is substantially positioned with the shadow angle actually observed by the
座標算出方法[5c](ステップS206:検出状態[3]の場合)
検出状態[3]の場合とは、センサユニット1L及び1Rで[2−1]となる場合である。
Coordinate calculation method [5c] (in the case of step S206: detection state [3])
The case of the detection state [3] is a case where the
この場合は、重複している方の影の両端の略中央の角度上に2つの入力座標が存在すると近似して、夫々他方の二つの影と組み合わせて、実施形態1で説明した<座標算出処理(1)>に基づいて、座標を決定する。尚、センサユニット1Cが検出する光強度分布データは、虚実判定には用いず、決定した座標値の精度を向上させるための検算用に用いる。
In this case, it is approximated that there are two input coordinates on the substantially central angle at both ends of the overlapping shadow, and each of them is combined with the other two shadows in the <coordinate calculation described in the first embodiment. Coordinates are determined based on processing (1)>. The light intensity distribution data detected by the
以上説明したように、実施形態2によれば、実施形態1で説明した効果に加えて、センサユニット1Cを構成することにより、より効率良くかつ精度良く、座標算出に係る虚実判定を実現することができる。
As described above, according to the second embodiment, in addition to the effects described in the first embodiment, by configuring the
以上、実施形態例を詳述したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。 Although the embodiment has been described in detail above, the present invention can take an embodiment as, for example, a system, apparatus, method, program, or storage medium. Specifically, the present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of a single device.
尚、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図に示すフローチャートに対応したプログラム)を、システムあるいは装置に直接あるいは遠隔から供給する。そして、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。 In the present invention, a software program (in the embodiment, a program corresponding to the flowchart shown in the drawing) that realizes the functions of the above-described embodiments is directly or remotely supplied to a system or apparatus. This includes the case where the system or the computer of the apparatus is also achieved by reading and executing the supplied program code.
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。 Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。 In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.
プログラムを供給するための記録媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスクがある。また、更に、記録媒体としては、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などがある。 Examples of the recording medium for supplying the program include a floppy (registered trademark) disk, a hard disk, and an optical disk. Further, as a recording medium, magneto-optical disk, MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R), etc. is there.
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、その接続先のホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。 As another program supply method, a browser on a client computer is used to connect to an Internet home page. Then, the computer program of the present invention itself or a compressed file including an automatic installation function can be downloaded from a homepage of the connection destination to a recording medium such as a hard disk. It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, the present invention includes a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer.
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。 In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. Let It is also possible to execute the encrypted program by using the key information and install the program on a computer.
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。また、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。 Further, the functions of the above-described embodiments are realized by the computer executing the read program. Further, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can be realized by the processing.
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現される。 Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.
1L、1R センサユニット
2 演算・制御ユニット
3 座標入力有効領域
4a〜4c 再帰反射部
5 ペン信号受信部
1L,
Claims (7)
前記座標入力領域に対し光を投光する投光部と、到来光を受光する受光部とを備える複数のセンサ手段と、
入射光を再帰的に反射する複数の再帰反射手段と、
指示手段による指示によって、前記複数のセンサ手段それぞれから得られる、光量分布に基づいて、前記指示手段の指示位置の座標を算出する算出手段とを備え、
前記複数のセンサ手段に関わる三次元的遮光検出領域が、前記座標入力領域に対応する共通の三次元的立体形状であり、かつ前記三次元的遮光検出領域は、観測される光強度の変化率によって、前記指示手段の高さ方向の位置の変化が検出できる三次元的領域として定義され、
前記複数のセンサ手段の内、一方のセンサ手段が対向し、かつ他方のセンサ手段が対向しない前記再帰反射手段の形状は、
前記他方のセンサ手段と、
前記他方のセンサ手段の前記座標入力領域に対する鏡像と、
前記他方のセンサ手段が対向する前記再帰反射手段と、
前記他方のセンサ手段が対向する前記再帰反射手段の前記座標入力領域に対する鏡像とで規定される形状であり、
この形状に対し、前記一方のセンサ手段が対向する再帰反射手段に沿った断面の形状に対応する三次元的立体として、前記三次元的立体形状が定義される
ことを特徴とする座標入力装置。 A coordinate input device for detecting a designated position on a coordinate input area,
A plurality of sensor means comprising: a light projecting unit that projects light to the coordinate input region; and a light receiving unit that receives incoming light;
A plurality of retroreflective means for recursively reflecting incident light;
Calculation means for calculating the coordinates of the indicated position of the instruction means based on the light amount distribution obtained from each of the plurality of sensor means by an instruction by the instruction means;
The three-dimensional shading detection area related to the plurality of sensor means has a common three-dimensional solid shape corresponding to the coordinate input area, and the three-dimensional shading detection area is a rate of change in observed light intensity. Is defined as a three-dimensional region in which a change in position in the height direction of the indicating means can be detected ,
Of the plurality of sensor means, one sensor means faces and the other sensor means does not face the shape of the retroreflective means,
The other sensor means;
A mirror image of the other sensor means with respect to the coordinate input area;
The retroreflective means facing the other sensor means;
A shape defined by a mirror image of the retroreflective means facing the coordinate input area of the other sensor means;
The coordinate input device according to claim 1 , wherein the three-dimensional solid shape is defined as a three-dimensional solid corresponding to the shape of a cross section along the retroreflective means opposed to the one sensor means .
鏡像である第2の遮光検知窓の上端をOpt4’下端をOpt3’、
前記第1の遮光検知窓の前記座標入力領域上の位置をOpt0、
対向する前記再帰反射手段の実像の上端をRef1、下端をRef2、
前記再帰反射手段の鏡像の上端をRef1’、下端をRef2’、
前記再帰反射手段の前記座標入力領域上の位置をRef0、
線分Ref2−Opt3’と、線分Ref0−Opt0の交点をQ1、
線分Ref1’−Opt2と、線分Ref0−Opt0の交点をQ2、
線分Ref1−Opt3と、線分Ref2−Opt1’の交点をQ3、
線分Ref2−Opt0と、線分Ref0_Opt2の交点をQ4、
とする場合、
前記断面の上辺は、線分Ref1−Opt1より低く、かつ線分Ref1−Q3−Opt1より高い位置にあり、
前記断面の下辺は、線分Ref2−Q4−Opt2より低く、かつ線分Ref2−Q1−Q2−Opt2より高い位置にある
ことを特徴とする請求項1に記載の座標入力装置。 The upper end of the first light-shielding detection window, which is a real image, is Opt1, the lower end is Opt2,
The upper end of the second light-shielding detection window that is a mirror image is Opt4 ′, the lower end is Opt3 ′,
The position of the first light shielding detection window on the coordinate input area is Opt0,
Ref1 is the upper end of the real image of the retroreflective means facing, Ref2 is the lower end,
The upper end of the mirror image of the retroreflective means is Ref1 ′, the lower end is Ref2 ′,
The position of the retroreflective means on the coordinate input area is Ref0,
The intersection of the line segment Ref2-Opt3 ′ and the line segment Ref0-Opt0 is defined as Q1,
The intersection of the line segment Ref1′-Opt2 and the line segment Ref0-Opt0 is defined as Q2,
The intersection of the line segment Ref1-Opt3 and the line segment Ref2-Opt1 ′ is defined as Q3,
The intersection of the line segment Ref2-Opt0 and the line segment Ref0_Opt2 is defined as Q4,
If
The upper side of the cross-section is at a position lower than the line segment Ref1-Opt1 and higher than the line segment Ref1-Q3-Opt1;
The coordinate input device according to claim 1, wherein the lower side of the cross section is located at a position lower than the line segment Ref2-Q4-Opt2 and higher than the line segment Ref2-Q1-Q2-Opt2.
前記Opt2は、前記センサ手段の投光部の投光範囲である投光窓の下端と、受光部の受光範囲である受光窓の下端の高い方を選択したものであり、
前記Opt4’は、前記センサ手段の投光部の投光範囲である投光窓の下端と、受光部の受光範囲である受光窓の下端の低い方の選択結果の前記座標入力領域に対する鏡像であり、
前記Opt3’は、前記センサ手段の投光部の投光範囲である投光窓の上端と、受光部の受光範囲である受光窓の上端の低い方の選択結果の前記座標入力領域に対する鏡像である
ことを特徴とする請求項2に記載の座標入力装置。 The Opt1 is selected from the higher one of the upper end of the light projecting window that is the light projecting range of the light projecting unit of the sensor means and the upper end of the light receiving window that is the light receiving range of the light receiving unit,
The Opt 2 is a higher one of the lower end of the light projecting window that is the light projecting range of the light projecting unit of the sensor means and the lower end of the light receiving window that is the light receiving range of the light receiving unit,
The Opt4 ′ is a mirror image of the coordinate input region of the lower selection result of the lower end of the light projecting window that is the light projecting range of the light projecting unit of the sensor means and the lower end of the light receiving window that is the light receiving range of the light receiving unit. Yes,
The Opt3 ′ is a mirror image of the coordinate input region of the selection result of the lower of the upper end of the light projecting window that is the light projecting range of the light projecting unit of the sensor means and the upper end of the light receiving window that is the light receiving range of the light receiving unit. The coordinate input device according to claim 2 , wherein:
前記複数の再帰反射手段は、前記座標入力領域の前記一辺を除く辺に設けられ、
前記複数のセンサ手段の内、一方のセンサ手段が対向し、かつ他方のセンサ手段が対向しない再帰反射手段の形状は、その再帰反射手段の1つの端部の延長上に、前記他方のセンサ手段の遮光検知窓が一致するような、もう1つの再帰反射手段の端部の辺が、前記複数のセンサ手段で共通に対向する再帰反射手段の端部の辺に一致するような、かつ少なくとも下辺が弓なりの形状である
ことを特徴とする請求項1に記載の座標入力装置。 The plurality of sensor means are provided at both ends of one side of the coordinate input area,
The plurality of retroreflective means are provided on a side excluding the one side of the coordinate input area,
Of the plurality of sensor means , one of the sensor means faces and the other sensor means does not face the shape of the retroreflective means , and the other sensor means has an extension of one end of the retroreflective means. The end side of the other retroreflective means such that the light-shielding detection windows coincide with each other coincides with the end side of the retroreflective means opposed in common by the plurality of sensor means, and at least the lower side The coordinate input device according to claim 1, wherein is a bow shape.
ことを特徴とする請求項4に記載の座標入力装置。 The light-shielding detection window has an upper end at the upper end of a light projection window that is a portion that contributes to effective light projection in the sensor means, and a higher end of the light reception window that is a portion that effectively contributes to light reception, and The coordinate input device according to claim 4 , wherein the coordinate input device is a part of a range determined by setting a lower end of the light projection window and a lower end of the light receiving window as a lower end.
ことを特徴とする請求項1に記載の座標入力装置。 The coordinate input device according to claim 1, wherein the sensor unit includes one optical unit including the light projecting unit and the light receiving unit.
ことを特徴とする請求項1に記載の座標入力装置。 The coordinate input device according to claim 1, wherein the sensor unit includes two optical units including the light projecting unit and the light receiving unit.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005264426A JP4484796B2 (en) | 2005-09-12 | 2005-09-12 | Coordinate input device |
US11/401,389 US7538894B2 (en) | 2005-04-15 | 2006-04-11 | Coordinate input apparatus, control method thereof, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005264426A JP4484796B2 (en) | 2005-09-12 | 2005-09-12 | Coordinate input device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2007079744A JP2007079744A (en) | 2007-03-29 |
JP2007079744A5 JP2007079744A5 (en) | 2008-09-11 |
JP4484796B2 true JP4484796B2 (en) | 2010-06-16 |
Family
ID=37940008
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005264426A Active JP4484796B2 (en) | 2005-04-15 | 2005-09-12 | Coordinate input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4484796B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI423100B (en) * | 2010-10-20 | 2014-01-11 | Pixart Imaging Inc | Optical sensing system |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI386835B (en) * | 2009-06-17 | 2013-02-21 | Pixart Imaging Inc | Sensing system and method for obtaining position of pointer thereof |
JP5412868B2 (en) * | 2009-02-23 | 2014-02-12 | エプソンイメージングデバイス株式会社 | POSITION DETECTION DEVICE, ELECTRO-OPTICAL DEVICE, AND ELECTRONIC DEVICE |
CN102402339B (en) * | 2010-09-07 | 2014-11-05 | 北京汇冠新技术股份有限公司 | Touch positioning method, touch screen, touch system and display |
GB2486445B (en) * | 2010-12-14 | 2013-08-14 | Epson Norway Res And Dev As | Camera-based multi-touch interaction apparatus system and method |
WO2014076993A1 (en) * | 2012-11-14 | 2014-05-22 | 日本電気株式会社 | Interface device and input reception method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001084108A (en) * | 1999-09-13 | 2001-03-30 | Ricoh Co Ltd | Device for inputting and detecting and displaying coordinate |
JP2001331265A (en) * | 2000-05-19 | 2001-11-30 | Ricoh Co Ltd | Coordinate detecting device |
-
2005
- 2005-09-12 JP JP2005264426A patent/JP4484796B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001084108A (en) * | 1999-09-13 | 2001-03-30 | Ricoh Co Ltd | Device for inputting and detecting and displaying coordinate |
JP2001331265A (en) * | 2000-05-19 | 2001-11-30 | Ricoh Co Ltd | Coordinate detecting device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI423100B (en) * | 2010-10-20 | 2014-01-11 | Pixart Imaging Inc | Optical sensing system |
Also Published As
Publication number | Publication date |
---|---|
JP2007079744A (en) | 2007-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7538894B2 (en) | Coordinate input apparatus, control method thereof, and program | |
JP4455391B2 (en) | Coordinate input device, control method therefor, and program | |
JP4522113B2 (en) | Coordinate input device | |
JP4455392B2 (en) | Coordinate input device, control method therefor, and program | |
JP4757144B2 (en) | Coordinate input device, control method therefor, and program | |
JP4429047B2 (en) | Coordinate input device, control method therefor, and program | |
JP4442877B2 (en) | Coordinate input device and control method thereof | |
EP3005047B1 (en) | Optical proximity sensors | |
CN102063230B (en) | Optical imaging touch sensing system and imaging method | |
JP4484796B2 (en) | Coordinate input device | |
JP4590296B2 (en) | Coordinate input device | |
JP4590295B2 (en) | Coordinate input device, control method therefor, and program | |
JP4546224B2 (en) | Coordinate input method and apparatus | |
JP2003186616A (en) | Information input device, information input and output system, program, and recording medium | |
JP2006099273A (en) | Coordinate input device and its method | |
JP5865053B2 (en) | Coordinate input device, control method of coordinate input device, and program | |
JP5717514B2 (en) | Coordinate input device, control method therefor, and program | |
JP2007072508A (en) | Coordinate input device and control method and program therefor | |
JP2006251878A (en) | Device and program for inputting coordinate, and coordinate input control method | |
JP2006251877A (en) | Coordinate input device | |
JP2016045527A (en) | Coordinate input device, control method of the same and program thereof | |
JP2016045528A (en) | Coordinate input device, control method of the same and program thereof | |
JP2015170294A (en) | Coordinate input device, control method therefore, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080728 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100105 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100319 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100323 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4484796 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130402 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130402 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140402 Year of fee payment: 4 |