[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2000322201A - Coordinate input device - Google Patents

Coordinate input device

Info

Publication number
JP2000322201A
JP2000322201A JP12640199A JP12640199A JP2000322201A JP 2000322201 A JP2000322201 A JP 2000322201A JP 12640199 A JP12640199 A JP 12640199A JP 12640199 A JP12640199 A JP 12640199A JP 2000322201 A JP2000322201 A JP 2000322201A
Authority
JP
Japan
Prior art keywords
coordinate input
light
coordinate
input
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP12640199A
Other languages
Japanese (ja)
Other versions
JP2000322201A5 (en
Inventor
Katsuyuki Omura
克之 大村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP12640199A priority Critical patent/JP2000322201A/en
Publication of JP2000322201A publication Critical patent/JP2000322201A/en
Publication of JP2000322201A5 publication Critical patent/JP2000322201A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain a coordinate input device where the variance of detection precision in a coordinate input face is eliminated and the error of the detection angle hardly has an influence upon the detection precision of coordinates. SOLUTION: The coordinate input device is provided with a coordinate input face 50 and plural electronic cameras 4a and 4b, which detect a finger or the like designating a point on the coordinate input face and input the position of the designated point, and detects angles formed between lines passing the finger and electronic cameras 4a and 4b and the line passing electronic cameras 4a and 4b with respect to at least two electronic cameras and calculates two-dimensional coordinates of the point designated by the finger on the basis of detected angles and a distance W between electronic cameras used for angle detection. In this coordinate input device, a non-input area G where electronic cameras do not accept the point input with a finger is provided between electronic cameras 4a and 4b used for angle detection and the coordinate input face 50.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、座標入力装置に係
り、特に所定の領域内にペンや指などで指定された位置
の座標を入力する座標入力装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a coordinate input device, and more particularly to a coordinate input device for inputting coordinates of a position designated by a pen or a finger into a predetermined area.

【0002】[0002]

【従来の技術】現在、オペレータが指やペンなどを使っ
て所定の面に触れることにより面上の位置を指定し、こ
の位置の座標を検出して入力する、いわゆるタッチパネ
ル式の座標入力装置がある。このような座標入力装置
は、電子黒板やパーソナルコンピュータ(パソコン)に
用いられ、パネルやディスプレイ面といった座標入力・
検出領域(以下、単に座標入力面と記す)と一体化して
構成されている。
2. Description of the Related Art At present, there is a so-called touch panel type coordinate input device in which an operator specifies a position on a surface by touching a predetermined surface with a finger or a pen, and detects and inputs coordinates of the position. is there. Such a coordinate input device is used for an electronic blackboard or a personal computer (PC), and is used for inputting coordinates on a panel or a display surface.
It is configured integrally with a detection area (hereinafter simply referred to as a coordinate input surface).

【0003】従来の座標入力装置としては、ペンが座標
入力面に触れたことによって静電的、あるいは電磁誘導
によって生じる電気的な変化を検出するものや、座標入
力面の表面に表面弾性波として超音波を送出し、座標入
力面に触れたことによるその減衰を検出する超音波方式
のもの(特開昭61−239322号公報)が知られて
いる。また、本発明の出願人によっても、三角測量の手
法を用いた光学式の座標入力装置(特願平10−127
035号)が提案されている。光学式の座標入力装置に
よれば、比較的簡単な構成の座標入力装置が実現でき
る。
A conventional coordinate input device detects an electrostatic change caused by touching a coordinate input surface with a pen or an electric change caused by electromagnetic induction, or generates a surface acoustic wave on a surface of the coordinate input surface. There is known an ultrasonic type (Japanese Patent Laid-Open No. 61-239322) which transmits an ultrasonic wave and detects the attenuation caused by touching a coordinate input surface. Also, the applicant of the present invention has proposed an optical coordinate input device using a triangulation method (Japanese Patent Application No. 10-127).
No. 035) has been proposed. According to the optical coordinate input device, a coordinate input device having a relatively simple configuration can be realized.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記し
た従来の座標入力装置のうち、電気的な変化を検出する
構成のものは、座標入力面に電気的なスイッチ機能を設
ける必要があるため、製造コストが高価になる。また、
座標入力装置が組み込まれた装置本体とペンとをつなぐ
ケーブルがあるためにペンの操作性が損なわれるといっ
た問題があった。また、超音波方式のものは、座標入力
面に指で触れることを前提にして構成されている。この
ため、弾性を持つペンなどを使って座標入力面に触れる
と、触れた時点では安定に座標の検出が行えるものの、
ペンを移動させて線を入力しようとすると、座標入力面
との充分な接触が得られずに線が途中で切れてしまうこ
とがあった。このような場合、ペンをさらに座標入力面
に強く押しつけると、ペンがたわんで応力が発生する。
このため、ペンを座標入力面に押しつける力が弱まるペ
ン移動時には、やはりペンと座標入力装置との接触が弱
まって、線が途切れることを防ぐことはできなかった。
However, among the above-described conventional coordinate input devices, those having a configuration for detecting an electrical change require the provision of an electrical switch function on the coordinate input surface, and therefore, are not manufactured. The cost becomes high. Also,
There is a problem that the operability of the pen is impaired because there is a cable for connecting the pen with the apparatus main body in which the coordinate input device is incorporated. Further, the ultrasonic type is configured on the premise that a coordinate input surface is touched with a finger. For this reason, when you touch the coordinate input surface with an elastic pen or the like, the coordinates can be detected stably at the time of touch,
When trying to input a line by moving the pen, the line may be cut off halfway without obtaining sufficient contact with the coordinate input surface. In such a case, if the pen is further pressed against the coordinate input surface, the pen is bent and a stress is generated.
For this reason, when moving the pen in which the force pressing the pen against the coordinate input surface is weakened, the contact between the pen and the coordinate input device is weakened, and it is impossible to prevent the line from being broken.

【0005】さらに、特願平10−127035号のよ
うな座標入力装置は、前述した方式の座標入力装置が有
する課題は解決できるものの、現在、以下に述べる課題
を残している。すなわち、三角測量法に基づいて入力さ
れた座標を検出する座標入力装置では、この原理上、座
標の検出精度が座標入力面内でばらつきを持つことが知
られている。例えば、座標入力面を四角形とし、この一
辺の両端にそれぞれ一つずつ座標入力面上の点を指定す
るペンなどを検出するセンサを備えた場合を考える。
[0005] Further, the coordinate input device as disclosed in Japanese Patent Application No. 10-127035 can solve the problems of the coordinate input device of the above-mentioned method, but presently has the following problems. That is, in a coordinate input device that detects coordinates input based on a triangulation method, it is known that the detection accuracy of the coordinates varies in the coordinate input plane on this principle. For example, consider a case where the coordinate input surface is a quadrangle, and a sensor for detecting a pen or the like that designates a point on the coordinate input surface is provided at each end of one side.

【0006】このようなセンサを備えた座標入力装置で
は、検出したペンの位置を自身との角度から求めるよう
になっている。このため、センサが検出した角度に誤差
が生じると、この誤差は、センサが備えられた辺の近く
にある点の座標検出時、遠くの点の座標算出時よりも大
きく影響することになる。また、センサが備えられた辺
のごく近くにある点の座標検出時にあっては、三角測量
法に基づく演算結果が発散し、座標の検出ができないこ
とがある。したがって、三角測量法を用いた座標入力装
置では、センサの取り付け位置や角度に高い精度が要求
され、また、その検出能力には高い安定性が要求されて
いた。
In a coordinate input device provided with such a sensor, the position of the detected pen is obtained from the angle with itself. For this reason, if an error occurs in the angle detected by the sensor, the error has a greater effect when detecting the coordinates of a point near the side provided with the sensor than when calculating the coordinates of a distant point. Also, when detecting the coordinates of a point very close to the side provided with the sensor, the calculation result based on the triangulation method may diverge and the coordinates may not be detected. Therefore, in a coordinate input device using the triangulation method, high accuracy is required for a mounting position and an angle of a sensor, and high stability is required for its detection capability.

【0007】本発明は、上記の点に鑑みてなされたもの
であり、座標入力面内での検出精度のばらつきをなく
し、また、検出角度の誤差が座標の検出精度に影響し難
い座標入力装置を提供することを目的とするものであ
る。
SUMMARY OF THE INVENTION The present invention has been made in view of the above points, and eliminates variations in detection accuracy in a coordinate input plane. In addition, a coordinate input apparatus in which a detection angle error hardly affects the coordinate detection accuracy. The purpose is to provide.

【0008】[0008]

【課題を解決するための手段】上記の課題は、以下の手
段によって解決できる。すなわち、請求項1記載の発明
は、平面状の座標入力・検出領域と、座標入力・検出領
域上にある点を指定する指定部材を検出し、指定された
点の位置を入力する複数の指定点入力手段と、指定点入
力手段と指定部材とを通る直線と、指定点入力手段を通
る直線とがなす角度を、少なくとも2つの指定点入力手
段についてそれぞれ検出する角度検出手段と、角度検出
手段によって検出された角度と、角度検出に用いられた
指定点入力手段間の距離とに基づいて、指定部材が指定
した点の2次元座標を算出する座標算出手段とを有して
なり、角度検出に用いられた指定点入力手段と座標入力
・検出領域との間に、指定点入力手段が指定部材による
点の入力を受け付けない非入力領域を設けることを特徴
とするものである。
The above objects can be attained by the following means. That is, according to the first aspect of the present invention, a plurality of designations for detecting a planar coordinate input / detection area and a designated member that designates a point on the coordinate input / detection area and inputting the position of the designated point are provided. An angle detecting means for detecting, for at least two designated point input means, an angle formed by a point input means, a straight line passing through the designated point input means and the designated member, and a straight line passing through the designated point input means; Coordinate calculating means for calculating two-dimensional coordinates of a point designated by the designated member based on the angle detected by the angle detection and the distance between designated point input means used for angle detection. A non-input area is provided between the designated point input means and the coordinate input / detection area used in the above, where the designated point input means does not accept point input by the designated member.

【0009】このように構成することにより、座標入力
・検出領域のうち、特に検出精度の低い部位に入力され
た点については、この座標の算出を避けることができ
る。
With this configuration, it is possible to avoid calculating the coordinates of a point input to a part having a particularly low detection accuracy in the coordinate input / detection area.

【0010】請求項2記載の発明は、非入力領域が、座
標入力・・検出領域との境界線と角度検出に用いられた
指定点入力手段同士を通る直線との最短距離で表される
所定の幅を有し、所定の幅は、角度検出に用いられた指
定点入力手段間の距離の0.06倍以上であることを特
徴とするものである。
According to a second aspect of the present invention, the non-input area is a predetermined distance represented by a shortest distance between a boundary between the coordinate input / detection area and a straight line passing through designated point input means used for angle detection. And the predetermined width is at least 0.06 times the distance between the designated point input means used for angle detection.

【0011】このように構成することにより、指定点入
力手段の取り付け位置によらず、最適な非検出領域の幅
を設定することができる。
With this configuration, it is possible to set the optimum width of the non-detection area regardless of the mounting position of the designated point input means.

【0012】請求項3記載の発明は、座標入力・検出領
域と非同一面上に前記非検出領域設けると共に、指定部
材を検出するための信号を、前記非入力領域に平行で、
かつ前記座標入力手段に向くように偏向する検出信号偏
向手段をさらに有することを特徴とするものである。
According to a third aspect of the present invention, the non-detection area is provided on the same plane as the coordinate input / detection area, and a signal for detecting a designated member is provided in parallel with the non-input area.
And a detection signal deflecting means for deflecting the light so as to face the coordinate input means.

【0013】このように構成することにより、非検出領
域を座標入力・検出領域に設けなくて良く、座標入力・
検出領域をより広くとることができる。
With this configuration, the non-detection area does not need to be provided in the coordinate input / detection area, and the coordinate input / detection area is not required.
The detection area can be made wider.

【0014】請求項4記載の発明は、平面状の座標入力
・検出領域と、前記座標入力・検出領域の略全域に光を
照射する複数の発光手段と、発光手段から照射された光
を、発光手段に向けて反射する反射部材と、反射部材で
反射された光を受光できる位置に設けられた複数の受光
手段とを有し、座標入力・検出領域上において、発光手
段が照射した光が受光手段に受光されることを妨げる光
遮蔽部材の位置を座標として入力する座標入力装置であ
って、発光手段と光遮蔽部材とを通る直線と、発光手段
を通る直線とがなす角度を、少なくとも2つの発光手段
についてそれぞれ検出する角度検出手段と、角度検出手
段によって検出された角度と、角度検出に用いられた発
光手段間の距離とに基づいて、光遮蔽部材の位置を示す
2次元座標を算出する座標算出手段とを有してなり、角
度検出に用いられた発光手段と座標入力・検出領域との
間に、光遮蔽部材による座標入力を受け付けない非入力
領域を設けることを特徴とするものである。
According to a fourth aspect of the present invention, there is provided a planar coordinate input / detection area, a plurality of light emitting means for irradiating substantially the entire area of the coordinate input / detection area, and light emitted from the light emitting means. It has a reflecting member that reflects toward the light emitting means, and a plurality of light receiving means provided at positions where the light reflected by the reflecting member can be received, and on the coordinate input / detection area, light emitted by the light emitting means A coordinate input device for inputting, as coordinates, a position of a light shielding member that prevents light from being received by a light receiving unit, and a straight line passing through the light emitting unit and the light shielding member, and an angle formed by a straight line passing through the light emitting unit, at least. Two-dimensional coordinates indicating the position of the light shielding member are determined based on the angle detecting means for detecting each of the two light emitting means, the angle detected by the angle detecting means, and the distance between the light emitting means used for angle detection. Calculation And a non-input area that does not accept a coordinate input by the light shielding member is provided between the light emitting means used for angle detection and the coordinate input / detection area. It is.

【0015】このように構成することにより、発光した
光が遮蔽されることによって入力された点を検出する座
標入力装置における座標入力・検出領域のうち、特に検
出精度の低い部位に入力された点については、この座標
の算出を避けることができる。
With this configuration, a point input to a part with a particularly low detection accuracy in a coordinate input / detection area of a coordinate input device for detecting a point input by shielding emitted light. For, the calculation of the coordinates can be avoided.

【0016】請求項5記載の発明は、非入力領域は、座
標入力・・検出領域との境界線と角度検出に用いられた
発光手段同士を通る直線との最短距離で表される所定の
幅を有し、所定の幅は、角度検出に用いられた発光手段
間の距離の0.06倍以上であることを特徴とするもの
である。
According to a fifth aspect of the present invention, the non-input area has a predetermined width represented by a shortest distance between a boundary between the coordinate input / detection area and a straight line passing through the light emitting means used for angle detection. And the predetermined width is at least 0.06 times the distance between the light emitting means used for angle detection.

【0017】このように構成することにより、発光手段
の取り付け位置によらず、最適な非検出領域の幅を設定
することができる。
With this configuration, the optimum width of the non-detection area can be set regardless of the mounting position of the light emitting means.

【0018】請求項6記載の発明は、座標入力・検出領
域と非同一面上に非検出領域設けると共に、発光手段か
ら照射された光の光軸が座標入力・検出領域と平行にな
るように偏向する光軸偏向手段をさらに備えることを特
徴とするものである。
According to a sixth aspect of the present invention, a non-detection area is provided on the same plane as the coordinate input / detection area, and the optical axis of light emitted from the light emitting means is parallel to the coordinate input / detection area. An optical axis deflecting means for deflecting the light is further provided.

【0019】このように構成することにより、発光した
光が遮蔽されることによって入力された点を検出する座
標入力装置において、非検出領域を座標入力・検出領域
に設けなくて良く、座標入力・検出領域をより広くとる
ことができる。
With this configuration, in the coordinate input device for detecting a point input by blocking emitted light, a non-detection area does not have to be provided in the coordinate input / detection area. The detection area can be made wider.

【0020】[0020]

【発明の実施の形態】本明細書では、実施の形態1〜4
の画像入力装置の説明に先立って、先ず、三角測量法に
よる座標入力面内の座標入力精度のばらつきについて説
明する。図1は、入力された点の座標を三角測量法で算
出する方法を説明する図である。図1では、四角形の座
標入力面5中に入力された点P(x,y)の座標を算出
するものとする。また、座標入力面5の上端部に示す点
A、点Bは、座標算出の基準点であり、長さWは、この
点A、点B間の距離を指すものとする。さらに図中のθ
L、θRは、直線ABと直線APとがなす角度、直線AB
と直線BPとがなす角度をそれぞれ示すものである。な
お、以下の説明では、θL、θRを検出するためのセンサ
が2つ座標入力面5に設けられていて、このセンサの中
心がそれそれ点A、点Bにあるものとする。
DESCRIPTION OF THE PREFERRED EMBODIMENTS In the present specification, embodiments 1 to 4 will be described.
Prior to the description of the image input apparatus described above, first, a description will be given of a variation in coordinate input accuracy in a coordinate input plane by a triangulation method. FIG. 1 is a diagram illustrating a method of calculating coordinates of an input point by a triangulation method. In FIG. 1, it is assumed that the coordinates of the point P (x, y) input on the rectangular coordinate input surface 5 are calculated. Points A and B shown at the upper end of the coordinate input surface 5 are reference points for coordinate calculation, and the length W indicates the distance between the points A and B. Furthermore, θ in the figure
L and θ R are the angle between the straight line AB and the straight line AP, the straight line AB
And the straight line BP. In the following description, it is assumed that two sensors for detecting θ L and θ R are provided on the coordinate input surface 5 and the centers of the sensors are at points A and B, respectively.

【0021】点Aを原点とするx−y座標で表される点
P(x,y)は、以上の条件から、以下の式(1)、式
(2)によって表される。 x=f(θL,θR) …(1) y=g(θL,θR) …(2) ただし、 f(θL,θR)=W・tanθR/(tanθL+tanθR) …(3) g(θL,θR)=W・tanθL・tanθR/(tanθL+tanθR) …(4)
The point P (x, y) represented by the xy coordinate having the point A as the origin is represented by the following equations (1) and (2) from the above conditions. x = f ([theta] L , [theta] R ) (1) y = g ([theta] L , [theta] R ) (2) where f ([theta] L , [theta] R ) = W * tan [theta] R / (tan [theta] L + tan [theta] R ) .. (3) g (θ L , θ R ) = W · tan θ L · tan θ R / (tan θ L + tan θ R ) (4)

【0022】ここで、θLがθeL、θRがθeRだけそれぞ
れ変動した場合、算出される座標の変動dx、dyは、
以下の式で表される。 dx(θeL,θeR,θL,θR)=f(θL+θeL,θR+θeR) −f(θL,θR) …(5) dy(θeL,θeR,θL,θR)=g(θL+θeL,θR+θeR) −g(θL,θR) …(6)
Here, if θ L changes by θ eL and θ R changes by θ eR , the calculated coordinate changes dx and dy are:
It is represented by the following equation. dx (θ eL , θ eR , θ L , θ R ) = f (θ L + θ eL , θ R + θ eR ) −f (θ L , θ R ) (5) dy (θ eL , θ eR , θ L) , Θ R ) = g (θ L + θ eL , θ R + θ eR ) −g (θ L , θ R ) (6)

【0023】したがって、この変動dx、dyによる座
標変動距離D(点Aと(x,y)との距離と、点Aと
(x+dx,y+dy)との距離の差分で示す)は、 D(θeL,θeR,θL,θR)={dx2(θeL,θeR,θL,θR) +dy2(θeL,θeR,θL,θR)}-1/2 …(7) となる。以上のような変動距離Dについて、θL、θR
それぞれ−θe〜θeの範囲で変動した場合の平均変動量
aveは、以下のように表される。
Therefore, the coordinate variation distance D (indicated by the difference between the distance between point A and (x, y) and the distance between point A and (x + dx, y + dy)) due to the variations dx and dy is D (θ eL , θ eR , θ L , θ R ) = {dx 2eL , θ eR , θ L , θ R ) + dy 2eL , θ eR , θ L , θ R )} -1/2 … ( 7) Fluctuations distance D as described above, theta L, the average fluctuation amount D ave when theta R varies in a range of - [theta] e through? E, respectively, are expressed as follows.

【数1】 上記した式(8)は、角度を検出するセンサの変動が同
じ場合でも、三角測量法の演算式の非線形性により平均
変動量に及ぼす影響が座標の位置によって異なることを
示すために導入した評価関数である。
(Equation 1) The above equation (8) is an evaluation introduced to show that even when the fluctuation of the sensor for detecting the angle is the same, the influence on the average fluctuation amount due to the nonlinearity of the arithmetic expression of the triangulation method differs depending on the position of the coordinate. Function.

【0024】ここで、例えば60インチ(対角線長)、
縦横比が16:9の画面の中央部に、縦横比4:3のX
GA(Extended Graphics Array)対応(1024×7
68画素)の画面を表示する場合、この1画素を識別す
るために必要なセンサの角度検出精度を求めてみる。以
上の条件で、1画素のピッチは、0.97mmである。
例えば、センサから最も遠い60インチの距離にある点
で、センサから見た方向から横に0.97mm離れた2
つの点を見込む、すなわち1画素の差を確実に識別しよ
うとすると、センサが検出する角度の変動を約0.03
deg以下に抑える必要があると概算される。
Here, for example, 60 inches (diagonal length),
In the center of the screen with an aspect ratio of 16: 9, X with an aspect ratio of 4: 3
GA (Extended Graphics Array) compatible (1024 x 7
When displaying a screen of (68 pixels), the angle detection accuracy of the sensor required to identify this one pixel will be obtained. Under the above conditions, the pitch of one pixel is 0.97 mm.
For example, at a point 60 inches farthest from the sensor, 2
In order to anticipate one point, that is, to reliably identify the difference of one pixel, the fluctuation of the angle detected by the sensor is reduced by about 0.03.
It is estimated that it is necessary to keep it below deg.

【0025】ただし、約0.03degの値は、センサ
から60インチの距離にある座標について求めた検出角
度の変動許容値である。次に、0.03degの値を式
(8)に代入し、センサの検出角度が0.03deg変
動した場合の座標変動量を座標入力面5内の分布として
図2に示す。図2は、座標変動量を等高線で示した図
で、同図上方の空白部分は等高線が密になって表記でき
ないために省略してある。図2によれば、センサの検出
角度が0.03deg変動した場合、座標入力面5内の
部分Dにおける座標変動距離Dは0.4mmであり、1
画素を識別するのに充分小さいことが分かる。しかしな
がら、よりセンサ位置(点A、点Bで示す)に近い部分
Cの座標変動距離Dは、0.8mm以上になる。
However, the value of about 0.03 deg is an allowable fluctuation value of the detection angle obtained for the coordinates at a distance of 60 inches from the sensor. Next, the value of 0.03 deg is substituted into Expression (8), and the amount of coordinate fluctuation when the detection angle of the sensor fluctuates by 0.03 deg is shown in FIG. FIG. 2 is a diagram showing the coordinate fluctuation amount by contour lines, and a blank portion in the upper part of FIG. 2 is omitted because the contour lines are dense and cannot be described. According to FIG. 2, when the detection angle of the sensor fluctuates by 0.03 deg, the coordinate fluctuation distance D in the portion D in the coordinate input surface 5 is 0.4 mm, and
It can be seen that it is small enough to identify a pixel. However, the coordinate variation distance D of the portion C closer to the sensor position (indicated by points A and B) is 0.8 mm or more.

【0026】図3は、図2中に示した点Oを原点とする
直線Eで図2を切った断面図で、縦軸には座標変動距離
Dを、横軸にはこの座標のy座標(原点Oからのy方向
の距離)を示したものである。なお、この単位は、いず
れもmmである。図3によれば、座標変動距離Dは、y
座標の値が小さい、つまり検出される座標と直線ABと
の距離が小さいほど大きくなっている。そして、この距
離が80mmのとき、座標変動距離Dが画素のピッチと
ほぼ等しい値である1mmをとることが分かる。したが
って、以上の条件下で、センサの検出角度が0.03d
eg変動した場合にも、座標入力面5のうち、直線AB
との距離が80mm以上ある領域に入力された座標につ
いては、その変動量が画素ピッチ以下であり実質的に問
題無いことになる。
FIG. 3 is a sectional view of FIG. 2 cut by a straight line E having the origin at the point O shown in FIG. 2. The vertical axis represents the coordinate variation distance D, and the horizontal axis represents the y coordinate of this coordinate. (Distance from the origin O in the y direction). This unit is mm. According to FIG. 3, the coordinate variation distance D is y
The smaller the value of the coordinate, that is, the smaller the distance between the detected coordinate and the straight line AB, the larger the value. When the distance is 80 mm, it can be seen that the coordinate variation distance D is 1 mm, which is almost equal to the pixel pitch. Therefore, under the above conditions, the detection angle of the sensor is 0.03 d
Even when the fluctuates eg, the straight line AB on the coordinate input surface 5
With respect to the coordinates input to an area having a distance of 80 mm or more with respect to the pixel pitch, the fluctuation amount is equal to or less than the pixel pitch, and there is substantially no problem.

【0027】以下、上記した座標入力面内の座標入力精
度のばらつきを考慮して構成された本発明の実施の形態
1、実施の形態2、実施の形態3、実施の形態4につい
て説明する。実施の形態1〜4は、いずれも角度検出に
用いられるセンサを、センサの中心が位置する点Aおよ
び点Bと、座標入力・検出領域である座標入力面5との
間に、センサが座標の入力を受け付けない非入力領域を
設けたものである。先ず、このような非入力領域を模式
的に図4に示し、説明する。
Hereinafter, the first, second, third, and fourth embodiments of the present invention, which are configured in consideration of the above-described variation in the coordinate input accuracy in the coordinate input plane, will be described. In the first to fourth embodiments, a sensor used for angle detection is provided between a point A and a point B where the center of the sensor is located and a coordinate input surface 5 which is a coordinate input / detection area. Is provided with a non-input area which does not accept the input of the input. First, such a non-input area is schematically shown in FIG. 4 and will be described.

【0028】図4に示した構成は、座標入力面5と、直
線A’B’で示す座標入力面5の上端部から距離F離れ
た直線AB上に中心が位置するように設けられる角度検
出用のセンサ(図示せず)を有している。そして、直線
ABと直線A’B’との間にあって、かつ長さWの領域
が非入力領域Gである。非入力領域Gは、所定の幅F
(直線ABと直線A’B’との距離)を有している。
The configuration shown in FIG. 4 is based on a coordinate input surface 5 and an angle detection device provided such that the center is located on a straight line AB that is a distance F away from the upper end of the coordinate input surface 5 indicated by a straight line A'B '. (Not shown). A region between the straight line AB and the straight line A′B ′ and having a length W is a non-input region G. The non-input area G has a predetermined width F
(Distance between the straight line AB and the straight line A′B ′).

【0029】この幅Fは、基準点A、B間の距離(長さ
W)に応じて決定される値であり、前述した80mmの
値は、60インチ、16:9、つまりWが1330mm
の座標入力面5について算出された値である。ただし、
Wが相違する場合にも式(8)で用いられるθL、θR
組み合わせが同じであれば、座標変動距離Dは図3に示
したものと同様の挙動を示す。したがって、W1330
mmに対する80mmと同じ比をとる値、すなわちWに
0.06(80/1330)を乗じた値を非入力領域G
の幅Fとして設定すれば、センサの検出角度の変動が
0.03deg以下で、座標入力面全域にわたって座標
変動距離Dが許容値以下になることになる。
The width F is a value determined according to the distance (length W) between the reference points A and B. The value of 80 mm is 60 inches, 16: 9, that is, W is 1330 mm.
Is a value calculated for the coordinate input surface 5. However,
Even when W is different, if the combination of θ L and θ R used in the equation (8) is the same, the coordinate variation distance D shows the same behavior as that shown in FIG. Therefore, W1330
A value that takes the same ratio as 80 mm to 80 mm, that is, a value obtained by multiplying W by 0.06 (80/1330) is a non-input area G
When the width F is set, the variation in the detection angle of the sensor is 0.03 deg or less, and the coordinate variation distance D is less than the allowable value over the entire coordinate input surface.

【0030】(実施の形態1)実施の形態1は、平面状
の座標入力・検出領域である座標入力面と、座標入力面
上にある点を指定する指定部材(本実施の形態では指と
した)を検出し、指定された点の位置を入力する複数の
電子カメラを有する入力部と、電子カメラと指とを通る
直線と、電子カメラを通る直線とがなす角度をそれぞれ
検出する角度検出手段と、角度検出手段によって検出さ
れた角度と、角度検出に用いられた前記指定点入力手段
間の距離とに基づいて、指定部材が指定した点の2次元
座標を算出する座標算出手段とを有する演算部とを有し
ている。また、この入力部には、角度検出に用いられた
電子カメラと座標入力面との間に、電子カメラが指によ
る点の入力を受け付けない非入力領域が設けられてい
る。なお、実施の形態1、2では、以降「電子カメラを
通る直線」の記載は、図4のA、Bを通る直線に相当す
る電子カメラに集光される光の略中心点を結ぶ直線を指
すものとする。
(Embodiment 1) In Embodiment 1, a coordinate input surface which is a planar coordinate input / detection area, and a designation member (in this embodiment, a finger and a finger) for designating a point on the coordinate input surface. Angle detection that detects an angle formed by an input unit having a plurality of electronic cameras for inputting the position of a designated point, a straight line passing through the electronic camera and a finger, and a straight line passing through the electronic camera. Means for calculating two-dimensional coordinates of a point designated by the designated member based on the angle detected by the angle detecting means and the distance between the designated point input means used for angle detection. And a calculation unit. The input unit has a non-input area between the electronic camera used for angle detection and the coordinate input surface, where the electronic camera does not accept input of a point by a finger. In the first and second embodiments, a “line passing through the electronic camera” will be referred to as a line connecting substantially the center points of light condensed on the electronic camera, which corresponds to a line passing through A and B in FIG. Shall point to.

【0031】以上の構成を、以下、入力部、演算部の順
に説明する。 (入力部)図5は、入力部を説明するための正面図、図
6は、図5の線分V−V’(図5中に示す)に沿う断面
図である。実施の形態1の座標入力装置は、上記した座
標入力面50の上方に距離Lを隔てて設けられた2つの
電子カメラ4a、電子カメラ4bと、電子カメラ4a、
電子カメラ4bの前面に設けられた遮光板25と、座標
入力面50の上方を除く三方を囲む背景板7と、以上の
構成を支持する支持体2とを有している。実施の形態1
では、このような座標入力装置をパソコンのディスプレ
ィDiに取り付けた例を示している。このために支持体
2の面には、ディスプレイDiとほぼ同じ領域を持つ四
角形の切欠部が設けられ、この切欠部20からディスプ
レイDiが露出するようになっていて(図8)、座標入
力装置の座標入力面50がディスプレイDi上に形成さ
れることになる。
The above configuration will be described below in the order of the input unit and the operation unit. (Input Unit) FIG. 5 is a front view for explaining the input unit, and FIG. 6 is a cross-sectional view taken along line VV ′ (shown in FIG. 5) of FIG. The coordinate input device according to the first embodiment includes two electronic cameras 4a and 4b provided above the coordinate input surface 50 at a distance L, and an electronic camera 4a,
It has a light shielding plate 25 provided on the front surface of the electronic camera 4b, a background plate 7 surrounding three directions except above the coordinate input surface 50, and the support 2 supporting the above configuration. Embodiment 1
Shows an example in which such a coordinate input device is attached to a display Di of a personal computer. For this purpose, a rectangular notch having substantially the same area as the display Di is provided on the surface of the support 2, and the display Di is exposed from the notch 20 (FIG. 8), and the coordinate input device is provided. Is formed on the display Di.

【0032】電子カメラ4a、電子カメラ4bには、そ
れぞれ、二次元イメージセンサ15、結像光学レンズ6
とが備えられている。二次元イメージセンサ15は、多
数のCCD(Charge Coupled Device)をマトリックス
状に配列して形成された二次元のCCD撮像素子であ
り、二次元イメージセンサ15と結像光学レンズ6と
は、距離fをおいて配置されている。このような電子カ
メラ4a、電子カメラ4bは、座標入力面50の全域を
撮像することが可能なように構成されている。また、電
子カメラ4a、電子カメラ4bは、それぞれディスプレ
イDi表面に一致する光軸を通ってくる光を撮像するよ
うに支持体2に固定され、撮像領域ににディスプレイD
iが写り込むことを防いでいる。
The electronic camera 4a and the electronic camera 4b have a two-dimensional image sensor 15 and an imaging optical lens 6, respectively.
And are provided. The two-dimensional image sensor 15 is a two-dimensional CCD image pickup device formed by arranging a large number of CCDs (Charge Coupled Devices) in a matrix. The two-dimensional image sensor 15 and the imaging optical lens 6 have a distance f. It is arranged in. Such an electronic camera 4a and the electronic camera 4b are configured to be able to image the entire area of the coordinate input surface 50. The electronic camera 4a and the electronic camera 4b are fixed to the support 2 so as to capture light passing through an optical axis coinciding with the surface of the display Di, and the display D is located in the imaging area.
This prevents i from being reflected.

【0033】また、電子カメラ4a、電子カメラ4bと
座標入力面50の境界線51とは、電子カメラ4a、電
子カメラ4b間の距離であるWの0.06倍より長い距
離d離れて設けられていて、この部位が非入力領域Gと
なっている。なお、このような非入力領域Gが入力を受
け付けないようにするには、非入力領域Gの全域にカバ
ーのような遮蔽物を設けることによってオペレータが非
入力領域Gであることを認識できるようにする、あるい
は検出した座標が非入力領域G内にあるものであった場
合、この座標値をアプリケーションに返さないようにす
ることが考えられる。
The boundary line 51 between the electronic cameras 4a and 4b and the coordinate input surface 50 is provided at a distance d longer than 0.06 times W which is the distance between the electronic cameras 4a and 4b. This area is a non-input area G. In order to prevent such a non-input area G from receiving an input, by providing a shield such as a cover over the entire non-input area G, the operator can recognize that the non-input area G is the non-input area G. Or if the detected coordinates are located in the non-input area G, it may be possible not to return the coordinate values to the application.

【0034】遮光板25は、電子カメラ4a、電子カメ
ラ4bの撮像領域制限手段として機能する部材で、図7
のように構成されている。すなわち、図遮光板25は、
中央にy方向に沿って長い切欠部251を有した四角形
の板である。この切欠部251は、電子カメラ4a、電
子カメラ4bによって撮像可能な領域を座標入力面5内
に制限するよう設計されていて、外乱光によるノイズや
座標入力面5外にある画像を取り込むことによって起こ
る誤検出を防いでいる。
The light shielding plate 25 is a member functioning as an image pickup area limiting means for the electronic cameras 4a and 4b.
It is configured as follows. That is, the light shielding plate 25 is
It is a square plate having a notch 251 long in the center along the y direction. The notch 251 is designed to limit an area that can be imaged by the electronic camera 4a and the electronic camera 4b to within the coordinate input surface 5, and captures noise due to disturbance light and an image outside the coordinate input surface 5. This prevents false detections that occur.

【0035】また、図8に示した背景板7は、電子カメ
ラ4a、電子カメラ4bの撮影視野全体に写る位置に設
けられている。図示するように、背景板7は、基準パタ
ーンとなる濃淡色の横縞であるストライプ71a、71
bが全面に描かれていて、このストライプ71a、71
bによって後述する差分画像抽出処理を容易にしてい
る。このような基準パターンとしては、ストライプ71
の他、濃淡色の縦縞ストライプパターン、クロマキー技
術に用いられる色彩パターンなどでも良い。
Further, the background plate 7 shown in FIG. 8 is provided at a position where it can be seen in the entire field of view of the electronic cameras 4a and 4b. As shown in the figure, the background plate 7 includes stripes 71a and 71, which are horizontal stripes of dark and light colors serving as reference patterns.
b is drawn on the entire surface, and the stripes 71a, 71
b facilitates a difference image extraction process described later. Such a reference pattern includes a stripe 71
In addition, a light and shade vertical stripe pattern, a color pattern used in chroma key technology, and the like may be used.

【0036】(演算部)図9は、実施の形態1の演算部
を説明するためのブロック図である。演算部は、入力部
に入力した指の位置を角度として検出し、またこの座標
を算出する演算を行う構成で、このための固定的なデー
タ(制御プログラムなど)を記憶しておくROM11お
よび書き換える必要のあるデータを記憶しておくRAM
12、パソコンと接続するためのインターフェイス(I
/F)9、演算を実行するためのEEPROM16、積
分器14、xyz演算器18、各構成の動作タイミング
をとるために使用されるタイマ13を有している。以上
の構成はすべてバス1に接続され、CPU10で統括的
に制御されている。また、このような構成は、一般的に
マイコン(マイクロコンピュータ)としてすべて一体的
に構成されている。
(Calculation Unit) FIG. 9 is a block diagram for explaining the calculation unit according to the first embodiment. The arithmetic unit is configured to detect the position of the finger input to the input unit as an angle, and to perform an arithmetic operation for calculating the coordinates. For this purpose, the ROM 11 for storing fixed data (such as a control program) and a rewrite. RAM for storing necessary data
12. Interface for connecting to a personal computer (I
/ F) 9, an EEPROM 16 for executing calculations, an integrator 14, an xyz calculator 18, and a timer 13 used for setting the operation timing of each component. All of the above components are connected to the bus 1 and are totally controlled by the CPU 10. In addition, such a configuration is generally integrally configured as a microcomputer.

【0037】また、RAM12は、座標メモリ12aを
有している。座標メモリ12aは、算出された座標を一
時記憶しておくのに使用されるRAMである。また、E
EPROM16には、基準画像メモリ16aが設けられ
ている。基準画像とは、例えば座標入力装置の起動時に
撮影される画像をいい、図10に示したような画像であ
ることが多い。基準画像メモリ16aは、指の位置を検
出するための後述する処理に使用するためにこの基準画
像を記憶しておくメモリである。
The RAM 12 has a coordinate memory 12a. The coordinate memory 12a is a RAM used to temporarily store the calculated coordinates. Also, E
The EPROM 16 is provided with a reference image memory 16a. The reference image is, for example, an image captured when the coordinate input device is activated, and is often an image as shown in FIG. The reference image memory 16a is a memory that stores the reference image for use in processing described below for detecting the position of the finger.

【0038】以上述べた入力部および演算部の動作を、
図11〜14に示して以下に説明する。なお、図11
は、図1に示した座標入力面50上に点P(x,y,
z)を入力した状態を示す図、図12は、図11の電子
カメラ4aで撮像した画像を示す図、図13は、座標入
力の一連の処理を説明するための図、また、図14は、
図11のうちの電子カメラ4aを拡大して示す図であ
る。
The operation of the input unit and the operation unit described above is
This will be described below with reference to FIGS. Note that FIG.
Represents a point P (x, y, p) on the coordinate input surface 50 shown in FIG.
FIG. 12 is a diagram showing a state in which z) is input, FIG. 12 is a diagram showing an image taken by the electronic camera 4a in FIG. 11, FIG. 13 is a diagram for explaining a series of processes of coordinate input, and FIG. ,
FIG. 12 is an enlarged view of the electronic camera 4a in FIG.

【0039】図11のように、座標入力面50上の点P
(x,y,z)を指で指定すると、この指が、図12の
ように背景板7を背景にして電子カメラ4a、電子カメ
ラ4bの二次元イメージセンサ15上にそれぞれ結像さ
れる。この後、電子カメラ4a、電子カメラ4bに結像
された2つの画像には、それぞれ独立に同様の処理が施
される。このため、本実施の形態では、電子カメラ4
a、電子カメラ4bの画像に対して独立になされる処理
については、電子カメラ4aに撮影された画像について
だけ説明をし、電子カメラ4bに撮影された画像につい
ては説明を省くものとする。
As shown in FIG. 11, a point P on the coordinate input
When (x, y, z) is designated by a finger, the finger is imaged on the two-dimensional image sensors 15 of the electronic cameras 4a and 4b with the background plate 7 as a background as shown in FIG. Thereafter, the same processing is independently performed on the two images formed on the electronic camera 4a and the electronic camera 4b. For this reason, in the present embodiment, the electronic camera 4
a) Regarding the processing independently performed on the image of the electronic camera 4b, only the image captured by the electronic camera 4a will be described, and the description of the image captured by the electronic camera 4b will be omitted.

【0040】先ず、図13のように、電子カメラ4a
が、座標入力開始に先立って座標入力面50を撮影す
る。この撮影画像は、図10で示したような基準画像と
して基準画像メモリ16aに記憶される。次に、オペレ
ータが点を指定する指を撮影する。この撮影で電子カメ
ラ4aの二次元イメージセンサ15に結蔵した画像は、
電子カメラ4aから出力した電気信号である撮影画像と
して積分器14に入力する。このとき、基準画像メモリ
16aからも基準画像が出力され、積分器14に入力す
る。積分器14では、撮影画像と基準画像から差分画像
を生成する。
First, as shown in FIG.
Captures the coordinate input surface 50 prior to the start of the coordinate input. This captured image is stored in the reference image memory 16a as a reference image as shown in FIG. Next, the operator takes an image of a finger specifying a point. The image collected by the two-dimensional image sensor 15 of the electronic camera 4a in this photographing is
It is input to the integrator 14 as a captured image, which is an electric signal output from the electronic camera 4a. At this time, the reference image is also output from the reference image memory 16a and input to the integrator 14. The integrator 14 generates a difference image from the captured image and the reference image.

【0041】差分画像は、図10に示した基準画像と図
12の撮影画像との差だけを抽出して得た画像をいい、
ここでは、図10、図12で共通の背景板7を除き、指
の画像だけが抽出された画像を指す。なお、本実施の形
態の差分画像は、指のシルエット画像であり、x,y,
z演算器18に入力される。また、x,y,z演算器1
8には、電子カメラ4bで撮影された撮影画像が電子カ
メラ4aによる撮影画像と同様に処理されて入力する。
x,y,z演算器18では、電子カメラ4a、電子カメ
ラ4bによる撮影画像に基づく差分画像から点Pの座標
を算出する。
The difference image is an image obtained by extracting only the difference between the reference image shown in FIG. 10 and the photographed image in FIG.
Here, the image indicates only the image of the finger except for the background plate 7 common to FIGS. 10 and 12. Note that the difference image of the present embodiment is a silhouette image of a finger, and x, y,
It is input to the z calculator 18. X, y, z calculator 1
In 8, an image captured by the electronic camera 4 b is processed and input in the same manner as an image captured by the electronic camera 4 a.
The x, y, z calculator 18 calculates the coordinates of the point P from the difference image based on the images captured by the electronic cameras 4a and 4b.

【0042】次に、座標算出の処理をより具体的に説明
する。先ず、x座標、y座標を算出する方法について述
べる。図14のように、二次元イメージセンサ15の中
心点poから差分画像の結像中心点paまでのx,y平面
上の距離hを考える。この距離hは、結像光学レンズ6
の中心線l1と、指定された点Pと結像中心点l2とに
よって形成される角度θ、二次元イメージセンサ15、
結像光学レンズ6間の距離fと、以下の式によって表さ
れる関係を持つ。 θ=arctan(h/f) …(9) したがって、二次元イメージセンサ15のうちのシルエ
ット画像を検出したCCDの位置からhを求め、角度θ
を求めることができる。
Next, the coordinate calculation process will be described more specifically. First, a method of calculating the x coordinate and the y coordinate will be described. As shown in FIG. 14, x from the center point p o of the two-dimensional image sensor 15 to the imaging center point p a difference image, consider the distance h on the y plane. This distance h depends on the imaging optical lens 6.
, The angle θ formed by the designated point P and the imaging center point l2, the two-dimensional image sensor 15,
It has a relationship represented by the following formula with the distance f between the imaging optical lenses 6. θ = arctan (h / f) (9) Accordingly, h is obtained from the position of the CCD in the two-dimensional image sensor 15 where the silhouette image is detected, and the angle θ is obtained.
Can be requested.

【0043】また、電子カメラ4aの取付角度(結像光
学レンズ6の中心線l1と座標入力面50の図中長手方
向の辺に平行な直線l3とがなす角度)αとする。取付
角度α、式(9)で求められる角度θ、図中に示した角
度βとには、以下の関係がある。 β=α−θ …(10) このことから、既知の取付角度α、式(9)で求められ
た角度θを式(10)に代入して角度βを求めることが
できる。また、x,y,z演算器18は、を電子カメラ
4bで得られた撮影画像に基づくシルエット画像につい
ても同様に処理する。そして、電子カメラ4b側の角度
βを求める。
The mounting angle of the electronic camera 4a (the angle formed by the center line 11 of the imaging optical lens 6 and a straight line 13 parallel to the longitudinal side of the coordinate input surface 50 in the drawing) is α. The following relationship exists between the mounting angle α, the angle θ obtained by the equation (9), and the angle β shown in the drawing. β = α−θ (10) From this, it is possible to obtain the angle β by substituting the known mounting angle α and the angle θ obtained by Expression (9) into Expression (10). Further, the x, y, z calculator 18 similarly processes a silhouette image based on a captured image obtained by the electronic camera 4b. Then, the angle β on the electronic camera 4b side is obtained.

【0044】ところで、電子カメラ4a側の角度β(便
宜上、角度βaとする)は、図5および式(1)ないし
式(4)で用いたθLにあたる角度であり、一方、電子
カメラ4b側の角度β(便宜上、角度βbとする)は、
θRにあたる。したがって、上記のようにして求められ
た電子カメラ4a側の角度βa、電子カメラ4b側の角
度βbを、それぞれθL、θRとして式(1)ないし式
(4)に代入すると、以下のように点Pのx座標、y座
標が算出できる。 x=Ltanβb/(tanβa+tanβb) …(11) y=x・tanβa …(12)
The angle β on the side of the electronic camera 4a (for convenience, the angle βa) is the angle corresponding to θ L used in FIG. 5 and the equations (1) to (4), while the angle β on the side of the electronic camera 4b. Is an angle β (for convenience, an angle βb) is
corresponds to the θ R. Therefore, when the angle βa on the electronic camera 4a side and the angle βb on the electronic camera 4b side obtained as described above are substituted into the equations (1) to (4) as θ L and θ R , respectively, The x coordinate and the y coordinate of the point P can be calculated. x = Ltanβb / (tanβa + tanβb) (11) y = x · tanβa (12)

【0045】次に、点Pのz座標について述べる。図1
5は、指で座表入力面50上の一点Pを指定し、そのま
ま座標入力面50上で指を浮かせた状態を示す側面図で
ある。図15に示した指は、その先端が、座標入力面5
0の表面から距離dz離れた位置にある。この位置を、
座標入力面50の表面を原点にするz軸上の座標zとす
る。このようなz座標は、指の差分画像の結像中心点が
二次元イメージセンサ15の中心点poからずれること
によって、x,y座標同様に三角測量法に基づいて算出
できる。点Pのz座標を検出することにより、ダブルク
リックやペンアップ、ペンダウンをも検知できるように
なる。なお、中心点poと差分画像の結像中心点とのz
方向の距離を、本実施の形態では、以降kで表すものと
する。
Next, the z coordinate of the point P will be described. FIG.
5 is a side view showing a state in which one point P on the table input surface 50 is designated with a finger and the finger is lifted on the coordinate input surface 50 as it is. The tip of the finger shown in FIG.
0 is located at a distance d z away from the surface. This position
It is assumed that coordinates z on the z-axis are set with the surface of the coordinate input surface 50 as the origin. Such z coordinates, by imaging the central point of the difference image of the finger is deviated from the center point p o of the two-dimensional image sensor 15, x, can be calculated based on the y-coordinate Similarly triangulation. By detecting the z coordinate of the point P, it becomes possible to detect a double click, a pen up, and a pen down. Note that z between the center point p o and the imaging center point of the difference image
In the present embodiment, the distance in the direction is hereinafter represented by k.

【0046】ただし、この距離kは、点Pのz座標と共
にx,y座標によっても変化する。このことを、図16
を使って説明する。図16は、図14を、紙面に垂直な
方向から見た側面図である。図16には、z座標が同じ
であって、かつ結像光学レンズ6からの距離がD1、D
2と異なる2つの点P1、P2が示されている。図16
によれば、二次元イメージセンサ15上の点P1、点P
2の結像中心点Pk1、Pk2と二次元イメージセンサ1
5の中心点Poとの距離k1、k2が相違することが明
らかである。つまり、図14で測定される距離Dもま
た、距離kの関数になっていることになる。このため、
本実施の形態では、距離kに基づくz座標の算出に先だ
ち、前述した式(9)ないし式(12)を使ってx座
標、y座標を算出する。そして、この後、先に算出され
たx座標、y座標を考慮に入れてz座標を算出し、x,
y平面上の距離によらず正確なz座標を求めることがで
きるようにしている。
However, the distance k changes not only with the z coordinate of the point P but also with the x and y coordinates. This is shown in FIG.
I will explain using. FIG. 16 is a side view of FIG. 14 as viewed from a direction perpendicular to the paper surface. FIG. 16 shows that the z coordinate is the same and the distance from the imaging optical lens 6 is D1, D2.
Two points P1 and P2 different from 2 are shown. FIG.
According to the above, the points P1 and P on the two-dimensional image sensor 15
2 imaging center points Pk 1 and Pk 2 and two-dimensional image sensor 1
It is clear that the distances k1 and k2 from the center point Po of No. 5 are different. That is, the distance D measured in FIG. 14 is also a function of the distance k. For this reason,
In the present embodiment, prior to the calculation of the z coordinate based on the distance k, the x coordinate and the y coordinate are calculated using the above-described equations (9) to (12). Then, after that, the z coordinate is calculated in consideration of the previously calculated x coordinate and y coordinate, and x,
An accurate z coordinate can be obtained regardless of the distance on the y plane.

【0047】次に、以上述べた実施の形態1の処理を図
17でフローチャートとして示し、説明する。先ず、本
フローチャートでは、処理の開始直後に電子カメラ4
a、電子カメラ4bでそれぞれ基準画像を撮影し、これ
を基準画像メモリ16aに蓄積しておく(S1)。そし
て、オペレータによる入力面50への入力がなされたか
否か判断し(S2)、入力がなされていない場合には入
力があるまで待機する(S2:No)。一方、入力があ
った場合には(S2:Yes)、指の画像を撮影し(S
3)、基準画像との差分をとって差分画像を生成する
(S4)。
Next, the processing of the first embodiment described above will be described with reference to a flowchart shown in FIG. First, in the present flowchart, the electronic camera 4
a, a reference image is photographed by the electronic camera 4b and stored in the reference image memory 16a (S1). Then, it is determined whether or not an input has been made on the input surface 50 by the operator (S2). If no input has been made, the process waits until there is an input (S2: No). On the other hand, if there is an input (S2: Yes), an image of the finger is taken (S2).
3) A difference image is generated by calculating a difference from the reference image (S4).

【0048】次に、この差分画像に基づいて電子カメラ
4a、電子カメラ4bと撮像された指の位置とがなす角
度を算出し、この角度からさらに指の位置のx、y座標
を算出する(S5)。ここで、本実施の形態では、ステ
ップS5で算出された座標が非入力領域の範囲内か否か
判断(S6)する。そして、非入力領域であると判断さ
れた場合には(S6:Yes)、以降の処理を中止する
と共にこのx,y座標を出力しないようにする、あるい
はエラー信号を出力するといった非入力処理を行い(S
10)、次の入力に備えて待機する(S2)。
Next, the angle between the electronic camera 4a, the electronic camera 4b and the position of the imaged finger is calculated based on the difference image, and the x and y coordinates of the finger position are further calculated from this angle ( S5). Here, in the present embodiment, it is determined whether or not the coordinates calculated in step S5 are within the range of the non-input area (S6). If it is determined that the area is a non-input area (S6: Yes), non-input processing such as stopping the subsequent processing and not outputting the x and y coordinates, or outputting an error signal is performed. Perform (S
10), and waits for the next input (S2).

【0049】次に、ステップS5で算出されたx,y座
標を考慮してz座標を算出し(S7)、x,y座標と共
にパソコンなどに出力する(S8)。この後、座標入力
装置をオフするか否か判断し(S9)、オフしない場合
には(S9:No)、次の入力に備えて待機する(S
2)。また、座標入力装置をオフする場合には(S9:
No)、すべての処理を終了する。
Next, the z-coordinate is calculated in consideration of the x- and y-coordinates calculated in step S5 (S7) and output to a personal computer or the like together with the x-y coordinates (S8). Thereafter, it is determined whether or not the coordinate input device is turned off (S9). If the coordinate input device is not turned off (S9: No), the process waits for the next input (S9).
2). When turning off the coordinate input device (S9:
No), all the processing ends.

【0050】以上述べた実施の形態1は、電子カメラに
よる座標検出精度を座標入力装置の座標入力面の全域で
画素ピッチ以下に抑えることができる。したがって、座
標入力装置の信頼性を高めると共に、座標入力面内での
座標検出精度のばらつきをなくすことができる。
In the first embodiment described above, the coordinate detection accuracy of the electronic camera can be suppressed to a pixel pitch or less over the entire area of the coordinate input surface of the coordinate input device. Therefore, it is possible to improve the reliability of the coordinate input device and eliminate the variation in the coordinate detection accuracy in the coordinate input plane.

【0051】なお、本発明は、以上述べた実施の形態に
限定されるものではない。例えば、指定点入力手段とし
ての電子カメラに代え、指定部材の映像を取り込む光学
的な他の装置を用いても良い。さらに、指定点入力手段
は、光学的な装置に限らず、例えば、超音波などによっ
て入力された点との角度を算出し、この座標を検出する
ものであっても良い。
The present invention is not limited to the embodiment described above. For example, instead of the electronic camera as the designated point input means, another optical device for capturing an image of the designated member may be used. Further, the designated point input means is not limited to an optical device, but may be one which calculates an angle with respect to a point input by, for example, an ultrasonic wave and detects the coordinates.

【0052】(実施の形態2)次に、本発明の実施の形
態2について説明する。実施の形態2の座標入力装置
は、座標入力面と非同一面上に非入力領域を設けると共
に、指などを検出するための信号を、非入力面に平行
で、かつ指定点入力手段である電子カメラに向くように
偏向する検出信号偏向手段を備えたものである。なお、
実施の形態2では、指の検出を電子カメラで行っている
ことから、検出信号は指の映像であり、検出信号偏向手
段には反射ミラーが用いられる。
(Embodiment 2) Next, Embodiment 2 of the present invention will be described. The coordinate input device according to the second embodiment is a designated point input unit that provides a non-input area on a non-coplanar surface with a coordinate input surface, and outputs a signal for detecting a finger or the like in parallel with the non-input surface and at a designated point. It is provided with a detection signal deflecting means for deflecting so as to face the electronic camera. In addition,
In the second embodiment, since the detection of the finger is performed by the electronic camera, the detection signal is an image of the finger, and a reflection mirror is used as the detection signal deflection unit.

【0053】図18は、実施の形態2を説明するための
図の一つである。図18で示した座標入力装置の構成
は、座標入力面をCRT(Cathode Ray Tube)やリアル
プロジェクション型のディスプレイなどに設けたもので
ある。図18(a)は、このような座標入力装置の上面
を示す図、(b)は、側面を示す図である。なお、図1
8中、図5に示したものと同様の部材については同様の
符号を付し、説明を一部略すものとする。
FIG. 18 is a diagram for explaining the second embodiment. The configuration of the coordinate input device shown in FIG. 18 is such that a coordinate input surface is provided on a CRT (Cathode Ray Tube), a real projection type display, or the like. FIG. 18A is a diagram illustrating the top surface of such a coordinate input device, and FIG. 18B is a diagram illustrating the side surface. FIG.
8, the same members as those shown in FIG. 5 are denoted by the same reference numerals, and the description thereof will be partially omitted.

【0054】実施の形態2は、電子カメラ4a、電子カ
メラ4bをディスプレイ(Di)の筐体204上に設置
し、この設置面を非入力領域として使用するものであ
る。このために、破線202で示した筐体204上面の
端部と電子カメラ4a、電子カメラ4bとの距離dは、
座標入力面の幅の0.06倍以上に設定されている。ま
た、このような構成には、座標入力面50上にある指の
像が電子カメラ4a、電子カメラ4bに向かうように光
を偏向する反射ミラー201が設けられている。反射ミ
ラー201の反射角度は、座標入力面50と平行な面上
を進む光が非入力面と平行に進むような角度になるよう
に設定されており、実施の形態2では、光を90度に反
射するようになっている。
In the second embodiment, the electronic camera 4a and the electronic camera 4b are installed on the housing 204 of the display (Di), and this installation surface is used as a non-input area. For this reason, the distance d between the end of the upper surface of the housing 204 shown by the broken line 202 and the electronic cameras 4a and 4b is:
The width is set to 0.06 times or more the width of the coordinate input surface. Further, in such a configuration, a reflection mirror 201 that deflects light so that an image of a finger on the coordinate input surface 50 is directed to the electronic camera 4a and the electronic camera 4b is provided. The reflection angle of the reflection mirror 201 is set so that light traveling on a plane parallel to the coordinate input plane 50 travels parallel to the non-input plane. In Embodiment 2, the light is reflected at 90 degrees. Is to be reflected.

【0055】また、図19は、実施の形態2の他の構成
を説明するための図で、図19(a)は、この座標入力
装置の上面を示す図、(b)は、側面を示す図である。
なお、図19についても、図中、図5、図18に示した
ものと同様の部材については同様の符号を付し、説明を
一部略すものとする。図19の構成は、ホワイトボー
ド、プラズマディスプレイ、液晶ディスプレイといった
板状の部材に座標入力面を設ける場合に適用されるもの
で、電子カメラ4a、電子カメラ4bをディスプレイ
(Di)の板状の筐体205裏面に設置する。そして、
この設置面を非入力領域Gとして使用するものである。
このために、破線203で示した筐体205の背面端部
と電子カメラ4a、電子カメラ4bとの距離dは、電子
カメラ間の距離のの0.06倍以上に設定されている。
また、このような構成には、座標入力面50上にある指
の像をいったん筐体205の上面に平行になるよう偏向
する反射ミラー201b、さらに電子カメラ4a、電子
カメラ4bにけて背面と平行になるように偏向する反射
ミラー201aが設けられている。反射ミラー201
a、201bの反射角度は、それぞれ座標入力面50と
平行な面上を進む光が背面の非入力面と平行に進むよう
な角度になるように設定されており、図19に示した構
成では、それぞれ光を90度に反射するようになってい
る。
FIGS. 19A and 19B are diagrams for explaining another configuration of the second embodiment. FIG. 19A shows a top view of the coordinate input device, and FIG. 19B shows a side view. FIG.
In FIG. 19, the same members as those shown in FIGS. 5 and 18 are denoted by the same reference numerals, and the description thereof will be partially omitted. The configuration shown in FIG. 19 is applied to a case where a coordinate input surface is provided on a plate-shaped member such as a whiteboard, a plasma display, and a liquid crystal display. The electronic camera 4a and the electronic camera 4b are connected to a plate-shaped housing of a display (Di). It is installed on the back of the body 205. And
This installation surface is used as the non-input area G.
For this reason, the distance d between the back end of the housing 205 and the electronic cameras 4a and 4b, which is indicated by the broken line 203, is set to be 0.06 times or more the distance between the electronic cameras.
In addition, in such a configuration, a reflection mirror 201b that once deflects the image of the finger on the coordinate input surface 50 so as to be parallel to the upper surface of the housing 205, and the electronic camera 4a and the electronic camera 4b have a back surface. A reflection mirror 201a that deflects to be parallel is provided. Reflection mirror 201
The reflection angles of a and 201b are set such that the light traveling on a plane parallel to the coordinate input plane 50 travels in parallel with the non-input plane on the back. In the configuration shown in FIG. , Each of which reflects light at 90 degrees.

【0056】以上述べた実施の形態2は、先に述べた実
施の形態1から得られる効果に加え、座標入力面と同一
の面から非入力面が占めるスペースを省き、座標入力装
置が大型化することを抑えることができる。
The second embodiment described above has, in addition to the effects obtained from the first embodiment described above, a space occupied by the non-input surface from the same surface as the coordinate input surface, thereby increasing the size of the coordinate input device. Can be suppressed.

【0057】(実施の形態3)実施の形態3の座標入力
装置は、実施の形態1、実施の形態2の電子カメラに代
えて光を発光する発光手段を設け、この発光手段が発光
した光の反射光に基づいて入力された点の座標を検出す
るよう構成されるものである。ここでは、先ず、このよ
うな座標の検出原理について図20ないし図23を用い
て説明する。図20は、座標入力面50と、座標入力面
50内に設けられた受発光部40a、受発光部40b
と、座標入力面50の三方に設けられた反射部材80を
示している。受発光部40a、受発光部40bには、そ
れぞれ点光源41と、受光素子(図21、図22)とが
設けられているものとする。
(Embodiment 3) The coordinate input device of Embodiment 3 is provided with light emitting means for emitting light instead of the electronic camera of Embodiment 1 or 2, and the light emitted by the light emitting means is provided. Is configured to detect the coordinates of the input point based on the reflected light. Here, first, the principle of detecting such coordinates will be described with reference to FIGS. FIG. 20 shows a coordinate input surface 50 and light emitting and receiving units 40a and 40b provided in the coordinate input surface 50.
And the reflecting members 80 provided on three sides of the coordinate input surface 50. It is assumed that each of the light emitting / receiving units 40a and 40b includes a point light source 41 and a light receiving element (FIGS. 21 and 22).

【0058】点光源41が照射した光は、L1、L2、
…Lmを光軸とする光束として座標入力面の全域に扇状
に広がっていく。このような光束のうち、例えば、光軸
Laに注目した場合、光軸Laの光束の反射光(光軸L
a’)は、再帰性の反射部材80で反射されて光軸La
と同じ光軸を通って受発光部40aに向かう。受発光部
40aには、後述する受光手段が設けてあって、この反
射光を受光する。このような受光手段は、光軸L1、L
2、…Lmで表される光束のすべてについてその反射光
を受光できるように構成されている。
The light emitted from the point light source 41 is L1, L2,
... Spread like a light beam with Lm as the optical axis over the entire area of the coordinate input surface. For example, when attention is paid to the optical axis La of such light beams, the reflected light of the light beam of the optical axis La (the optical axis L
a ′) is reflected by the retroreflecting member 80 and is reflected by the optical axis La.
It goes to the light receiving / emitting unit 40a through the same optical axis. The light receiving / emitting unit 40a is provided with a light receiving unit described later, and receives the reflected light. Such light receiving means includes optical axes L1, L
2,..., Lm so as to receive the reflected light.

【0059】座標入力面50内の一点Pにオペレータが
指を置くと、この指によって光軸L1、L2、…Lmで
表される光束のうちの一部が遮蔽され、反射部材80に
届かなくなる。このため、指によって遮られた光束の反
射光が受光手段で受光されなくなり、受光されなかった
光束から指が置かれた点Pを通る光の光軸が識別でき
る。同様にして、受発光部40bの点光源41から発光
した光束についてもその反射光を受光し、指が置かれた
点Pを通る光軸を識別することができる。図20では、
受発光部40aから発光した光軸L、40bから発光し
た光軸Rが点Pを通る光軸となっている。点Pの座標
は、このような光軸L、光軸Rの交点として算出するこ
とができる。
When the operator places a finger on one point P in the coordinate input surface 50, a part of the light beam represented by the optical axes L 1, L 2,... Lm is blocked by the finger, and does not reach the reflecting member 80. . Therefore, the reflected light of the light beam blocked by the finger is not received by the light receiving means, and the optical axis of the light passing through the point P where the finger is placed can be identified from the light beam not received. Similarly, the light beam emitted from the point light source 41 of the light emitting / receiving unit 40b receives the reflected light, and the optical axis passing through the point P where the finger is placed can be identified. In FIG.
An optical axis L emitted from the light emitting / receiving section 40a and an optical axis R emitted from the light emitting / receiving section 40b are optical axes passing through the point P. The coordinates of the point P can be calculated as such an intersection of the optical axis L and the optical axis R.

【0060】次に、受発光部40a、受発光部40bの
構成と、遮蔽された光の光軸を求める機構について説明
する。なお、受発光部40aと40bとは、同様に構成
されている。このため、実施の形態3では、受発光部4
0aに関する構成だけを図示し、受発光部40bに関す
る説明を略すものとする。
Next, the structure of the light emitting / receiving unit 40a and the light emitting / receiving unit 40b and the mechanism for finding the optical axis of the shielded light will be described. The light emitting / receiving sections 40a and 40b have the same configuration. For this reason, in the third embodiment, the light emitting / receiving section 4
Only the configuration relating to 0a is illustrated, and the description relating to the light emitting / receiving unit 40b is omitted.

【0061】図21は、受発光部40aの構成の概略を
示す図で、座標入力面50に垂直方向から受発光部40
aを見た図である。受発光部40aは、概略して点光源
41、集光レンズ42、受光素子43で構成されてい
る。点光源41は、受光素子43と反対側に扇状の光を
照射するもので、扇状の光は、矢印q、矢印r、矢印
s、矢印tの方向に照射、あるいは反射されてくる光束
の集合であると考える。矢印qの方向に照射された光
は、反射部材で矢印rの方向に反射されてくる。そし
て、集光レンズ42通って進み、受光素子43上の点4
3bの位置で受光される。また、矢印sの方向に照射さ
れた光は、反射部材で矢印tの方向に反射され、受光素
子43上の点43aの位置で受光される。
FIG. 21 is a view schematically showing the structure of the light emitting / receiving section 40a.
FIG. The light receiving / emitting unit 40a is roughly composed of a point light source 41, a condenser lens 42, and a light receiving element 43. The point light source 41 irradiates a fan-shaped light to the opposite side to the light receiving element 43, and the fan-shaped light is a set of luminous fluxes irradiated or reflected in the directions of arrows q, r, s, and t. I believe that. The light emitted in the direction of arrow q is reflected by the reflecting member in the direction of arrow r. Then, the light travels through the condensing lens 42, and the point 4 on the light receiving element 43
The light is received at the position 3b. The light emitted in the direction of arrow s is reflected by the reflecting member in the direction of arrow t, and is received at the position of point 43 a on light receiving element 43.

【0062】このように、点光源41から照射され、再
帰性の反射部材で反射された光の光軸とその受光位置と
は、一対一の関係にある。このことから、受光素子43
上の受光強度分布を調べれば、遮蔽された光がどの光軸
を通って照射、あるいは反射されてきたものか分かる。
そして、このような光軸を受発光部40a、受発光部4
0bの両方について求めれば、指によって入力された点
で交わる2直線を求めることができる。
As described above, the optical axis of light emitted from the point light source 41 and reflected by the retroreflective member has a one-to-one relationship with the light receiving position. From this, the light receiving element 43
By examining the above received light intensity distribution, it is possible to know through which optical axis the shielded light has been irradiated or reflected.
Then, such an optical axis is connected to the light receiving / emitting unit 40a, the light receiving / emitting unit 4
By obtaining both of 0b, two straight lines intersecting at the point input by the finger can be obtained.

【0063】図22は、受光素子43上の受光強度と遮
蔽された光の光軸との関係を説明する図である。図22
では、集光レンズ42の中心が点光源41に一致するよ
うに集光レンズ42を配置する。点光源41から照射さ
れた光は、反射部材80で再帰的に反射され、集光レン
ズ42の中心を通って受光素子43上で受光される。こ
のとき、受光素子43上の強度分布は、光を遮蔽するも
のが座標入力面上に無ければほぼ均一になる。しかし、
図中の点Pで光が遮蔽された場合、受光素子43上でこ
の点を通る光の受光位置の受光強度が弱まることにな
る。なお、このような受光強度が弱い受光素子43上の
点を以降暗点という。
FIG. 22 is a diagram for explaining the relationship between the light receiving intensity on the light receiving element 43 and the optical axis of the shielded light. FIG.
Here, the condenser lens 42 is arranged such that the center of the condenser lens 42 coincides with the point light source 41. Light emitted from the point light source 41 is recursively reflected by the reflection member 80 and received on the light receiving element 43 through the center of the condenser lens 42. At this time, the intensity distribution on the light receiving element 43 becomes substantially uniform unless there is a light shielding element on the coordinate input surface. But,
When the light is blocked at the point P in the figure, the light receiving intensity of the light receiving position of the light passing through this point on the light receiving element 43 decreases. Note that such a point on the light receiving element 43 having a low light receiving intensity is hereinafter referred to as a dark point.

【0064】図22中に、暗点の位置を受光素子43中
心の点との距離をDnで示す。この距離Dnは、暗点を
通る直線Lmと受光素子43の中心点を通る直線とがな
す角度θnと以下の式(13)で表される対応関係があ
る。 θn=arctan(Dn/f) …(13) ただし、式(13)中のfは、図22に示すように、集
光レンズ42中心と受光素子43表面との距離である。
[0064] in FIG. 22, showing the position of dark point the distance between the point of the light receiving element 43 centered D n. The distance Dn, the corresponding relationship represented by an angle theta n with the following equation, which forms a straight line passing through the center point of the straight line Lm and the light receiving element 43 through the dark point (13). θ n = arctan (D n / f) (13) where f in the equation (13) is the distance between the center of the condenser lens 42 and the surface of the light receiving element 43 as shown in FIG.

【0065】また、ここで、特に図20の受発光部40
aについてθnをθnLとし、図23で示した角度θLを表
せば、 θL=g(θnL) …(14) ただし、 θnL=arctan(DnL/f) …(15) 式(14)、式(15)の関係は、受発光部40bにつ
いても同様に成り立つ。したがって、受発光部側のθn
をθnRとし、図23のθRを表すと、 θR=h(θnR) …(16) ただし、 θnR=arctan(DnL/f) …(17) が得られる。
Here, in particular, the light emitting / receiving section 40 shown in FIG.
If a is represented by θ n and θ nL and the angle θ L shown in FIG. 23 is expressed, θ L = g (θ nL ) (14) where θ nL = arctan (D nL / f) (15) The relationship between (14) and (15) holds true for the light emitting / receiving unit 40b. Therefore, θ n on the light emitting / receiving section side
Is θ nR and θ R in FIG. 23 is expressed as follows : θ R = h (θ nR ) (16) where θ nR = arctan (D nL / f) (17)

【0066】ここで、受発光部40a、受発光部40b
の取付間隔を図23のようにWとし、原点を図中のoと
すると、点Pの座標P(x,y)は、 x=W・tanθR/(tanθL+tanθR) …(18) y=W・tanθL・tanθR/(tanθL+tanθR) …(19) と表すことができる。以上のように、受発光部40a、
40bに設けられる受光素子43上の暗点を検出し、こ
の暗点と受光素子43の中心からの距離を求めることに
より、点Pの座標を検出することができる。
Here, the light emitting / receiving unit 40a and the light emitting / receiving unit 40b
Assuming that the mounting interval is W as shown in FIG. 23 and the origin is o in the figure, the coordinates P (x, y) of the point P are: x = W · tan θ R / (tan θ L + tan θ R ) (18) y = W · tan θ L · tan θ R / (tan θ L + tan θ R ) (19) As described above, the light emitting / receiving unit 40a,
The coordinates of the point P can be detected by detecting a dark point on the light receiving element 43 provided on the light receiving element 40b and calculating the distance from the dark point to the center of the light receiving element 43.

【0067】次に、以上述べた検出原理に基づいて入力
された点の座標を検出する座標入力装置である、実施の
形態3の構成について説明する。実施の形態3の座標入
力装置は、平面状の座標入力・検出領域である座標入力
面と、座標入力面の略全域に光を照射する複数の発光手
段と、発光手段から照射された光を、発光手段に向けて
反射する反射部材と、反射部材で反射された光を受光で
きる位置に設けられた複数の受光手段とを有する入力部
を備え、このような入力部上において、発光手段が照射
した光が前記受光手段に受光されることを妨げる光遮蔽
部材の位置を座標として入力する座標入力装置である。
Next, the configuration of the third embodiment, which is a coordinate input device for detecting the coordinates of a point input based on the above-described detection principle, will be described. The coordinate input device according to the third embodiment includes a coordinate input surface that is a planar coordinate input / detection region, a plurality of light emitting units that emit light to substantially the entire area of the coordinate input surface, and light emitted from the light emitting unit. A reflective member that reflects toward the light-emitting means, and an input unit having a plurality of light-receiving means provided at positions capable of receiving the light reflected by the reflective member, on such an input unit, the light-emitting means, This is a coordinate input device for inputting, as coordinates, a position of a light shielding member that prevents irradiated light from being received by the light receiving unit.

【0068】そして、このために、発光手段と光遮蔽部
材とを通る直線と、発光手段を通る直線とがなす角度
を、少なくとも2つの発光手段についてそれぞれ検出す
る角度検出手段と、角度検出手段によって検出された角
度と、角度検出に用いられた発光手段間の距離とに基づ
いて、光遮蔽部材の位置を示す2次元座標を算出する座
標算出手段とを有する演算部を備えている。このような
構成のうち、入力部には、角度検出に用いられた発光手
段と座標入力面との間に、指による座標入力を受け付け
ない非入力領域が設けられている。また、演算部には、
パソコンなどが用いられている。
For this purpose, the angle between the straight line passing through the light emitting means and the light shielding member and the straight line passing through the light emitting means is detected by at least two light emitting means. An arithmetic unit having coordinate calculation means for calculating two-dimensional coordinates indicating the position of the light shielding member based on the detected angle and the distance between the light emitting means used for angle detection is provided. In such a configuration, the input unit is provided with a non-input area that does not accept coordinate input by a finger, between the light emitting unit used for angle detection and the coordinate input surface. In addition, the arithmetic unit includes
Personal computers are used.

【0069】図24は、実施の形態3の座標入力装置を
説明するための図で、入力部を正面から見たものであ
る。なお、図24中、図5で説明したのと同様の構成に
ついては同様の符号を付し、説明を一部略すものとす
る。図示した座標入力装置は、座標入力面50と、発光
手段となる2つのビーム整形レンズ群102a、ビーム
整形レンズ群102bと、座標入力面50の三方を囲む
ように設けられた再帰性の反射部材80と、ビーム整形
レンズ群を発光手段とするためのレーザ光源100、ハ
ーフミラー101、ミラー103とを備えている。な
お、ビーム整形レンズ群102a、ビーム整形レンズ群
102bから照射された光は、反射部材80で反射され
て再びビーム整形レンズ群102a、ビーム整形レンズ
群102bに戻ってくる。ビーム整形レンズ群102
a、ビーム整形レンズ群102bの後方にはこのような
反射光を受光する受光手段としての受光素子(図26)
が設られている。
FIG. 24 is a view for explaining a coordinate input device according to the third embodiment, in which the input section is viewed from the front. In FIG. 24, the same components as those described in FIG. 5 are denoted by the same reference numerals, and the description thereof will be partially omitted. The illustrated coordinate input device includes a coordinate input surface 50, two beam shaping lens groups 102a and 102b serving as light emitting means, and a recursive reflecting member provided so as to surround three sides of the coordinate input surface 50. 80, a laser light source 100 for using a beam shaping lens group as a light emitting unit, a half mirror 101, and a mirror 103. The light emitted from the beam shaping lens group 102a and the beam shaping lens group 102b is reflected by the reflecting member 80 and returns to the beam shaping lens group 102a and the beam shaping lens group 102b again. Beam shaping lens group 102
a, a light receiving element as a light receiving means for receiving such reflected light behind the beam shaping lens group 102b (FIG. 26)
Is provided.

【0070】また、ビーム整形レンズ群102a、ビー
ム整形レンズ群102bと座標入力面50との間には、
非入力領域Gが設けてあって、この幅dは、前述した基
準に基づいて0.06W以上の長さに設定されている。
なお、このような非入力領域も、実施の形態1と同様に
カバーなどをかけてオペレータに非入力領域であること
を認識させる、あるいは検出した座標が非入力領域Gの
範囲内であった場合にはこの座標をアプリケーション側
に返さないといった方法で入力を受け付けないようにす
ることができる。
Further, between the beam shaping lens group 102a and the beam shaping lens group 102b and the coordinate input surface 50,
A non-input area G is provided, and the width d is set to a length of 0.06 W or more based on the above-described standard.
It should be noted that such a non-input area is also covered with a cover or the like as in the first embodiment so that the operator can recognize the non-input area, or when the detected coordinates are within the range of the non-input area G. In such a case, the input may not be accepted in such a manner that the coordinates are not returned to the application side.

【0071】図24の座標入力装置では、一つの光源1
00の光にハーフミラー101を透過、あるいは反射さ
せ、分岐して2つのビーム整形レンズ群102a、10
2bを介して座標入力面に2方向から光を照射するよう
構成している。このような光源100には、レーザダイ
オードやピンポイントLEDといったスポットをある程
度絞ることが可能なものが用いられる。ビーム整形レン
ズ群102a、102bは、それぞれ図25のように、
シルンドリカルレンズ112、シルンドリカルレンズ1
13、シリンドリカルレンズ114によって構成されて
いる。ビーム整形レンズ群102a、102bは、図2
4に示すように、互いに距離W離して取り付けられてお
り、スポット光を、扇状の広がりを持ち(図25a)、
かつ座標入力面50と平行な光束に整形する(図25
b)。なお、実施の形態3、実施の形態4中の「発光手
段を通る直線」の表現は、このビーム整形レンズ群10
2a、102bの略中心を通る直線を指すものとする。
In the coordinate input device shown in FIG.
The light of No. 00 is transmitted or reflected by the half mirror 101, branched and split into two beam shaping lens groups 102 a,
The coordinate input surface is configured to emit light from two directions via 2b. As such a light source 100, a light source such as a laser diode or a pinpoint LED that can narrow the spot to some extent is used. The beam shaping lens groups 102a and 102b are respectively arranged as shown in FIG.
Shirundical lens 112, Shirundical lens 1
13. It is composed of a cylindrical lens 114. The beam shaping lens groups 102a and 102b correspond to FIG.
As shown in FIG. 4, they are attached at a distance W from each other, and the spot light has a fan-shaped spread (FIG. 25a).
The light beam is shaped into a light beam parallel to the coordinate input surface 50 (FIG. 25).
b). Note that the expression “straight line passing through the light emitting means” in the third and fourth embodiments refers to the beam shaping lens group 10.
A straight line passing through substantially the centers of 2a and 102b is indicated.

【0072】図26は、図24、図25に示した座標入
力装置の光学系を、より詳しく説明するための図で、図
26(a)は、実施の形態3の発光、受光の構成を説明
するための模式図、(b)は、(a)の模式図の発光に
係る構成を示す図、(c)は、(a)の受光に係る構成
を説明する図である。なお、図26(a)〜(c)は、
いずれもそれぞれの図中に示す座標軸に従う方向から見
たものとする。
FIG. 26 is a diagram for explaining the optical system of the coordinate input device shown in FIGS. 24 and 25 in more detail. FIG. 26 (a) shows the structure of light emission and light reception according to the third embodiment. FIG. 2B is a schematic diagram for explaining, FIG. 2B is a diagram illustrating a configuration related to light emission in the schematic diagram of FIG. 2A, and FIG. 2C is a diagram illustrating a configuration related to light reception in FIG. 26 (a) to 26 (c)
Each is viewed from the direction according to the coordinate axes shown in each figure.

【0073】光源100の光は、ハーフミラー101で
例えばビーム整形レンズ群102aに向かった後、シリ
ンドリカルレンズ112によってx方向にのみコリメー
トされる。そして、さらにシリンドリカルレンズ11
3、シリンドリカルレンズ114で図中y方向に集光さ
れる。このようなシリンドリカルレンズ112とシリン
ドリカルレンズ113、シリンドリカルレンズ114と
は、その曲率分布が互いに直交している。3枚のシリン
ドリカルレンズを通過してきた光は、集光部cで線状に
集光する。この集光部cは、前述した座標検出原理の点
光源41に相当することから、以降、二次光源ともいう
ものとする。
The light from the light source 100 is directed to, for example, the beam shaping lens group 102 a by the half mirror 101, and is then collimated by the cylindrical lens 112 only in the x direction. Further, the cylindrical lens 11
3. Light is collected by the cylindrical lens 114 in the y direction in the figure. The curvature distribution of the cylindrical lens 112, the cylindrical lens 113, and the cylindrical lens 114 is orthogonal to each other. Light that has passed through the three cylindrical lenses is condensed linearly at the light condensing part c. Since this light condensing portion c corresponds to the point light source 41 based on the above-described coordinate detection principle, it will be referred to as a secondary light source hereinafter.

【0074】また、ビーム整形レンズ群102aから光
を取り出す取出口にはスリットsが設けてあって、スリ
ットsから二次光源cの光が座標入力面に向けて照射さ
れる。実施の形態3では、スリットsの位置と二次光源
cの位置とが一致しているものとする。この照射光は、
ハーフミラー87によって折り返されてディスプレイ
(Di)の正面にいるオペレータの側から見て扇状に広
がる(図26(b))。このとき、照射光は、シリンド
リカルレンズ112でコリメートされていることによ
り、座標入力面の垂直方向には広がらず、座標入力面に
平行な光となる。
Further, a slit s is provided at an outlet for extracting light from the beam shaping lens group 102a, and light from the secondary light source c is emitted from the slit s toward the coordinate input surface. In the third embodiment, it is assumed that the position of the slit s and the position of the secondary light source c match. This irradiation light
It is folded back by the half mirror 87 and spreads like a fan when viewed from the side of the operator in front of the display (Di) (FIG. 26B). At this time, since the irradiation light is collimated by the cylindrical lens 112, it does not spread in the vertical direction of the coordinate input surface, but becomes light parallel to the coordinate input surface.

【0075】座標入力面50上に広がった光は、反射部
材80で反射され、出射されたときと同じ光軸を通って
ビーム整形レンズ群102aに向かって進む。そして、
ハーフミラー87を透過した後に集光レンズ42を通っ
て受光素子43に受光される。実施の形態3の受光素子
は、複数のCCD撮像素子をマトリックス状に配置して
構成されている。このとき、座標入力面50上に座標を
入力するために置かれた指があれば、この指が光の遮蔽
物となって受光素子43のいずれかのCCD撮像素子に
光が受光されずに暗点を生じる。この暗点となったCC
D撮像素子の受光素子43上における位置から前述した
式(13)のDnが求められ、このDnに基づいて指の置
かれた点の座標が算出できる(図26(c))。
The light spread on the coordinate input surface 50 is reflected by the reflecting member 80, and travels through the same optical axis as when emitted, toward the beam shaping lens group 102a. And
After passing through the half mirror 87, the light is received by the light receiving element 43 through the condenser lens 42. The light receiving element according to the third embodiment is configured by arranging a plurality of CCD imaging elements in a matrix. At this time, if there is a finger placed on the coordinate input surface 50 for inputting coordinates, this finger acts as a light shield and no light is received by any of the CCD image pickup elements of the light receiving elements 43. Produces dark spots. CC that became this scotoma
From the position of the D imaging element on the light receiving element 43, D n of the above-described equation (13) is obtained, and the coordinates of the point where the finger is placed can be calculated based on this D n (FIG. 26C).

【0076】以上述べた実施の形態3は、照射された光
が遮蔽されることによる座標入力装置において、座標入
力面の全域で座標検出精度を画素ピッチ以下に抑えるこ
とができる。したがって、座標入力装置の信頼性を高め
ると共に、座標入力面内での座標検出精度のばらつきを
なくすことができる。
According to the third embodiment described above, in the coordinate input device in which the irradiated light is shielded, the coordinate detection accuracy can be suppressed to the pixel pitch or less over the entire area of the coordinate input surface. Therefore, it is possible to improve the reliability of the coordinate input device and eliminate the variation in the coordinate detection accuracy in the coordinate input plane.

【0077】(実施の形態4)次に、本発明の実施の形
態4について説明する。実施の形態4の座標入力装置
は、座標入力面と非同一面上に非検出領域設けると共
に、発光手段から照射された光の光軸が座標入力面と平
行になるように偏向する光軸偏向手段をさらに備えたも
のである。
(Embodiment 4) Next, Embodiment 4 of the present invention will be described. The coordinate input device according to the fourth embodiment is provided with a non-detection area on a non-coplanar surface with the coordinate input surface, and an optical axis deflection for deflecting the light emitted from the light emitting means so that the optical axis is parallel to the coordinate input surface. Means are further provided.

【0078】図27は、実施の形態4を説明するための
図の一つである。図27で示した座標入力装置の構成
は、座標入力面をCRTやリアルプロジェクション型の
ディスプレイなどに設けたものである。図27(a)
は、このような座標入力装置の上面を示す図、(b)
は、側面を示す図である。なお、図27中、図18に示
したものと同様の部材については同様の符号を付し、説
明を一部略すものとする。
FIG. 27 is a diagram for explaining the fourth embodiment. In the configuration of the coordinate input device shown in FIG. 27, a coordinate input surface is provided on a CRT, a real projection type display, or the like. FIG. 27 (a)
FIG. 1B is a diagram showing the upper surface of such a coordinate input device, FIG.
FIG. 27, the same members as those shown in FIG. 18 are denoted by the same reference numerals, and the description thereof will be partially omitted.

【0079】実施の形態4は、受発光部40a、受発光
部40bをディスプレイ(Di)の筐体204上に設置
し、この設置面を非入力領域として使用するものであ
る。このために、破線202で示した筐体204上面の
端部と受発光部40a、受発光部40bとの距離dは、
受発光部間の距離の0.06倍以上に設定されている。
また、実施の形態4では、受発光部40a、40bとし
て実施の形態3と同様にスポット光を整形するビーム整
形レンズ群と受光素子とを用い、両者をまとめて受発光
部というものとする。
In the fourth embodiment, the light emitting / receiving unit 40a and the light emitting / receiving unit 40b are installed on the housing 204 of the display (Di), and the installation surface is used as a non-input area. For this reason, the distance d between the end of the upper surface of the housing 204 indicated by the broken line 202 and the light emitting / receiving units 40a and 40b is:
The distance is set to 0.06 times or more of the distance between the light receiving and emitting units.
Further, in the fourth embodiment, a beam shaping lens group for shaping the spot light and a light receiving element are used as the light receiving and emitting units 40a and 40b as in the third embodiment, and both are collectively referred to as a light receiving and emitting unit.

【0080】さらに、実施の形態4の座標入力装置に
は、受発光部40a、受発光部40bが照射した光を座
標入力面50に向かうように偏向する反射ミラー201
が設けられている。反射ミラー201の反射角度は、照
射した光が非入力面、座標入力面50の両方に平行に進
むような角度に設定されており、実施の形態4では、光
を90度に反射するようになっている。
Further, the coordinate input device according to the fourth embodiment includes a reflecting mirror 201 for deflecting the light emitted from the light emitting / receiving unit 40a and the light emitting / receiving unit 40b toward the coordinate input surface 50.
Is provided. The reflection angle of the reflection mirror 201 is set such that the irradiated light travels in parallel to both the non-input surface and the coordinate input surface 50. In the fourth embodiment, the light is reflected at 90 degrees. Has become.

【0081】また、図28は、実施の形態4の他の構成
を説明するための図で、図28(a)は、この座標入力
装置の上面を示す図、(b)は、側面を示す図である。
なお、図28についても、図中、図19、図27に示し
たものと同様の部材については同様の符号を付し、説明
を一部略すものとする。
FIG. 28 is a view for explaining another configuration of the fourth embodiment. FIG. 28 (a) shows a top view of the coordinate input device, and FIG. 28 (b) shows a side view. FIG.
In FIG. 28, the same members as those shown in FIGS. 19 and 27 are denoted by the same reference numerals, and the description thereof will be partially omitted.

【0082】このような構成は、ホワイトボード、プラ
ズマディスプレイ、液晶ディスプレイといった板状の部
材に座標入力面を設ける場合に適用されるもので、受発
光部40a、受発光部40bをディスプレイ(Di)の
板状の筐体205裏面に設置する。そして、この設置面
を非入力領域として使用するものである。このために、
破線203で示した筐体205の背面端部と受発光部4
0a、受発光部40bとの距離dは、受発光部40a、
受発光部40b間の距離の0.06倍以上に設定されて
いる。
Such a configuration is applied to a case where a coordinate input surface is provided on a plate-shaped member such as a white board, a plasma display, or a liquid crystal display. The light receiving / emitting unit 40a and the light receiving / emitting unit 40b are connected to a display (Di). On the back of the plate-like housing 205. The installation surface is used as a non-input area. For this,
The back end of the housing 205 and the light emitting / receiving unit 4 indicated by a broken line 203
0a, the distance d from the light emitting / receiving unit 40b is
The distance is set to 0.06 times or more the distance between the light receiving / emitting units 40b.

【0083】また、このような構成には、受発光部40
a、受発光部40bから照射された光をいったん筐体2
05の上面に平行になるよう偏向する反射ミラー201
a、さらに座標入力面50と平行になるように偏向する
反射ミラー201bが設けられている。反射ミラー20
1a、201bの反射角度は、それぞれ非入力面と平行
な面上を進む光が座標入力面50と平行に進むような角
度になるように設定されており、図28に示した構成で
は、それぞれ光を90度に反射するようになっている。
Further, in such a configuration, the light emitting / receiving section 40 is provided.
a, the light emitted from the light emitting / receiving unit 40b is
Reflection mirror 201 that deflects so as to be parallel to the upper surface of 05
a, and a reflection mirror 201b that deflects the light so as to be parallel to the coordinate input surface 50 is provided. Reflection mirror 20
The reflection angles of 1a and 201b are set so that the light traveling on a plane parallel to the non-input surface travels in parallel with the coordinate input surface 50. In the configuration shown in FIG. Light is reflected at 90 degrees.

【0084】以上述べた実施の形態4は、先に述べた実
施の形態3から得られる効果に加え、非入力面が占める
スペースを節減でき、座標入力装置が大型化することを
抑えることができる。
In the fourth embodiment, in addition to the effects obtained in the third embodiment, the space occupied by the non-input surface can be reduced, and the size of the coordinate input device can be suppressed. .

【0085】また、本発明は、以上述べた実施の形態
3、実施の形態4に限定されるものではない。すなわ
ち、発光手段、受光手段(受発光部)は、一般的に座標
入力装置に適用されるものであればどのような構成でも
良い。実施の形態3、実施の形態4の座標入力装置に適
用可能な光学的機構としては、例えば、従来からある、
照射部が光を入力座標面内で走査するもの、さらにこの
反射部材を円筒体表面に設けたものが考えられる。さら
に、周囲光に対する電気的フォトトランジスタ補償を使
って光遮断を検出するものを用いることも可能である。
The present invention is not limited to the third and fourth embodiments described above. That is, the light-emitting unit and the light-receiving unit (light-receiving / emitting unit) may have any configuration as long as it is generally applied to a coordinate input device. As an optical mechanism applicable to the coordinate input device according to the third and fourth embodiments, for example,
It is conceivable that the irradiating unit scans light in the input coordinate plane and that the reflecting member is provided on the surface of the cylindrical body. It is also possible to use one that detects light blocking using electrical phototransistor compensation for ambient light.

【0086】[0086]

【発明の効果】以上述べた本発明は、以下の効果を奏す
る。すなわち、請求項1記載の発明は、座標入力・検出
領域のうち、特に検出精度の低い部位に入力された点に
ついては、この座標の算出を避け、座標入力装置の座標
検出精度を高めると共に、装置の信頼性を高めることが
できる。したがって、請求項1記載の発明は、座標入力
面内での検出精度のばらつきをなくし、また、検出角度
の誤差が座標の検出精度に影響し難い座標入力装置を提
供することができる。
The present invention described above has the following effects. In other words, the invention according to claim 1 avoids calculating the coordinates of a point input to a part having a particularly low detection accuracy in the coordinate input / detection area, and increases the coordinate detection accuracy of the coordinate input device. The reliability of the device can be improved. Therefore, the first aspect of the present invention can provide a coordinate input device that eliminates a variation in detection accuracy within a coordinate input surface and in which an error in a detection angle hardly affects the coordinate detection accuracy.

【0087】請求項2記載の発明は、最適な非検出領域
の幅を設定することができ、非検出領域を設けることに
よる座標入力面の縮小を最低限に抑えながら、実質的に
座標の検出精度の低下が生じる領域を非検出領域とする
ことができる。
According to the second aspect of the present invention, the optimum width of the non-detection area can be set, and the coordinate detection can be substantially performed while minimizing the reduction of the coordinate input surface due to the provision of the non-detection area. A region where the accuracy is reduced can be set as a non-detection region.

【0088】請求項3記載の発明は、座標入力・検出領
域をより広くとることができ、座標入力装置を小型化す
ることもできる。
According to the third aspect of the present invention, the coordinate input / detection area can be made wider, and the size of the coordinate input device can be reduced.

【0089】請求項4記載の発明は、発光した光が遮蔽
されることによって入力された点を検出する座標入力装
置において、座標入力・検出領域のうち、特に検出精度
の低い部位に入力された点については、この座標の算出
を避け、座標入力装置の座標検出精度を高めると共に、
装置の信頼性を高めることができる。したがって、請求
項4記載の発明は、発光した光が遮蔽されることによっ
て入力された点を検出する座標入力装置において、座標
入力面内での検出精度のばらつきをなくし、また、検出
角度の誤差が座標の検出精度に影響し難い座標入力装置
を提供することができる。
According to a fourth aspect of the present invention, there is provided a coordinate input device for detecting a point input by blocking emitted light, wherein the input is made to a portion having a particularly low detection accuracy in a coordinate input / detection area. For points, avoid calculating these coordinates, improve the coordinate detection accuracy of the coordinate input device,
The reliability of the device can be increased. Therefore, according to the present invention, in a coordinate input device for detecting a point input by shielding emitted light, a variation in detection accuracy in a coordinate input plane is eliminated, and an error in detection angle is eliminated. Can provide a coordinate input device that hardly affects the coordinate detection accuracy.

【0090】請求項5記載の発明は、発光した光が遮蔽
されることによって入力された点を検出する座標入力装
置において、最適な非検出領域の幅を設定することがで
き、非検出領域を設けることによる座標入力面の縮小を
最低限に抑えながら、実質的に座標の検出精度の低下が
生じる領域を非検出領域とすることができる。
According to a fifth aspect of the present invention, in a coordinate input device for detecting a point input by blocking emitted light, an optimum width of a non-detection area can be set, and The area where the detection accuracy of the coordinate is substantially reduced can be set as the non-detection area while minimizing the reduction of the coordinate input surface due to the provision.

【0091】請求項6記載の発明は、発光した光が遮蔽
されることによって入力された点を検出する座標入力装
置において、座標入力・検出領域をより広くとることが
でき、座標入力装置を小型化することもできる。
According to a sixth aspect of the present invention, in a coordinate input device for detecting a point input by blocking emitted light, a coordinate input / detection area can be made wider, and the coordinate input device can be reduced in size. It can also be converted.

【図面の簡単な説明】[Brief description of the drawings]

【図1】点の座標を三角測量法で算出する方法を説明す
る図である。
FIG. 1 is a diagram illustrating a method of calculating the coordinates of a point by a triangulation method.

【図2】座標変動量を座標入力面内の分布として表した
図である。
FIG. 2 is a diagram showing a coordinate variation amount as a distribution in a coordinate input plane.

【図3】図2中に示した直線Eで図2を切った断面図で
ある。
FIG. 3 is a sectional view of FIG. 2 taken along a straight line E shown in FIG. 2;

【図4】非入力領域を模式的に示した図である。FIG. 4 is a diagram schematically showing a non-input area.

【図5】実施の形態1の入力部を説明するための図で、
入力部の正面図である。
FIG. 5 is a diagram for explaining an input unit according to the first embodiment;
It is a front view of an input part.

【図6】図5中の線分V−V’に沿う入力部の断面図で
ある。
FIG. 6 is a cross-sectional view of the input unit taken along line VV ′ in FIG. 5;

【図7】実施の形態1の遮光板を説明するための図であ
る。
FIG. 7 is a diagram for explaining a light shielding plate according to the first embodiment.

【図8】実施の形態1の背景板を説明するための図で、
その一部を示す正面図である。
FIG. 8 is a diagram for explaining a background plate according to the first embodiment;
It is a front view which shows a part.

【図9】実施の形態1の演算部を説明するためのブロッ
ク図である。
FIG. 9 is a block diagram for explaining a calculation unit according to the first embodiment;

【図10】実施の形態1の基準画像を例示する図であ
る。
FIG. 10 is a diagram illustrating a reference image according to the first embodiment;

【図11】実施の形態1の入力部および演算部の動作を
説明するための図で、座標入力面上に点を入力した状態
を示す図である。
FIG. 11 is a diagram for explaining operations of the input unit and the calculation unit according to the first embodiment, and is a diagram illustrating a state where a point is input on the coordinate input surface.

【図12】実施の形態1の入力部および演算部の動作を
説明するための図で、図11の電子カメラで撮像した画
像を示す図である。
FIG. 12 is a diagram for explaining operations of the input unit and the calculation unit according to the first embodiment, and is a diagram illustrating an image captured by the electronic camera in FIG. 11;

【図13】実施の形態1の入力部および演算部の動作を
説明するための図で、座標入力の一連の処理を説明する
ための図である。
FIG. 13 is a diagram for explaining operations of an input unit and a calculation unit according to the first embodiment, and is a diagram for explaining a series of processes of coordinate input.

【図14】実施の形態1の入力部および演算部の動作を
説明するための図で、図11のうちの電子カメラを拡大
して示す図である。
FIG. 14 is a diagram for explaining operations of an input unit and a calculation unit according to the first embodiment, and is an enlarged view of the electronic camera in FIG. 11;

【図15】実施の形態1の座標入力面上で指を浮かせた
状態を示す図である。
FIG. 15 is a diagram illustrating a state where a finger is lifted on the coordinate input surface according to the first embodiment;

【図16】図14を、紙面に垂直な方向から見た図であ
る。
FIG. 16 is a diagram of FIG. 14 viewed from a direction perpendicular to the paper surface.

【図17】実施の形態1の処理を説明するためのフロー
チャートである。
FIG. 17 is a flowchart illustrating a process according to the first embodiment;

【図18】実施の形態2の座標入力装置を説明するため
の図で、(a)は、座標入力装置の上面を示す図、
(b)は、側面を示す図である。
FIGS. 18A and 18B are views for explaining the coordinate input device according to the second embodiment, in which FIG.
(B) is a figure which shows a side surface.

【図19】実施の形態2の座標入力装置を説明するため
の他の図で、(a)は、座標入力装置の上面を示す図、
(b)は、側面を示す図である。
FIG. 19 is another view for explaining the coordinate input device according to the second embodiment, in which (a) shows a top view of the coordinate input device;
(B) is a figure which shows a side surface.

【図20】実施の形態3の座標入力装置の座標検出原理
について説明する図である。
FIG. 20 is a diagram for explaining the principle of coordinate detection of the coordinate input device according to the third embodiment.

【図21】実施の形態3の座標入力装置の座標検出原理
について説明する他の図である。
FIG. 21 is another diagram illustrating the principle of detecting coordinates of the coordinate input device according to the third embodiment;

【図22】実施の形態3の座標入力装置の座標検出原理
について説明する他の図である。
FIG. 22 is another diagram illustrating the principle of coordinate detection of the coordinate input device according to the third embodiment;

【図23】実施の形態3の座標入力装置の座標検出原理
について説明する他の図である。
FIG. 23 is another diagram illustrating the principle of detecting coordinates of the coordinate input device according to the third embodiment;

【図24】実施の形態3の座標入力装置を説明するため
の図で、入力部を正面から見たものである。
FIG. 24 is a diagram for explaining the coordinate input device according to the third embodiment, where the input unit is viewed from the front.

【図25】図24中に示したビーム整形レンズ群の構成
を説明するための図である。
FIG. 25 is a diagram for explaining the configuration of the beam shaping lens group shown in FIG.

【図26】図24、図25に示した座標入力装置の光学
系を、より詳しく説明するための図で、(a)は、発
光、受光の構成を説明するための模式図、(b)は、
(a)の模式図の発光に係る構成を示す図、(c)は、
(a)の受光に係る構成を説明する図である。
26A and 26B are diagrams for explaining the optical system of the coordinate input device shown in FIGS. 24 and 25 in more detail, where FIG. 26A is a schematic diagram for explaining the configuration of light emission and light reception, and FIG. Is
FIG. 3A is a schematic diagram illustrating a configuration related to light emission in a schematic diagram, and FIG.
It is a figure explaining composition concerning light reception of (a).

【図27】実施の形態4の座標入力装置を説明するため
の図で、(a)は、座標入力装置の上面を示す図、
(b)は、側面を示す図である。
FIGS. 27A and 27B are diagrams illustrating a coordinate input device according to a fourth embodiment, where FIG. 27A illustrates a top view of the coordinate input device;
(B) is a figure which shows a side surface.

【図28】実施の形態4の座標入力装置を説明するため
の他の図で、(a)は、座標入力装置の上面を示す図、
(b)は、側面を示す図である。
FIG. 28 is another diagram for explaining the coordinate input device according to the fourth embodiment, in which (a) is a diagram showing an upper surface of the coordinate input device;
(B) is a figure which shows a side surface.

【符号の説明】[Explanation of symbols]

2 支持体 4a、4b 電子カメラ 5、50 座標入力面 6 結像光学レンズ 7 背景板 9 インターフェイス 10 CPU 11 ROM 12 RAM 12a 座標メモリ 13 タイマ 14 積分器 15 二次元イメージセンサ 16 EEPROM 16a 基準画像メモリ 18 xyz演算器 20、251 切欠部 25 遮光板 40a、40b 受発光部 51 境界線 2 Support 4a, 4b Electronic Camera 5, 50 Coordinate Input Surface 6 Imaging Optical Lens 7 Background Plate 9 Interface 10 CPU 11 ROM 12 RAM 12a Coordinate Memory 13 Timer 14 Integrator 15 2D Image Sensor 16 EEPROM 16a Reference Image Memory 18 xyz calculator 20, 251 Notch 25 Light shield 40a, 40b Light emitting / receiving section 51 Boundary line

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 平面状の座標入力・検出領域と、 前記座標入力・検出領域上にある点を指定する指定部材
を検出し、指定された点の位置を入力する複数の指定点
入力手段と、 前記指定点入力手段と指定部材とを通る直線と、前記指
定点入力手段を通る直線とがなす角度を、少なくとも2
つの前記指定点入力手段についてそれぞれ検出する角度
検出手段と、 前記角度検出手段によって検出された角度と、角度検出
に用いられた前記指定点入力手段間の距離とに基づい
て、指定部材が指定した点の2次元座標を算出する座標
算出手段とを有してなり、 角度検出に用いられた前記指定点入力手段と前記座標入
力・検出領域との間に、前記指定点入力手段が前記指定
部材による点の入力を受け付けない非入力領域を設ける
ことを特徴とする座標入力装置。
1. A planar coordinate input / detection area, and a plurality of designated point input means for detecting a designated member that designates a point on the coordinate input / detected area and inputting the position of the designated point The angle formed by a straight line passing through the designated point input means and the designated member and a straight line passing through the designated point input means is at least 2 degrees.
Angle detecting means for detecting each of the designated point input means, an angle detected by the angle detecting means, and a designated member designated based on a distance between the designated point input means used for angle detection. Coordinate calculating means for calculating two-dimensional coordinates of a point, wherein the designated point input means is provided between the designated point input means used for angle detection and the coordinate input / detection area. A non-input area which does not accept input of a point by a coordinate input device.
【請求項2】 前記非入力領域は、前記座標入力・検出
領域との境界線と角度検出に用いられた前記指定点入力
手段同士を通る直線との最短距離で表される所定の幅を
有し、前記所定の幅は、角度検出に用いられた前記指定
点入力手段間の距離の0.06倍以上であることを特徴
とする請求項1記載の座標入力装置。
2. The non-input area has a predetermined width represented by a shortest distance between a boundary between the coordinate input / detection area and a straight line passing through the designated point input means used for angle detection. The coordinate input device according to claim 1, wherein the predetermined width is at least 0.06 times the distance between the designated point input means used for angle detection.
【請求項3】 前記座標入力・検出領域と非同一面上に
前記非検出領域設けると共に、前記指定部材を検出する
ための信号を、前記非入力領域に平行で、かつ前記座標
入力手段に向くように偏向する検出信号偏向手段をさら
に有することを特徴とする請求項1または2に記載の座
標入力装置。
3. The non-detection area is provided on a non-coplanar surface with the coordinate input / detection area, and a signal for detecting the designated member is directed in parallel with the non-input area and toward the coordinate input means. 3. The coordinate input device according to claim 1, further comprising a detection signal deflecting means for deflecting as described above.
【請求項4】 平面状の座標入力・検出領域と、前記座
標入力・検出領域の略全域に光を照射する複数の発光手
段と、前記発光手段から照射された光を、前記発光手段
に向けて反射する反射部材と、前記反射部材で反射され
た光を受光できる位置に設けられた複数の受光手段とを
有し、座標入力・検出領域上において、前記発光手段が
照射した光が前記受光手段に受光されることを妨げる光
遮蔽部材の位置を座標として入力する座標入力装置であ
って、 前記発光手段と光遮蔽部材とを通る直線と、前記発光手
段を通る直線とがなす角度を、少なくとも2つの前記発
光手段についてそれぞれ検出する角度検出手段と、 前記角度検出手段によって検出された角度と、角度検出
に用いられた前記発光手段間の距離とに基づいて、光遮
蔽部材の位置を示す2次元座標を算出する座標算出手段
とを有してなり、 角度検出に用いられた前記発光手段と前記座標入力・検
出領域との間に、前記光遮蔽部材による座標入力を受け
付けない非入力領域を設けることを特徴とする座標入力
装置。
4. A planar coordinate input / detection area, a plurality of light emitting means for irradiating substantially the entire area of the coordinate input / detection area, and a light emitted from the light emitting means directed to the light emitting means. And a plurality of light receiving means provided at positions where the light reflected by the reflecting member can be received. On a coordinate input / detection area, the light emitted by the light emitting means receives the light received by the light receiving means. A coordinate input device for inputting, as coordinates, a position of a light shielding member that prevents light from being received by the unit, and an angle between a straight line passing through the light emitting unit and the light shielding member and a straight line passing through the light emitting unit. Angle detecting means for detecting at least two of the light emitting means, an angle detected by the angle detecting means, and a position of the light shielding member based on a distance between the light emitting means used for angle detection. A coordinate calculating means for calculating two-dimensional coordinates, wherein a non-input that does not accept a coordinate input by the light shielding member is provided between the light emitting means used for angle detection and the coordinate input / detection area. A coordinate input device provided with an area.
【請求項5】 前記非入力領域は、前記座標入力・・検
出領域との境界線と角度検出に用いられた前記発光手段
同士を通る直線との最短距離で表される所定の幅を有
し、前記所定の幅は、角度検出に用いられた前記発光手
段間の距離の0.06倍以上であることを特徴とする請
求項4記載の座標入力装置。
5. The non-input area has a predetermined width represented by a shortest distance between a boundary between the coordinate input and detection area and a straight line passing through the light emitting means used for angle detection. 5. The coordinate input device according to claim 4, wherein said predetermined width is at least 0.06 times the distance between said light emitting means used for angle detection.
【請求項6】 前記座標入力・検出領域と非同一面上に
前記非検出領域設けると共に、前記発光手段から照射さ
れた光の光軸が前記座標入力・検出領域と平行になるよ
うに偏向する光軸偏向手段をさらに備えることを特徴と
する請求項4または5に記載の座標入力装置。
6. The non-detection region is provided on a non-coplanar surface with the coordinate input / detection region, and is deflected so that an optical axis of light emitted from the light emitting means is parallel to the coordinate input / detection region. The coordinate input device according to claim 4, further comprising an optical axis deflecting unit.
JP12640199A 1999-05-06 1999-05-06 Coordinate input device Pending JP2000322201A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12640199A JP2000322201A (en) 1999-05-06 1999-05-06 Coordinate input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12640199A JP2000322201A (en) 1999-05-06 1999-05-06 Coordinate input device

Publications (2)

Publication Number Publication Date
JP2000322201A true JP2000322201A (en) 2000-11-24
JP2000322201A5 JP2000322201A5 (en) 2004-10-28

Family

ID=14934254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12640199A Pending JP2000322201A (en) 1999-05-06 1999-05-06 Coordinate input device

Country Status (1)

Country Link
JP (1) JP2000322201A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040014763A (en) * 2002-08-12 2004-02-18 이문기 Pointing apparatus using laser and camera
JP2004054065A (en) * 2002-07-23 2004-02-19 Saeilo Japan Inc Show window interactive display device
WO2004104810A1 (en) * 2003-05-19 2004-12-02 Eit Co., Ltd. Position sensor using area image sensor
KR100809541B1 (en) 2006-09-08 2008-03-07 삼성중공업 주식회사 How to Calibrate Large Area Panel Measurement Systems
JP2008282283A (en) * 2007-05-11 2008-11-20 Canon Inc Coordinate input device, coordinate detection method, and computer program
KR101032952B1 (en) 2009-12-31 2011-05-09 주식회사 세바비드코어 Coordinate Generation Method for Surveillance Camera System
US8013598B2 (en) 2006-06-19 2011-09-06 Newcom, Inc. Object detecting device for detecting object using electromagnetic induction
WO2011055952A3 (en) * 2009-11-05 2011-11-03 Jeong Seung-Tae Apparatus for recognizing the position of an indicating object
CN103257754A (en) * 2013-05-15 2013-08-21 广州视睿电子科技有限公司 Touch identification method and device of optical imaging touch screen
US8563880B2 (en) 2006-10-24 2013-10-22 Newcom, Inc. Operating tool with conductor pieces

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004054065A (en) * 2002-07-23 2004-02-19 Saeilo Japan Inc Show window interactive display device
KR20040014763A (en) * 2002-08-12 2004-02-18 이문기 Pointing apparatus using laser and camera
WO2004104810A1 (en) * 2003-05-19 2004-12-02 Eit Co., Ltd. Position sensor using area image sensor
US8330726B2 (en) 2003-05-19 2012-12-11 Xiroku, Inc. Position detection apparatus using area image sensor
US8013598B2 (en) 2006-06-19 2011-09-06 Newcom, Inc. Object detecting device for detecting object using electromagnetic induction
KR100809541B1 (en) 2006-09-08 2008-03-07 삼성중공업 주식회사 How to Calibrate Large Area Panel Measurement Systems
US8563880B2 (en) 2006-10-24 2013-10-22 Newcom, Inc. Operating tool with conductor pieces
JP2008282283A (en) * 2007-05-11 2008-11-20 Canon Inc Coordinate input device, coordinate detection method, and computer program
WO2011055952A3 (en) * 2009-11-05 2011-11-03 Jeong Seung-Tae Apparatus for recognizing the position of an indicating object
US8847882B2 (en) 2009-11-05 2014-09-30 Smart Sense Technology Co., Ltd Apparatus for recognizing the position of an indicating object
KR101032952B1 (en) 2009-12-31 2011-05-09 주식회사 세바비드코어 Coordinate Generation Method for Surveillance Camera System
CN103257754A (en) * 2013-05-15 2013-08-21 广州视睿电子科技有限公司 Touch identification method and device of optical imaging touch screen
CN103257754B (en) * 2013-05-15 2015-10-28 广州视睿电子科技有限公司 Touch identification method and device of optical imaging touch screen

Similar Documents

Publication Publication Date Title
JP3934846B2 (en) Coordinate input / detection device, electronic blackboard system, light receiving element positional deviation correction method, and storage medium
JP4094794B2 (en) Coordinate detection apparatus, information storage medium, and coordinate detection method
US7443387B2 (en) Coordinate input apparatus, its control method, and program
US7432914B2 (en) Coordinate input apparatus, its control method, and program
JP3905670B2 (en) Coordinate input detection apparatus, information storage medium, and coordinate input detection method
KR20010014970A (en) Optical unit for detecting object and coordinate input apparatus using the same
US20050023448A1 (en) Position-detecting device
US20110074738A1 (en) Touch Detection Sensing Apparatus
US20080291179A1 (en) Light Pen Input System and Method, Particularly for Use with Large Area Non-Crt Displays
JP2003114755A (en) Coordinate input device
US20110084938A1 (en) Touch detection apparatus and touch point detection method
JP2000322201A (en) Coordinate input device
KR20010051563A (en) Optical digitizer using curved mirror
JP2000322201A5 (en)
JP2002351615A (en) Display device
KR20010113515A (en) Device for detecting tilt angle of optical axis and image measuring apparatus equipped therewith
JP3931030B2 (en) Position detection device
JP2003186616A (en) Information input device, information input and output system, program, and recording medium
JP4004177B2 (en) Optical scanning touch panel
JP4414075B2 (en) Coordinate input / detection device, coordinate detection method, and storage medium
JP4183327B2 (en) Optical scanning touch panel
JP2001084108A (en) Device for inputting and detecting and displaying coordinate
JP4142963B2 (en) Information input device and information input / output system
JP2001282446A (en) Lens, coordinate input/detecting device using the same and information display input device
JP4175715B2 (en) Optical scanning touch panel

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060904

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070508