JP2019152988A - Touch sensor device and touch coordinate estimation program - Google Patents
Touch sensor device and touch coordinate estimation program Download PDFInfo
- Publication number
- JP2019152988A JP2019152988A JP2018036720A JP2018036720A JP2019152988A JP 2019152988 A JP2019152988 A JP 2019152988A JP 2018036720 A JP2018036720 A JP 2018036720A JP 2018036720 A JP2018036720 A JP 2018036720A JP 2019152988 A JP2019152988 A JP 2019152988A
- Authority
- JP
- Japan
- Prior art keywords
- touch
- coordinate
- finger
- touch operation
- coordinate calculation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、ユーザによるタッチ操作を検出するタッチセンサ装置及びタッチ座標推定プログラムに関する。 The present invention relates to a touch sensor device that detects a touch operation by a user and a touch coordinate estimation program.
従来、タッチセンサ装置の一種として、ディスプレイとは別に配置されたタッチパッドによってディスプレイ上の画面を遠隔操作するタッチパッド装置が周知である。この種のタッチパッド装置では、画面上に表示された複数の選択物の中から特定のものを選ぶ場合、タッチパッドをなぞり操作するなどして、選択中であることを示す選択マークを所定の選択物に合わせ、選択後、タッチパッドで決定操作することにより、選択意志のある選択物を選択決定する。タッチ操作を検出する場合、タッチ操作面の外縁部分のタッチ操作も漏れなく検出したいニーズが高い(特許文献1等参照)。 2. Description of the Related Art Conventionally, as a kind of touch sensor device, a touch pad device that remotely operates a screen on a display using a touch pad arranged separately from the display is well known. In this type of touchpad device, when a specific item is selected from a plurality of selection items displayed on the screen, a selection mark indicating that the selection is in progress is made by tracing the touchpad. According to the selection, after selection, a selection with a will of selection is selected and determined by performing a determination operation with the touch pad. In the case of detecting a touch operation, there is a high need to detect the touch operation on the outer edge portion of the touch operation surface without omission (see Patent Document 1).
ところで、タッチ操作時、タッチパッドの出力からタッチ操作の指の投影形状を検出し、その投影形状から指の中心座標を算出して、タッチ操作の座標位置を判定する場合がある。このとき、正確な指の中心座標を取得するためには、指の投影形状を正しく認識する必要がある。このため、タッチパッドの端部分はタッチ操作の検出領域として使用できないので、指の中心座標を検出できる範囲(座標演算範囲)がタッチパッドのセンサ部よりも小さい面積となってしまう。よって、タッチパッドの操作面の盤面全体でなぞり操作できることをユーザは期待するが、これを実現できず、操作感が十分でない問題があった。 By the way, at the time of touch operation, the projected shape of the finger of the touch operation may be detected from the output of the touch pad, the center coordinate of the finger may be calculated from the projected shape, and the coordinate position of the touch operation may be determined. At this time, in order to obtain accurate finger center coordinates, it is necessary to correctly recognize the projected shape of the finger. For this reason, since the edge part of a touchpad cannot be used as a detection area | region of touch operation, the range (coordinate calculation range) which can detect the center coordinate of a finger | toe will be an area smaller than the sensor part of a touchpad. Therefore, although the user expects that the user can perform a tracing operation on the entire operation surface of the touchpad, there is a problem that this cannot be realized and the operation feeling is not sufficient.
本発明の目的は、タッチ操作の操作範囲の拡張を可能にしたタッチセンサ装置及びタッチ座標推定プログラムを提供することにある。 An object of the present invention is to provide a touch sensor device and a touch coordinate estimation program capable of extending an operation range of a touch operation.
前記問題点を解決するタッチセンサ装置は、タッチ操作を検出するセンサ部の検出信号を基に、タッチ操作面におけるタッチ座標を算出する座標位置算出部と、前記センサ部の出力からタッチ操作の指の投影形状を認識できる範囲を座標演算範囲とした場合、タッチ操作の指が前記座標演算範囲を超えた際に、当該座標演算範囲の範囲外に規定されるタッチ座標を推定する位置推定部とを備えた。 A touch sensor device that solves the above problems includes a coordinate position calculation unit that calculates a touch coordinate on a touch operation surface based on a detection signal of a sensor unit that detects a touch operation, and a finger of a touch operation from an output of the sensor unit. A position estimation unit that estimates a touch coordinate defined outside the coordinate calculation range when a finger of a touch operation exceeds the coordinate calculation range, Equipped with.
本構成によれば、タッチ位置が座標演算範囲を超えた場合、タッチ座標の推定を通じて、タッチ座標を割り出す。これにより、座標演算範囲外がタッチ操作されても、このときのタッチ座標を認識することが可能となる。よって、タッチ操作の操作範囲の拡張が可能となる。 According to this configuration, when the touch position exceeds the coordinate calculation range, the touch coordinates are determined through estimation of the touch coordinates. As a result, even when a touch operation is performed outside the coordinate calculation range, the touch coordinates at this time can be recognized. Therefore, the operation range of the touch operation can be expanded.
前記タッチセンサ装置において、前記位置推定部は、座標演算範囲内でのタッチ操作の指の投影形状を保持し、タッチ操作が前記座標演算範囲を超える場合、当該投影形状を仮想のタッチ操作に置き換えて、タッチ座標を推定することが好ましい。この構成によれば、予め保持しておいた指の投影形状を仮想のタッチ操作に置き換えるという簡素な処理により、座標演算範囲外のタッチ座標を推定することが可能となる。 In the touch sensor device, the position estimation unit holds a projected shape of a finger of a touch operation within a coordinate calculation range, and when the touch operation exceeds the coordinate calculation range, the projection shape is replaced with a virtual touch operation. It is preferable to estimate the touch coordinates. According to this configuration, it is possible to estimate touch coordinates outside the coordinate calculation range by a simple process of replacing the finger projection shape held in advance with a virtual touch operation.
前記タッチセンサ装置において、前記位置推定部は、前記座標演算範囲を超えてなぞり操作が継続されたことを検出した場合に、前記タッチ座標の推定を実行することが好ましい。この構成によれば、なぞり操作が継続されたときにのみタッチ座標の推定を行うので、例えば座標演算範囲外の1点を急にタッチ操作しても、これをタッチ操作有りとして認識させずに済む。 In the touch sensor device, it is preferable that the position estimation unit performs the estimation of the touch coordinates when detecting that the tracing operation is continued beyond the coordinate calculation range. According to this configuration, the touch coordinates are estimated only when the tracing operation is continued. For example, even if one point outside the coordinate calculation range is suddenly touched, the touch operation is not recognized as being present. That's it.
前記タッチセンサ装置において、前記位置推定部は、タッチ操作の指の中心座標が前記座標演算範囲の端に到達しつつ、前記センサ部の出力から求まる指面積が減少したことを検出すると、タッチ操作の指が前記座標演算範囲を超えてなぞり操作が継続されたと判定することが好ましい。この構成によれば、タッチ操作の座標と、センサ部の出力から求まる指面積とを用いて、なぞり操作の継続を精度よく認識することが可能となる。 In the touch sensor device, when the position estimation unit detects that the finger coordinate obtained from the output of the sensor unit decreases while the center coordinate of the finger of the touch operation reaches the end of the coordinate calculation range, It is preferable to determine that the tracing operation of the finger has continued beyond the coordinate calculation range. According to this configuration, it is possible to accurately recognize the continuation of the tracing operation using the coordinates of the touch operation and the finger area obtained from the output of the sensor unit.
前記問題点を解決するタッチ座標推定プログラムは、タッチ操作を検出するセンサ部の検出信号を基に、タッチ操作面におけるタッチ座標を算出するタッチセンサ装置のプログラムであって、タッチ操作を検出するセンサ部の検出信号を基に、タッチ操作面におけるタッチ座標を算出するステップと、前記センサ部の出力からタッチ操作の指の投影形状を認識できる範囲を座標演算範囲とした場合、タッチ操作の指が前記座標演算範囲を超えた際に、当該座標演算範囲の範囲外に規定されるタッチ座標を推定するステップとをコンピュータに実行させる。 The touch coordinate estimation program that solves the problem is a program of a touch sensor device that calculates touch coordinates on a touch operation surface based on a detection signal of a sensor unit that detects a touch operation, and a sensor that detects a touch operation. And calculating the touch coordinates on the touch operation surface based on the detection signal of the part, and assuming that the range in which the projected shape of the finger of the touch operation can be recognized from the output of the sensor part is a coordinate calculation range, When the coordinate calculation range is exceeded, the computer is caused to execute a step of estimating touch coordinates defined outside the coordinate calculation range.
本発明によれば、タッチ操作の操作範囲を拡張することができる。 According to the present invention, the operation range of the touch operation can be expanded.
以下、タッチセンサ装置及びタッチ座標位置推定プログラムの一実施形態を図1〜図8に従って説明する。
図1に示すように、タッチセンサ装置1は、ディスプレイ2とは別部材で設けられたタッチパッド3でディスプレイ2を遠隔操作するタッチパッド装置4である。タッチパッド3は、車載用のタッチパッド装置4の場合、車内のセンターコンソール等に配置されている。タッチパッド3は、ユーザが指等で触れて操作するタッチ操作面5と、タッチ操作面5におけるタッチ操作を検出するセンサ部6とを備える。タッチパッド装置4は、タッチ操作面5におけるタッチ操作を静電容量の変化により検出する静電容量式であることが好ましい。この場合、センサ部6は、静電容量センサである。
Hereinafter, an embodiment of a touch sensor device and a touch coordinate position estimation program will be described with reference to FIGS.
As shown in FIG. 1, the touch sensor device 1 is a touch pad device 4 that remotely operates the display 2 with a touch pad 3 that is provided as a separate member from the display 2. In the case of the on-vehicle touchpad device 4, the touchpad 3 is disposed on a center console or the like in the vehicle. The touch pad 3 includes a touch operation surface 5 that is operated by a user touching with a finger or the like, and a sensor unit 6 that detects a touch operation on the touch operation surface 5. The touch pad device 4 is preferably a capacitance type that detects a touch operation on the touch operation surface 5 by a change in capacitance. In this case, the sensor unit 6 is a capacitance sensor.
タッチパッド装置4は、タッチパッド装置4の作動を制御する表示制御装置8を備える。表示制御装置8は、タッチパッド3によるディスプレイ2の遠隔操作の作動を制御するコントローラ9を備える。コントローラ9は、表示制御装置8のインターフェース部10を介して、タッチパッド3のセンサ部6に接続されている。 The touch pad device 4 includes a display control device 8 that controls the operation of the touch pad device 4. The display control device 8 includes a controller 9 that controls the operation of remote operation of the display 2 by the touch pad 3. The controller 9 is connected to the sensor unit 6 of the touch pad 3 via the interface unit 10 of the display control device 8.
タッチセンサ装置1(タッチパッド装置4)は、センサ部6の検出信号S(検出静電容量Sa)を基にタッチ操作の座標位置を判定する座標位置算出部12を備える。座標位置算出部12は、センサ部6から出力される検出信号S(検出静電容量Sa)を、インターフェース部10を介して入力する。そして、座標位置算出部12は、センサ部6から入力した検出信号Sを基に、タッチ操作面5上のタッチ座標P(x,y)を認識する。本例の場合、タッチ座標P(x,y)として、タッチ操作の指の中心座標が検出される。そして、コントローラ9は、タッチパッド3から入力した検出信号Sを基に、ディスプレイ2の画面11上の選択決定操作を制御する。 The touch sensor device 1 (touch pad device 4) includes a coordinate position calculation unit 12 that determines the coordinate position of the touch operation based on the detection signal S (detected capacitance Sa) of the sensor unit 6. The coordinate position calculation unit 12 inputs the detection signal S (detected capacitance Sa) output from the sensor unit 6 via the interface unit 10. Then, the coordinate position calculation unit 12 recognizes the touch coordinates P (x, y) on the touch operation surface 5 based on the detection signal S input from the sensor unit 6. In the case of this example, the center coordinate of the finger of the touch operation is detected as the touch coordinate P (x, y). Then, the controller 9 controls the selection determination operation on the screen 11 of the display 2 based on the detection signal S input from the touch pad 3.
図2に、タッチ操作面5をタッチ操作する際の操作図を図示する。センサ部6は、タッチ操作の指が端に位置した場合に指の端部分が盤面に触れないので、タッチ操作面5の盤面よりも小さい面積(図2の二点鎖線で図示)に設けられている。また、図2では、センサ部6の検出信号Sからコントローラ9が検出する「指の投影イメージ(以降、投影形状14と記す)」を図示している。座標位置算出部12は、センサ部6の検出信号Sを基に、タッチ操作面5上の投影形状14を認識し、この投影形状14からタッチ座標P(x,y)として指の中心座標を算出する。指の中心座標は、投影形状14の中心であることが好ましい。そして、コントローラ9は、タッチ操作面5上の指の中心座標と、画面11上の座標位置との対応付けをし、いまタッチ操作面5で画面11のどの座標位置が選択されているのかを認識する。 FIG. 2 shows an operation diagram when the touch operation surface 5 is touch-operated. The sensor unit 6 is provided in an area smaller than the board surface of the touch operation surface 5 (shown by a two-dot chain line in FIG. 2) because the end portion of the finger does not touch the board surface when the finger of the touch operation is positioned at the end. ing. FIG. 2 illustrates a “finger projection image (hereinafter referred to as a projection shape 14)” detected by the controller 9 from the detection signal S of the sensor unit 6. The coordinate position calculation unit 12 recognizes the projection shape 14 on the touch operation surface 5 based on the detection signal S of the sensor unit 6, and uses the projection shape 14 as the touch coordinate P (x, y) to determine the center coordinate of the finger. calculate. The center coordinate of the finger is preferably the center of the projection shape 14. Then, the controller 9 associates the center coordinate of the finger on the touch operation surface 5 with the coordinate position on the screen 11 and determines which coordinate position on the screen 11 is currently selected on the touch operation surface 5. recognize.
図3(a)に示すように、タッチ操作面5において端縁ではない箇所を指でなぞり操作する通常操作の場合、センサ部6で指の中心座標(タッチ座標P(x,y))は問題なく検出することができる。そして、図3(b)に示すように、「指の端」がセンサ部6の端縁に届くところまでならば、指全体をセンサ部6で検出可能であるので、指の中心座標(タッチ座標P(x,y))は正確に検出できる。本例の場合、この範囲を「座標演算範囲E」とする。 As shown in FIG. 3A, in the case of a normal operation in which a finger is operated by tracing a portion that is not an edge on the touch operation surface 5, the center coordinates (touch coordinates P (x, y)) of the finger are detected by the sensor unit 6. It can be detected without problems. Then, as shown in FIG. 3B, since the entire finger can be detected by the sensor unit 6 until the “finger end” reaches the edge of the sensor unit 6, the center coordinates of the finger (touch The coordinates P (x, y)) can be detected accurately. In this example, this range is referred to as “coordinate calculation range E”.
このため、この種のタッチパッド装置4では、センサ部6の検出領域よりも小さい範囲である座標演算範囲E内において、指の中心座標(タッチ座標P(x,y))を正確に検出することができる。よって、タッチ操作の指の中心座標が座標演算範囲Eの端に到達したとき、例えば同図のX軸方向になぞり操作を継続しても、センサ部6の出力(X軸の座標値)は変化しない。 For this reason, in this type of touch pad device 4, the center coordinates (touch coordinates P (x, y)) of the finger are accurately detected within the coordinate calculation range E that is smaller than the detection area of the sensor unit 6. be able to. Therefore, when the center coordinate of the finger of the touch operation reaches the end of the coordinate calculation range E, for example, even if the tracing operation is continued in the X-axis direction in the figure, the output of the sensor unit 6 (X-axis coordinate value) is It does not change.
ここで、図4に示すように、座標演算範囲Eを超えてタッチ操作面5のX軸方向になぞり操作が続けられた場合、例えば指の中心座標(タッチ座標P(x,y))の演算を継続したとする。本例の場合、タッチ操作面5の縁部分にはセンサ部6が存在していないため、センサ部6の出力から検出することができる投影形状14の面積は小さくなり、実際の指中心とは異なる指の中心座標(タッチ座標P(x,y))が検出されてしまう。 Here, as shown in FIG. 4, when the tracing operation is continued in the X-axis direction of the touch operation surface 5 beyond the coordinate calculation range E, for example, the finger center coordinates (touch coordinates P (x, y)) Suppose the computation is continued. In the case of this example, since the sensor unit 6 does not exist at the edge portion of the touch operation surface 5, the area of the projection shape 14 that can be detected from the output of the sensor unit 6 is small, and what is the actual finger center? Different finger center coordinates (touch coordinates P (x, y)) are detected.
具体的には、例えば指中心がセンサ部6の端に位置する程度までなぞり位置がはみ出した場合、X軸方向の幅が「Ds」の楕円状の投影形状14が認識されてしまう。そして、この楕円状の投影形状14の中心が「指の中心座標」として認識され、実際の指中心位置に対して、センサ部6が存在する部位寄りの位置を、指中心として誤認識してしまうことになる。本例は、この問題に対処する技術である。 Specifically, for example, when the tracing position protrudes to such an extent that the finger center is positioned at the end of the sensor unit 6, an elliptical projection shape 14 whose width in the X-axis direction is “Ds” is recognized. Then, the center of the elliptical projection shape 14 is recognized as “finger center coordinates”, and the position closer to the part where the sensor unit 6 exists is erroneously recognized as the finger center with respect to the actual finger center position. Will end up. This example is a technique for dealing with this problem.
図1に戻り、タッチセンサ装置1(タッチパッド装置4)は、タッチ操作の指が座標演算範囲Eを超えた場合にタッチ座標P(x,y)を推定する位置推定部20を備える。本例の位置推定部20は、コントローラ9に設けられている。位置推定部20は、タッチ操作の指が座標演算範囲Eを超えた際に、座標演算範囲Eの範囲外に規定されるタッチ座標P(x,y)を推定する。本例の位置推定部20は、座標演算範囲E内でのタッチ操作の指の投影形状14を保持し、タッチ操作が座標演算範囲Eを超える場合、投影形状14を仮想のタッチ操作に置き換えて、タッチ座標P(x,y)を推定する。 Returning to FIG. 1, the touch sensor device 1 (touch pad device 4) includes a position estimation unit 20 that estimates the touch coordinates P (x, y) when the finger of the touch operation exceeds the coordinate calculation range E. The position estimation unit 20 of this example is provided in the controller 9. The position estimation unit 20 estimates the touch coordinates P (x, y) defined outside the coordinate calculation range E when the finger of the touch operation exceeds the coordinate calculation range E. The position estimation unit 20 of this example holds the projected shape 14 of the finger of the touch operation within the coordinate calculation range E, and when the touch operation exceeds the coordinate calculation range E, the projection shape 14 is replaced with a virtual touch operation. The touch coordinates P (x, y) are estimated.
次に、図5〜図8を用いて、本実施形態のタッチセンサ装置1(タッチパッド装置4)の作用及び効果について説明する。
図5に示すように、ステップ101において、コントローラ9は、センサ部6から検出信号Sを取得する。
Next, operations and effects of the touch sensor device 1 (touch pad device 4) according to the present embodiment will be described with reference to FIGS.
As shown in FIG. 5, in step 101, the controller 9 acquires the detection signal S from the sensor unit 6.
ステップ102において、座標位置算出部12は、センサ部6から取得した検出信号Sを基に、タッチ操作面5における指の投影形状14を算出する。すなわち、座標位置算出部12は、ユーザによるタッチ操作時の指先形状を認識する。 In step 102, the coordinate position calculation unit 12 calculates the projected shape 14 of the finger on the touch operation surface 5 based on the detection signal S acquired from the sensor unit 6. That is, the coordinate position calculation unit 12 recognizes the fingertip shape when the user performs a touch operation.
ステップ103において、座標位置算出部12は、算出された投影形状14を基に、タッチ操作面5における指の中心座標(タッチ座標P(x,y))を算出する。
ステップ104において、位置推定部20は、算出した指の中心座標(タッチ座標P(x,y))が座標演算範囲Eの端に到達したか否かを判定する。このとき、指の中心座標(タッチ座標P(x,y))が座標演算範囲Eの端に到達していれば、ステップ105に移行する。一方、指の中心座標(タッチ座標P(x,y))が座標演算範囲Eの端に到達していなければ、処理を終了し、ルーチンを再実行する。
In step 103, the coordinate position calculation unit 12 calculates the center coordinates (touch coordinates P (x, y)) of the finger on the touch operation surface 5 based on the calculated projection shape 14.
In step 104, the position estimation unit 20 determines whether or not the calculated center coordinates (touch coordinates P (x, y)) of the finger have reached the end of the coordinate calculation range E. At this time, if the center coordinates of the finger (touch coordinates P (x, y)) have reached the end of the coordinate calculation range E, the process proceeds to step 105. On the other hand, if the center coordinates (touch coordinates P (x, y)) of the finger have not reached the end of the coordinate calculation range E, the process is terminated and the routine is re-executed.
ステップ105において、位置推定部20は、指が座標演算範囲Eの端に位置した後、座標演算範囲E外に指のなぞり操作が継続されたか否かを判定する。座標演算範囲E外になぞり操作が継続されたか否かは、例えば指の投影形状14が座標演算範囲Eの端に到達し、かつ投影形状14から算出された指面積Sfが減少したか否かにより判定する。よって、この場合、指が座標演算範囲Eの端に位置した後、指面積Sfが減少すれば、なぞり操作が継続されたと判定する。なぞり操作が継続されたと判定されれば、ステップ106に移行する。一方、なぞり操作が継続されていないと判定されれば、処理を終了し、ルーチンを再実行する。位置推定部20は、座標演算範囲E外になぞり操作が継続された場合、座標演算範囲E外になぞり操作が継続される直前の指の投影形状14を保持する。 In step 105, the position estimation unit 20 determines whether or not the finger tracing operation is continued outside the coordinate calculation range E after the finger is positioned at the end of the coordinate calculation range E. Whether or not the tracing operation is continued outside the coordinate calculation range E is, for example, whether or not the finger projection shape 14 has reached the end of the coordinate calculation range E and the finger area Sf calculated from the projection shape 14 has decreased. Judgment by Therefore, in this case, if the finger area Sf decreases after the finger is positioned at the end of the coordinate calculation range E, it is determined that the tracing operation has been continued. If it is determined that the tracing operation has been continued, the process proceeds to step 106. On the other hand, if it is determined that the tracing operation is not continued, the process is terminated and the routine is re-executed. When the tracing operation is continued outside the coordinate calculation range E, the position estimation unit 20 holds the projected shape 14 of the finger immediately before the tracing operation is continued outside the coordinate calculation range E.
ステップ106において、位置推定部20は、座標演算範囲Eを超えて指のなぞり操作が行われた際の指の中心座標(タッチ座標P(x,y))を推定する。
ここで、図6に示すように、指がX軸方向に沿って水平に座標演算範囲E外になぞり操作が延長されたとする。この場合、指面積Sfは、Y軸方向には変化せず、X軸方向にのみ減少する。位置推定部20は、この面積変化を検出することにより、X軸方向に沿って水平に座標演算範囲E外になぞり操作が延長されたと判断する。よって、位置推定部20は、座標演算範囲E外へのなぞり継続直前に保持した指の投影形状14を、X軸方向にスライド移動するように割り付けることにより、仮想のタッチ操作に置き換える。そして、位置推定部20は、置き換え後の投影形状14から、タッチ座標P(x,y)を抽出する。
In step 106, the position estimation unit 20 estimates the center coordinates (touch coordinates P (x, y)) of the finger when the finger tracing operation is performed beyond the coordinate calculation range E.
Here, as shown in FIG. 6, it is assumed that the tracing operation is extended outside the coordinate calculation range E with the finger horizontally along the X-axis direction. In this case, the finger area Sf does not change in the Y-axis direction and decreases only in the X-axis direction. The position estimation unit 20 determines that the tracing operation has been extended outside the coordinate calculation range E horizontally along the X-axis direction by detecting this area change. Therefore, the position estimation unit 20 replaces the projected shape 14 of the finger held just before continuing the tracing out of the coordinate calculation range E with a virtual touch operation by allocating it so as to slide in the X-axis direction. Then, the position estimation unit 20 extracts the touch coordinates P (x, y) from the replaced projection shape 14.
また、図7に示すように、指が座標演算範囲E外の斜め方向になぞり操作が延長されたとする。この場合、指の投影形状14のY軸方向への移動は、Y軸方向の座標の変化量から検出できる。また、X軸方向への移動量は、例えば指面積Sfの減少量から認識できる。よって、位置推定部20は、座標演算範囲E外へのなぞり継続直前に保持した指の投影形状14を、座標変化から認識したY軸方向の移動量分シフトした位置、かつ指面積Sfの変化量から認識したX軸方向の移動量分スライドした位置に割り付けることにより、仮想のタッチ操作に置き換える。そして、位置推定部20は、置き換え後の投影形状14から、タッチ座標P(x,y)を抽出する。 In addition, as shown in FIG. 7, it is assumed that the drag operation is extended in a diagonal direction outside the coordinate calculation range E. In this case, the movement of the projected shape 14 of the finger in the Y-axis direction can be detected from the amount of change in coordinates in the Y-axis direction. Further, the amount of movement in the X-axis direction can be recognized from the amount of decrease in the finger area Sf, for example. Therefore, the position estimation unit 20 shifts the finger projection shape 14 held immediately before continuing the tracing out of the coordinate calculation range E by the amount of movement in the Y-axis direction recognized from the coordinate change, and the change in the finger area Sf. By assigning to the position slid by the amount of movement in the X-axis direction recognized from the amount, the virtual touch operation is replaced. Then, the position estimation unit 20 extracts the touch coordinates P (x, y) from the replaced projection shape 14.
図8に示すように、座標演算範囲E外のタッチ座標P(x,y)を推定できるようになれば、例えば指の投影形状14から求まる指径を「D」とした場合、最大で「D/2」、タッチ位置検出の距離を延長することが可能となる。すなわち、座標演算範囲Eの端から、指1本分、タッチ位置検出の距離を延長することが可能となる。よって、搭載都合やコスト削減等のためにセンササイズ(タッチ操作面5やセンサ部6のサイズ)を小さくする必要が生じても、広いタッチ面席を確保することが可能となる。 As shown in FIG. 8, if the touch coordinates P (x, y) outside the coordinate calculation range E can be estimated, for example, when the finger diameter obtained from the projected shape 14 of the finger is “D”, “ D / 2 ", the distance for touch position detection can be extended. That is, it is possible to extend the touch position detection distance for one finger from the end of the coordinate calculation range E. Therefore, even if it is necessary to reduce the sensor size (the size of the touch operation surface 5 or the sensor unit 6) for the convenience of mounting or cost reduction, it is possible to secure a wide touch surface seat.
さて、本例の場合、タッチ位置が座標演算範囲Eを超えた場合、タッチ座標P(x,y)の推定を通じて、タッチ座標P(x,y)を割り出す。これにより、座標演算範囲E外がタッチ操作されても、このときのタッチ座標P(x,y)を認識することが可能となる。よって、タッチ操作の操作範囲を拡張することができる。 In the case of this example, when the touch position exceeds the coordinate calculation range E, the touch coordinates P (x, y) is determined through the estimation of the touch coordinates P (x, y). As a result, even when a touch operation is performed outside the coordinate calculation range E, the touch coordinates P (x, y) at this time can be recognized. Therefore, the operation range of the touch operation can be expanded.
位置推定部20は、座標演算範囲E内でのタッチ操作の指の投影形状14を保持し、タッチ操作が座標演算範囲Eを超える場合、投影形状14を仮想のタッチ操作に置き換えて、タッチ座標P(x,y)を推定する。よって、予め保持しておいた指の投影形状14を仮想のタッチ操作に置き換えるという簡素な処理により、座標演算範囲E外のタッチ座標P(x,y)を推定することができる。 The position estimation unit 20 holds the projected shape 14 of the finger of the touch operation within the coordinate calculation range E. When the touch operation exceeds the coordinate calculation range E, the position estimation unit 20 replaces the projection shape 14 with a virtual touch operation, and touch coordinates Estimate P (x, y). Therefore, the touch coordinates P (x, y) outside the coordinate calculation range E can be estimated by a simple process of replacing the finger projection shape 14 held in advance with a virtual touch operation.
位置推定部20は、座標演算範囲Eを超えてなぞり操作が継続されたことを検出した場合に、タッチ座標P(x,y)の推定を実行する。よって、なぞり操作が継続されたときにのみタッチ座標P(x,y)の推定を行うので、例えば座標演算範囲E外の1点を急にタッチ操作しても、これをタッチ操作有りとして認識させずに済む。 When the position estimation unit 20 detects that the tracing operation has been continued beyond the coordinate calculation range E, the position estimation unit 20 estimates the touch coordinates P (x, y). Therefore, since the touch coordinates P (x, y) are estimated only when the tracing operation is continued, for example, even if one point outside the coordinate calculation range E is suddenly touched, this is recognized as a touch operation. You do n’t have to.
位置推定部20は、タッチ操作の指の中心座標(タッチ座標P(x,y))が座標演算範囲Eの端に到達しつつ、センサ部6の出力から求まる指面積Sfが減少したことを検出すると、タッチ操作の指が座標演算範囲Eを超えてなぞり操作が継続されたと判定する。よって、タッチ操作の座標と、センサ部6の出力から求まる指面積Sfとを用いて、なぞり操作の継続を精度よく認識することができる。 The position estimation unit 20 confirms that the finger area Sf obtained from the output of the sensor unit 6 is reduced while the center coordinates (touch coordinates P (x, y)) of the finger of the touch operation reach the end of the coordinate calculation range E. When detected, it is determined that the tracing operation has been continued with the finger of the touch operation exceeding the coordinate calculation range E. Therefore, the continuation of the tracing operation can be accurately recognized using the coordinates of the touch operation and the finger area Sf obtained from the output of the sensor unit 6.
なお、本実施形態は、以下のように変更して実施することができる。本実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
・タッチ座標P(x,y)の推定のロジックは、直前に保持した指の投影形状14を仮想のタッチ操作に置き換える方法に限定されない。例えば、座標演算範囲E外を超えるときのなぞり操作の操作方向及び操作速度からタッチ座標P(x,y)を推定するなど、他の方法を適用してもよい。
In addition, this embodiment can be implemented with the following modifications. The present embodiment and the following modifications can be implemented in combination with each other within a technically consistent range.
The logic for estimating the touch coordinates P (x, y) is not limited to a method of replacing the finger projection shape 14 held immediately before with a virtual touch operation. For example, other methods such as estimating the touch coordinates P (x, y) from the operation direction and operation speed of the tracing operation when the coordinate calculation range E is exceeded may be applied.
・なぞり操作が座標演算範囲Eを超えて継続されたか否かの判定は、指面積Sfの減少を判定パラメータとすることに限定されない。例えば、タッチ座標P(x,y)が単に座標演算範囲E外に位置したときになぞり操作が継続されたと判定するなど、他の方法を適用してもよい。 The determination as to whether or not the stroking operation has continued beyond the coordinate calculation range E is not limited to using a decrease in the finger area Sf as a determination parameter. For example, another method may be applied, such as determining that the tracing operation is continued when the touch coordinates P (x, y) are simply located outside the coordinate calculation range E.
・タッチパッド3(センサ部6)は、静電容量式に限らず、例えば感圧式などの他のセンシング方式のものに変更してもよい。
・タッチセンサ装置1は、タッチパッド装置4に限定されず、例えばディスプレイ2の画面11をタッチ操作するタッチパネルとしてもよい。このように、タッチセンサ装置1は、タッチパッド式以外の他の方式のものに変更可能である。
The touch pad 3 (sensor unit 6) is not limited to the capacitive type, but may be changed to another sensing type such as a pressure sensitive type.
The touch sensor device 1 is not limited to the touch pad device 4, and may be a touch panel that performs a touch operation on the screen 11 of the display 2, for example. As described above, the touch sensor device 1 can be changed to a type other than the touch pad type.
・タッチセンサ装置1は、車載用に限定されず、他の機器や装置に使用してもよい。 -The touch sensor apparatus 1 is not limited to vehicle-mounted use, You may use it for another apparatus and apparatus.
1…タッチセンサ装置、2…ディスプレイ、3…タッチパッド、4…タッチパッド装置、5…タッチ操作面、6…センサ部、11…画面、12…座標位置算出部、14…投影形状、20…位置推定部、S…検出信号、P(x,y)…タッチ座標、E…座標演算範囲、Sf…指面積。 DESCRIPTION OF SYMBOLS 1 ... Touch sensor apparatus, 2 ... Display, 3 ... Touch pad, 4 ... Touch pad apparatus, 5 ... Touch operation surface, 6 ... Sensor part, 11 ... Screen, 12 ... Coordinate position calculation part, 14 ... Projection shape, 20 ... Position estimation unit, S ... detection signal, P (x, y) ... touch coordinates, E ... coordinate calculation range, Sf ... finger area.
Claims (5)
前記センサ部の出力からタッチ操作の指の投影形状を認識できる範囲を座標演算範囲とした場合、タッチ操作の指が前記座標演算範囲を超えた際に、当該座標演算範囲の範囲外に規定されるタッチ座標を推定する位置推定部と
を備えたタッチセンサ装置。 A coordinate position calculation unit that calculates touch coordinates on the touch operation surface based on a detection signal of the sensor unit that detects the touch operation;
When the range in which the projected shape of the finger of the touch operation can be recognized from the output of the sensor unit is set as the coordinate calculation range, when the finger of the touch operation exceeds the coordinate calculation range, it is defined outside the range of the coordinate calculation range. A touch sensor device comprising: a position estimation unit that estimates touch coordinates.
請求項1に記載のタッチセンサ装置。 The position estimation unit holds a projected shape of a finger for a touch operation within a coordinate calculation range, and if the touch operation exceeds the coordinate calculation range, the projected shape is replaced with a virtual touch operation to estimate a touch coordinate The touch sensor device according to claim 1.
請求項1又は2に記載のタッチセンサ装置。 The touch sensor device according to claim 1, wherein the position estimation unit performs the estimation of the touch coordinates when detecting that the tracing operation is continued beyond the coordinate calculation range.
請求項1〜3のうちいずれか一項に記載のタッチセンサ装置。 When the position estimation unit detects that the finger coordinate obtained from the output of the sensor unit has decreased while the center coordinate of the finger of the touch operation reaches the end of the coordinate calculation range, the finger of the touch operation calculates the coordinate calculation The touch sensor device according to claim 1, wherein it is determined that the tracing operation has been continued beyond the range.
タッチ操作を検出するセンサ部の検出信号を基に、タッチ操作面におけるタッチ座標を算出するステップと、
前記センサ部の出力からタッチ操作の指の投影形状を認識できる範囲を座標演算範囲とした場合、タッチ操作の指が前記座標演算範囲を超えた際に、当該座標演算範囲の範囲外に規定されるタッチ座標を推定するステップと
をコンピュータに実行させるタッチ座標推定プログラム。 A touch coordinate estimation program for a touch sensor device that calculates touch coordinates on a touch operation surface based on a detection signal of a sensor unit that detects a touch operation,
Calculating touch coordinates on the touch operation surface based on a detection signal of a sensor unit that detects a touch operation;
When the range in which the projected shape of the finger of the touch operation can be recognized from the output of the sensor unit is set as the coordinate calculation range, when the finger of the touch operation exceeds the coordinate calculation range, it is defined outside the range of the coordinate calculation range. A touch coordinate estimation program for causing a computer to execute the step of estimating touch coordinates.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018036720A JP2019152988A (en) | 2018-03-01 | 2018-03-01 | Touch sensor device and touch coordinate estimation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018036720A JP2019152988A (en) | 2018-03-01 | 2018-03-01 | Touch sensor device and touch coordinate estimation program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019152988A true JP2019152988A (en) | 2019-09-12 |
Family
ID=67946469
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018036720A Pending JP2019152988A (en) | 2018-03-01 | 2018-03-01 | Touch sensor device and touch coordinate estimation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019152988A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113091756A (en) * | 2019-12-23 | 2021-07-09 | 歌乐株式会社 | Position estimation device and position estimation method |
-
2018
- 2018-03-01 JP JP2018036720A patent/JP2019152988A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113091756A (en) * | 2019-12-23 | 2021-07-09 | 歌乐株式会社 | Position estimation device and position estimation method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20130057469A1 (en) | Gesture recognition device, method, program, and computer-readable medium upon which program is stored | |
JP6410537B2 (en) | Information processing apparatus, control method therefor, program, and storage medium | |
KR102061863B1 (en) | Touch sensing device and driving method thereof | |
US9916043B2 (en) | Information processing apparatus for recognizing user operation based on an image | |
JP6452456B2 (en) | Information processing apparatus, control method therefor, program, and storage medium | |
US20190272090A1 (en) | Multi-touch based drawing input method and apparatus | |
CN104951213B (en) | The method for preventing false triggering boundary slip gesture | |
TWI694360B (en) | Input interface apparatus, control method and non-transitory computer readable medium | |
WO2016189734A1 (en) | Touch panel control device and vehicle-mounted information device | |
JP5852514B2 (en) | Touch sensor | |
TWI419037B (en) | Touch control system and touch control method and computer system of the same | |
US20140205151A1 (en) | Information processing device, system, and information processing method | |
JP2019152988A (en) | Touch sensor device and touch coordinate estimation program | |
US20160034069A1 (en) | Information processing apparatus, input control method, and computer-readable recording medium | |
JP2014109883A (en) | Electronic apparatus and method of controlling the same | |
JP6566767B2 (en) | Information processing apparatus, information processing apparatus control method, computer program, and storage medium | |
CN109254672A (en) | Control method of cursor and cursor control system | |
JP7564733B2 (en) | Touch input device, touch input method, and touch input program | |
JP5575027B2 (en) | Display-integrated coordinate input device and virtual keyboard function activation method | |
US10558270B2 (en) | Method for determining non-contact gesture and device for the same | |
KR101596730B1 (en) | Method and apparatus for determining an input coordinate on a touch-panel | |
KR101468970B1 (en) | Method and apparatus for sliding objects across a touch-screen display | |
JP6724172B2 (en) | Coordinate input device | |
JP6074403B2 (en) | System, program, and method capable of pointer operation on head mounted display by touch panel type device | |
JP2020060930A (en) | Input device |