JP2003233465A - Input device and processing program for detecting button-operation - Google Patents
Input device and processing program for detecting button-operationInfo
- Publication number
- JP2003233465A JP2003233465A JP2002031823A JP2002031823A JP2003233465A JP 2003233465 A JP2003233465 A JP 2003233465A JP 2002031823 A JP2002031823 A JP 2002031823A JP 2002031823 A JP2002031823 A JP 2002031823A JP 2003233465 A JP2003233465 A JP 2003233465A
- Authority
- JP
- Japan
- Prior art keywords
- touch
- button
- display area
- display screen
- button display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Input From Keyboards Or The Like (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
【発明の詳細な説明】Detailed Description of the Invention
【0001】[0001]
【発明の属する技術分野】本発明は、例えば銀行のキャ
ッシュディスペンサーなどの金銭自動支払機を含む端末
装置にみられるタッチパネルの機能を拡張した入力装置
およびボタン操作検出処理プログラムに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an input device and a button operation detection processing program in which the function of a touch panel found in a terminal device including a cash dispenser such as a cash dispenser of a bank is expanded.
【0002】[0002]
【従来の技術】タッチパネルの機能を拡張した従来の入
力装置としては、例えば特開平11−110107号公
報に開示された情報入力装置および自動取引装置があ
る。この技術は、表示手段に表示されている入力情報の
表示個所に対応する位置に接触されたことを検知する
と、その入力情報に対応する音声を出力する音声出力手
段を備えている。また、画面探索開始検知領域に接触し
たままその接触位置が移動すると、その移動方向の位置
を示す音を出力する音出力手段を備えている。すなわ
ち、画面上の探索開始検知領域に触れると画面探索モー
ドに移行し、指がそのまま画面上を移動してボタンに触
れると当該ボタン名を読み上げ、指を離すと画面探索モ
ードが解除され、その位置で再度押下すると当該ボタン
が押下されたものとなり、前記ボタンの押下に応じた処
理へ移行できるものである。この技術は、健常者も視覚
障害者と同じ画面を利用することを考慮し、探索開始検
知領域を設定してそこへ触れなければ通常の画面利用が
可能なようになっている。このため視覚障害者は探索開
始検知領域へ最初に触れる必要があり、この状態から画
面上へ指を触れたまま移動させ、目的のボタン位置で指
を一度離して再度タップするという動作になっている。2. Description of the Related Art As conventional input devices with extended touch panel functions, there are, for example, an information input device and an automatic transaction device disclosed in JP-A-11-110107. This technique includes a voice output unit that outputs a voice corresponding to the input information when it is detected that the position corresponding to the display position of the input information displayed on the display unit is detected. Further, when the contact position moves while being in contact with the screen search start detection area, there is provided sound output means for outputting a sound indicating the position in the moving direction. That is, when the search start detection area on the screen is touched, the mode shifts to the screen search mode, when the finger moves on the screen as it is and touches the button, the button name is read aloud, and when the finger is released, the screen search mode is canceled. When the button is pressed again at the position, it means that the button has been pressed, and the process can be shifted to the processing corresponding to the pressing of the button. In consideration of the fact that a normal person uses the same screen as a visually impaired person, this technique enables normal use of the screen unless a search start detection area is set and touched there. For this reason, the visually impaired person must first touch the search start detection area, and from this state, move the finger on the screen while touching it, release the finger once at the target button position and tap again. There is.
【0003】[0003]
【発明が解決しようとする課題】従来の入力装置は以上
のように構成されていたので、指を画面上をなぞるよう
にして広範囲に移動させ探索開始検知領域を探すという
特別な指の操作を最初に行わなければ視覚障害者は利用
することが出来ないという課題があった。Since the conventional input device is configured as described above, a special finger operation of searching the search start detection area by moving the finger over a wide area by tracing the screen is performed. There was a problem that visually impaired people could not use it unless it was done first.
【0004】本発明はこのような課題を解決するために
なされたものであり、視覚障害者にとっての画面操作の
簡略化、利便性の向上を実現でき、さらに健常者による
利用についても通常の使用形態を維持できる入力装置お
よびボタン操作検出処理プログラムを提供することを目
的とする。The present invention has been made in order to solve such problems, and can realize simplification of screen operation and improvement of convenience for visually impaired persons, and further, it can be used normally by persons with normal eyes. An object is to provide an input device and a button operation detection processing program capable of maintaining the form.
【0005】[0005]
【課題を解決するための手段】本発明に係る入力装置
は、表示画面上へ触れたタッチ状態および前記タッチ状
態の解除を検出するタッチ状態検出手段と、前記表示画
面上へのタッチ操作によるタッチ位置に対応する前記表
示画面上の領域がボタン表示領域であるか否かを判定す
るタッチ位置判定手段と、前記タッチ位置が移動してい
るか静止しているかを判定するタッチ動作判定手段と、
前記タッチ動作判定手段により静止していると判定さ
れ、前記タッチ位置判定手段によりボタン表示領域であ
ると判定されたタッチ操作について、そのボタン表示領
域に対応した音声案内を行う音声案内手段と、前記音声
案内手段により音声案内されたボタン表示領域における
タッチ状態の解除を前記タッチ状態検出手段が検出する
ことで、そのボタン表示領域に対応したボタン操作信号
を発生させる操作入力生成手段とを備えたことを特徴と
する。An input device according to the present invention includes a touch state detecting means for detecting a touch state touching a display screen and a release of the touch state, and a touch operation on the display screen. A touch position determination unit that determines whether the region on the display screen corresponding to the position is a button display region, and a touch operation determination unit that determines whether the touch position is moving or stationary,
Voice guidance means for performing voice guidance corresponding to the button display area for a touch operation determined by the touch operation determination means to be still, and for the touch operation determined to be in the button display area by the touch position determination means; An operation input generation means for generating a button operation signal corresponding to the button display area when the touch state detection means detects the release of the touch state in the button display area voice-guided by the voice guidance means. Is characterized by.
【0006】本発明の入力装置は、表示画面上へ触れた
タッチ状態および前記タッチ状態の解除を検出し、前記
表示画面上へのタッチ操作によるタッチ位置に対応する
前記表示画面上の領域がボタン表示領域であるか否かを
判定し、前記タッチ位置が移動しているか静止している
かを判定し、前記タッチ位置が静止していると判定さ
れ、前記タッチ位置に対応する前記表示画面上の領域が
ボタン表示領域であると判定されたタッチ操作につい
て、そのボタン表示領域に対応した音声案内を行い、前
記音声案内されたボタン表示領域におけるタッチ状態の
解除を検出することで、そのボタン表示領域に対応した
ボタン操作信号を発生させ、健常者による利用について
は通常の使用形態を維持した状態で、最初のタッチ操作
によるタッチ位置が表示画面上のどの位置であるかにか
かわらず視覚障害者による画面操作を可能にして、画面
操作の簡略化、利便性を向上させる。The input device of the present invention detects the touch state touching the display screen and the release of the touch state, and the area on the display screen corresponding to the touch position by the touch operation on the display screen is a button. It is determined whether or not it is a display area, it is determined whether the touch position is moving or stationary, it is determined that the touch position is stationary, on the display screen corresponding to the touch position. For a touch operation that is determined to be a button display area, voice guidance corresponding to the button display area is performed, and by detecting the release of the touch state in the voice-guided button display area, the button display area is detected. A button operation signal corresponding to is generated, and the touch position by the first touch operation is displayed while maintaining the normal usage pattern for use by healthy people. Thereby enabling screen operation by visually impaired users regardless of which position on the screen, simplified screen operation, thereby improving convenience.
【0007】本発明に係るボタン操作検出処理プログラ
ムは、表示画面上へ触れたタッチ状態および前記タッチ
状態の解除を検出するタッチ状態検出処理と、前記表示
画面上へのタッチ操作によるタッチ位置に対応する前記
表示画面上の領域がボタン表示領域であるか否かを判定
するタッチ位置判定処理と、前記タッチ位置が移動して
いるか静止しているかを判定するタッチ動作判定処理
と、前記タッチ動作判定処理により静止していると判定
され、前記タッチ位置判定処理によりボタン表示領域で
あると判定されたタッチ操作について、そのボタン表示
領域に対応した音声案内を行う音声案内処理と、前記音
声案内処理により音声案内されたボタン表示領域におけ
るタッチ状態の解除を前記タッチ状態検出処理で検出す
ることにより、そのボタン表示領域に対応した操作入力
を発生させる操作入力生成処理とを備えたことを特徴と
する。A button operation detection processing program according to the present invention corresponds to a touch state detection processing for detecting a touch state touching a display screen and a release of the touch state, and a touch position by a touch operation on the display screen. Touch position determination processing for determining whether the area on the display screen is a button display area, touch operation determination processing for determining whether the touch position is moving or stationary, and touch operation determination Regarding the touch operation determined to be still by the processing and determined to be the button display area by the touch position determination processing, the voice guidance processing for performing voice guidance corresponding to the button display area and the voice guidance processing are performed. By detecting the release of the touch state in the voice-guided button display area by the touch state detection processing, Characterized by comprising an operation input generation process for generating the operation input corresponding to the Tan display area.
【0008】本発明のボタン操作検出処理プログラム
は、表示画面上へ触れたタッチ状態および前記タッチ状
態の解除をタッチ状態検出処理で検出し、前記表示画面
上へのタッチ操作によるタッチ位置に対応する前記表示
画面上の領域がボタン表示領域であるか否かをタッチ位
置判定処理で判定し、前記タッチ位置が移動しているか
静止しているかをタッチ動作判定処理で判定し、前記タ
ッチ位置が静止していると判定され、前記タッチ位置に
対応する前記表示画面上の領域がボタン表示領域である
と判定されたタッチ操作について、そのボタン表示領域
に対応した音声案内を音声案内処理で行い、前記音声案
内されたボタン表示領域におけるタッチ状態の解除を前
記タッチ状態検出処理により検出することで、そのボタ
ン表示領域に対応したボタン操作信号を操作入力生成処
理で発生させ、健常者による利用については通常の使用
形態を維持した状態で、最初のタッチ操作によるタッチ
位置が表示画面上のどの位置であるかにかかわらず視覚
障害者による画面操作を可能にして、画面操作の簡略
化、利便性を向上させる。The button operation detection processing program of the present invention detects the touch state touching the display screen and the release of the touch state by the touch state detection processing, and corresponds to the touch position by the touch operation on the display screen. Whether the area on the display screen is a button display area is determined by a touch position determination process, whether the touch position is moving or stationary is determined by a touch operation determination process, and the touch position is stationary. It is determined that the touch operation, the area on the display screen corresponding to the touch position is a button display area, voice guidance corresponding to the button display area is performed by voice guidance processing, Corresponding to the button display area by detecting the release of the touch state in the voice guided button display area by the touch state detection processing. Visually impaired regardless of the position on the display screen where the touch position of the first touch operation is generated while the button operation signal is generated by the operation input generation process and the normal usage pattern is maintained for normal use. It enables a person to operate the screen, which simplifies the screen operation and improves convenience.
【0009】[0009]
【発明の実施の形態】以下、本発明の実施の一形態につ
いて説明する。図1は、この実施の形態の入力装置が適
用された、銀行等で使用されている現金自動支払機など
を含む端末装置の構成を示すブロック図である。この入
力装置が適用された端末装置はCPU(タッチ状態検出
手段、タッチ位置判定手段、タッチ動作判定手段、音声
案内手段、操作入力生成手段)1、タッチパネル装置
2、タッチパネル装置2のインタフェース3、ディスプ
レイ装置4、ディスプレイ装置4のインタフェース5、
プリンタ装置6、プリンタ装置6のインタフェース7、
貨幣取扱装置8、貨幣取扱装置8のインタフェース9、
音声出力装置(音声案内手段)10、音声出力装置10
のインタフェース11、ROMやRAMなどにより構成
された記憶装置12および通信装置13などを備えてい
る。なお、この入力装置は、タッチパネル装置2、ディ
スプレイ装置4、CPU1、音声出力装置10、記憶装
置12、記憶装置12のROMに格納されたボタン操作
検出処理プログラム12Aなどにより構成される。BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described below. FIG. 1 is a block diagram showing the configuration of a terminal device to which the input device according to this embodiment is applied, including a cash dispenser used in a bank or the like. The terminal device to which this input device is applied is a CPU (touch state detection means, touch position determination means, touch motion determination means, voice guidance means, operation input generation means) 1, touch panel device 2, interface 3 of touch panel device 2, display. Device 4, interface 5 of display device 4,
The printer device 6, the interface 7 of the printer device 6,
A currency handling device 8, an interface 9 of the currency handling device 8,
Audio output device (audio guidance means) 10, audio output device 10
Interface 11, a storage device 12 including a ROM and a RAM, a communication device 13, and the like. The input device is configured by the touch panel device 2, the display device 4, the CPU 1, the voice output device 10, the storage device 12, the button operation detection processing program 12A stored in the ROM of the storage device 12, and the like.
【0010】CPU1は各部の動作を制御するものであ
り、タッチパネル装置2はディスプレイ画面上のタッチ
位置を検出するための装置であり周知の技術を利用して
いる。ディスプレイ装置4は端末装置で画面表示する必
要のある操作ボタンや案内画面を表示するものであり、
プリンタ装置6は預金通帳や所定の用紙に必要事項を印
字出力するものであり、貨幣取扱装置8は貨幣の入手金
と、入手金される貨幣の計数、金額などを含む貨幣に関
連した各種制御を行うものである。音声出力装置10
は、操作されたボタンや表示画面に対応した音声案内を
行うものである。記憶装置12はRAM、ROMを含
み、必要なデータやプログラムを格納する。通信装置1
3はこの端末装置をホストコンピュータへ接続し、前記
ホストコンピュータと各種データの送受を行うためのも
のである。The CPU 1 controls the operation of each section, and the touch panel device 2 is a device for detecting the touch position on the display screen and uses a well-known technique. The display device 4 displays operation buttons and guide screens that need to be displayed on the terminal device.
The printer device 6 prints out necessary items on a bankbook or a predetermined paper sheet, and the money handling device 8 controls money related to money including money obtained, counting of money to be obtained and amount of money. Is to do. Audio output device 10
Is to provide voice guidance corresponding to the operated button or display screen. The storage device 12 includes a RAM and a ROM, and stores necessary data and programs. Communication device 1
Reference numeral 3 is for connecting the terminal device to a host computer and transmitting / receiving various data to / from the host computer.
【0011】次に、この端末装置に用いられている入力
装置の動作について説明する。図2は、この入力装置の
ボタン操作検出処理動作を示すフローチャートであり、
以下、このフローチャートに従って説明する。このボタ
ン操作検出処理動作を規定するプログラムは、記憶装置
12のROMにボタン操作検出処理プログラム12Aと
して格納されている。また、このボタン操作検出処理で
は、ディスプレイ装置4の画面上には図3に示すような
“お引出しボタン”と“お預入れボタン”と“残高照会
ボタン”と“お振込みボタン”などのボタン表示領域が
表示出力されているものとする。また、この画面に対し
視覚障害者が“残高照会ボタン”を操作したい場合を想
定する。このボタン操作検出処理では、先ずCPU1は
ディスプレイ装置4の画面上に配置されているタッチパ
ネル装置2へのタッチの有無について所定の周期で検出
している。この状態でタッチパネル装置2へのタッチ操
作があると、タッチされた位置についてのx方向、y方
向の座標情報がタッチパネル装置2から出力され、CP
U1はタッチ操作があったことを検出する(ステップS
1、タッチ状態検出処理)。次に、タッチ操作された位
置がボタン表示領域であるか否かを判定する(ステップ
S2、タッチ位置判定処理)。この判定は、タッチパネ
ル装置2から出力された前記座標情報をもとに、その座
標情報がディスプレイ装置4に表示されている“お引出
しボタン”、“お預入れボタン”、“残高照会ボタン”
または“お振込みボタン”のいずれかの表示領域に含ま
れるか否かを判断することで行う。Next, the operation of the input device used in this terminal device will be described. FIG. 2 is a flow chart showing the button operation detection processing operation of this input device,
Hereinafter, description will be given according to this flowchart. A program that defines this button operation detection processing operation is stored in the ROM of the storage device 12 as a button operation detection processing program 12A. Further, in this button operation detection process, buttons such as “withdrawal button”, “deposit button”, “balance inquiry button” and “transfer button” as shown in FIG. 3 are displayed on the screen of the display device 4. It is assumed that the display area is displayed and output. It is also assumed that the visually impaired person wants to operate the “balance inquiry button” on this screen. In this button operation detection process, first, the CPU 1 detects whether or not the touch panel device 2 arranged on the screen of the display device 4 is touched at a predetermined cycle. When a touch operation is performed on the touch panel device 2 in this state, coordinate information of the touched position in the x direction and the y direction is output from the touch panel device 2 and the CP
U1 detects that there is a touch operation (step S
1. Touch state detection processing). Next, it is determined whether or not the touched position is in the button display area (step S2, touch position determination process). This determination is based on the coordinate information output from the touch panel device 2, the "withdrawal button", "deposit button", "balance inquiry button" whose coordinate information is displayed on the display device 4.
Alternatively, it is performed by determining whether or not the “transfer button” is included in any of the display areas.
【0012】ディスプレイ装置4の画面上のタッチパネ
ル装置2に対するタッチ操作の位置が前記各種ボタンの
表示領域以外の領域であると、次にタッチパネル装置2
へタッチしていない状態であるか否かを判定する(ステ
ップS3)。このとき、この入力装置の利用者の指先が
タッチパネル装置2から離れており、タッチパネル装置
2へタッチしていない状態を前記ステップS3で判定す
るとステップS1へ戻る。一方、タッチパネル装置2へ
触れたままの状態であれば、ステップS3に続いて、こ
の状態が一定の時間(例えば0sec〜0.5sec)
続いているか、すなわち前記一定の時間、指先がタッチ
パネル装置2へ触れた状態で、前記指先が静止している
状態にあるか否かを判定する(ステップS4、タッチ動
作判定処理)。この一定の時間、指先がタッチパネル装
置2へ触れた状態で、その指先が静止しているか否かの
判定は、タッチパネル装置2から出力されるタッチ位置
に応じた座標情報の値が前記一定の時間経過する間にお
いて変化するかしないかを検出することで行う。この結
果、前記タッチ状態が続いており、前記一定の時間、前
記座標情報の値にも変化がない場合、そのタッチされて
いる領域が前記各種ボタンのいずれの表示領域にも含ま
れない領域であることを音声により案内する(ステップ
S5、音声案内処理)。なお、この場合の音声案内は何
も行わないようにしてもよい。If the position of the touch operation on the touch panel device 2 on the screen of the display device 4 is a region other than the display region of the various buttons, then the touch panel device 2
It is determined whether or not the touch is on (step S3). At this time, when it is determined in step S3 that the fingertip of the user of the input device is away from the touch panel device 2 and the touch panel device 2 is not touched, the process returns to step S1. On the other hand, if the touch panel device 2 is in a state of being touched, this state continues for a certain period of time (for example, 0 sec to 0.5 sec) following step S3.
It is determined whether or not it is continued, that is, the fingertip is in a stationary state with the fingertip touching the touch panel device 2 for the predetermined time (step S4, touch operation determination process). In the state where the fingertip touches the touch panel device 2 for a certain period of time, it is determined whether the fingertip is stationary or not, and the value of the coordinate information corresponding to the touch position output from the touch panel device 2 is the certain period of time. This is done by detecting whether or not there is a change over time. As a result, when the touch state continues and the value of the coordinate information does not change for the certain period of time, the touched area is an area that is not included in any of the display areas of the various buttons. There is a voice guidance that there is something (step S5, voice guidance processing). Note that the voice guidance in this case may not be performed.
【0013】前記ステップS4において前記一定の時間
経過前にタッチ位置が変化し、または前記ステップS4
において前記一定の時間タッチ位置に変化がなく前記ス
テップS5における音声案内が行われるとステップS2
へ戻り、再度、タッチされている領域がボタン表示領域
であるか否かを判定する。In step S4, the touch position changes before the elapse of the predetermined time, or in step S4.
If there is no change in the touch position for a certain period of time and the voice guidance in step S5 is performed in step S2
Returning to, it is determined again whether or not the touched area is the button display area.
【0014】タッチ位置が移動してボタン表示領域内に
入ると、ステップS2ではタッチされている位置はボタ
ン表示領域であるとの判定結果となり、続いてそのボタ
ン表示領域からタッチしていた指先が離れた状態になっ
たか否かを判定する(ステップS6)。このステップS
6での判定の結果、タッチしていた指が離れた状態にな
ったのであれば、そのボタン表示領域に対し操作された
ものとしてそのボタン表示領域の操作に対応した入力信
号を生成し、前記ボタン表示領域に対応した処理の実行
を実現する(ステップS7、操作入力生成処理)。When the touched position moves and enters the button display area, the result of determination in step S2 is that the touched position is the button display area, and subsequently, the fingertip touching from the button display area is touched. It is determined whether or not it is in a separated state (step S6). This step S
If the touched finger is released as a result of the determination in 6, the input signal corresponding to the operation of the button display area is generated as if the button display area was operated, and Execution of processing corresponding to the button display area is realized (step S7, operation input generation processing).
【0015】一方、前記ステップS6の判定結果がボタ
ン表示領域へ指先がタッチしたままの状態であれば、次
に、前記ボタン表示領域に対しタッチしている状態で、
かつタッチ位置が変化しない状態、すなわちタッチパネ
ル装置2へタッチしている指先が前記ステップS2で判
定されたボタン表示領域内で一定の時間以上静止した状
態にあるか否かを判定する(ステップS8、タッチ動作
判定処理)。この判定の結果、一定の時間以上静止した
状態にあると、そのタッチされているボタン表示領域に
対応した音声案内を行い(ステップS9、音声案内処
理)、再度、ステップS2へ戻り、ステップS2以下の
処理を繰り返す。また、前記ステップS8において、タ
ッチパネル装置2へタッチしている指先が前記ボタン表
示領域内で一定の時間以上静止することがないと判定し
た場合も、再度、ステップS2へ戻り、ステップS2以
下の処理を繰り返す。On the other hand, if the result of determination in step S6 is that the fingertip is still touching the button display area, then, while the button display area is being touched,
Further, it is determined whether or not the touch position does not change, that is, whether or not the fingertip touching the touch panel device 2 has been stationary for a certain time or longer within the button display area determined in step S2 (step S8, Touch action determination process). If the result of this determination is that the user has been stationary for a certain period of time or longer, voice guidance corresponding to the touched button display area is performed (step S9, voice guidance processing), and the process returns again to step S2 The process of is repeated. Further, when it is determined in step S8 that the fingertip touching the touch panel device 2 does not stand still in the button display area for a certain period of time or more, the process returns to step S2 again, and the processing from step S2 onward is performed. repeat.
【0016】この結果、前記ステップS9の音声案内を
聞いた後、そのボタン表示領域内のタッチ位置でタッチ
パネル装置2から指先を離すと、ステップS6におい
て、前記ボタン表示領域から指先が離れた状態が検出さ
れ、続くステップS7において前記ボタン表示領域の操
作に対応したボタン操作信号が生成されて、そのボタン
表示領域のボタン操作に対応した処理が実行可能にな
る。As a result, when the fingertip is released from the touch panel device 2 at the touch position within the button display area after listening to the voice guidance in step S9, the state where the fingertip is released from the button display area in step S6. In step S7, which is detected, a button operation signal corresponding to the operation of the button display area is generated, and the processing corresponding to the button operation of the button display area can be executed.
【0017】以上の処理動作を健常者と視覚障害者との
操作の違いに着目して説明すると、通常、健常者は目的
のボタン表示領域をいきなりタッチし、すぐに指先を前
記ボタン表示領域から離すため、健常者にとっては通常
のボタン操作が可能である。あるいは、目的のボタン表
示領域へ指先をタッチさせた状態を続けていても、ステ
ップS9の音声案内を聞いた後、そのボタン表示領域か
ら指先を離すことでそのタッチしていた前記ボタン表示
領域に対する入力操作が可能である。The above processing operation will be described by focusing on the difference in operation between a normal person and a visually impaired person. Normally, a normal person suddenly touches the desired button display area and immediately touches his or her fingertip from the button display area. Since it is released, a normal person can operate a normal button. Alternatively, even if the fingertip continues to be touched on the target button display area, after listening to the voice guidance in step S9, by releasing the fingertip from the button display area, the touched button display area is displayed. Input operation is possible.
【0018】一方、視覚障害者がこの入力装置に対し行
う入力操作は、先ずディスプレイ装置4の画面上に配置
されたタッチパネル装置2のいずれかの場所を最初にタ
ッチする。この最初にタッチした場所としては目的のボ
タン表示領域、それ以外のボタン表示領域、ボタン表示
領域以外の領域が考えられるが、最初にタッチした場所
が目的のボタン表示領域である場合には、最初にタッチ
した位置で指先が静止した状態で一定の時間経過すると
ステップS9で音声案内が行われるため、この音声案内
を聞いて指先をタッチパネル装置2から離せば即座に目
的とするボタン表示領域に対する入力操作が可能であ
る。また、最初にタッチした場所が目的のボタン表示領
域以外の他のボタン表示領域である場合には、ステップ
S9の音声案内により目的のボタン表示領域以外の他の
ボタン表示領域であることが判明するため、タッチパネ
ル装置2へ触れた状態で指先をずらしタッチ位置をボタ
ン表示領域以外の領域へ移動させる。図4は、この目的
のボタン表示領域以外の他のボタン表示領域である“お
預け入れ”ボタン表示領域についての音声案内が行われ
ている状態の画面図である。ボタン表示領域以外の領域
においても指先が静止した状態で一定の時間経過すると
ステップS5で音声案内が行われる(または、なにも音
声案内が行われない)ため、さらに指先を移動させる。
そして、目的とするボタン表示領域へ指先が移動し、一
定の時間、静止すると、この目的とするボタン表示領域
に対応した音声案内がステップS9で行われる。このた
め、この音声案内を聞くことで指先をタッチパネル装置
2から離せば、目的とするボタン表示領域に対する入力
操作が可能である。図5は、この目的のボタン表示領域
である“残高照会”の音声案内が行われている状態の画
面図である。図6は、前記目的とするボタン表示領域に
対する入力操作が完了したときの画面図である。また、
最初にタッチした場所がボタン表示領域以外の領域であ
る場合には、このボタン表示領域以外の領域において指
先が静止した状態で一定の時間経過するとステップS5
で音声案内が行われる(または、なにも音声案内が行わ
れない)ため、さらに指先を移動させる。そして、目的
とするボタン表示領域へ指先が移動し、一定の時間、静
止すると、この目的とするボタン表示領域に対応した音
声案内が行われるため、この音声案内を聞くことで指先
をタッチパネル装置2から離し、目的とするボタン表示
領域に対する入力操作が可能である。On the other hand, in the input operation performed by the visually impaired person with respect to this input device, first, any place of the touch panel device 2 arranged on the screen of the display device 4 is first touched. The first touched location may be the target button display area, the other button display area, or an area other than the button display area, but if the first touched location is the target button display area, When a certain period of time elapses with the fingertip resting at the position touched on, voice guidance is performed in step S9. Therefore, when the voice guidance is heard and the fingertip is released from the touch panel device 2, the target button display area is immediately input. Can be operated. Further, when the first touched place is a button display area other than the target button display area, it is found from the voice guidance in step S9 that the button is a button display area other than the target button display area. Therefore, the fingertip is moved while touching the touch panel device 2 to move the touch position to a region other than the button display region. FIG. 4 is a screen diagram of a state in which voice guidance is being performed for a "deposit" button display area, which is a button display area other than the button display area for this purpose. Even in a region other than the button display region, voice guidance is given (or voice guidance is not given) in step S5 after a certain period of time with the fingertip still, so that the fingertip is further moved.
Then, when the fingertip moves to the target button display area and remains stationary for a certain period of time, voice guidance corresponding to the target button display area is performed in step S9. Therefore, by listening to the voice guidance, if the fingertip is separated from the touch panel device 2, the input operation to the target button display area can be performed. FIG. 5 is a screen view of a state in which voice guidance of “balance inquiry”, which is a button display area for this purpose, is being performed. FIG. 6 is a screen diagram when the input operation to the target button display area is completed. Also,
If the first touched area is an area other than the button display area, if a certain period of time elapses with the fingertip resting in an area other than the button display area, step S5
Since voice guidance is given at (or no voice guidance is given), the fingertip is moved further. Then, when the fingertip moves to the target button display area and remains stationary for a certain period of time, voice guidance corresponding to the target button display area is performed. Therefore, by listening to this voice guidance, the fingertip is moved to the touch panel device 2 It is possible to perform an input operation to the target button display area by moving away from.
【0019】以上のように、この実施の形態によれば、
健常者は通常のボタン表示領域の操作が可能である。ま
た、視覚障害者にとっては指先を画面上に触れたまま画
面上を移動させ、希望するボタン表示領域内へ指先が移
動し、この状態で一定の時間、指先の移動が停止した状
態になれば、このとき出力される音声案内で指先が希望
するボタン表示領域に触れていることが聴覚的に確認で
きる。そして、希望するボタン表示領域へ指先が位置し
ていることを前記音声案内により聴覚的に確認した後、
指先を画面上から離すことで、希望するボタン表示領域
に対するボタン押下操作が実現できる。従って、視覚障
害者は、従来のように画面上の特定の領域に触れる必要
はなく、画面上の適当な位置へ指先を置いて、この状態
から、画面上から指先を離すことなく移動させ、音声案
内に従って指先を画面上から離すだけで目的とするボタ
ン表示領域に対するボタン押下操作を行うことが出来
る。このため、健常者による利用については通常の使用
形態を維持した状態で、視覚障害者にとっての画面操作
の簡略化、利便性の向上を実現できる入力装置およびボ
タン操作検出処理プログラムを提供できる効果がある。As described above, according to this embodiment,
A healthy person can operate the normal button display area. For the visually impaired, if the fingertip moves on the screen while touching the screen, the fingertip moves to the desired button display area, and if the movement of the fingertip is stopped for a certain time in this state. In the voice guidance output at this time, it can be auditorily confirmed that the fingertip is touching the desired button display area. Then, after aurally confirming that the fingertip is located in the desired button display area by the voice guidance,
By releasing the fingertip from the screen, it is possible to realize the button pressing operation for the desired button display area. Therefore, a visually impaired person does not need to touch a specific area on the screen as in the conventional case, puts his fingertip on an appropriate position on the screen, and moves from this state without releasing the fingertip from the screen, By simply releasing the fingertip from the screen according to the voice guidance, it is possible to perform the button pressing operation for the target button display area. Therefore, with respect to the use by a healthy person, it is possible to provide an input device and a button operation detection processing program that can realize a simplified screen operation and improved convenience for a visually impaired person while maintaining a normal usage pattern. is there.
【0020】[0020]
【発明の効果】本発明によれば、表示画面上へ触れたタ
ッチ状態および前記タッチ状態の解除、前記表示画面上
へのタッチ操作によるタッチ位置に対応する前記表示画
面上の領域がボタン表示領域であるか否か、前記タッチ
位置が移動しているか静止しているかを判定し、前記タ
ッチ位置が静止していると判定され、前記タッチ位置に
対応する前記表示画面上の領域がボタン表示領域である
と判定されたタッチ操作について、そのボタン表示領域
に対応した音声案内を行い、前記音声案内されたボタン
表示領域におけるタッチ状態の解除を検出することで、
そのボタン表示領域に対応したボタン操作信号を発生さ
せるようにしたので、健常者による利用については通常
の使用形態を維持した状態で、最初のタッチ操作による
タッチ位置が前記表示画面上のどの位置であるかにかか
わらず視覚障害者による画面操作が可能になり、画面操
作の簡略化、利便性が向上できる効果がある。According to the present invention, the area on the display screen corresponding to the touch state touched on the display screen, the release of the touch state, and the touch position by the touch operation on the display screen is the button display area. It is determined whether the touch position is moving or stationary, the touch position is determined to be stationary, and the area on the display screen corresponding to the touch position is the button display area. For the touch operation determined to be, by performing voice guidance corresponding to the button display area, by detecting the release of the touch state in the voice guidance button display area,
Since the button operation signal corresponding to the button display area is generated, for the use by a healthy person, in a state where the normal usage pattern is maintained, the touch position by the first touch operation is at any position on the display screen. Regardless of the existence of the screen, the screen operation can be performed by the visually impaired person, and the screen operation can be simplified and the convenience can be improved.
【図1】本発明の実施の一形態の入力装置が適用された
現金自動支払機などを含む端末装置の構成を示すブロッ
ク図である。FIG. 1 is a block diagram showing a configuration of a terminal device including an automatic teller machine to which an input device according to an embodiment of the present invention is applied.
【図2】本発明の実施の一形態の入力装置におけるボタ
ン操作検出処理動作を示すフローチャートである。FIG. 2 is a flowchart showing a button operation detection processing operation in the input device according to the embodiment of the present invention.
【図3】本発明の実施の一形態における“お引出しボタ
ン”、“お預入れボタン”、“残高照会ボタン”、“お
振込みボタン”が表示されたディスプレイ装置の画面図
である。FIG. 3 is a screen view of a display device on which a “withdrawal button”, a “deposit button”, a “balance inquiry button”, and a “transfer button” according to the embodiment of the present invention are displayed.
【図4】本発明の実施の一形態における目的のボタン表
示領域以外の他のボタン表示領域である“お預け入れ”
ボタン表示領域についての音声案内が行われている状態
の画面図である。FIG. 4 is a button display area other than a target button display area according to the embodiment of the present invention, which is “deposit”.
It is a screen figure in the state where the voice guidance about the button display area is performed.
【図5】本発明の実施の一形態における目的のボタン表
示領域である“残高照会”の音声案内が行われている状
態の画面図である。FIG. 5 is a screen diagram in a state where voice guidance of “balance inquiry”, which is a target button display area, is being performed in the embodiment of the present invention.
【図6】本発明の実施の一形態における目的とするボタ
ン表示領域に対する入力操作が完了したときの画面図で
ある。FIG. 6 is a screen diagram when an input operation to a target button display area is completed in the embodiment of the present invention.
1……CPU(タッチ状態検出手段、タッチ位置判定手
段、タッチ動作判定手段、音声案内手段、操作入力生成
手段)、2……タッチパネル装置、4……ディスプレイ
装置、10……音声出力手段(音声案内手段)、12…
…記憶装置、12A……ボタン操作検出処理プログラ
ム。1 ... CPU (touch state detection means, touch position determination means, touch operation determination means, voice guidance means, operation input generation means), 2 ... touch panel device, 4 ... display device, 10 ... voice output means (voice Guide means), 12 ...
... storage device, 12A ... button operation detection processing program.
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 3/16 330 G06F 3/16 330B 340 340X G07D 1/00 351 G07D 1/00 351 9/00 421 9/00 421 G09B 21/00 G09B 21/00 D ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) G06F 3/16 330 G06F 3/16 330B 340 340X G07D 1/00 351 G07D 1/00 351 9/00 421 9 / 00 421 G09B 21/00 G09B 21/00 D
Claims (3)
置により、前記表示画面上へのタッチ操作によるタッチ
位置を検出し、前記タッチ位置に対応した、前記表示画
面上に出力されているボタン表示領域についてのボタン
操作信号を発生させる入力装置において、 前記表示画面上へ触れたタッチ状態および前記タッチ状
態の解除を検出するタッチ状態検出手段と、 前記表示画面上へのタッチ操作によるタッチ位置に対応
する前記表示画面上の領域がボタン表示領域であるか否
かを判定するタッチ位置判定手段と、 前記タッチ位置が移動しているか静止しているかを判定
するタッチ動作判定手段と、 前記タッチ動作判定手段により静止していると判定さ
れ、前記タッチ位置判定手段によりボタン表示領域であ
ると判定されたタッチ操作について、そのボタン表示領
域に対応した音声案内を行う音声案内手段と、 前記音声案内手段により音声案内されたボタン表示領域
におけるタッチ状態の解除を前記タッチ状態検出手段が
検出することで、そのボタン表示領域に対応したボタン
操作信号を発生させる操作入力生成手段と、 を備えたことを特徴とする入力装置。1. A button display area, which is output on the display screen, corresponding to the touch position by detecting a touch position by a touch operation on the display screen by a touch panel device arranged on the display screen. In the input device for generating the button operation signal, the touch state detecting unit detects a touch state touching the display screen and a release of the touch state, and a touch position corresponding to a touch operation on the display screen. Touch position determining means for determining whether the area on the display screen is a button display area, touch operation determining means for determining whether the touch position is moving or stationary, and the touch operation determining means Touch operations determined to be still by the touch position determination means are determined to be in the button display area by the touch position determination means. The voice display means for providing voice guidance corresponding to the button display area, and the touch state detection means detecting the release of the touch state in the button display area voice-guided by the voice guidance means, thereby displaying the button display. An input device comprising: an operation input generation means for generating a button operation signal corresponding to a region.
面上へのタッチ操作によるタッチ位置が移動している
か、一定の時間、静止しているかを判定することを特徴
とする請求項1記載の入力装置。2. The touch operation determination means determines whether the touch position by a touch operation on the display screen is moving or is stationary for a certain period of time. Input device.
置により、前記表示画面上へのタッチ操作によるタッチ
位置を検出し、前記タッチ位置に対応した、前記表示画
面上に出力されているボタン表示領域についてのボタン
操作信号を発生させるボタン操作検出処理プログラムで
あって、 前記表示画面上へ触れたタッチ状態および前記タッチ状
態の解除を検出するタッチ状態検出処理と、 前記表示画面上へのタッチ操作によるタッチ位置に対応
する前記表示画面上の領域がボタン表示領域であるか否
かを判定するタッチ位置判定処理と、 前記タッチ位置が移動しているか静止しているかを判定
するタッチ動作判定処理と、 前記タッチ動作判定処理により静止していると判定さ
れ、前記タッチ位置判定処理によりボタン表示領域であ
ると判定されたタッチ操作について、そのボタン表示領
域に対応した音声案内を行う音声案内処理と、 前記音声案内処理により音声案内されたボタン表示領域
におけるタッチ状態の解除を前記タッチ状態検出処理で
検出することにより、そのボタン表示領域に対応した操
作入力を発生させる操作入力生成処理と、 をコンピュータに実行させるためのボタン操作検出処理
プログラム。3. A touch panel device arranged on a display screen detects a touch position by a touch operation on the display screen, and a button display area corresponding to the touch position and output on the display screen. Is a button operation detection processing program for generating a button operation signal, and a touch status detection processing for detecting a touch status touched on the display screen and release of the touch status, and a touch operation on the display screen. A touch position determination process for determining whether the area on the display screen corresponding to the touch position is a button display region, and a touch operation determination process for determining whether the touch position is moving or stationary, It is determined to be still by the touch operation determination processing, and it is determined to be the button display area by the touch position determination processing. With respect to the touch operation performed, by performing voice guidance processing for performing voice guidance corresponding to the button display area, and canceling the touch state in the button display area voice-guided by the voice guidance processing by the touch state detection processing. , A button operation detection processing program for causing a computer to execute an operation input generation process for generating an operation input corresponding to the button display area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002031823A JP2003233465A (en) | 2002-02-08 | 2002-02-08 | Input device and processing program for detecting button-operation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002031823A JP2003233465A (en) | 2002-02-08 | 2002-02-08 | Input device and processing program for detecting button-operation |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003233465A true JP2003233465A (en) | 2003-08-22 |
Family
ID=27775117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002031823A Pending JP2003233465A (en) | 2002-02-08 | 2002-02-08 | Input device and processing program for detecting button-operation |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003233465A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006172435A (en) * | 2004-12-14 | 2006-06-29 | Microsoft Corp | Semantic canvas |
JP2006244231A (en) * | 2005-03-04 | 2006-09-14 | Xanavi Informatics Corp | Input control unit, and input control method |
JP2014182555A (en) * | 2013-03-19 | 2014-09-29 | Stanley Electric Co Ltd | Input device and electronic device |
CN105270939A (en) * | 2014-06-04 | 2016-01-27 | 三菱电机株式会社 | Elevator calling registration device and elevator calling registration method for elevators |
JP2016020267A (en) * | 2014-07-15 | 2016-02-04 | 三菱電機株式会社 | Touch panel type destination floor registration operation panel of elevator and user determination method in the same |
JP2019094203A (en) * | 2017-11-27 | 2019-06-20 | 東芝エレベータ株式会社 | Elevator system |
JP2019179515A (en) * | 2018-03-30 | 2019-10-17 | ブラザー工業株式会社 | Numerical controller, machine tool, display method, and computer program |
-
2002
- 2002-02-08 JP JP2002031823A patent/JP2003233465A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006172435A (en) * | 2004-12-14 | 2006-06-29 | Microsoft Corp | Semantic canvas |
JP2006244231A (en) * | 2005-03-04 | 2006-09-14 | Xanavi Informatics Corp | Input control unit, and input control method |
JP4530881B2 (en) * | 2005-03-04 | 2010-08-25 | クラリオン株式会社 | Input control device and input control method |
JP2014182555A (en) * | 2013-03-19 | 2014-09-29 | Stanley Electric Co Ltd | Input device and electronic device |
CN105270939A (en) * | 2014-06-04 | 2016-01-27 | 三菱电机株式会社 | Elevator calling registration device and elevator calling registration method for elevators |
JP2016020267A (en) * | 2014-07-15 | 2016-02-04 | 三菱電機株式会社 | Touch panel type destination floor registration operation panel of elevator and user determination method in the same |
JP2019094203A (en) * | 2017-11-27 | 2019-06-20 | 東芝エレベータ株式会社 | Elevator system |
JP2019179515A (en) * | 2018-03-30 | 2019-10-17 | ブラザー工業株式会社 | Numerical controller, machine tool, display method, and computer program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110753902B (en) | User interface for downloading applications on an electronic device | |
US7187394B2 (en) | User friendly selection apparatus based on touch screens for visually impaired people | |
US11460925B2 (en) | User interfaces for non-visual output of time | |
CN110989917B (en) | User interface for playing and managing audio items | |
CN112565515B (en) | Method for pairing peripheral devices, electronic device and computer storage medium | |
CN106155549B (en) | The manipulation of touch input cursor | |
CN112771474A (en) | System, device and method for controlling a device using motion gestures, and corresponding non-transitory computer-readable storage medium | |
JP6546998B2 (en) | System and method for linking applications | |
JP2019175441A (en) | Handwriting keyboard for screens | |
CN107924277A (en) | Device, method and graphical user interface for manipulating a user interface by physical gestures | |
CN110362245A (en) | The manipulation of touch input cursor | |
CN102253797A (en) | Touch event model | |
CN101627361A (en) | Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display | |
CN108845664A (en) | For receiving the user interface of user's input | |
JP2004070492A (en) | Display equipped with touch panel, and method of processing information | |
KR20100110568A (en) | Method for activating function of portable terminal using user gesture in portable terminal | |
CN109219781A (en) | Display and update application view group | |
JP2011034502A (en) | Display device, display method, and program | |
JP2012104092A (en) | Touch screen device allowing visually impaired person to handle objects thereon, and method of handling objects on touch screen device | |
JP2012053532A (en) | Information processing apparatus and method, and program | |
TW200930015A (en) | A user interface of portable device and operating method thereof | |
JP2003233465A (en) | Input device and processing program for detecting button-operation | |
JP2002373057A (en) | Method and device for input operation, and program | |
KR20160097414A (en) | Input system of touch device for the blind and the input method thereof | |
JPH07110751A (en) | Multimodal device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050516 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050518 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20050916 |