[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2009003867A - Display device and computer program - Google Patents

Display device and computer program Download PDF

Info

Publication number
JP2009003867A
JP2009003867A JP2007166425A JP2007166425A JP2009003867A JP 2009003867 A JP2009003867 A JP 2009003867A JP 2007166425 A JP2007166425 A JP 2007166425A JP 2007166425 A JP2007166425 A JP 2007166425A JP 2009003867 A JP2009003867 A JP 2009003867A
Authority
JP
Japan
Prior art keywords
display
component
touch panel
unit
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007166425A
Other languages
Japanese (ja)
Inventor
Kenji Obata
健二 小畑
Sadamitsu Koike
定充 小池
Koji Ono
浩司 大野
Mikiya Aoyama
幹也 青山
Sachi Osumi
サチ 大隅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Panasonic Electric Works Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Electric Works Co Ltd filed Critical Panasonic Electric Works Co Ltd
Priority to JP2007166425A priority Critical patent/JP2009003867A/en
Publication of JP2009003867A publication Critical patent/JP2009003867A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve operability in an operator by predicting a display part corresponding to depression operation, before the operator performs the depression operation to a touch panel part. <P>SOLUTION: The touch panel part 20 arranged in information of a display part detects a position of the pushing-down operation by an operation finger, and outputs a depression coordinate to a control part 40. A detecting part 30 detects a position of the operation finger premised on the depression operation to the touch panel part 20 in a detecting area set in an upper part of the touch panel part 20, and outputs a predicting coordinate to the control part 40. A storage part 50 associatively stores a predicting coordinate range of indicating a range on a display area included in at least a display part with respective multiple display parts. Here, the control part 40 specifies a display object part associated to the predicting coordinate range including the predicting coordinate as a depression predicting part by retrieving the storage part 50 based on the predicting coordinate. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、表示装置、および、この表示装置に実行させるためのコンピュータ・プログラムに関する。   The present invention relates to a display device and a computer program for causing the display device to execute.

従来より、表示機能と入力機能とが共通化されたタッチパネル機能を有する表示装置が知られている。この類の表示装置では、表示部の上面にタッチパネル部を配設し、タッチパネル部における操作指の押下位置と、表示部の表示エリアに表示された表示部品との位置的な対応関係に基づいて、押下操作と位置的に対応する表示部品を特定し、この表示部品に割り当てられた機能が実行される。   Conventionally, a display device having a touch panel function in which a display function and an input function are shared is known. In this type of display device, a touch panel unit is provided on the upper surface of the display unit, and based on the positional correspondence between the pressed position of the operation finger on the touch panel unit and the display component displayed in the display area of the display unit. The display component corresponding to the pressing operation is specified, and the function assigned to the display component is executed.

なお、特許文献1から3には、タッチパネル部へ押下操作がなされる前に操作指の位置を検出する手法が開示されている。
特開平6−4214号公報 特開2005−71246号公報 特開2006−285491号公報
Patent Documents 1 to 3 disclose a method for detecting the position of the operating finger before a pressing operation is performed on the touch panel unit.
JP-A-6-4214 JP 2005-71246 A JP 2006-285491 A

しかしながら、個々の表示部品の配置間隔が狭かったり、表示部品が小さく表示されたりした場合には、表示部の表示エリア上に表示された表示部品を選択する際に、操作者が意図する表示部品とは異なる表示部品が押下操作されたと認識されてしまう問題がある。このような問題は、表示部の表示エリアのサイズが小さいほど顕著となる。   However, when the arrangement interval of individual display components is narrow or the display components are displayed small, the display component intended by the operator is selected when selecting the display component displayed on the display area of the display unit. There is a problem that it is recognized that a display component different from the above is pressed. Such a problem becomes more prominent as the size of the display area of the display unit is smaller.

本発明は、このような事情に鑑みてなされたものであり、その目的は、操作者がタッチパネル部に対して押下操作を行う前に、その押下操作に対応する表示部品を事前に予測することにより、操作者に対する操作性の向上を図ることである。   The present invention has been made in view of such circumstances, and an object thereof is to predict in advance the display components corresponding to the pressing operation before the operator performs the pressing operation on the touch panel unit. Thus, the operability for the operator is improved.

かかる課題を解決するために、第1の発明は、表示部と、制御部と、第1のタッチパネル部と、検出部と、記憶部とを有する表示装置を提供する。ここで、表示部は、表示エリアを備える。制御部は、表示エリアに表示すべき表示部品を表示対象部品として決定するとともに、この決定された表示対象部品が表示エリアに表示されるように、表示部を制御する。第1のタッチパネル部は、表示部の上方に配設されており、操作指による押下操作の位置を検出して、この押下操作と位置的に対応する表示エリア上の座標を押下座標として制御部に出力する。検出部は、第1のタッチパネル部の上方に設定される検出エリアにおいて、第1のタッチパネル部への押下操作を前提とした操作指の位置を検出して、この操作指と位置的に対応する表示エリア上の座標を予測座標として制御部に出力する。記憶部は、複数の表示部品毎に、少なくとも表示部品に含まれる表示エリア上の範囲を示す予測座標範囲を関連付けて記憶する。この場合、制御部は、検出部からの予測座標に基づいて記憶部を検索することにより、予測座標が含まれる予測座標範囲と関連付けられている表示対象部品を、第1のタッチパネル部を介した押下操作が予測される押下予測部品であると特定する。   In order to solve the problem, the first invention provides a display device having a display unit, a control unit, a first touch panel unit, a detection unit, and a storage unit. Here, the display unit includes a display area. The control unit determines a display component to be displayed in the display area as a display target component, and controls the display unit so that the determined display target component is displayed in the display area. The first touch panel unit is disposed above the display unit, detects the position of the pressing operation by the operating finger, and uses the coordinates on the display area corresponding to the pressing operation as the pressed coordinates as a control unit. Output to. The detection unit detects the position of the operation finger on the assumption that the first touch panel unit is pressed in a detection area set above the first touch panel unit, and corresponds to the operation finger in position. The coordinates on the display area are output to the control unit as predicted coordinates. The storage unit stores a predicted coordinate range indicating at least a range on the display area included in the display component in association with each other for each of the plurality of display components. In this case, the control unit searches the storage unit based on the predicted coordinates from the detection unit, thereby causing the display target component associated with the predicted coordinate range including the predicted coordinates to be displayed via the first touch panel unit. It is specified that the pressed operation is predicted to be pressed.

ここで、第1の発明において、検出部は、第1のタッチパネル部の表示エリア上空に検出エリアを設定して、この検出エリアを通過して第1のタッチパネル部へ接近する操作指の位置を検出するセンサによって構成されることが好ましい。または、検出部は、第1のタッチパネル部の上面に重ね合わせて配設されて、自己の表面を検出エリアとして有する第2のタッチパネル部によって構成されており、第2のタッチパネル部は、第1のタッチパネル部の検知感度よりも高い検知感度に設定されていることが好ましい。   Here, in the first invention, the detection unit sets a detection area above the display area of the first touch panel unit, and determines the position of the operating finger that passes through the detection area and approaches the first touch panel unit. It is preferable that the sensor is configured to detect. Alternatively, the detection unit is configured by a second touch panel unit that is arranged on the upper surface of the first touch panel unit and has its own surface as a detection area. It is preferable that the detection sensitivity is set to be higher than the detection sensitivity of the touch panel unit.

また、第1の発明において、制御部は、特定された押下予測部品を目標とするタッチパネル部への押下操作を補助する観点に基づいて、表示対象部品の表示状態を変更させることが望ましい。   In the first invention, it is desirable that the control unit changes the display state of the display target component based on the viewpoint of assisting the pressing operation on the touch panel unit targeting the specified press predicted component.

ここで、表示部品は、少なくとも文字情報を含み、制御部は、押下予測部品に含まれる文字情報が表示状態変更前よりも太文字となるように、表示対象部品の表示状態を変更する。ことを特徴とする請求項4に記載された表示装置。   Here, the display component includes at least character information, and the control unit changes the display state of the display target component so that the character information included in the press prediction component becomes bolder than before the display state is changed. The display device according to claim 4.

また、制御部は、押下予測部品以外の表示対象部品を非表示とするように、表示対象部品の表示状態を変更する。   In addition, the control unit changes the display state of the display target component so as to hide the display target component other than the press predicted component.

また、制御部は、押下予測部品以外の表示対象部品が表示状態変更前よりも不鮮明となるように、表示対象部品の表示状態を変更する。   In addition, the control unit changes the display state of the display target component so that the display target components other than the pressed prediction component are less clear than before the display state change.

また、制御部は、押下予測部品が表示状態変更前よりも拡大表示されるように、表示対象部品の表示状態を変更する。   In addition, the control unit changes the display state of the display target component so that the pressed prediction component is displayed in an enlarged manner before the display state change.

また、制御部は、押下予測部品を中心として所定範囲内に含まれる表示対象部品を周辺表示部品として特定するとともに、押下予測部品と周辺表示部品とが表示状態変更前よりも拡大表示されるように、表示対象部品の表示状態を変更する。   In addition, the control unit specifies the display target component included in the predetermined range centered on the press prediction component as the peripheral display component, and the press prediction component and the peripheral display component are displayed in an enlarged manner before the display state change. Next, the display state of the display target component is changed.

また、表示対象部品は、操作者によって操作可能な第1の表示対象部品と、操作者によって操作不可能な第2の表示対象部品とを含み、制御部は、押下予測部品と、押下予測部品以外の第1の表示対象部品とが表示状態変更前よりも拡大表示されるように、表示対象部品の表示状態を変更する。   The display target component includes a first display target component that can be operated by the operator and a second display target component that cannot be operated by the operator, and the control unit includes a press prediction component and a press prediction component. The display state of the display target component is changed so that the first display target component other than the display target component is enlarged and displayed as compared to before the display state change.

また、制御部は、拡大表示するとともに、表示部品の機能が表示されるように、表示対象部品の表示状態を変更する。   In addition, the control unit enlarges the display and changes the display state of the display target component so that the function of the display component is displayed.

さらに、第1の発明において、表示装置は、音声情報を出力する音声出力部をさらに有してもよい。この場合、制御部は、特定された押下予測部品に基づいて、この押下予測部品の機能を説明する情報を、音声出力部を介して出力する。   Furthermore, in the first invention, the display device may further include an audio output unit that outputs audio information. In this case, the control unit outputs information describing the function of the press prediction component based on the specified press prediction component via the voice output unit.

第2の発明は、表示部の表示エリアの上方にタッチパネル部が配設された表示装置に実行させるためのコンピュータ・プログラムを提供する。このコンピュータ・プログラムは、表示エリアに表示すべき表示部品を表示対象部品として決定する第1のステップと、決定された表示対象部品を表示エリアに表示する第2のステップと、第1のタッチパネル部の上方に設定される検出エリアにおいて、第1のタッチパネル部へ接近する操作指の位置を検出する検出部から、この操作指と位置的に対応する表示エリア上の座標を予測座標として取得する第3のステップと、複数の表示部品毎に、少なくとも表示部品に含まれる表示エリア上の範囲を示す予測座標範囲が関連付けられた部品情報を検索し、取得した予測座標が含まれる予測座標範囲と関連付けられている表示対象部品を、第1のタッチパネル部を介した押下操作が予測される押下予測部品であると特定する第4のステップとを有する。   The second invention provides a computer program for causing a display device having a touch panel unit disposed above a display area of a display unit to execute the program. The computer program includes a first step of determining a display component to be displayed in the display area as a display target component, a second step of displaying the determined display target component in the display area, and a first touch panel unit. In the detection area set above the first position, a coordinate on the display area corresponding to the operation finger is obtained as a predicted coordinate from the detection unit that detects the position of the operation finger approaching the first touch panel unit. Step 3 and, for each of a plurality of display components, search for component information associated with at least a predicted coordinate range indicating a range on the display area included in the display component, and associate with the predicted coordinate range including the acquired predicted coordinate A fourth step of specifying that the displayed display target component is a press prediction component for which a press operation via the first touch panel unit is predicted. To.

ここで、第2の発明は、第4のステップにおいて特定された押下予測部品を目標とするタッチパネル部への押下操作を補助する観点に基づいて、表示対象部品の表示状態を変更させる第5のステップをさらに有することが望ましい。   Here, the second invention is a fifth device that changes the display state of the display target component based on the viewpoint of assisting the pressing operation to the touch panel unit targeting the press predicted component specified in the fourth step. It is desirable to further include steps.

本発明によれば、表示部品毎に、予測座標範囲が関連付けられて記憶部に記憶されている。そのため、この記憶部を参照し、予測座標と、予測座標範囲との位置的な対応を図ることが可能となり、押下予測部品を特定することができる。これにより、操作者が選択しようとする表示対象部品を、タッチパネル部を押下操作するよりも前に特定することができる。よって、タッチパネル部の押下操作前であるため、すなわち、操作者による実質的な選択が行われる前段階であるため、この押下予測部品に基づいて、各種の処理を実現することができ、これにより、操作者に対する操作性の向上を図ることが可能となる。   According to the present invention, the predicted coordinate range is associated with each display component and stored in the storage unit. Therefore, referring to this storage unit, it is possible to achieve a positional correspondence between the predicted coordinate and the predicted coordinate range, and it is possible to specify the pressed predicted component. Thereby, the display target component that the operator wants to select can be specified before the touch panel unit is pressed. Therefore, since it is before the pressing operation of the touch panel part, that is, before the substantial selection by the operator is performed, various processes can be realized based on this pressing prediction component. It becomes possible to improve the operability for the operator.

(第1の実施形態)
図1は、本発明の実施形態にかかる表示装置の構成を示すブロック図である。図2は、表示装置の外観を模式的に示す説明図であり、一部の構成要素は省略して描かれている。この表示装置は、例えば、工場等の施設に設けられており、工場内における種々の装置の運転状況や設備情報を表示するとともに、装置や設備を一元的にコントロールする入力機能を備えた装置である。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of a display device according to an embodiment of the present invention. FIG. 2 is an explanatory diagram schematically showing the appearance of the display device, and some components are omitted. This display device is provided in a facility such as a factory, for example, and displays the operating status and facility information of various devices in the factory and has an input function for centrally controlling the device and equipment. is there.

表示装置は、表示部10と、タッチパネル部20と、検出部30と、制御部40と、記憶部50と、音声出力部60とを主体に構成されている。   The display device mainly includes a display unit 10, a touch panel unit 20, a detection unit 30, a control unit 40, a storage unit 50, and an audio output unit 60.

表示部10は、液晶やCRTといった周知のディスプレイ(表示手段)によって構成されており、後述する制御部40に制御されて各種の情報を表示する。表示部10は、例えば、工場内の壁面などに設置されており、設置場所などの制限を受けに難くするため、比較的小型のディスプレイを用いることが好ましい。表示部10は、情報が実質的に表示される表示エリア11を有しており、この表示エリア11には、表示エリア11上の二次元位置を規定する座標情報が予め設定されている。この座標情報は、例えば、表示エリア11の左上隅を原点として、水平座標(X座標)および垂直座標(Y座標)の二次元座標として設定されている。   The display unit 10 is configured by a known display (display unit) such as a liquid crystal or a CRT, and is controlled by the control unit 40 described later to display various information. The display unit 10 is installed on, for example, a wall surface in a factory, and it is preferable to use a relatively small display in order to make it difficult to receive restrictions on the installation location. The display unit 10 has a display area 11 in which information is substantially displayed. In the display area 11, coordinate information that defines a two-dimensional position on the display area 11 is set in advance. For example, the coordinate information is set as two-dimensional coordinates of a horizontal coordinate (X coordinate) and a vertical coordinate (Y coordinate) with the upper left corner of the display area 11 as the origin.

タッチパネル部20は、表示部10の上方に、具体的には、その表面に、少なくとも表示エリア11を覆うような格好で配設されている。タッチパネル部20としては、抵抗膜方式のアナログタッチパネルなどを用いることができる。この類のタッチパネルは、一般に、上部透明電極板と下部透明電極板とを主体に構成されている。個々の透明電極板は、透明基板とこの透明基板上に形成された透明導電性膜とを有しており、上部および下部透明電極板は、互いの透明導電性膜が対向するように間隔をおいて配置されている。このような構成のタッチパネル部20は、上部透明電極板が操作指で押下された場合、その押下点において、上部透明電極板が撓み、上部および下部透明電極板の透明導電性膜同士が接触する。そして、この接触点の座標情報が電気抵抗の測定によって検出されて、これが押下操作の位置を示す押下座標として制御部40に出力される。タッチパネル部20に設定される座標情報は、表示部10の表示エリア11に設定される座標情報と位置的に対応付けて設定されており、この押下座標は、押下操作と位置的に対応する表示エリア上の座標を示すこととなる。また、タッチパネル部20は、検知感度として設定された第1の押下圧以上の圧力が作用した場合に、これを押下操作として検出する。したがって、第1の押下圧力よりも小さな圧力で押下操作をした場合には、押下操作として検出されない。なお、操作指は、直接的には、操作者自身の指であるが、入力ペンといったタッチパネル部20を操作可能な種々の要素を含む。   The touch panel unit 20 is disposed above the display unit 10, specifically, on the surface thereof so as to cover at least the display area 11. As the touch panel unit 20, a resistive film type analog touch panel or the like can be used. This type of touch panel is generally composed mainly of an upper transparent electrode plate and a lower transparent electrode plate. Each transparent electrode plate has a transparent substrate and a transparent conductive film formed on the transparent substrate, and the upper and lower transparent electrode plates are spaced so that the transparent conductive films face each other. Arranged. When the upper transparent electrode plate is pressed with an operating finger, the touch panel portion 20 having such a configuration is bent at the pressing point, and the transparent conductive films of the upper and lower transparent electrode plates are in contact with each other. . And the coordinate information of this contact point is detected by the measurement of electrical resistance, and this is output to the control part 40 as a pressing coordinate which shows the position of pressing operation. The coordinate information set in the touch panel unit 20 is set in a positional relationship with the coordinate information set in the display area 11 of the display unit 10, and the pressed coordinate is a display corresponding in position to the pressing operation. The coordinates on the area will be shown. Further, when a pressure equal to or higher than the first pressing pressure set as the detection sensitivity is applied, the touch panel unit 20 detects this as a pressing operation. Therefore, when the pressing operation is performed with a pressure smaller than the first pressing pressure, the pressing operation is not detected. The operating finger is directly the operator's own finger, but includes various elements such as an input pen that can operate the touch panel unit 20.

図3は、第1の実施形態にかかる検出部30の構成を示す説明図である。検出部30は、タッチパネル部20の上方に設定される検出エリア33において、タッチパネル部20への押下操作を前提とした操作指の位置を検出して、これを操作指によって押下操作されるであろう位置を示す予測座標として制御部40に出力する。本実施形態において、検出部30は、それぞれが表示エリア11の水平方向にかけて配列されて、表示エリア11の垂直方向に検出光(以下「垂直検出光」という)を照射する複数の発光ユニット31と、垂直検出光を受光する受光ユニット32と、それぞれが表示エリア11の垂直方向にかけて配列されて、表示エリア11の水平方向に検出光(以下「水平検出光」という)を照射する一対の発光ユニット31と、水平検検出光を受光する受光ユニット32とで構成されている。   FIG. 3 is an explanatory diagram illustrating a configuration of the detection unit 30 according to the first embodiment. The detection unit 30 detects the position of the operating finger on the premise that the touch panel unit 20 is pressed in the detection area 33 set above the touch panel unit 20, and is pressed by the operating finger. The predicted coordinates indicating the wax position are output to the control unit 40. In the present embodiment, the detection unit 30 includes a plurality of light emitting units 31 that are arranged in the horizontal direction of the display area 11 and emit detection light (hereinafter referred to as “vertical detection light”) in the vertical direction of the display area 11. A light receiving unit 32 that receives vertical detection light, and a pair of light emitting units that are arranged in the vertical direction of the display area 11 and emit detection light (hereinafter referred to as “horizontal detection light”) in the horizontal direction of the display area 11. 31 and a light receiving unit 32 for receiving horizontal detection light.

垂直検出光は、タッチパネル部20の上空を、このタッチパネル部20と平行に照射される光であり、個々の垂直検出光により、表示エリア11の水平方向領域が概ねカバーされる。タッチパネル部20への押下操作を前提として、操作指が垂直検出光を通過してタッチパネル部20へ接近すると、垂直検出光のいずれかが遮断され、これに対応して受光ユニット32側での検出強度が変化する。受光ユニット32は、個々の垂直検出光に対応する水平方向の座標情報と、それが遮断された場合の検出強度との対応関係を保持しており、変化した検出強度に基づいて、操作指が検出エリア33を通過した水平方向の座標情報を検出する。   The vertical detection light is light that is irradiated above the touch panel unit 20 in parallel with the touch panel unit 20, and the horizontal region of the display area 11 is substantially covered by each vertical detection light. Assuming that the touch panel unit 20 is pressed, when the operating finger passes through the vertical detection light and approaches the touch panel unit 20, any of the vertical detection light is blocked, and corresponding detection is performed on the light receiving unit 32 side. The intensity changes. The light receiving unit 32 holds a correspondence relationship between the horizontal coordinate information corresponding to each vertical detection light and the detection intensity when the light detection unit 32 is blocked. The horizontal coordinate information that has passed through the detection area 33 is detected.

一方、水平検出光は、タッチパネル部20の上空を、このタッチパネル部20と平行に照射される光であり、個々の水平検出光により、表示エリア11の垂直方向領域が概ねカバーされる。タッチパネル部20への押下操作を前提として、操作指が水平検出光を通過してタッチパネル部20へ接近すると、水平検出光のいずれかが遮断される。これに対応して受光ユニット32側での検出強度が変化する。受光ユニット32は、個々の水平検出光に対応する垂直方向の座標情報と、それが遮断された場合の検出強度との対応関係を保持しており、変化した検出強度に基づいて、操作指が検出エリア33を通過した垂直方向の座標情報を検出する。   On the other hand, the horizontal detection light is light that is irradiated above the touch panel unit 20 in parallel with the touch panel unit 20, and the vertical direction region of the display area 11 is substantially covered by each horizontal detection light. Assuming that the touch panel unit 20 is pressed, when the operating finger passes the horizontal detection light and approaches the touch panel unit 20, any of the horizontal detection light is blocked. Correspondingly, the detection intensity on the light receiving unit 32 side changes. The light receiving unit 32 holds a correspondence relationship between the vertical coordinate information corresponding to each horizontal detection light and the detection intensity when the light detection unit 32 is blocked. The vertical coordinate information that has passed through the detection area 33 is detected.

このような垂直検出光および水平検出光により、タッチパネル部20の上空、すなわち、表示エリア上空に、タッチパネル部20と平行な二次元領域の検出エリア33が設定され、この検出エリア33を通過して第1のタッチパネル部へ接近する操作指の水平方向および垂直方向の位置(座標情報)が検出される。検出された座標情報は、予測座標として制御部に出力される。検出部30に設定される座標情報は、表示部10の表示エリア11に設定される座標情報と位置的に対応付けて設定されており、この予測座標は、操作指と位置的に対応する表示エリア11上の座標を示すこととなる。   By such vertical detection light and horizontal detection light, a detection area 33 of a two-dimensional region parallel to the touch panel unit 20 is set above the touch panel unit 20, that is, above the display area, and passes through the detection area 33. The position (coordinate information) in the horizontal direction and the vertical direction of the operating finger approaching the first touch panel unit is detected. The detected coordinate information is output to the control unit as predicted coordinates. The coordinate information set in the detection unit 30 is set in a positional relationship with the coordinate information set in the display area 11 of the display unit 10, and the predicted coordinates are displayed in correspondence with the operation finger. The coordinates on the area 11 will be shown.

制御部40は、表示部10の表示エリア11に表示する情報を決定するとともに、タッチパネル部20からの押下座標または検出部30からの予測座標に基づいて、表示エリア11の表示状態を変更するように、表示部10を制御する。本実施形態において、制御部40は、例えば、予め設定された制御プログラムに基づいて、種々のシーンに応じた表示状態を設定すべく、表示エリア11に表示すべき表示部品を表示対象部品Sとして決定する。表示部品は、各種の機能が割り当てられて、表示エリア11に表示される画像データやテキストデータのシンボルである。この表示部品には、操作者によって選択可能な部品と、装置や環境状態を表して、操作者によって選択不可能な部品とが含まれている。制御部40は、記憶部50に記憶される表示座標に基づいて、決定された表示対象部品Sが表示エリア11に表示されるように、表示部10を制御する。   The control unit 40 determines information to be displayed in the display area 11 of the display unit 10 and changes the display state of the display area 11 based on the pressed coordinates from the touch panel unit 20 or the predicted coordinates from the detection unit 30. Next, the display unit 10 is controlled. In the present embodiment, for example, the control unit 40 sets a display component to be displayed in the display area 11 as a display target component S in order to set a display state according to various scenes based on a preset control program. decide. The display component is a symbol of image data or text data to which various functions are assigned and displayed in the display area 11. This display component includes a component that can be selected by the operator and a component that represents the device and the environmental state and cannot be selected by the operator. The control unit 40 controls the display unit 10 so that the determined display target component S is displayed in the display area 11 based on the display coordinates stored in the storage unit 50.

図4は、記憶部50に記憶される部品情報を説明する図である。部品情報は、個々の表示部品毎に、表示座標と、予測座標範囲とが関連付けられて構成されている。表示座標は、表示エリア11における表示位置を規定する座標情報である。例えば、表示部品が矩形状のシンボルである場合、シンボルの中心点を表示する位置が、この表示座標によって規定される。予測座標範囲は、表示座標に従って表示される表示部品に含まれる表示エリア11上の範囲を示す。例えば、表示部品が矩形状のシンボルである場合、この予測座標範囲は、表示部品の各隅部を表す4点の座標情報A〜Dによって設定される。なお、表示座標および予測座標範囲は、単一の表示部品について、複数設定してもよく、表示エリア11に表示される表示対象部品Sの個数に応じて、適宜選択することにより、個々の表示対象部品Sがオフセットするように調整することも可能である。   FIG. 4 is a diagram for explaining component information stored in the storage unit 50. The component information is configured by associating a display coordinate and a predicted coordinate range for each display component. The display coordinates are coordinate information that defines the display position in the display area 11. For example, when the display component is a rectangular symbol, the position where the center point of the symbol is displayed is defined by the display coordinates. The predicted coordinate range indicates a range on the display area 11 included in the display component displayed according to the display coordinates. For example, when the display component is a rectangular symbol, the predicted coordinate range is set by coordinate information A to D of four points representing each corner of the display component. Note that a plurality of display coordinates and predicted coordinate ranges may be set for a single display component, and individual display can be performed by appropriately selecting according to the number of display target components S displayed in the display area 11. It is also possible to adjust so that the target component S is offset.

本実施形態の特徴の一つとして、制御部40は、検出部30から予測座標が出力された場合、この予測座標に基づいて記憶部50を検索する。そして、制御部40は、予測座標が含まれる予測座標範囲と関連付けられた表示対象部品Sを押下予測部品として特定する。そして、制御部40は、特定された押下予測部品を目標とするタッチパネル部20への押下操作を補助する観点に基づいて、表示対象部品Sの表示状態を変更させる。一方、制御部40は、予測座標を含む予測座標範囲が存在しない場合、また、予測座標に対応する予測座標範囲に関連付けられる表示部品があってもそれが表示対象部品Sではない場合には、表示対象部品Sの表示状態をそのままの状態に維持する。   As one of the features of the present embodiment, when a predicted coordinate is output from the detection unit 30, the control unit 40 searches the storage unit 50 based on the predicted coordinate. Then, the control unit 40 specifies the display target component S associated with the predicted coordinate range including the predicted coordinate as the pressed predicted component. And the control part 40 changes the display state of the display target component S based on the viewpoint which assists the pressing operation to the touch panel part 20 which makes the specified pressing prediction component target. On the other hand, when the predicted coordinate range including the predicted coordinates does not exist, or when there is a display component associated with the predicted coordinate range corresponding to the predicted coordinates, the control unit 40 is not the display target component S. The display state of the display target component S is maintained as it is.

以下、各図面を参照しつつ、表示状態の変更形態について説明する。表示状態の変更形態としては、以下に示す各パターンの中から適宜適用することができる。なお、各図において、(a)は、変更前の表示状態を示し、(b)は、変更後の表示状態を示す。   Hereinafter, a display mode change mode will be described with reference to the drawings. The display state can be changed as appropriate from the following patterns. In each figure, (a) shows the display state before the change, and (b) shows the display state after the change.

図5は、第1の変更形態を模式的に示す説明図である。例えば、あるシーンにおける初期表示状態として、「部品A」が表示対象部品Sとして表示されていたとする。制御部40は、予測座標に基づいて、「部品A」を押下予測部品と判断した場合には、部品のアウトラインの大きさはそのままで、文字情報が、初期表示状態(表示状態変更前)よりも太文字となるように、表示対象部品Sの表示状態を変更する。これにより、押下予測部品が視覚的に強調表示されることとなる。   FIG. 5 is an explanatory diagram schematically showing a first modification. For example, it is assumed that “component A” is displayed as the display target component S as an initial display state in a certain scene. When the control unit 40 determines that “component A” is a pressed predicted component based on the predicted coordinates, the size of the outline of the component remains the same and the character information is from the initial display state (before the display state is changed). In addition, the display state of the display target component S is changed so as to be bold. As a result, the press prediction component is visually highlighted.

図6は、第2の変更形態を模式的に示す説明図である。例えば、あるシーンにおける初期表示状態として、「部品A」〜「部品C」が表示対象部品Sとして表示されていたとする。制御部40は、予測座標に基づいて、「部品A」を押下予測部品と判断した場合には、押下予測部品である「部品A」以外の表示対象部品S、すなわち、「部品B」および「部品C」を非表示とするように、表示対象部品Sの表示状態を変更する。これにより、押下予測部品のみが表示されることとなる。   FIG. 6 is an explanatory diagram schematically showing a second modification. For example, it is assumed that “component A” to “component C” are displayed as the display target component S as an initial display state in a certain scene. When the control unit 40 determines that “part A” is a predicted press part based on the predicted coordinates, the display target part S other than “part A” that is the predicted press part, that is, “part B” and “part B”. The display state of the display target component S is changed so that “component C” is not displayed. As a result, only the press predicted component is displayed.

図7は、第3の変更形態を模式的に示す説明図である。例えば、あるシーンにおける初期表示状態として、「部品A」〜「部品C」が表示対象部品Sとして表示されていたとする。制御部40は、予測座標に基づいて、「部品A」を押下予測部品と判断した場合には、押下予測部品である「部品A」以外の表示対象部品S、すなわち、「部品B」および「部品C」が、初期表示状態(表示状態変更前)よりも不鮮明となるように、表示対象部品Sの表示状態を変更する。例えば、「部品B」および「部品C」のアウトラインを破線に変更するといった如くである。これにより、押下予測部品が、これ以外の表示対象部品と比較して強調表示されることとなる。   FIG. 7 is an explanatory diagram schematically showing a third modification. For example, it is assumed that “component A” to “component C” are displayed as the display target component S as an initial display state in a certain scene. When the control unit 40 determines that “part A” is a predicted press part based on the predicted coordinates, the display target part S other than “part A” that is the predicted press part, that is, “part B” and “part B”. The display state of the display target component S is changed so that the “component C” is unclear from the initial display state (before the display state is changed). For example, the outline of “component B” and “component C” is changed to a broken line. As a result, the press predicted component is highlighted as compared with other display target components.

図8は、第4の変更形態を模式的に示す説明図である。例えば、あるシーンにおける初期表示状態として、「部品A」が表示対象部品Sとして表示されていたとする。制御部40は、予測座標に基づいて、「部品A」を押下予測部品と判断した場合には、表示対象部品Sの外形が、初期表示状態(表示状態変更前)よりも拡大されるように、表示対象部品Sの表示状態を変更する。これにより、押下予測部品がサイズ的に強調表示されることとなる。   FIG. 8 is an explanatory diagram schematically showing a fourth modification. For example, it is assumed that “component A” is displayed as the display target component S as an initial display state in a certain scene. When the control unit 40 determines that “component A” is a pressed predicted component based on the predicted coordinates, the outer shape of the display target component S is enlarged from the initial display state (before the display state is changed). The display state of the display target component S is changed. As a result, the press predicted component is highlighted in size.

図9は、第5の変更形態を模式的に示す説明図である。例えば、あるシーンにおける初期表示状態として、「部品A」〜「部品P」が表示対象部品Sとして表示されていたとする。制御部40は、予測座標に基づいて、「部品E」を押下予測部品と判断した場合には、押下予測部品である「部品E」に関する表示座標に基づいて、この表示座標を中心として所定範囲内に含まれる表示対象部品Sを周辺表示部品として特定する。例えば、「部品E」の周囲に存在する「部品A」〜「部品I」(「部品E」を除く)を周辺表示部品として特定するといった如くである。そして、制御部40は、押下予測部品である「部品E」と、周辺表示部品である(「部品E」を除く)とが、初期表示状態(表示状態変更前)よりも拡大されるように、表示対象部品Sの表示状態を変更する。これにより、押下予測部品およびその周囲の表示対象部品Sがサイズ的に強調表示されることとなる。   FIG. 9 is an explanatory diagram schematically showing a fifth modification. For example, it is assumed that “component A” to “component P” are displayed as display target components S as an initial display state in a certain scene. When the control unit 40 determines that “part E” is a predicted press part based on the predicted coordinates, the control unit 40 determines a predetermined range around the display coordinates based on the display coordinates related to “part E” that is the predicted press part. The display target component S included therein is specified as the peripheral display component. For example, “part A” to “part I” (excluding “part E”) existing around “part E” are specified as peripheral display parts. And the control part 40 is expanded so that "part E" which is a pressing prediction part, and peripheral display parts (except for "part E") may be expanded rather than an initial display state (before a display state change). The display state of the display target component S is changed. As a result, the pressed predicted component and the display target component S around it are highlighted in size.

図10は、第5の変更形態を模式的に示す説明図である。例えば、あるシーンにおける初期表示状態において、表示対象部品Sとして、操作者によって操作可能な第1の表示対象部品Sである「部品A」〜「部品F」と、操作者によって操作不可能な第2の表示対象部品Sである「部品1」,「部品2」とが表示されていたとする。制御部40は、予測座標に基づいて、「部品A」を押下予測部品と判断した場合には、押下予測部品である「部品A」と、押下予測部品以外の第1の表示対象部品S「部品B」〜「部品F」とが、初期表示状態(表示状態変更前)よりも拡大されるように、かつ、個々が整列するように、表示対象部品Sの表示状態を変更する。これにより、押下予測部品、および、操作者によって操作可能な第1の表示対象部品Sがサイズ的に強調表示されることとなる。   FIG. 10 is an explanatory diagram schematically showing a fifth modification. For example, in an initial display state in a certain scene, as the display target component S, “part A” to “component F” that are the first display target components S that can be operated by the operator, and the first that cannot be operated by the operator. It is assumed that “part 1” and “part 2”, which are the display target parts S 2, are displayed. When the control unit 40 determines that “part A” is the predicted press part based on the predicted coordinates, the “part A” that is the predicted press part and the first display target component S “other than the predicted press part S”. The display state of the display target component S is changed so that the components B ”to“ component F ”are enlarged from the initial display state (before the display state is changed) and are aligned. As a result, the pressing predicted component and the first display target component S that can be operated by the operator are highlighted in size.

図11は、第6の変更形態を模式的に示す説明図である。例えば、あるシーンにおける初期表示状態において、表示対象部品Sとして、操作者によって操作可能な第1の表示対象部品Sである「部品A」〜「部品F」と、操作者によって操作不可能な第2の表示対象部品Sである「部品1」,「部品2」とが表示されていたとする。制御部40は、予測座標に基づいて、「部品A」を押下予測部品と判断した場合には、押下予測部品である「部品A」と、押下予測部品以外の第1の表示対象部品S「部品B」〜「部品F」とが、初期表示状態(表示状態変更前)よりも拡大されるように、表示対象部品Sの表示状態を変更する。また、これとともに、図中の(A)〜(F)で示すように、それらの表示部品の機能が表示されるように、表示対象部品Sの表示状態を変更する。これにより、押下予測部品、および、操作者によって操作可能な第1の表示対象部品Sがサイズ的に強調表示され、かつ、個々の機能が表意されることとなる。   FIG. 11 is an explanatory diagram schematically showing a sixth modification. For example, in an initial display state in a certain scene, as the display target component S, “part A” to “component F” that are the first display target components S that can be operated by the operator, and the first that cannot be operated by the operator. It is assumed that “part 1” and “part 2”, which are the display target parts S 2, are displayed. When the control unit 40 determines that “part A” is the predicted press part based on the predicted coordinates, the “part A” that is the predicted press part and the first display target component S “other than the predicted press part S”. The display state of the display target component S is changed so that the parts B "to" component F "are enlarged from the initial display state (before the display state is changed). At the same time, as shown by (A) to (F) in the figure, the display state of the display target component S is changed so that the functions of those display components are displayed. As a result, the pressing predicted component and the first display target component S that can be operated by the operator are highlighted in size, and individual functions are expressed.

制御部40は、タッチパネル部20から押下座標を取得した場合、この押下座標に基づいて、押下座標と位置的に対応して表示されている表示対象部品Sを特定し、その特定された表示対象部品Sに割り当てられた処理を実行する(例えば、機器の制御や、異なるシーンへと表示状態を変更する)。ここで、制御部40は、上述の如く表示対象部品Sの表示形態を変更している。そのため、押下座標と、表示対象部品Sとの位置的な対応関係を特定する場合には、個々の表示部品について、表示形態変更後の予測座標範囲を記憶部50に予め記憶しておき、押下座標と、表示形態変更後の予測座標範囲とに基づいて実行することが好ましい。ただし、制御部40は、表示形態変更処理の結果に基づいて、表示座標およびその予測座標範囲を保持しておき、これを参照してもよい。   When acquiring the pressed coordinates from the touch panel unit 20, the control unit 40 specifies the display target component S displayed in correspondence with the pressed coordinates based on the pressed coordinates, and the specified display target The process assigned to the component S is executed (for example, the device is controlled or the display state is changed to a different scene). Here, the control unit 40 changes the display form of the display target component S as described above. Therefore, when specifying the positional correspondence between the pressed coordinates and the display target component S, the predicted coordinate range after changing the display form is stored in advance in the storage unit 50 for each display component, and the pressed It is preferable to execute based on the coordinates and the predicted coordinate range after the display form change. However, the control part 40 may hold | maintain a display coordinate and its prediction coordinate range based on the result of a display form change process, and may refer to this.

このような構成の表示装置において、以下、その基本的な動作(表示方法)について説明する。この動作は、制御部40によって実行される。   Hereinafter, the basic operation (display method) of the display device having such a configuration will be described. This operation is executed by the control unit 40.

まず、あるシーンに応じて、表示エリア11に表示すべき表示部品が表示対象部品Sとして決定される。そして、制御部40は、表示部10を制御して、決定された表示対象部品Sを表示エリアに表示する。つぎに、制御部40は、検出部30から予測座標として取得したか否かを判断する。予測座標を取得した場合、制御部40は、記憶部50に記憶されている部品情報を検索し、予測座標が含まれる予測座標範囲と関連付けられている表示対象部品Sを、押下予測部品であると特定する。そして、制御部40は、押下予測部品に基づいて、表示対象部品Sの表示状態を変更させる。つぎに、制御部40は、タッチパネル部20から押下座標として取得したか否かを判断する。押下座標を取得した場合、制御部40は、この押下座標と位置的に対応する表示対象部品Sを特定し、この特定された表示対象部品Sに割り当てられた機能を実行する。   First, a display component to be displayed in the display area 11 is determined as a display target component S according to a certain scene. Then, the control unit 40 controls the display unit 10 to display the determined display target component S in the display area. Next, the control unit 40 determines whether or not the predicted coordinates are acquired from the detection unit 30. When the predicted coordinates are acquired, the control unit 40 searches the component information stored in the storage unit 50, and the display target component S associated with the predicted coordinate range including the predicted coordinates is a pressed predicted component. Is identified. Then, the control unit 40 changes the display state of the display target component S based on the press predicted component. Next, the control unit 40 determines whether or not the pressed coordinates are acquired from the touch panel unit 20. When the pressed coordinates are acquired, the control unit 40 identifies the display target component S corresponding to the pressed coordinates and executes the function assigned to the specified display target component S.

このように本実施形態によれば、表示部品毎に、予測座標範囲が関連付けた部品情報として記憶部50に記憶されている。そのため、この部品情報を参照し、予測座標と、予測座標範囲との位置的な対応を図ることが可能となり、押下予測部品を特定することができる。これにより、操作者が選択しようとする表示対象部品を、タッチパネル部20を押下操作するよりも前に特定することができる。よって、タッチパネル部20の押下操作前であるため、すなわち、操作者による実質的な選択が行われる前段階であるため、この押下予測部品に基づいて、各種の処理を実現することができ、これにより、操作者に対する操作性の向上を図ることが可能となる。   As described above, according to the present embodiment, for each display component, the storage unit 50 stores the component information associated with the predicted coordinate range. Therefore, referring to this component information, it is possible to achieve a positional correspondence between the predicted coordinate and the predicted coordinate range, and the pressed predicted component can be specified. Thereby, the display target component to be selected by the operator can be specified before the touch panel unit 20 is pressed. Therefore, since it is before the pressing operation of the touch panel unit 20, that is, before the substantial selection by the operator is performed, various processes can be realized based on the pressing prediction component. As a result, the operability for the operator can be improved.

また、本実施形態によれば、押下予測部品を目標とするタッチパネル部20への押下操作を補助する観点に基づいて、表示対象部品Sの表示状態を変更させている。この表示形態の変更により、タッチパネル部20への押下操作を補助することができるので、操作者に対する操作性の向上を図ることが可能となる。   In addition, according to the present embodiment, the display state of the display target component S is changed based on the viewpoint of assisting the pressing operation on the touch panel unit 20 that targets the predicted pressing component. By changing the display mode, it is possible to assist the pressing operation on the touch panel unit 20, so that it is possible to improve the operability for the operator.

例えば、図5に示す形態では、操作者が押下操作しようとする表示対象部品(押下予測部品)を明確に認識することができるので、そこから先の動作判断を容易に行うことができる。例えば、図6に示す形態では、押下予測部品のみを認識することができるので、そこから先の動作判断を容易に行うことができる。例えば、図7に示す形態では、押下予測部品がそれ以外の表示対象部品Sと比較して強調されるので、そこから先の動作判断を容易に行うことができる。例えば、図8に示す形態では、押下予測部品が拡大表示されるので、そこから先の動作判断を容易に行うことができるとともに、押下操作にて検知される面積が広がるため、操作者に対する操作性の向上を図ることができる。例えば、図9に示す形態では、押下予測部品および周辺表示部品が拡大表示されるので、両者の部品を含めてそこから先の動作判断を容易に行うことができるとともに、押下操作にて検知される面積が広がるため、操作者に対する操作性の向上を図ることができる。例えば、図10に示す形態では、押下予測部品および押下予測部品以外の第1の表示対象部品Sが拡大表示かつ整列表示されるので、両者の部品を含めてそこから先の動作判断を容易に行うことができるとともに、押下操作にて検知される面積が広がるため、操作者に対する操作性の向上を図ることができる。例えば、図11に示す形態では、押下予測部品および押下予測部品以外の第1の表示対象部品Sが拡大表示、かつ、その機能が表示されるので、両者の部品を含めてそこから先の動作判断を容易に行うことができるとともに、押下操作にて検知される面積が広がるため、操作者に対する操作性の向上を図ることができる。   For example, in the form shown in FIG. 5, the display target component (pressed prediction component) that the operator wants to perform a pressing operation can be clearly recognized, and the subsequent operation determination can be easily performed from there. For example, in the form shown in FIG. 6, since only the predicted press part can be recognized, it is possible to easily determine the operation after that. For example, in the form shown in FIG. 7, the pressed prediction component is emphasized as compared with the other display target components S, so that it is possible to easily determine the operation after that. For example, in the form shown in FIG. 8, since the press prediction part is displayed in an enlarged manner, it is possible to easily determine the operation after that, and the area detected by the press operation is widened. It is possible to improve the performance. For example, in the form shown in FIG. 9, since the press prediction component and the peripheral display component are displayed in an enlarged manner, it is possible to easily determine the operation including the both components, and to detect the press operation. Therefore, the operability for the operator can be improved. For example, in the form shown in FIG. 10, the press prediction component and the first display target component S other than the press prediction component are displayed in an enlarged manner and aligned, so that it is easy to determine the operation after that including both components. In addition, the area detected by the pressing operation can be increased, so that the operability for the operator can be improved. For example, in the form shown in FIG. 11, the pressed display component and the first display target component S other than the pressed prediction component are displayed in an enlarged manner and the function is displayed. Judgment can be made easily, and the area detected by the pressing operation is widened, so that the operability for the operator can be improved.

なお、制御部40は、押下予測部品を特定した場合には、その押下予測部品の実行する機能を、音声出力部60を介して音声出力してもよい。これにより、操作者に聴覚的に情報を与えることができるので、そこから先の動作判断を容易に行うことができる。   In addition, when the pressing prediction component is specified, the control unit 40 may output the function executed by the pressing prediction component via the audio output unit 60. As a result, information can be given audibly to the operator, so that it is possible to easily determine the operation after that.

また、制御部40は、押下予測部品に基づいて、表示状態を変更した場合、所定時間経過してもタッチパネル部20から押下座標が出力されないことを条件に、表示状態を初期表示状態(表示状態変更前)に復帰させることが好ましい。   In addition, when the display state is changed based on the press predicted component, the control unit 40 sets the display state to the initial display state (display state) on the condition that the pressed coordinates are not output from the touch panel unit 20 even after a predetermined time has elapsed. It is preferable to return to the state before change.

また、上述した実施形態では、予測範囲座標は、表示部品に含まれる表示エリア11上の範囲としているが、本発明はこれに限定されない。例えば、表示部品の周辺領域を含むように広く設定してもよい。   In the above-described embodiment, the predicted range coordinates are a range on the display area 11 included in the display component, but the present invention is not limited to this. For example, you may set widely so that the peripheral region of a display component may be included.

(第2の実施形態)
図12は、第2の実施形態にかかる検出部30の構成を示す説明図である。この第2の実施形態にかかるアンテナ装置が、第1の実施形態のそれと相違する点は、検出部30の構成である。なお、検出部30以外の構成は、第1の実施形態と同じであるため、その詳細な説明は省略する。
(Second Embodiment)
FIG. 12 is an explanatory diagram illustrating a configuration of the detection unit 30 according to the second embodiment. The antenna device according to the second embodiment is different from that of the first embodiment in the configuration of the detection unit 30. Since the configuration other than the detection unit 30 is the same as that of the first embodiment, detailed description thereof is omitted.

本実施形態において、検出部30は、上述したタッチパネル部(以下「第1のタッチパネル部」という)20とは異なる第2のタッチパネル部34によって構成されている。この第2のタッチパネル部34は、第1のタッチパネル部20の上面に重ね合わせて配設されており、自己の表面を検出エリア(タッチパネル部20の上方に設定される検出部30としての検出エリア)として有している。   In the present embodiment, the detection unit 30 includes a second touch panel unit 34 different from the touch panel unit (hereinafter referred to as “first touch panel unit”) 20 described above. The second touch panel unit 34 is disposed so as to overlap the upper surface of the first touch panel unit 20, and its own surface is a detection area (a detection area as a detection unit 30 set above the touch panel unit 20. ).

第2のタッチパネル部34は、第1のタッチパネル部20と同様に、抵抗膜方式のアナログタッチパネルなどを用いることができる。この第2のタッチパネル部34は、上部透明電極板が操作指で押下されると、この接触点の座標情報が電気抵抗の測定によって検出されて、これが操作指がタッチパネル部20を押下するであろう予測座標として制御部40に出力される。ここで、第2のタッチパネル部34は、第1のタッチパネル部20の検知感度である第1の押下圧よりも高い検知感度である第2の押下圧に設定されている。すなわち、第1の押下圧は、第2の押下圧よりも大きな値に設定されている。したがって、第1のタッチパネル部20の操作を前提として、その上面に配設された第2のタッチパネル部34を押下した場合には、第1のタッチパネル部20によって押下座標が出力されるよりも前に、予測座標が制御部40に出力されることとなる。   For the second touch panel unit 34, a resistive film type analog touch panel or the like can be used as in the first touch panel unit 20. In the second touch panel unit 34, when the upper transparent electrode plate is pressed with the operation finger, the coordinate information of the contact point is detected by measuring the electrical resistance, and this is the operation finger pressing the touch panel unit 20. The predicted coordinates are output to the control unit 40. Here, the second touch panel unit 34 is set to a second pressing pressure that is higher than the first pressing pressure that is the detection sensitivity of the first touch panel unit 20. That is, the first pressing pressure is set to a value larger than the second pressing pressure. Therefore, assuming that the operation of the first touch panel unit 20 is performed, when the second touch panel unit 34 disposed on the upper surface thereof is pressed, before the pressed coordinates are output by the first touch panel unit 20. In addition, the predicted coordinates are output to the control unit 40.

そして、制御部40は、予測座標に基づいて、上述した表示状態の変更を行う。なお、表示状態を変更した後には、第2のタッチパネル部34を介して第1のタッチパネル部20への本来の押下操作が行われるため、表示状態を変更した後は、その状態が継続されている範囲内で、第2のタッチパネル部34からの予測座標を無視してもよい。   Then, the control unit 40 changes the display state described above based on the predicted coordinates. In addition, since the original pressing operation to the first touch panel unit 20 is performed via the second touch panel unit 34 after the display state is changed, the state is continued after the display state is changed. Within the range, the predicted coordinates from the second touch panel unit 34 may be ignored.

このように本実施形態によれば、これにより、操作者が選択しようとする表示対象部品を、第1のタッチパネル部20を押下操作するよりも前に特定することができる。よって、第1のタッチパネル部20の押下操作前であるため、すなわち、操作者による実質的な選択が行われる前段階であるため、この押下予測部品に基づいて、各種の処理を実現することができ、これにより、操作者に対する操作性の向上を図ることが可能となる。   As described above, according to the present embodiment, it is possible to specify the display target component to be selected by the operator before pressing the first touch panel unit 20. Therefore, since it is before the pressing operation of the first touch panel unit 20, that is, before the substantial selection is performed by the operator, various processes can be realized based on the pressing prediction component. Thus, the operability for the operator can be improved.

なお、各実施形態で検出部30の構成を示した本発明はこれ限定されない。タッチパネル部(第1のタッチパネル部)30の上方に設定される検出エリアにおいて、タッチパネル部20への押下操作を前提とした操作指の位置を検出する構成であれば、いかなる検出手段を適用することができる。   In addition, this invention which showed the structure of the detection part 30 in each embodiment is not limited to this. In the detection area set above the touch panel unit (first touch panel unit) 30, any detection means may be applied as long as it is configured to detect the position of the operating finger on the premise that the touch panel unit 20 is pressed. Can do.

なお、上述した実施形態の表示方法を、表示部の表示エリアの上方にタッチパネル部が配設された表示装置に実行させるためのコンピュータ・プログラム自体も本発明の一部として機能する。当然ながらこのコンピュータ・プログラムを記録した記録媒体を、図1のような構成を有するシステムに対して供給してもよい。この場合、このシステム中の制御部40が、記録媒体に格納されたコンピュータ・プログラム を読み取り実行することによって、本発明の目的を達成することができる。コンピュータ・プログラム自体が本発明の新規な機能を実現するため、そのプログラムを記録した記録媒体も本発明を構成する。コンピュータ・プログラムを記録した記録媒体としては、例えば、CD−ROM、フレキシブルディスク、ハードディスク、メモリカード、光ディスク、DVDROM、DVD−RAM等が挙げられる。   Note that the computer program itself for causing the display device in which the touch panel unit is provided above the display area of the display unit to execute the display method of the above-described embodiment also functions as part of the present invention. Of course, a recording medium on which the computer program is recorded may be supplied to a system having the configuration as shown in FIG. In this case, the control unit 40 in this system can achieve the object of the present invention by reading and executing the computer program stored in the recording medium. Since the computer program itself realizes the novel functions of the present invention, a recording medium on which the program is recorded also constitutes the present invention. Examples of the recording medium on which the computer program is recorded include a CD-ROM, a flexible disk, a hard disk, a memory card, an optical disk, a DVD ROM, and a DVD-RAM.

表示装置の構成を示すブロック図Block diagram showing the configuration of a display device 第1の実施形態にかかる表示装置の外観を模式的に示す説明図Explanatory drawing which shows typically the external appearance of the display apparatus concerning 1st Embodiment. 第1の実施形態にかかる検出部30の構成を示す説明図Explanatory drawing which shows the structure of the detection part 30 concerning 1st Embodiment. 記憶部50に記憶される部品情報を説明する図The figure explaining the components information memorize | stored in the memory | storage part 50 第1の変更形態を模式的に示す説明図Explanatory drawing which shows a 1st modification form typically 第2の変更形態を模式的に示す説明図Explanatory drawing which shows a 2nd modified form typically 第3の変更形態を模式的に示す説明図Explanatory drawing which shows a 3rd modified form typically 第4の変更形態を模式的に示す説明図Explanatory drawing which shows a 4th modification form typically 第5の変更形態を模式的に示す説明図Explanatory drawing which shows a 5th modification form typically 第6の変更形態を模式的に示す説明図Explanatory drawing which shows a 6th modification form typically 第7の変更形態を模式的に示す説明図Explanatory drawing which shows a 7th modification form typically 第2の実施形態にかかる検出部30の構成を示す説明図Explanatory drawing which shows the structure of the detection part 30 concerning 2nd Embodiment.

符号の説明Explanation of symbols

10 表示部
11 表示エリア
20 タッチパネル部(第1のタッチパネル部)
30 検出部
31 発光ユニット
32 受光ユニット
33 検出エリア
34 第2のタッチパネル部
40 制御部
50 記憶部
60 音声出力部
DESCRIPTION OF SYMBOLS 10 Display part 11 Display area 20 Touch panel part (1st touch panel part)
DESCRIPTION OF SYMBOLS 30 Detection part 31 Light emission unit 32 Light reception unit 33 Detection area 34 2nd touch panel part 40 Control part 50 Memory | storage part 60 Audio | voice output part

Claims (14)

表示装置において、
表示エリアを備える表示部と、
表示エリアに表示すべき表示部品を表示対象部品として決定するとともに、当該決定された表示対象部品が前記表示エリアに表示されるように、前記表示部を制御する制御部と、
前記表示部の上方に配設されており、操作指による押下操作の位置を検出して、当該押下操作と位置的に対応する表示エリア上の座標を押下座標として前記制御部に出力する第1のタッチパネル部と、
前記第1のタッチパネル部の上方に設定される検出エリアにおいて、前記第1のタッチパネル部への押下操作を前提とした操作指の位置を検出して、当該操作指と位置的に対応する表示エリア上の座標を予測座標として前記制御部に出力する検出部と、
複数の表示部品毎に、少なくとも表示部品に含まれる表示エリア上の範囲を示す予測座標範囲を関連付けて記憶する記憶部とを有し、
前記制御部は、前記検出部からの予測座標に基づいて前記記憶部を検索することにより、前記予測座標が含まれる前記予測座標範囲と関連付けられている前記表示対象部品を、前記第1のタッチパネル部を介した押下操作が予測される押下予測部品であると特定することを特徴とする表示装置。
In the display device,
A display unit having a display area;
A display unit to be displayed in the display area is determined as a display target component, and a control unit that controls the display unit so that the determined display target component is displayed in the display area;
A first position that is disposed above the display unit, detects the position of the pressing operation by the operating finger, and outputs coordinates on the display area corresponding to the pressing operation to the control unit as pressed coordinates. Touch panel part,
In the detection area set above the first touch panel unit, the position of the operation finger is detected on the premise that the first touch panel unit is pressed, and the display area corresponds to the operation finger. A detection unit that outputs the upper coordinates as predicted coordinates to the control unit;
For each of the plurality of display components, a storage unit that associates and stores a predicted coordinate range indicating a range on the display area included in the display component, and
The control unit searches the storage unit based on the predicted coordinates from the detection unit, and thereby displays the display target component associated with the predicted coordinate range including the predicted coordinates as the first touch panel. A display device that identifies a pressing predicted component for which a pressing operation via a unit is predicted.
前記検出部は、前記第1のタッチパネル部の表示エリア上空に検出エリアを設定して、当該検出エリアを通過して前記第1のタッチパネル部へ接近する操作指の位置を検出するセンサによって構成されることを特徴とする請求項1に記載された表示装置。   The detection unit is configured by a sensor that sets a detection area above the display area of the first touch panel unit and detects a position of an operation finger that passes through the detection area and approaches the first touch panel unit. The display device according to claim 1. 前記検出部は、前記第1のタッチパネル部の上面に重ね合わせて配設されて、自己の表面を検出エリアとして有する第2のタッチパネル部によって構成されており、
前記第2のタッチパネル部は、前記第1のタッチパネル部の検知感度よりも高い検知感度に設定されていることを特徴とする請求項1に記載された表示装置。
The detection unit is configured by a second touch panel unit that is arranged on the upper surface of the first touch panel unit and has its own surface as a detection area,
The display device according to claim 1, wherein the second touch panel unit is set to a detection sensitivity higher than a detection sensitivity of the first touch panel unit.
前記制御部は、前記特定された押下予測部品を目標とする前記タッチパネル部への押下操作を補助する観点に基づいて、前記表示対象部品の表示状態を変更させることを特徴とする請求項1から3のいずれか一項に記載された表示装置。   The control unit changes a display state of the display target component based on a viewpoint of assisting a pressing operation on the touch panel unit targeting the specified pressing predicted component. 4. The display device according to any one of 3. 前記表示部品は、少なくとも文字情報を含み、
前記制御部は、前記押下予測部品に含まれる文字情報が表示状態変更前よりも太文字となるように、前記表示対象部品の表示状態を変更することを特徴とする請求項4に記載された表示装置。
The display component includes at least character information,
5. The control unit according to claim 4, wherein the control unit changes the display state of the display target component so that the character information included in the pressed prediction component is bolder than before the display state is changed. Display device.
前記制御部は、前記押下予測部品以外の表示対象部品を非表示とするように、前記表示対象部品の表示状態を変更することを特徴とする請求項4に記載された表示装置。   The display device according to claim 4, wherein the control unit changes a display state of the display target component so as to hide a display target component other than the press predicted component. 前記制御部は、前記押下予測部品以外の表示対象部品が表示状態変更前よりも不鮮明となるように、前記表示対象部品の表示状態を変更することを特徴とする請求項4に記載された表示装置。   The display according to claim 4, wherein the control unit changes a display state of the display target component so that a display target component other than the press predicted component is less clear than before the display state change. apparatus. 前記制御部は、前記押下予測部品が表示状態変更前よりも拡大表示されるように、前記表示対象部品の表示状態を変更することを特徴とする請求項4に記載された表示装置。   The display device according to claim 4, wherein the control unit changes a display state of the display target component so that the pressed prediction component is displayed in an enlarged manner as compared with a state before the display state is changed. 前記制御部は、前記押下予測部品を中心として所定範囲内に含まれる表示対象部品を周辺表示部品として特定するとともに、前記押下予測部品と前記周辺表示部品とが表示状態変更前よりも拡大表示されるように、前記表示対象部品の表示状態を変更することを特徴とする請求項4に記載された表示装置。   The control unit specifies a display target component included in a predetermined range centered on the press predicted component as a peripheral display component, and the press predicted component and the peripheral display component are displayed in an enlarged manner as compared to before the display state change. The display device according to claim 4, wherein the display state of the display target component is changed. 前記表示対象部品は、操作者によって操作可能な第1の表示対象部品と、操作者によって操作不可能な第2の表示対象部品とを含み、
前記制御部は、前記押下予測部品と、前記押下予測部品以外の前記第1の表示対象部品とが表示状態変更前よりも拡大表示されるように、前記表示対象部品の表示状態を変更することを特徴とする請求項4に記載された表示装置。
The display target component includes a first display target component that can be operated by an operator, and a second display target component that cannot be operated by the operator,
The control unit changes the display state of the display target component so that the press prediction component and the first display target component other than the press prediction component are displayed in an enlarged manner before the display state change. The display device according to claim 4.
前記制御部は、拡大表示するとともに、表示部品の機能が表示されるように、前記表示対象部品の表示状態を変更することを特徴とする請求項10に記載された表示装置。   The display device according to claim 10, wherein the control unit changes the display state of the display target component so that the function of the display component is displayed while displaying the enlarged display. 音声情報を出力する音声出力部をさらに有し、
前記制御部は、前記特定された押下予測部品に基づいて、当該押下予測部品の機能を説明する情報を、前記音声出力部を介して出力することを特徴とする請求項1から11のいずれか一項に記載された表示装置。
A voice output unit that outputs voice information;
The said control part outputs the information explaining the function of the said press prediction component based on the specified press prediction component via the said audio | voice output part. A display device according to one item.
表示部の表示エリアの上方にタッチパネル部が配設された表示装置に実行させるためのコンピュータ・プログラムにおいて、
表示エリアに表示すべき表示部品を表示対象部品として決定する第1のステップと、
前記決定された表示対象部品を表示エリアに表示する第2のステップと、
前記第1のタッチパネル部の上方に設定される検出エリアにおいて、前記第1のタッチパネル部へ接近する操作指の位置を検出する検出部から、当該操作指と位置的に対応する表示エリア上の座標を予測座標として取得する第3のステップと、
複数の表示部品毎に、少なくとも表示部品に含まれる表示エリア上の範囲を示す予測座標範囲が関連付けられた部品情報を検索し、前記取得した予測座標が含まれる前記予測座標範囲と関連付けられている前記表示対象部品を、前記第1のタッチパネル部を介した押下操作が予測される押下予測部品であると特定する第4のステップと
を有することを特徴とするコンピュータ・プログラム。
In a computer program for causing a display device provided with a touch panel unit above a display area of a display unit to execute the program,
A first step of determining a display component to be displayed in the display area as a display target component;
A second step of displaying the determined display target component in a display area;
In the detection area set above the first touch panel unit, the coordinates on the display area corresponding to the operation finger from the detection unit that detects the position of the operation finger approaching the first touch panel unit. A third step of acquiring as a predicted coordinate;
For each of the plurality of display components, the component information associated with at least the predicted coordinate range indicating the range on the display area included in the display component is searched, and is associated with the predicted coordinate range including the acquired predicted coordinate. A computer program, comprising: a fourth step of identifying the display target component as a press prediction component for which a press operation via the first touch panel unit is predicted.
前記第4のステップにおいて特定された押下予測部品を目標とする前記タッチパネル部への押下操作を補助する観点に基づいて、前記表示対象部品の表示状態を変更させる第5のステップをさらに有することを特徴とする請求項13に記載されたコンピュータ・プログラム。   The method further includes a fifth step of changing the display state of the display target component based on the viewpoint of assisting the pressing operation to the touch panel unit targeting the press predicted component specified in the fourth step. 14. A computer program according to claim 13, characterized in that it is a computer program.
JP2007166425A 2007-06-25 2007-06-25 Display device and computer program Pending JP2009003867A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007166425A JP2009003867A (en) 2007-06-25 2007-06-25 Display device and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007166425A JP2009003867A (en) 2007-06-25 2007-06-25 Display device and computer program

Publications (1)

Publication Number Publication Date
JP2009003867A true JP2009003867A (en) 2009-01-08

Family

ID=40320157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007166425A Pending JP2009003867A (en) 2007-06-25 2007-06-25 Display device and computer program

Country Status (1)

Country Link
JP (1) JP2009003867A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012520521A (en) * 2009-03-12 2012-09-06 イマージョン コーポレイション System and method for an interface featuring surface-based haptic effects
JP2013528303A (en) * 2010-06-10 2013-07-08 クアルコム,インコーポレイテッド Automatic morphing adaptive user interface device and method
EP2639686A2 (en) 2012-03-16 2013-09-18 Fujitsu Limited Input control device, input control program, and input control method
WO2014030456A1 (en) 2012-08-23 2014-02-27 株式会社エヌ・ティ・ティ・ドコモ User interface device, user interface method, and program
WO2014057929A1 (en) 2012-10-10 2014-04-17 株式会社Nttドコモ User interface device, user interface method and program
WO2014064862A1 (en) * 2012-10-22 2014-05-01 Necカシオモバイルコミュニケーションズ株式会社 Portable terminal device, information presentation method, and program
JP2014232475A (en) * 2013-05-30 2014-12-11 京セラドキュメントソリューションズ株式会社 Display device, electronic apparatus, and image forming apparatus
WO2015167511A3 (en) * 2014-04-30 2016-04-21 Empire Technology Development Llc Adjusting tap position on touch screen
JP2016517082A (en) * 2013-03-13 2016-06-09 アマゾン テクノロジーズ インコーポレイテッド Management of sensory information on user devices
US9696803B2 (en) 2009-03-12 2017-07-04 Immersion Corporation Systems and methods for friction displays and additional haptic effects
US9874935B2 (en) 2009-03-12 2018-01-23 Immersion Corporation Systems and methods for a texture engine
US9927873B2 (en) 2009-03-12 2018-03-27 Immersion Corporation Systems and methods for using textures in graphical user interface widgets
US10007340B2 (en) 2009-03-12 2018-06-26 Immersion Corporation Systems and methods for interfaces featuring surface-based haptic effects
US10073527B2 (en) 2009-03-12 2018-09-11 Immersion Corporation Systems and methods for providing features in a friction display including a haptic effect based on a color and a degree of shading
US10564721B2 (en) 2009-03-12 2020-02-18 Immersion Corporation Systems and methods for using multiple actuators to realize textures

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10073526B2 (en) 2009-03-12 2018-09-11 Immersion Corporation Systems and methods for friction displays and additional haptic effects
US10248213B2 (en) 2009-03-12 2019-04-02 Immersion Corporation Systems and methods for interfaces featuring surface-based haptic effects
US9696803B2 (en) 2009-03-12 2017-07-04 Immersion Corporation Systems and methods for friction displays and additional haptic effects
US10747322B2 (en) 2009-03-12 2020-08-18 Immersion Corporation Systems and methods for providing features in a friction display
US10620707B2 (en) 2009-03-12 2020-04-14 Immersion Corporation Systems and methods for interfaces featuring surface-based haptic effects
US10564721B2 (en) 2009-03-12 2020-02-18 Immersion Corporation Systems and methods for using multiple actuators to realize textures
US10466792B2 (en) 2009-03-12 2019-11-05 Immersion Corporation Systems and methods for friction displays and additional haptic effects
US9874935B2 (en) 2009-03-12 2018-01-23 Immersion Corporation Systems and methods for a texture engine
US10379618B2 (en) 2009-03-12 2019-08-13 Immersion Corporation Systems and methods for using textures in graphical user interface widgets
JP2012520521A (en) * 2009-03-12 2012-09-06 イマージョン コーポレイション System and method for an interface featuring surface-based haptic effects
US10073527B2 (en) 2009-03-12 2018-09-11 Immersion Corporation Systems and methods for providing features in a friction display including a haptic effect based on a color and a degree of shading
US10007340B2 (en) 2009-03-12 2018-06-26 Immersion Corporation Systems and methods for interfaces featuring surface-based haptic effects
US9927873B2 (en) 2009-03-12 2018-03-27 Immersion Corporation Systems and methods for using textures in graphical user interface widgets
JP2013528303A (en) * 2010-06-10 2013-07-08 クアルコム,インコーポレイテッド Automatic morphing adaptive user interface device and method
US8836643B2 (en) 2010-06-10 2014-09-16 Qualcomm Incorporated Auto-morphing adaptive user interface device and methods
EP2639686A2 (en) 2012-03-16 2013-09-18 Fujitsu Limited Input control device, input control program, and input control method
WO2014030456A1 (en) 2012-08-23 2014-02-27 株式会社エヌ・ティ・ティ・ドコモ User interface device, user interface method, and program
WO2014057929A1 (en) 2012-10-10 2014-04-17 株式会社Nttドコモ User interface device, user interface method and program
JPWO2014064862A1 (en) * 2012-10-22 2016-09-05 日本電気株式会社 Portable terminal device, information presentation method, and program
US9380149B2 (en) 2012-10-22 2016-06-28 Nec Corporation Portable terminal device, information presentation method, and program
WO2014064862A1 (en) * 2012-10-22 2014-05-01 Necカシオモバイルコミュニケーションズ株式会社 Portable terminal device, information presentation method, and program
JP2016517082A (en) * 2013-03-13 2016-06-09 アマゾン テクノロジーズ インコーポレイテッド Management of sensory information on user devices
US9746957B2 (en) 2013-03-13 2017-08-29 Amazon Technologies, Inc. Managing sensory information of a user device
JP2014232475A (en) * 2013-05-30 2014-12-11 京セラドキュメントソリューションズ株式会社 Display device, electronic apparatus, and image forming apparatus
WO2015167511A3 (en) * 2014-04-30 2016-04-21 Empire Technology Development Llc Adjusting tap position on touch screen

Similar Documents

Publication Publication Date Title
JP2009003867A (en) Display device and computer program
US20240012521A1 (en) Projection Device, Projection Method And Projection Program
US10241626B2 (en) Information processing apparatus, information processing method, and program
CN102736782B (en) Messaging device, information processing method and computer-readable recording medium
JP4818036B2 (en) Touch panel control device and touch panel control method
JP5191070B2 (en) Remote control, display device, television receiver, and remote control program
US9766658B2 (en) Flexible display device having guide function of gesture command and method thereof
US20100302177A1 (en) Method and apparatus for providing user interface based on contact position and intensity of contact force on touch screen
JP2011170538A (en) Information processor, information processing method and program
JP2005135106A (en) Unit and method for display image control
US20070285402A1 (en) Mobile terminal and method of displaying image thereof
JP2008123476A5 (en)
JP2005044026A (en) Instruction execution method, instruction execution program and instruction execution device
RU2009144933A (en) IMAGE PROCESSING DEVICE AND IMAGE DISPLAY METHOD
JP2008065504A (en) Touch panel control device and touch panel control method
CN104205032A (en) Information processing apparatus for controlling an image based on duration and distance of a touch input, method, and non - transitory computer - readable medium
JP2005196530A (en) Space input device and space input method
CN104340132A (en) Input device
JP5382815B2 (en) Remote control and remote control program
JP2008305339A (en) Operation time measuring instrument and method, skill level determining device and method, and program
CN109476014A (en) For engaging the testing touch screen platform of the target signature of dynamic positioning
JP4856136B2 (en) Movement control program
JP2006235859A (en) Coordinate input device
JP2009140177A (en) Operation display device
JP6471679B2 (en) Display device and display method