JP2009003867A - Display device and computer program - Google Patents
Display device and computer program Download PDFInfo
- Publication number
- JP2009003867A JP2009003867A JP2007166425A JP2007166425A JP2009003867A JP 2009003867 A JP2009003867 A JP 2009003867A JP 2007166425 A JP2007166425 A JP 2007166425A JP 2007166425 A JP2007166425 A JP 2007166425A JP 2009003867 A JP2009003867 A JP 2009003867A
- Authority
- JP
- Japan
- Prior art keywords
- display
- component
- touch panel
- unit
- predicted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、表示装置、および、この表示装置に実行させるためのコンピュータ・プログラムに関する。 The present invention relates to a display device and a computer program for causing the display device to execute.
従来より、表示機能と入力機能とが共通化されたタッチパネル機能を有する表示装置が知られている。この類の表示装置では、表示部の上面にタッチパネル部を配設し、タッチパネル部における操作指の押下位置と、表示部の表示エリアに表示された表示部品との位置的な対応関係に基づいて、押下操作と位置的に対応する表示部品を特定し、この表示部品に割り当てられた機能が実行される。 Conventionally, a display device having a touch panel function in which a display function and an input function are shared is known. In this type of display device, a touch panel unit is provided on the upper surface of the display unit, and based on the positional correspondence between the pressed position of the operation finger on the touch panel unit and the display component displayed in the display area of the display unit. The display component corresponding to the pressing operation is specified, and the function assigned to the display component is executed.
なお、特許文献1から3には、タッチパネル部へ押下操作がなされる前に操作指の位置を検出する手法が開示されている。
しかしながら、個々の表示部品の配置間隔が狭かったり、表示部品が小さく表示されたりした場合には、表示部の表示エリア上に表示された表示部品を選択する際に、操作者が意図する表示部品とは異なる表示部品が押下操作されたと認識されてしまう問題がある。このような問題は、表示部の表示エリアのサイズが小さいほど顕著となる。 However, when the arrangement interval of individual display components is narrow or the display components are displayed small, the display component intended by the operator is selected when selecting the display component displayed on the display area of the display unit. There is a problem that it is recognized that a display component different from the above is pressed. Such a problem becomes more prominent as the size of the display area of the display unit is smaller.
本発明は、このような事情に鑑みてなされたものであり、その目的は、操作者がタッチパネル部に対して押下操作を行う前に、その押下操作に対応する表示部品を事前に予測することにより、操作者に対する操作性の向上を図ることである。 The present invention has been made in view of such circumstances, and an object thereof is to predict in advance the display components corresponding to the pressing operation before the operator performs the pressing operation on the touch panel unit. Thus, the operability for the operator is improved.
かかる課題を解決するために、第1の発明は、表示部と、制御部と、第1のタッチパネル部と、検出部と、記憶部とを有する表示装置を提供する。ここで、表示部は、表示エリアを備える。制御部は、表示エリアに表示すべき表示部品を表示対象部品として決定するとともに、この決定された表示対象部品が表示エリアに表示されるように、表示部を制御する。第1のタッチパネル部は、表示部の上方に配設されており、操作指による押下操作の位置を検出して、この押下操作と位置的に対応する表示エリア上の座標を押下座標として制御部に出力する。検出部は、第1のタッチパネル部の上方に設定される検出エリアにおいて、第1のタッチパネル部への押下操作を前提とした操作指の位置を検出して、この操作指と位置的に対応する表示エリア上の座標を予測座標として制御部に出力する。記憶部は、複数の表示部品毎に、少なくとも表示部品に含まれる表示エリア上の範囲を示す予測座標範囲を関連付けて記憶する。この場合、制御部は、検出部からの予測座標に基づいて記憶部を検索することにより、予測座標が含まれる予測座標範囲と関連付けられている表示対象部品を、第1のタッチパネル部を介した押下操作が予測される押下予測部品であると特定する。 In order to solve the problem, the first invention provides a display device having a display unit, a control unit, a first touch panel unit, a detection unit, and a storage unit. Here, the display unit includes a display area. The control unit determines a display component to be displayed in the display area as a display target component, and controls the display unit so that the determined display target component is displayed in the display area. The first touch panel unit is disposed above the display unit, detects the position of the pressing operation by the operating finger, and uses the coordinates on the display area corresponding to the pressing operation as the pressed coordinates as a control unit. Output to. The detection unit detects the position of the operation finger on the assumption that the first touch panel unit is pressed in a detection area set above the first touch panel unit, and corresponds to the operation finger in position. The coordinates on the display area are output to the control unit as predicted coordinates. The storage unit stores a predicted coordinate range indicating at least a range on the display area included in the display component in association with each other for each of the plurality of display components. In this case, the control unit searches the storage unit based on the predicted coordinates from the detection unit, thereby causing the display target component associated with the predicted coordinate range including the predicted coordinates to be displayed via the first touch panel unit. It is specified that the pressed operation is predicted to be pressed.
ここで、第1の発明において、検出部は、第1のタッチパネル部の表示エリア上空に検出エリアを設定して、この検出エリアを通過して第1のタッチパネル部へ接近する操作指の位置を検出するセンサによって構成されることが好ましい。または、検出部は、第1のタッチパネル部の上面に重ね合わせて配設されて、自己の表面を検出エリアとして有する第2のタッチパネル部によって構成されており、第2のタッチパネル部は、第1のタッチパネル部の検知感度よりも高い検知感度に設定されていることが好ましい。 Here, in the first invention, the detection unit sets a detection area above the display area of the first touch panel unit, and determines the position of the operating finger that passes through the detection area and approaches the first touch panel unit. It is preferable that the sensor is configured to detect. Alternatively, the detection unit is configured by a second touch panel unit that is arranged on the upper surface of the first touch panel unit and has its own surface as a detection area. It is preferable that the detection sensitivity is set to be higher than the detection sensitivity of the touch panel unit.
また、第1の発明において、制御部は、特定された押下予測部品を目標とするタッチパネル部への押下操作を補助する観点に基づいて、表示対象部品の表示状態を変更させることが望ましい。 In the first invention, it is desirable that the control unit changes the display state of the display target component based on the viewpoint of assisting the pressing operation on the touch panel unit targeting the specified press predicted component.
ここで、表示部品は、少なくとも文字情報を含み、制御部は、押下予測部品に含まれる文字情報が表示状態変更前よりも太文字となるように、表示対象部品の表示状態を変更する。ことを特徴とする請求項4に記載された表示装置。 Here, the display component includes at least character information, and the control unit changes the display state of the display target component so that the character information included in the press prediction component becomes bolder than before the display state is changed. The display device according to claim 4.
また、制御部は、押下予測部品以外の表示対象部品を非表示とするように、表示対象部品の表示状態を変更する。 In addition, the control unit changes the display state of the display target component so as to hide the display target component other than the press predicted component.
また、制御部は、押下予測部品以外の表示対象部品が表示状態変更前よりも不鮮明となるように、表示対象部品の表示状態を変更する。 In addition, the control unit changes the display state of the display target component so that the display target components other than the pressed prediction component are less clear than before the display state change.
また、制御部は、押下予測部品が表示状態変更前よりも拡大表示されるように、表示対象部品の表示状態を変更する。 In addition, the control unit changes the display state of the display target component so that the pressed prediction component is displayed in an enlarged manner before the display state change.
また、制御部は、押下予測部品を中心として所定範囲内に含まれる表示対象部品を周辺表示部品として特定するとともに、押下予測部品と周辺表示部品とが表示状態変更前よりも拡大表示されるように、表示対象部品の表示状態を変更する。 In addition, the control unit specifies the display target component included in the predetermined range centered on the press prediction component as the peripheral display component, and the press prediction component and the peripheral display component are displayed in an enlarged manner before the display state change. Next, the display state of the display target component is changed.
また、表示対象部品は、操作者によって操作可能な第1の表示対象部品と、操作者によって操作不可能な第2の表示対象部品とを含み、制御部は、押下予測部品と、押下予測部品以外の第1の表示対象部品とが表示状態変更前よりも拡大表示されるように、表示対象部品の表示状態を変更する。 The display target component includes a first display target component that can be operated by the operator and a second display target component that cannot be operated by the operator, and the control unit includes a press prediction component and a press prediction component. The display state of the display target component is changed so that the first display target component other than the display target component is enlarged and displayed as compared to before the display state change.
また、制御部は、拡大表示するとともに、表示部品の機能が表示されるように、表示対象部品の表示状態を変更する。 In addition, the control unit enlarges the display and changes the display state of the display target component so that the function of the display component is displayed.
さらに、第1の発明において、表示装置は、音声情報を出力する音声出力部をさらに有してもよい。この場合、制御部は、特定された押下予測部品に基づいて、この押下予測部品の機能を説明する情報を、音声出力部を介して出力する。 Furthermore, in the first invention, the display device may further include an audio output unit that outputs audio information. In this case, the control unit outputs information describing the function of the press prediction component based on the specified press prediction component via the voice output unit.
第2の発明は、表示部の表示エリアの上方にタッチパネル部が配設された表示装置に実行させるためのコンピュータ・プログラムを提供する。このコンピュータ・プログラムは、表示エリアに表示すべき表示部品を表示対象部品として決定する第1のステップと、決定された表示対象部品を表示エリアに表示する第2のステップと、第1のタッチパネル部の上方に設定される検出エリアにおいて、第1のタッチパネル部へ接近する操作指の位置を検出する検出部から、この操作指と位置的に対応する表示エリア上の座標を予測座標として取得する第3のステップと、複数の表示部品毎に、少なくとも表示部品に含まれる表示エリア上の範囲を示す予測座標範囲が関連付けられた部品情報を検索し、取得した予測座標が含まれる予測座標範囲と関連付けられている表示対象部品を、第1のタッチパネル部を介した押下操作が予測される押下予測部品であると特定する第4のステップとを有する。 The second invention provides a computer program for causing a display device having a touch panel unit disposed above a display area of a display unit to execute the program. The computer program includes a first step of determining a display component to be displayed in the display area as a display target component, a second step of displaying the determined display target component in the display area, and a first touch panel unit. In the detection area set above the first position, a coordinate on the display area corresponding to the operation finger is obtained as a predicted coordinate from the detection unit that detects the position of the operation finger approaching the first touch panel unit. Step 3 and, for each of a plurality of display components, search for component information associated with at least a predicted coordinate range indicating a range on the display area included in the display component, and associate with the predicted coordinate range including the acquired predicted coordinate A fourth step of specifying that the displayed display target component is a press prediction component for which a press operation via the first touch panel unit is predicted. To.
ここで、第2の発明は、第4のステップにおいて特定された押下予測部品を目標とするタッチパネル部への押下操作を補助する観点に基づいて、表示対象部品の表示状態を変更させる第5のステップをさらに有することが望ましい。 Here, the second invention is a fifth device that changes the display state of the display target component based on the viewpoint of assisting the pressing operation to the touch panel unit targeting the press predicted component specified in the fourth step. It is desirable to further include steps.
本発明によれば、表示部品毎に、予測座標範囲が関連付けられて記憶部に記憶されている。そのため、この記憶部を参照し、予測座標と、予測座標範囲との位置的な対応を図ることが可能となり、押下予測部品を特定することができる。これにより、操作者が選択しようとする表示対象部品を、タッチパネル部を押下操作するよりも前に特定することができる。よって、タッチパネル部の押下操作前であるため、すなわち、操作者による実質的な選択が行われる前段階であるため、この押下予測部品に基づいて、各種の処理を実現することができ、これにより、操作者に対する操作性の向上を図ることが可能となる。 According to the present invention, the predicted coordinate range is associated with each display component and stored in the storage unit. Therefore, referring to this storage unit, it is possible to achieve a positional correspondence between the predicted coordinate and the predicted coordinate range, and it is possible to specify the pressed predicted component. Thereby, the display target component that the operator wants to select can be specified before the touch panel unit is pressed. Therefore, since it is before the pressing operation of the touch panel part, that is, before the substantial selection by the operator is performed, various processes can be realized based on this pressing prediction component. It becomes possible to improve the operability for the operator.
(第1の実施形態)
図1は、本発明の実施形態にかかる表示装置の構成を示すブロック図である。図2は、表示装置の外観を模式的に示す説明図であり、一部の構成要素は省略して描かれている。この表示装置は、例えば、工場等の施設に設けられており、工場内における種々の装置の運転状況や設備情報を表示するとともに、装置や設備を一元的にコントロールする入力機能を備えた装置である。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of a display device according to an embodiment of the present invention. FIG. 2 is an explanatory diagram schematically showing the appearance of the display device, and some components are omitted. This display device is provided in a facility such as a factory, for example, and displays the operating status and facility information of various devices in the factory and has an input function for centrally controlling the device and equipment. is there.
表示装置は、表示部10と、タッチパネル部20と、検出部30と、制御部40と、記憶部50と、音声出力部60とを主体に構成されている。
The display device mainly includes a
表示部10は、液晶やCRTといった周知のディスプレイ(表示手段)によって構成されており、後述する制御部40に制御されて各種の情報を表示する。表示部10は、例えば、工場内の壁面などに設置されており、設置場所などの制限を受けに難くするため、比較的小型のディスプレイを用いることが好ましい。表示部10は、情報が実質的に表示される表示エリア11を有しており、この表示エリア11には、表示エリア11上の二次元位置を規定する座標情報が予め設定されている。この座標情報は、例えば、表示エリア11の左上隅を原点として、水平座標(X座標)および垂直座標(Y座標)の二次元座標として設定されている。
The
タッチパネル部20は、表示部10の上方に、具体的には、その表面に、少なくとも表示エリア11を覆うような格好で配設されている。タッチパネル部20としては、抵抗膜方式のアナログタッチパネルなどを用いることができる。この類のタッチパネルは、一般に、上部透明電極板と下部透明電極板とを主体に構成されている。個々の透明電極板は、透明基板とこの透明基板上に形成された透明導電性膜とを有しており、上部および下部透明電極板は、互いの透明導電性膜が対向するように間隔をおいて配置されている。このような構成のタッチパネル部20は、上部透明電極板が操作指で押下された場合、その押下点において、上部透明電極板が撓み、上部および下部透明電極板の透明導電性膜同士が接触する。そして、この接触点の座標情報が電気抵抗の測定によって検出されて、これが押下操作の位置を示す押下座標として制御部40に出力される。タッチパネル部20に設定される座標情報は、表示部10の表示エリア11に設定される座標情報と位置的に対応付けて設定されており、この押下座標は、押下操作と位置的に対応する表示エリア上の座標を示すこととなる。また、タッチパネル部20は、検知感度として設定された第1の押下圧以上の圧力が作用した場合に、これを押下操作として検出する。したがって、第1の押下圧力よりも小さな圧力で押下操作をした場合には、押下操作として検出されない。なお、操作指は、直接的には、操作者自身の指であるが、入力ペンといったタッチパネル部20を操作可能な種々の要素を含む。
The
図3は、第1の実施形態にかかる検出部30の構成を示す説明図である。検出部30は、タッチパネル部20の上方に設定される検出エリア33において、タッチパネル部20への押下操作を前提とした操作指の位置を検出して、これを操作指によって押下操作されるであろう位置を示す予測座標として制御部40に出力する。本実施形態において、検出部30は、それぞれが表示エリア11の水平方向にかけて配列されて、表示エリア11の垂直方向に検出光(以下「垂直検出光」という)を照射する複数の発光ユニット31と、垂直検出光を受光する受光ユニット32と、それぞれが表示エリア11の垂直方向にかけて配列されて、表示エリア11の水平方向に検出光(以下「水平検出光」という)を照射する一対の発光ユニット31と、水平検検出光を受光する受光ユニット32とで構成されている。
FIG. 3 is an explanatory diagram illustrating a configuration of the
垂直検出光は、タッチパネル部20の上空を、このタッチパネル部20と平行に照射される光であり、個々の垂直検出光により、表示エリア11の水平方向領域が概ねカバーされる。タッチパネル部20への押下操作を前提として、操作指が垂直検出光を通過してタッチパネル部20へ接近すると、垂直検出光のいずれかが遮断され、これに対応して受光ユニット32側での検出強度が変化する。受光ユニット32は、個々の垂直検出光に対応する水平方向の座標情報と、それが遮断された場合の検出強度との対応関係を保持しており、変化した検出強度に基づいて、操作指が検出エリア33を通過した水平方向の座標情報を検出する。
The vertical detection light is light that is irradiated above the
一方、水平検出光は、タッチパネル部20の上空を、このタッチパネル部20と平行に照射される光であり、個々の水平検出光により、表示エリア11の垂直方向領域が概ねカバーされる。タッチパネル部20への押下操作を前提として、操作指が水平検出光を通過してタッチパネル部20へ接近すると、水平検出光のいずれかが遮断される。これに対応して受光ユニット32側での検出強度が変化する。受光ユニット32は、個々の水平検出光に対応する垂直方向の座標情報と、それが遮断された場合の検出強度との対応関係を保持しており、変化した検出強度に基づいて、操作指が検出エリア33を通過した垂直方向の座標情報を検出する。
On the other hand, the horizontal detection light is light that is irradiated above the
このような垂直検出光および水平検出光により、タッチパネル部20の上空、すなわち、表示エリア上空に、タッチパネル部20と平行な二次元領域の検出エリア33が設定され、この検出エリア33を通過して第1のタッチパネル部へ接近する操作指の水平方向および垂直方向の位置(座標情報)が検出される。検出された座標情報は、予測座標として制御部に出力される。検出部30に設定される座標情報は、表示部10の表示エリア11に設定される座標情報と位置的に対応付けて設定されており、この予測座標は、操作指と位置的に対応する表示エリア11上の座標を示すこととなる。
By such vertical detection light and horizontal detection light, a
制御部40は、表示部10の表示エリア11に表示する情報を決定するとともに、タッチパネル部20からの押下座標または検出部30からの予測座標に基づいて、表示エリア11の表示状態を変更するように、表示部10を制御する。本実施形態において、制御部40は、例えば、予め設定された制御プログラムに基づいて、種々のシーンに応じた表示状態を設定すべく、表示エリア11に表示すべき表示部品を表示対象部品Sとして決定する。表示部品は、各種の機能が割り当てられて、表示エリア11に表示される画像データやテキストデータのシンボルである。この表示部品には、操作者によって選択可能な部品と、装置や環境状態を表して、操作者によって選択不可能な部品とが含まれている。制御部40は、記憶部50に記憶される表示座標に基づいて、決定された表示対象部品Sが表示エリア11に表示されるように、表示部10を制御する。
The
図4は、記憶部50に記憶される部品情報を説明する図である。部品情報は、個々の表示部品毎に、表示座標と、予測座標範囲とが関連付けられて構成されている。表示座標は、表示エリア11における表示位置を規定する座標情報である。例えば、表示部品が矩形状のシンボルである場合、シンボルの中心点を表示する位置が、この表示座標によって規定される。予測座標範囲は、表示座標に従って表示される表示部品に含まれる表示エリア11上の範囲を示す。例えば、表示部品が矩形状のシンボルである場合、この予測座標範囲は、表示部品の各隅部を表す4点の座標情報A〜Dによって設定される。なお、表示座標および予測座標範囲は、単一の表示部品について、複数設定してもよく、表示エリア11に表示される表示対象部品Sの個数に応じて、適宜選択することにより、個々の表示対象部品Sがオフセットするように調整することも可能である。
FIG. 4 is a diagram for explaining component information stored in the
本実施形態の特徴の一つとして、制御部40は、検出部30から予測座標が出力された場合、この予測座標に基づいて記憶部50を検索する。そして、制御部40は、予測座標が含まれる予測座標範囲と関連付けられた表示対象部品Sを押下予測部品として特定する。そして、制御部40は、特定された押下予測部品を目標とするタッチパネル部20への押下操作を補助する観点に基づいて、表示対象部品Sの表示状態を変更させる。一方、制御部40は、予測座標を含む予測座標範囲が存在しない場合、また、予測座標に対応する予測座標範囲に関連付けられる表示部品があってもそれが表示対象部品Sではない場合には、表示対象部品Sの表示状態をそのままの状態に維持する。
As one of the features of the present embodiment, when a predicted coordinate is output from the
以下、各図面を参照しつつ、表示状態の変更形態について説明する。表示状態の変更形態としては、以下に示す各パターンの中から適宜適用することができる。なお、各図において、(a)は、変更前の表示状態を示し、(b)は、変更後の表示状態を示す。 Hereinafter, a display mode change mode will be described with reference to the drawings. The display state can be changed as appropriate from the following patterns. In each figure, (a) shows the display state before the change, and (b) shows the display state after the change.
図5は、第1の変更形態を模式的に示す説明図である。例えば、あるシーンにおける初期表示状態として、「部品A」が表示対象部品Sとして表示されていたとする。制御部40は、予測座標に基づいて、「部品A」を押下予測部品と判断した場合には、部品のアウトラインの大きさはそのままで、文字情報が、初期表示状態(表示状態変更前)よりも太文字となるように、表示対象部品Sの表示状態を変更する。これにより、押下予測部品が視覚的に強調表示されることとなる。
FIG. 5 is an explanatory diagram schematically showing a first modification. For example, it is assumed that “component A” is displayed as the display target component S as an initial display state in a certain scene. When the
図6は、第2の変更形態を模式的に示す説明図である。例えば、あるシーンにおける初期表示状態として、「部品A」〜「部品C」が表示対象部品Sとして表示されていたとする。制御部40は、予測座標に基づいて、「部品A」を押下予測部品と判断した場合には、押下予測部品である「部品A」以外の表示対象部品S、すなわち、「部品B」および「部品C」を非表示とするように、表示対象部品Sの表示状態を変更する。これにより、押下予測部品のみが表示されることとなる。
FIG. 6 is an explanatory diagram schematically showing a second modification. For example, it is assumed that “component A” to “component C” are displayed as the display target component S as an initial display state in a certain scene. When the
図7は、第3の変更形態を模式的に示す説明図である。例えば、あるシーンにおける初期表示状態として、「部品A」〜「部品C」が表示対象部品Sとして表示されていたとする。制御部40は、予測座標に基づいて、「部品A」を押下予測部品と判断した場合には、押下予測部品である「部品A」以外の表示対象部品S、すなわち、「部品B」および「部品C」が、初期表示状態(表示状態変更前)よりも不鮮明となるように、表示対象部品Sの表示状態を変更する。例えば、「部品B」および「部品C」のアウトラインを破線に変更するといった如くである。これにより、押下予測部品が、これ以外の表示対象部品と比較して強調表示されることとなる。
FIG. 7 is an explanatory diagram schematically showing a third modification. For example, it is assumed that “component A” to “component C” are displayed as the display target component S as an initial display state in a certain scene. When the
図8は、第4の変更形態を模式的に示す説明図である。例えば、あるシーンにおける初期表示状態として、「部品A」が表示対象部品Sとして表示されていたとする。制御部40は、予測座標に基づいて、「部品A」を押下予測部品と判断した場合には、表示対象部品Sの外形が、初期表示状態(表示状態変更前)よりも拡大されるように、表示対象部品Sの表示状態を変更する。これにより、押下予測部品がサイズ的に強調表示されることとなる。
FIG. 8 is an explanatory diagram schematically showing a fourth modification. For example, it is assumed that “component A” is displayed as the display target component S as an initial display state in a certain scene. When the
図9は、第5の変更形態を模式的に示す説明図である。例えば、あるシーンにおける初期表示状態として、「部品A」〜「部品P」が表示対象部品Sとして表示されていたとする。制御部40は、予測座標に基づいて、「部品E」を押下予測部品と判断した場合には、押下予測部品である「部品E」に関する表示座標に基づいて、この表示座標を中心として所定範囲内に含まれる表示対象部品Sを周辺表示部品として特定する。例えば、「部品E」の周囲に存在する「部品A」〜「部品I」(「部品E」を除く)を周辺表示部品として特定するといった如くである。そして、制御部40は、押下予測部品である「部品E」と、周辺表示部品である(「部品E」を除く)とが、初期表示状態(表示状態変更前)よりも拡大されるように、表示対象部品Sの表示状態を変更する。これにより、押下予測部品およびその周囲の表示対象部品Sがサイズ的に強調表示されることとなる。
FIG. 9 is an explanatory diagram schematically showing a fifth modification. For example, it is assumed that “component A” to “component P” are displayed as display target components S as an initial display state in a certain scene. When the
図10は、第5の変更形態を模式的に示す説明図である。例えば、あるシーンにおける初期表示状態において、表示対象部品Sとして、操作者によって操作可能な第1の表示対象部品Sである「部品A」〜「部品F」と、操作者によって操作不可能な第2の表示対象部品Sである「部品1」,「部品2」とが表示されていたとする。制御部40は、予測座標に基づいて、「部品A」を押下予測部品と判断した場合には、押下予測部品である「部品A」と、押下予測部品以外の第1の表示対象部品S「部品B」〜「部品F」とが、初期表示状態(表示状態変更前)よりも拡大されるように、かつ、個々が整列するように、表示対象部品Sの表示状態を変更する。これにより、押下予測部品、および、操作者によって操作可能な第1の表示対象部品Sがサイズ的に強調表示されることとなる。
FIG. 10 is an explanatory diagram schematically showing a fifth modification. For example, in an initial display state in a certain scene, as the display target component S, “part A” to “component F” that are the first display target components S that can be operated by the operator, and the first that cannot be operated by the operator. It is assumed that “
図11は、第6の変更形態を模式的に示す説明図である。例えば、あるシーンにおける初期表示状態において、表示対象部品Sとして、操作者によって操作可能な第1の表示対象部品Sである「部品A」〜「部品F」と、操作者によって操作不可能な第2の表示対象部品Sである「部品1」,「部品2」とが表示されていたとする。制御部40は、予測座標に基づいて、「部品A」を押下予測部品と判断した場合には、押下予測部品である「部品A」と、押下予測部品以外の第1の表示対象部品S「部品B」〜「部品F」とが、初期表示状態(表示状態変更前)よりも拡大されるように、表示対象部品Sの表示状態を変更する。また、これとともに、図中の(A)〜(F)で示すように、それらの表示部品の機能が表示されるように、表示対象部品Sの表示状態を変更する。これにより、押下予測部品、および、操作者によって操作可能な第1の表示対象部品Sがサイズ的に強調表示され、かつ、個々の機能が表意されることとなる。
FIG. 11 is an explanatory diagram schematically showing a sixth modification. For example, in an initial display state in a certain scene, as the display target component S, “part A” to “component F” that are the first display target components S that can be operated by the operator, and the first that cannot be operated by the operator. It is assumed that “
制御部40は、タッチパネル部20から押下座標を取得した場合、この押下座標に基づいて、押下座標と位置的に対応して表示されている表示対象部品Sを特定し、その特定された表示対象部品Sに割り当てられた処理を実行する(例えば、機器の制御や、異なるシーンへと表示状態を変更する)。ここで、制御部40は、上述の如く表示対象部品Sの表示形態を変更している。そのため、押下座標と、表示対象部品Sとの位置的な対応関係を特定する場合には、個々の表示部品について、表示形態変更後の予測座標範囲を記憶部50に予め記憶しておき、押下座標と、表示形態変更後の予測座標範囲とに基づいて実行することが好ましい。ただし、制御部40は、表示形態変更処理の結果に基づいて、表示座標およびその予測座標範囲を保持しておき、これを参照してもよい。
When acquiring the pressed coordinates from the
このような構成の表示装置において、以下、その基本的な動作(表示方法)について説明する。この動作は、制御部40によって実行される。
Hereinafter, the basic operation (display method) of the display device having such a configuration will be described. This operation is executed by the
まず、あるシーンに応じて、表示エリア11に表示すべき表示部品が表示対象部品Sとして決定される。そして、制御部40は、表示部10を制御して、決定された表示対象部品Sを表示エリアに表示する。つぎに、制御部40は、検出部30から予測座標として取得したか否かを判断する。予測座標を取得した場合、制御部40は、記憶部50に記憶されている部品情報を検索し、予測座標が含まれる予測座標範囲と関連付けられている表示対象部品Sを、押下予測部品であると特定する。そして、制御部40は、押下予測部品に基づいて、表示対象部品Sの表示状態を変更させる。つぎに、制御部40は、タッチパネル部20から押下座標として取得したか否かを判断する。押下座標を取得した場合、制御部40は、この押下座標と位置的に対応する表示対象部品Sを特定し、この特定された表示対象部品Sに割り当てられた機能を実行する。
First, a display component to be displayed in the
このように本実施形態によれば、表示部品毎に、予測座標範囲が関連付けた部品情報として記憶部50に記憶されている。そのため、この部品情報を参照し、予測座標と、予測座標範囲との位置的な対応を図ることが可能となり、押下予測部品を特定することができる。これにより、操作者が選択しようとする表示対象部品を、タッチパネル部20を押下操作するよりも前に特定することができる。よって、タッチパネル部20の押下操作前であるため、すなわち、操作者による実質的な選択が行われる前段階であるため、この押下予測部品に基づいて、各種の処理を実現することができ、これにより、操作者に対する操作性の向上を図ることが可能となる。
As described above, according to the present embodiment, for each display component, the
また、本実施形態によれば、押下予測部品を目標とするタッチパネル部20への押下操作を補助する観点に基づいて、表示対象部品Sの表示状態を変更させている。この表示形態の変更により、タッチパネル部20への押下操作を補助することができるので、操作者に対する操作性の向上を図ることが可能となる。
In addition, according to the present embodiment, the display state of the display target component S is changed based on the viewpoint of assisting the pressing operation on the
例えば、図5に示す形態では、操作者が押下操作しようとする表示対象部品(押下予測部品)を明確に認識することができるので、そこから先の動作判断を容易に行うことができる。例えば、図6に示す形態では、押下予測部品のみを認識することができるので、そこから先の動作判断を容易に行うことができる。例えば、図7に示す形態では、押下予測部品がそれ以外の表示対象部品Sと比較して強調されるので、そこから先の動作判断を容易に行うことができる。例えば、図8に示す形態では、押下予測部品が拡大表示されるので、そこから先の動作判断を容易に行うことができるとともに、押下操作にて検知される面積が広がるため、操作者に対する操作性の向上を図ることができる。例えば、図9に示す形態では、押下予測部品および周辺表示部品が拡大表示されるので、両者の部品を含めてそこから先の動作判断を容易に行うことができるとともに、押下操作にて検知される面積が広がるため、操作者に対する操作性の向上を図ることができる。例えば、図10に示す形態では、押下予測部品および押下予測部品以外の第1の表示対象部品Sが拡大表示かつ整列表示されるので、両者の部品を含めてそこから先の動作判断を容易に行うことができるとともに、押下操作にて検知される面積が広がるため、操作者に対する操作性の向上を図ることができる。例えば、図11に示す形態では、押下予測部品および押下予測部品以外の第1の表示対象部品Sが拡大表示、かつ、その機能が表示されるので、両者の部品を含めてそこから先の動作判断を容易に行うことができるとともに、押下操作にて検知される面積が広がるため、操作者に対する操作性の向上を図ることができる。 For example, in the form shown in FIG. 5, the display target component (pressed prediction component) that the operator wants to perform a pressing operation can be clearly recognized, and the subsequent operation determination can be easily performed from there. For example, in the form shown in FIG. 6, since only the predicted press part can be recognized, it is possible to easily determine the operation after that. For example, in the form shown in FIG. 7, the pressed prediction component is emphasized as compared with the other display target components S, so that it is possible to easily determine the operation after that. For example, in the form shown in FIG. 8, since the press prediction part is displayed in an enlarged manner, it is possible to easily determine the operation after that, and the area detected by the press operation is widened. It is possible to improve the performance. For example, in the form shown in FIG. 9, since the press prediction component and the peripheral display component are displayed in an enlarged manner, it is possible to easily determine the operation including the both components, and to detect the press operation. Therefore, the operability for the operator can be improved. For example, in the form shown in FIG. 10, the press prediction component and the first display target component S other than the press prediction component are displayed in an enlarged manner and aligned, so that it is easy to determine the operation after that including both components. In addition, the area detected by the pressing operation can be increased, so that the operability for the operator can be improved. For example, in the form shown in FIG. 11, the pressed display component and the first display target component S other than the pressed prediction component are displayed in an enlarged manner and the function is displayed. Judgment can be made easily, and the area detected by the pressing operation is widened, so that the operability for the operator can be improved.
なお、制御部40は、押下予測部品を特定した場合には、その押下予測部品の実行する機能を、音声出力部60を介して音声出力してもよい。これにより、操作者に聴覚的に情報を与えることができるので、そこから先の動作判断を容易に行うことができる。
In addition, when the pressing prediction component is specified, the
また、制御部40は、押下予測部品に基づいて、表示状態を変更した場合、所定時間経過してもタッチパネル部20から押下座標が出力されないことを条件に、表示状態を初期表示状態(表示状態変更前)に復帰させることが好ましい。
In addition, when the display state is changed based on the press predicted component, the
また、上述した実施形態では、予測範囲座標は、表示部品に含まれる表示エリア11上の範囲としているが、本発明はこれに限定されない。例えば、表示部品の周辺領域を含むように広く設定してもよい。
In the above-described embodiment, the predicted range coordinates are a range on the
(第2の実施形態)
図12は、第2の実施形態にかかる検出部30の構成を示す説明図である。この第2の実施形態にかかるアンテナ装置が、第1の実施形態のそれと相違する点は、検出部30の構成である。なお、検出部30以外の構成は、第1の実施形態と同じであるため、その詳細な説明は省略する。
(Second Embodiment)
FIG. 12 is an explanatory diagram illustrating a configuration of the
本実施形態において、検出部30は、上述したタッチパネル部(以下「第1のタッチパネル部」という)20とは異なる第2のタッチパネル部34によって構成されている。この第2のタッチパネル部34は、第1のタッチパネル部20の上面に重ね合わせて配設されており、自己の表面を検出エリア(タッチパネル部20の上方に設定される検出部30としての検出エリア)として有している。
In the present embodiment, the
第2のタッチパネル部34は、第1のタッチパネル部20と同様に、抵抗膜方式のアナログタッチパネルなどを用いることができる。この第2のタッチパネル部34は、上部透明電極板が操作指で押下されると、この接触点の座標情報が電気抵抗の測定によって検出されて、これが操作指がタッチパネル部20を押下するであろう予測座標として制御部40に出力される。ここで、第2のタッチパネル部34は、第1のタッチパネル部20の検知感度である第1の押下圧よりも高い検知感度である第2の押下圧に設定されている。すなわち、第1の押下圧は、第2の押下圧よりも大きな値に設定されている。したがって、第1のタッチパネル部20の操作を前提として、その上面に配設された第2のタッチパネル部34を押下した場合には、第1のタッチパネル部20によって押下座標が出力されるよりも前に、予測座標が制御部40に出力されることとなる。
For the second
そして、制御部40は、予測座標に基づいて、上述した表示状態の変更を行う。なお、表示状態を変更した後には、第2のタッチパネル部34を介して第1のタッチパネル部20への本来の押下操作が行われるため、表示状態を変更した後は、その状態が継続されている範囲内で、第2のタッチパネル部34からの予測座標を無視してもよい。
Then, the
このように本実施形態によれば、これにより、操作者が選択しようとする表示対象部品を、第1のタッチパネル部20を押下操作するよりも前に特定することができる。よって、第1のタッチパネル部20の押下操作前であるため、すなわち、操作者による実質的な選択が行われる前段階であるため、この押下予測部品に基づいて、各種の処理を実現することができ、これにより、操作者に対する操作性の向上を図ることが可能となる。
As described above, according to the present embodiment, it is possible to specify the display target component to be selected by the operator before pressing the first
なお、各実施形態で検出部30の構成を示した本発明はこれ限定されない。タッチパネル部(第1のタッチパネル部)30の上方に設定される検出エリアにおいて、タッチパネル部20への押下操作を前提とした操作指の位置を検出する構成であれば、いかなる検出手段を適用することができる。
In addition, this invention which showed the structure of the
なお、上述した実施形態の表示方法を、表示部の表示エリアの上方にタッチパネル部が配設された表示装置に実行させるためのコンピュータ・プログラム自体も本発明の一部として機能する。当然ながらこのコンピュータ・プログラムを記録した記録媒体を、図1のような構成を有するシステムに対して供給してもよい。この場合、このシステム中の制御部40が、記録媒体に格納されたコンピュータ・プログラム を読み取り実行することによって、本発明の目的を達成することができる。コンピュータ・プログラム自体が本発明の新規な機能を実現するため、そのプログラムを記録した記録媒体も本発明を構成する。コンピュータ・プログラムを記録した記録媒体としては、例えば、CD−ROM、フレキシブルディスク、ハードディスク、メモリカード、光ディスク、DVDROM、DVD−RAM等が挙げられる。
Note that the computer program itself for causing the display device in which the touch panel unit is provided above the display area of the display unit to execute the display method of the above-described embodiment also functions as part of the present invention. Of course, a recording medium on which the computer program is recorded may be supplied to a system having the configuration as shown in FIG. In this case, the
10 表示部
11 表示エリア
20 タッチパネル部(第1のタッチパネル部)
30 検出部
31 発光ユニット
32 受光ユニット
33 検出エリア
34 第2のタッチパネル部
40 制御部
50 記憶部
60 音声出力部
DESCRIPTION OF
DESCRIPTION OF
Claims (14)
表示エリアを備える表示部と、
表示エリアに表示すべき表示部品を表示対象部品として決定するとともに、当該決定された表示対象部品が前記表示エリアに表示されるように、前記表示部を制御する制御部と、
前記表示部の上方に配設されており、操作指による押下操作の位置を検出して、当該押下操作と位置的に対応する表示エリア上の座標を押下座標として前記制御部に出力する第1のタッチパネル部と、
前記第1のタッチパネル部の上方に設定される検出エリアにおいて、前記第1のタッチパネル部への押下操作を前提とした操作指の位置を検出して、当該操作指と位置的に対応する表示エリア上の座標を予測座標として前記制御部に出力する検出部と、
複数の表示部品毎に、少なくとも表示部品に含まれる表示エリア上の範囲を示す予測座標範囲を関連付けて記憶する記憶部とを有し、
前記制御部は、前記検出部からの予測座標に基づいて前記記憶部を検索することにより、前記予測座標が含まれる前記予測座標範囲と関連付けられている前記表示対象部品を、前記第1のタッチパネル部を介した押下操作が予測される押下予測部品であると特定することを特徴とする表示装置。 In the display device,
A display unit having a display area;
A display unit to be displayed in the display area is determined as a display target component, and a control unit that controls the display unit so that the determined display target component is displayed in the display area;
A first position that is disposed above the display unit, detects the position of the pressing operation by the operating finger, and outputs coordinates on the display area corresponding to the pressing operation to the control unit as pressed coordinates. Touch panel part,
In the detection area set above the first touch panel unit, the position of the operation finger is detected on the premise that the first touch panel unit is pressed, and the display area corresponds to the operation finger. A detection unit that outputs the upper coordinates as predicted coordinates to the control unit;
For each of the plurality of display components, a storage unit that associates and stores a predicted coordinate range indicating a range on the display area included in the display component, and
The control unit searches the storage unit based on the predicted coordinates from the detection unit, and thereby displays the display target component associated with the predicted coordinate range including the predicted coordinates as the first touch panel. A display device that identifies a pressing predicted component for which a pressing operation via a unit is predicted.
前記第2のタッチパネル部は、前記第1のタッチパネル部の検知感度よりも高い検知感度に設定されていることを特徴とする請求項1に記載された表示装置。 The detection unit is configured by a second touch panel unit that is arranged on the upper surface of the first touch panel unit and has its own surface as a detection area,
The display device according to claim 1, wherein the second touch panel unit is set to a detection sensitivity higher than a detection sensitivity of the first touch panel unit.
前記制御部は、前記押下予測部品に含まれる文字情報が表示状態変更前よりも太文字となるように、前記表示対象部品の表示状態を変更することを特徴とする請求項4に記載された表示装置。 The display component includes at least character information,
5. The control unit according to claim 4, wherein the control unit changes the display state of the display target component so that the character information included in the pressed prediction component is bolder than before the display state is changed. Display device.
前記制御部は、前記押下予測部品と、前記押下予測部品以外の前記第1の表示対象部品とが表示状態変更前よりも拡大表示されるように、前記表示対象部品の表示状態を変更することを特徴とする請求項4に記載された表示装置。 The display target component includes a first display target component that can be operated by an operator, and a second display target component that cannot be operated by the operator,
The control unit changes the display state of the display target component so that the press prediction component and the first display target component other than the press prediction component are displayed in an enlarged manner before the display state change. The display device according to claim 4.
前記制御部は、前記特定された押下予測部品に基づいて、当該押下予測部品の機能を説明する情報を、前記音声出力部を介して出力することを特徴とする請求項1から11のいずれか一項に記載された表示装置。 A voice output unit that outputs voice information;
The said control part outputs the information explaining the function of the said press prediction component based on the specified press prediction component via the said audio | voice output part. A display device according to one item.
表示エリアに表示すべき表示部品を表示対象部品として決定する第1のステップと、
前記決定された表示対象部品を表示エリアに表示する第2のステップと、
前記第1のタッチパネル部の上方に設定される検出エリアにおいて、前記第1のタッチパネル部へ接近する操作指の位置を検出する検出部から、当該操作指と位置的に対応する表示エリア上の座標を予測座標として取得する第3のステップと、
複数の表示部品毎に、少なくとも表示部品に含まれる表示エリア上の範囲を示す予測座標範囲が関連付けられた部品情報を検索し、前記取得した予測座標が含まれる前記予測座標範囲と関連付けられている前記表示対象部品を、前記第1のタッチパネル部を介した押下操作が予測される押下予測部品であると特定する第4のステップと
を有することを特徴とするコンピュータ・プログラム。 In a computer program for causing a display device provided with a touch panel unit above a display area of a display unit to execute the program,
A first step of determining a display component to be displayed in the display area as a display target component;
A second step of displaying the determined display target component in a display area;
In the detection area set above the first touch panel unit, the coordinates on the display area corresponding to the operation finger from the detection unit that detects the position of the operation finger approaching the first touch panel unit. A third step of acquiring as a predicted coordinate;
For each of the plurality of display components, the component information associated with at least the predicted coordinate range indicating the range on the display area included in the display component is searched, and is associated with the predicted coordinate range including the acquired predicted coordinate. A computer program, comprising: a fourth step of identifying the display target component as a press prediction component for which a press operation via the first touch panel unit is predicted.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007166425A JP2009003867A (en) | 2007-06-25 | 2007-06-25 | Display device and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007166425A JP2009003867A (en) | 2007-06-25 | 2007-06-25 | Display device and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009003867A true JP2009003867A (en) | 2009-01-08 |
Family
ID=40320157
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007166425A Pending JP2009003867A (en) | 2007-06-25 | 2007-06-25 | Display device and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009003867A (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012520521A (en) * | 2009-03-12 | 2012-09-06 | イマージョン コーポレイション | System and method for an interface featuring surface-based haptic effects |
JP2013528303A (en) * | 2010-06-10 | 2013-07-08 | クアルコム,インコーポレイテッド | Automatic morphing adaptive user interface device and method |
EP2639686A2 (en) | 2012-03-16 | 2013-09-18 | Fujitsu Limited | Input control device, input control program, and input control method |
WO2014030456A1 (en) | 2012-08-23 | 2014-02-27 | 株式会社エヌ・ティ・ティ・ドコモ | User interface device, user interface method, and program |
WO2014057929A1 (en) | 2012-10-10 | 2014-04-17 | 株式会社Nttドコモ | User interface device, user interface method and program |
WO2014064862A1 (en) * | 2012-10-22 | 2014-05-01 | Necカシオモバイルコミュニケーションズ株式会社 | Portable terminal device, information presentation method, and program |
JP2014232475A (en) * | 2013-05-30 | 2014-12-11 | 京セラドキュメントソリューションズ株式会社 | Display device, electronic apparatus, and image forming apparatus |
WO2015167511A3 (en) * | 2014-04-30 | 2016-04-21 | Empire Technology Development Llc | Adjusting tap position on touch screen |
JP2016517082A (en) * | 2013-03-13 | 2016-06-09 | アマゾン テクノロジーズ インコーポレイテッド | Management of sensory information on user devices |
US9696803B2 (en) | 2009-03-12 | 2017-07-04 | Immersion Corporation | Systems and methods for friction displays and additional haptic effects |
US9874935B2 (en) | 2009-03-12 | 2018-01-23 | Immersion Corporation | Systems and methods for a texture engine |
US9927873B2 (en) | 2009-03-12 | 2018-03-27 | Immersion Corporation | Systems and methods for using textures in graphical user interface widgets |
US10007340B2 (en) | 2009-03-12 | 2018-06-26 | Immersion Corporation | Systems and methods for interfaces featuring surface-based haptic effects |
US10073527B2 (en) | 2009-03-12 | 2018-09-11 | Immersion Corporation | Systems and methods for providing features in a friction display including a haptic effect based on a color and a degree of shading |
US10564721B2 (en) | 2009-03-12 | 2020-02-18 | Immersion Corporation | Systems and methods for using multiple actuators to realize textures |
-
2007
- 2007-06-25 JP JP2007166425A patent/JP2009003867A/en active Pending
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10073526B2 (en) | 2009-03-12 | 2018-09-11 | Immersion Corporation | Systems and methods for friction displays and additional haptic effects |
US10248213B2 (en) | 2009-03-12 | 2019-04-02 | Immersion Corporation | Systems and methods for interfaces featuring surface-based haptic effects |
US9696803B2 (en) | 2009-03-12 | 2017-07-04 | Immersion Corporation | Systems and methods for friction displays and additional haptic effects |
US10747322B2 (en) | 2009-03-12 | 2020-08-18 | Immersion Corporation | Systems and methods for providing features in a friction display |
US10620707B2 (en) | 2009-03-12 | 2020-04-14 | Immersion Corporation | Systems and methods for interfaces featuring surface-based haptic effects |
US10564721B2 (en) | 2009-03-12 | 2020-02-18 | Immersion Corporation | Systems and methods for using multiple actuators to realize textures |
US10466792B2 (en) | 2009-03-12 | 2019-11-05 | Immersion Corporation | Systems and methods for friction displays and additional haptic effects |
US9874935B2 (en) | 2009-03-12 | 2018-01-23 | Immersion Corporation | Systems and methods for a texture engine |
US10379618B2 (en) | 2009-03-12 | 2019-08-13 | Immersion Corporation | Systems and methods for using textures in graphical user interface widgets |
JP2012520521A (en) * | 2009-03-12 | 2012-09-06 | イマージョン コーポレイション | System and method for an interface featuring surface-based haptic effects |
US10073527B2 (en) | 2009-03-12 | 2018-09-11 | Immersion Corporation | Systems and methods for providing features in a friction display including a haptic effect based on a color and a degree of shading |
US10007340B2 (en) | 2009-03-12 | 2018-06-26 | Immersion Corporation | Systems and methods for interfaces featuring surface-based haptic effects |
US9927873B2 (en) | 2009-03-12 | 2018-03-27 | Immersion Corporation | Systems and methods for using textures in graphical user interface widgets |
JP2013528303A (en) * | 2010-06-10 | 2013-07-08 | クアルコム,インコーポレイテッド | Automatic morphing adaptive user interface device and method |
US8836643B2 (en) | 2010-06-10 | 2014-09-16 | Qualcomm Incorporated | Auto-morphing adaptive user interface device and methods |
EP2639686A2 (en) | 2012-03-16 | 2013-09-18 | Fujitsu Limited | Input control device, input control program, and input control method |
WO2014030456A1 (en) | 2012-08-23 | 2014-02-27 | 株式会社エヌ・ティ・ティ・ドコモ | User interface device, user interface method, and program |
WO2014057929A1 (en) | 2012-10-10 | 2014-04-17 | 株式会社Nttドコモ | User interface device, user interface method and program |
JPWO2014064862A1 (en) * | 2012-10-22 | 2016-09-05 | 日本電気株式会社 | Portable terminal device, information presentation method, and program |
US9380149B2 (en) | 2012-10-22 | 2016-06-28 | Nec Corporation | Portable terminal device, information presentation method, and program |
WO2014064862A1 (en) * | 2012-10-22 | 2014-05-01 | Necカシオモバイルコミュニケーションズ株式会社 | Portable terminal device, information presentation method, and program |
JP2016517082A (en) * | 2013-03-13 | 2016-06-09 | アマゾン テクノロジーズ インコーポレイテッド | Management of sensory information on user devices |
US9746957B2 (en) | 2013-03-13 | 2017-08-29 | Amazon Technologies, Inc. | Managing sensory information of a user device |
JP2014232475A (en) * | 2013-05-30 | 2014-12-11 | 京セラドキュメントソリューションズ株式会社 | Display device, electronic apparatus, and image forming apparatus |
WO2015167511A3 (en) * | 2014-04-30 | 2016-04-21 | Empire Technology Development Llc | Adjusting tap position on touch screen |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009003867A (en) | Display device and computer program | |
US20240012521A1 (en) | Projection Device, Projection Method And Projection Program | |
US10241626B2 (en) | Information processing apparatus, information processing method, and program | |
CN102736782B (en) | Messaging device, information processing method and computer-readable recording medium | |
JP4818036B2 (en) | Touch panel control device and touch panel control method | |
JP5191070B2 (en) | Remote control, display device, television receiver, and remote control program | |
US9766658B2 (en) | Flexible display device having guide function of gesture command and method thereof | |
US20100302177A1 (en) | Method and apparatus for providing user interface based on contact position and intensity of contact force on touch screen | |
JP2011170538A (en) | Information processor, information processing method and program | |
JP2005135106A (en) | Unit and method for display image control | |
US20070285402A1 (en) | Mobile terminal and method of displaying image thereof | |
JP2008123476A5 (en) | ||
JP2005044026A (en) | Instruction execution method, instruction execution program and instruction execution device | |
RU2009144933A (en) | IMAGE PROCESSING DEVICE AND IMAGE DISPLAY METHOD | |
JP2008065504A (en) | Touch panel control device and touch panel control method | |
CN104205032A (en) | Information processing apparatus for controlling an image based on duration and distance of a touch input, method, and non - transitory computer - readable medium | |
JP2005196530A (en) | Space input device and space input method | |
CN104340132A (en) | Input device | |
JP5382815B2 (en) | Remote control and remote control program | |
JP2008305339A (en) | Operation time measuring instrument and method, skill level determining device and method, and program | |
CN109476014A (en) | For engaging the testing touch screen platform of the target signature of dynamic positioning | |
JP4856136B2 (en) | Movement control program | |
JP2006235859A (en) | Coordinate input device | |
JP2009140177A (en) | Operation display device | |
JP6471679B2 (en) | Display device and display method |