[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2015203915A - Information processing apparatus, display device, display control method, and program - Google Patents

Information processing apparatus, display device, display control method, and program Download PDF

Info

Publication number
JP2015203915A
JP2015203915A JP2014081946A JP2014081946A JP2015203915A JP 2015203915 A JP2015203915 A JP 2015203915A JP 2014081946 A JP2014081946 A JP 2014081946A JP 2014081946 A JP2014081946 A JP 2014081946A JP 2015203915 A JP2015203915 A JP 2015203915A
Authority
JP
Japan
Prior art keywords
coordinates
detected
coordinate
display
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014081946A
Other languages
Japanese (ja)
Inventor
明生 山▲崎▼
Akio Yamazaki
明生 山▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014081946A priority Critical patent/JP2015203915A/en
Publication of JP2015203915A publication Critical patent/JP2015203915A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce the discomfort of a user in predicting a position of a pointer.SOLUTION: An information processing apparatus 1 includes: acquisition means 20 for acquiring coordinates of a pointer periodically detected; calculation means 12 for calculating a speed vector and an acceleration vector of the pointer, on the basis of the coordinates detected at three or more times, out of the acquired coordinates; prediction means 13 which predicts coordinates p(n+1) to be detected at a time (n+1), with respect to coordinates p(n) detected at a time n, by use of the calculated speed vector v and acceleration vector (a), in a formula p(n+1)=p(n)+αv+βa; and drawing control means 14 which generates an image including a point corresponding to the predicted coordinates p(n+1).

Description

本発明は、指示体により指示された位置に応じた画像を表示する技術に関し、特に、指示体の位置を予測する技術に関する。   The present invention relates to a technique for displaying an image corresponding to a position designated by an indicator, and more particularly to a technique for predicting the position of the indicator.

タブレット端末において、ペンまたは指などの指示体によりユーザーが画面上の位置を指示して、指示した軌跡に応じた線をタブレット端末が表示する技術が知られている。描画される線の追従性を向上させるため、指示体により指示される位置を予測する技術が知られている。特許文献1は、タッチパネルを有する表示装置において、タッチされた位置の移動量と加速度を用いて次の位置を予測する技術を開示している。   In a tablet terminal, a technique is known in which a user indicates a position on a screen with an indicator such as a pen or a finger, and the tablet terminal displays a line corresponding to the indicated locus. In order to improve the followability of a drawn line, a technique for predicting a position indicated by an indicator is known. Patent Document 1 discloses a technique for predicting a next position using a movement amount and acceleration of a touched position in a display device having a touch panel.

特開2010−97552号公報JP 2010-97552 A

特許文献1に記載の技術においては、予測が外れてユーザーに違和感を与える場合があった。   In the technique described in Patent Document 1, there is a case where the prediction is wrong and the user feels uncomfortable.

これに対し本発明は、指示体の位置を予測する場合において、ユーザーに与える違和感を低減する技術を提供する。   On the other hand, this invention provides the technique which reduces the discomfort given to a user, when estimating the position of a pointer.

本発明は、周期的に検出される指示体の座標を取得する取得手段と、前記取得手段により取得された座標のうち異なる3以上の時刻において検出された座標に基づいて、前記指示体の速度ベクトルおよび加速度ベクトルを算出する算出手段と、前記算出手段により算出された速度ベクトルvおよび加速度ベクトルaを用いて、時刻nにおいて検出された座標p(n)に対して、時刻(n+1)における座標p(n+1)を次式(1)により予測する予測手段と、
p(n+1)=p(n)+αv+βa …(1)
(ただし、αおよびβは係数)
前記予測手段により予測された座標p(n+1)に対応する点を含む画像を生成する描画制御手段とを有する情報処理装置を提供する。
この情報処理装置によれば、ユーザーに与える違和感を低減することができる。
The present invention provides an acquisition means for acquiring the coordinates of the indicator detected periodically, and the speed of the indicator based on coordinates detected at three or more different times among the coordinates acquired by the acquisition means. A coordinate at time (n + 1) with respect to a coordinate p (n) detected at time n using a calculation means for calculating a vector and an acceleration vector, and a velocity vector v and acceleration vector a calculated by the calculation means. prediction means for predicting p (n + 1) by the following equation (1);
p (n + 1) = p (n) + αv + βa (1)
(Where α and β are coefficients)
There is provided an information processing apparatus having a drawing control means for generating an image including a point corresponding to the coordinate p (n + 1) predicted by the prediction means.
According to this information processing apparatus, it is possible to reduce a sense of discomfort given to the user.

前記画像は前記指示体の軌跡に応じた線であり、前記予測手段は前記線の太さに応じて前記係数αおよびβの値を変化させてもよい。
この情報処理装置によれば、係数αおよびβが線の太さによらず一定である場合と比較して、ユーザーに与える違和感を低減することができる。
The image may be a line corresponding to the locus of the indicator, and the prediction means may change the values of the coefficients α and β according to the thickness of the line.
According to this information processing apparatus, it is possible to reduce a sense of discomfort given to the user as compared with the case where the coefficients α and β are constant regardless of the thickness of the line.

前記予測手段は、前記線の太さがb1であるときよりも前記線の太さがb2(ただしb2>b1)であるときの方が、前記係数αおよびβの値を小さくしてもよい。
この情報処理装置によれば、係数αおよびβが線の太さによらず一定である場合と比較して、ユーザーに与える違和感を低減することができる。
The predicting means may decrease the values of the coefficients α and β when the line thickness is b2 (where b2> b1) than when the line thickness is b1. .
According to this information processing apparatus, it is possible to reduce a sense of discomfort given to the user as compared with the case where the coefficients α and β are constant regardless of the thickness of the line.

前記算出手段は、前記取得手段により取得された座標のうち異なる4以上の時刻において検出された座標に基づいて、当該座標が検出された時刻に応じた重み付け係数を用いた重み付き平均を用いて、前記指示体の速度ベクトルおよび加速度ベクトルを算出してもよい。
この情報処理装置によれば、速度および加速度をより正確に予測することができる。
The calculation means uses a weighted average using a weighting coefficient according to the time at which the coordinates are detected based on the coordinates detected at four or more different times among the coordinates acquired by the acquisition means. The velocity vector and acceleration vector of the indicator may be calculated.
According to this information processing apparatus, the speed and acceleration can be predicted more accurately.

前記取得手段により取得された座標のうち時刻n1に検出された座標が最新のものである場合において、時刻n1に対応する重み付け係数は、時刻n2(ただしn1>n2)に対応する重み付け係数よりも大きくてもよい。
この情報処理装置によれば、より直近の情報に重みをおいて、速度および加速度をより正確に予測することができる。
When the coordinates detected at time n1 among the coordinates acquired by the acquisition means are the latest, the weighting coefficient corresponding to time n1 is higher than the weighting coefficient corresponding to time n2 (where n1> n2). It can be large.
According to this information processing apparatus, it is possible to predict the speed and acceleration more accurately by giving weight to the latest information.

また、本発明は、表示手段と、前記表示手段の表面において指示体が指示した座標を検出する検出手段と、前記検出手段により検出された座標のうち異なる3以上の時刻において検出された座標に基づいて、前記指示体の速度ベクトルおよび加速度ベクトルを算出する算出手段と、前記算出手段により算出された速度ベクトルvおよび加速度ベクトルaを用いて、時刻nにおいて検出された座標p(n)に対して、時刻(n+1)における座標p(n+1)を次式(1)により予測する予測手段と、
p(n+1)=p(n)+αv+βa …(1)
(ただし、αおよびβは係数)
前記予測手段により予測された座標p(n+1)に対応する点を含む画像を生成する描画制御手段とを有する表示装置を提供する。
この表示装置によれば、ユーザーに与える違和感を低減することができる。
Further, the present invention provides a display means, a detection means for detecting coordinates indicated by a pointer on the surface of the display means, and coordinates detected at three or more different times among the coordinates detected by the detection means. Based on the calculation means for calculating the velocity vector and acceleration vector of the indicator, and the coordinate p (n) detected at time n using the velocity vector v and acceleration vector a calculated by the calculation means. Prediction means for predicting the coordinate p (n + 1) at time (n + 1) by the following equation (1):
p (n + 1) = p (n) + αv + βa (1)
(Where α and β are coefficients)
There is provided a display device having drawing control means for generating an image including a point corresponding to the coordinate p (n + 1) predicted by the prediction means.
According to this display device, the uncomfortable feeling given to the user can be reduced.

この表示装置は、記憶手段と、前記検出手段によって異なる3以上の時刻において検出された座標に基づいて線分の画像データを生成する生成手段と、前記生成手段により生成された画像データを前記記憶手段に記憶させる記憶制御手段と、前記表示手段の表示が前回更新されてから前記検出手段によって異なる3以上の時刻において座標が検出されると、前記表示手段の表示を更新する更新命令を出力する出力手段と、前記更新命令に応じて、前記記憶部に記憶されている画像データに応じた画像を前記表示手段に表示させるための信号を出力する出力手段とを有し、前記予測手段は、前記3以上の時刻において検出された座標のうち最新の時刻において検出された座標の次の座標を予測してもよい。
この情報処理装置によれば、表示遅延を抑制しつつ、ユーザーに与える違和感を低減することができる。
The display device includes storage means, generation means for generating line segment image data based on coordinates detected at three or more different times by the detection means, and image data generated by the generation means. When the coordinates are detected at three or more different times by the detection means since the display on the display means was updated last time, an update command for updating the display on the display means is output. Output means, and output means for outputting a signal for causing the display means to display an image corresponding to the image data stored in the storage unit in response to the update command, and the prediction means, Of the coordinates detected at the three or more times, a coordinate next to the coordinates detected at the latest time may be predicted.
According to this information processing apparatus, it is possible to reduce discomfort given to the user while suppressing display delay.

さらに、本発明は、周期的に検出される指示体の座標を取得するステップと、前記取得された座標のうち異なる3以上の時刻において検出された座標に基づいて、前記指示体の速度ベクトルおよび加速度ベクトルを算出するステップと、前記算出された速度ベクトルvおよび加速度ベクトルaを用いて、時刻nにおいて検出された座標p(n)に対して、時刻(n+1)における座標p(n+1)を次式(1)により予測するステップと、
p(n+1)=p(n)+αv+βa …(1)
(ただし、αおよびβは係数)
前記予測された座標p(n+1)に対応する点を含む画像を生成するステップとを有する表示制御方法を提供する。
この表示制御方法によれば、ユーザーに与える違和感を低減することができる。
Furthermore, the present invention provides a step of obtaining the coordinates of the indicator detected periodically, and the velocity vector of the indicator based on the coordinates detected at three or more different times among the obtained coordinates. The step of calculating the acceleration vector, and using the calculated velocity vector v and acceleration vector a, the coordinate p (n + 1) at time (n + 1) is next to the coordinate p (n) detected at time n. Predicting by equation (1);
p (n + 1) = p (n) + αv + βa (1)
(Where α and β are coefficients)
And a step of generating an image including a point corresponding to the predicted coordinate p (n + 1).
According to this display control method, the uncomfortable feeling given to the user can be reduced.

さらに、本発明は、コンピューターに、周期的に検出される指示体の座標を取得するステップと、前記取得された座標のうち異なる3以上の時刻において検出された座標に基づいて、前記指示体の速度ベクトルおよび加速度ベクトルを算出するステップと、前記算出された速度ベクトルvおよび加速度ベクトルaを用いて、時刻nにおいて検出された座標p(n)に対して、時刻(n+1)における座標p(n+1)を次式(1)により予測するステップと、
p(n+1)=p(n)+αv+βa …(1)
(ただし、αおよびβは係数)
前記予測された座標p(n+1)に対応する点を含む画像を生成するステップを実行させるためのプログラムを提供する。
このプログラムによれば、ユーザーに与える違和感を低減することができる。
Furthermore, the present invention provides the computer with the step of acquiring the coordinates of the indicator detected periodically, and the coordinates of the indicator based on the coordinates detected at three or more different times among the acquired coordinates. A step of calculating a velocity vector and an acceleration vector, and a coordinate p (n + 1) at time (n + 1) with respect to a coordinate p (n) detected at time n using the calculated velocity vector v and acceleration vector a. ) By the following equation (1):
p (n + 1) = p (n) + αv + βa (1)
(Where α and β are coefficients)
A program for executing a step of generating an image including a point corresponding to the predicted coordinate p (n + 1) is provided.
According to this program, the uncomfortable feeling given to the user can be reduced.

一実施形態に係る情報処理装置1の機能構成を示す図。The figure which shows the function structure of the information processing apparatus 1 which concerns on one Embodiment. 情報処理装置1のハードウェア構成を示す図。2 is a diagram illustrating a hardware configuration of the information processing apparatus 1. FIG. 情報処理装置1のソフトウェア構成を示す図。2 is a diagram showing a software configuration of the information processing apparatus 1. FIG. 手書き線の描画処理を示すフローチャート。The flowchart which shows the drawing process of a handwritten line. 座標の予測処理の詳細を示すフローチャート。The flowchart which shows the detail of the prediction process of a coordinate. 予測された座標を例示する図。The figure which illustrates the predicted coordinates. 情報処理装置1により表示される画像の遷移を例示する図。4 is a diagram illustrating transition of an image displayed by the information processing apparatus 1. FIG. 情報処理装置1により表示される画像の遷移を例示する図。4 is a diagram illustrating transition of an image displayed by the information processing apparatus 1. FIG.

1.構成
図1は、一実施形態に係る情報処理装置1の機能構成を示す図である。情報処理装置1は、指示体により指示された位置の軌跡を示す線の画像を表示する表示部を有する表示装置であり、いわゆるタブレット端末である。指示体の位置は周期的に(定期的に)検出され、検出された位置の情報を用いて線が描画される。検出した位置の情報を用いて線を描画するため、指示体の現実の位置と描画される線にはタイムラグが生じてしまう。このタイムラグを補償するため、情報処理装置1は、指示体の位置を予測する。なお、指示体としては、例えばスタイラス(ペン)または表示装置の使用者の指が用いられる。
1. Configuration FIG. 1 is a diagram illustrating a functional configuration of an information processing apparatus 1 according to an embodiment. The information processing device 1 is a display device having a display unit that displays an image of a line indicating a locus of a position designated by an indicator, and is a so-called tablet terminal. The position of the indicator is periodically (periodically) detected, and a line is drawn using information on the detected position. Since the line is drawn using the detected position information, a time lag occurs between the actual position of the indicator and the drawn line. In order to compensate for this time lag, the information processing apparatus 1 predicts the position of the indicator. As the indicator, for example, a stylus (pen) or a finger of the user of the display device is used.

情報処理装置1は、表示手段10と、検出手段11と、算出手段12と、予測手段13と、描画制御手段14と、記憶手段15と、生成手段16と、記憶制御手段17と、出力手段18と、出力手段19と、取得手段20とを有する。表示手段10は、画像を表示する。検出手段11は、表示手段10の表面において指示体により指示された座標を検出する。取得手段20は、検出手段11により検出された座標を取得する。算出手段12は、指示体の移動の速度ベクトルvおよび加速度ベクトルaを算出する。少なくとも加速度ベクトルaは、検出手段11により検出された座標のうち異なる3以上の時刻において検出された座標に基づいて算出される。予測手段13は、時刻nにおいて検出された座標p(n)に対して、算出手段12により算出された速度ベクトルvおよび加速度ベクトルaを用いて、時刻(n+1)における座標p(n+1)を次式(1)により予測する。
p(n+1)=p(n)+αv+βa …(1)
なお、αおよびβは、それぞれ速度および加速度の重みを示す係数である。描画制御手段14は、予測手段13により予測された座標p(n+1)に対応する点を含む画像を、表示手段10に表示させる。
The information processing apparatus 1 includes a display unit 10, a detection unit 11, a calculation unit 12, a prediction unit 13, a drawing control unit 14, a storage unit 15, a generation unit 16, a storage control unit 17, and an output unit. 18, an output unit 19, and an acquisition unit 20. The display means 10 displays an image. The detection means 11 detects the coordinates indicated by the indicator on the surface of the display means 10. The acquisition unit 20 acquires the coordinates detected by the detection unit 11. The calculation means 12 calculates the velocity vector v and acceleration vector a of the pointer movement. At least the acceleration vector a is calculated based on coordinates detected at three or more different times among the coordinates detected by the detection means 11. The prediction means 13 uses the velocity vector v and the acceleration vector a calculated by the calculation means 12 with respect to the coordinate p (n) detected at the time n, and then calculates the coordinate p (n + 1) at the time (n + 1). Prediction is based on equation (1)
p (n + 1) = p (n) + αv + βa (1)
Note that α and β are coefficients indicating weights of velocity and acceleration, respectively. The drawing control unit 14 causes the display unit 10 to display an image including a point corresponding to the coordinate p (n + 1) predicted by the prediction unit 13.

記憶手段15は、描画される画像のデータを記憶する。生成手段16は、検出手段11によって異なる3以上の時刻において検出された座標に基づいて線分の画像データを生成する。記憶制御手段17は、生成手段16より生成された画像データを記憶手段15に記憶させる。出力手段18は、表示手段10の表示が前回更新されてから検出手段11によって異なる3以上の時刻において座標が検出されると、表示手段10の表示を更新する更新命令を出力する。出力手段19は、更新命令に応じて、記憶手段15に記憶されている画像データに応じた画像を表示手段10に表示させるための信号を出力する。また、予測手段13は、3以上の時刻において検出された座標のうち最新の時刻において検出された座標の次の座標を予測する。   The storage unit 15 stores image data to be drawn. The generation unit 16 generates line segment image data based on the coordinates detected by the detection unit 11 at three or more different times. The storage control unit 17 stores the image data generated by the generation unit 16 in the storage unit 15. The output unit 18 outputs an update command for updating the display of the display unit 10 when coordinates are detected at three or more different times by the detection unit 11 since the display of the display unit 10 was updated last time. The output means 19 outputs a signal for causing the display means 10 to display an image corresponding to the image data stored in the storage means 15 in response to the update command. Moreover, the prediction means 13 predicts the coordinate next to the coordinate detected at the latest time among the coordinates detected at three or more times.

図2は、情報処理装置1のハードウェア構成を示す図である。情報処理装置1は、表示部101と、CPU102と、RAM103と、記憶装置104と、フレームバッファー105と、駆動部106と、ディスプレイコントローラー107と、デジタイザー108とを有する。   FIG. 2 is a diagram illustrating a hardware configuration of the information processing apparatus 1. The information processing apparatus 1 includes a display unit 101, a CPU 102, a RAM 103, a storage device 104, a frame buffer 105, a drive unit 106, a display controller 107, and a digitizer 108.

表示部101は、画像を表示するための電気光学パネルを含む。この例で、電気光学パネルはドットマトリクス式のパネルであり、行方向および列方向にマトリクス状に配置された複数の画素を有する。各画素は、電気光学素子を有する。電気光学素子としては、電力を供給しなくても表示を維持できる記憶性表示素子が用いられる。例えば、表示部101はマイクロカプセル方式のEPD(Electrophoretic Display)である。   The display unit 101 includes an electro-optical panel for displaying an image. In this example, the electro-optical panel is a dot matrix type panel, and has a plurality of pixels arranged in a matrix in the row direction and the column direction. Each pixel has an electro-optic element. As the electro-optic element, a memory-type display element that can maintain display without supplying power is used. For example, the display unit 101 is a microcapsule type EPD (Electrophoretic Display).

CPU102は、情報処理装置1の他のハードウェア構成を制御する装置である。RAM103は、CPU102がプログラムを実行する際のワークエリアとして機能する記憶装置である。記憶装置104は、データおよびプログラムを記憶する不揮発性の記憶装置である。フレームバッファー105は、表示部101に表示する画像のデータを記憶する記憶装置である。   The CPU 102 is a device that controls another hardware configuration of the information processing apparatus 1. The RAM 103 is a storage device that functions as a work area when the CPU 102 executes a program. The storage device 104 is a nonvolatile storage device that stores data and programs. The frame buffer 105 is a storage device that stores image data to be displayed on the display unit 101.

駆動部106は、表示部101を駆動する装置であり、走査線駆動回路およびデータ線駆動回路を含む(いずれも図示略)。走査線駆動回路は、複数の画素のうちデータの書き込みを行う画素群を選択する。データ線駆動回路は、選択されている画素群に対し、データを書き込む。ディスプレイコントローラー107は、フレームバッファー105から読み出したデータを画素に書き込むように、駆動部106を制御する。   The driving unit 106 is a device that drives the display unit 101, and includes a scanning line driving circuit and a data line driving circuit (both not shown). The scan line driver circuit selects a pixel group to which data is written from the plurality of pixels. The data line driving circuit writes data to the selected pixel group. The display controller 107 controls the drive unit 106 so as to write the data read from the frame buffer 105 to the pixels.

デジタイザー108は、指示体により指示された位置を検出する。この例で、情報処理装置1はいわゆるタッチスクリーンを有する装置であり、デジタイザー108は、表示部101の表面に設けられた面状のセンサーを有する。このセンサーとしては、例えば電磁誘導方式のもの、または静電容量方式のものが用いられる。   The digitizer 108 detects the position indicated by the indicator. In this example, the information processing apparatus 1 is an apparatus having a so-called touch screen, and the digitizer 108 has a planar sensor provided on the surface of the display unit 101. As this sensor, for example, an electromagnetic induction type or a capacitance type is used.

情報処理装置1は、この外、センサー(傾きセンサー、加速度センサー、温度センサー、明度センサー等)、入力装置(例えばボタン、キーパッド等)、および通信装置(例えば無線通信装置)を有する(いずれも図示略)。   The information processing apparatus 1 includes a sensor (an inclination sensor, an acceleration sensor, a temperature sensor, a brightness sensor, etc.), an input device (eg, a button, a keypad, etc.), and a communication device (eg, a wireless communication device) (all of them). (Not shown).

図3は、情報処理装置1のソフトウェア構成を示す図である。図3においては、関連するハードウェア構成も併せて図示している。情報処理装置1は、OS(Operating System)200と、グラフィックシステム210と、アプリケーション220とを有する。   FIG. 3 is a diagram illustrating a software configuration of the information processing apparatus 1. In FIG. 3, related hardware configurations are also shown. The information processing apparatus 1 includes an OS (Operating System) 200, a graphic system 210, and an application 220.

OS200は、ファイルの処理やハードウェアの制御など基本的な処理を行うためのプログラムである。OS200は、デジタイザードライバー201およびディスプレイドライバー202を有する。デジタイザードライバー201はデジタイザー108を駆動するためのプログラムである。ディスプレイドライバー202は、フレームバッファー105へのデータの読み書きを制御するためのプログラムである。グラフィックシステム210は、画像の描画を制御するためのプログラムである。アプリケーション220は、ユーザーが指示体を用いて表示部101の表面をなぞった軌跡に相当する画像を描画する処理を実行させるためのプログラムである。   The OS 200 is a program for performing basic processing such as file processing and hardware control. The OS 200 includes a digitizer driver 201 and a display driver 202. The digitizer driver 201 is a program for driving the digitizer 108. The display driver 202 is a program for controlling reading / writing of data to / from the frame buffer 105. The graphic system 210 is a program for controlling image drawing. The application 220 is a program for causing a user to execute a process of drawing an image corresponding to a locus traced on the surface of the display unit 101 using an indicator.

表示部101および駆動部106は、表示手段10の一例である。デジタイザー108は、検出手段11の一例である。アプリケーション220を実行しているCPU102は、算出手段12、予測手段13、生成手段16、記憶制御手段17、および出力手段18の一例である。ディスプレイコントローラー107は、描画制御手段14および出力手段19の一例である。フレームバッファー105は、記憶手段15の一例である。   The display unit 101 and the drive unit 106 are an example of the display unit 10. The digitizer 108 is an example of the detection unit 11. The CPU 102 executing the application 220 is an example of the calculation unit 12, the prediction unit 13, the generation unit 16, the storage control unit 17, and the output unit 18. The display controller 107 is an example of the drawing control unit 14 and the output unit 19. The frame buffer 105 is an example of the storage unit 15.

2.動作
2−1.表示部101の表示の更新
まず、表示部101における表示の更新について説明する。なお以下においては、デジタイザードライバー201等のプログラムを処理の主体として記載する場合があるが、これは、そのプログラムを実行しているCPU102が他のハードウェアと協働して処理を行っていることを意味する。
2. Operation 2-1. Update of Display on Display Unit 101 First, update of display on the display unit 101 will be described. In the following, a program such as the digitizer driver 201 may be described as the subject of processing, but this is because the CPU 102 executing the program performs processing in cooperation with other hardware. Means.

アプリケーション220またはディスプレイドライバー202により、フレームバッファー105には、表示部101に次に表示させる画像(以下「次画像」という)のデータが書き込まれる。また、フレームバッファー105には、表示部101に現在、表示されている画像(以下「現画像」という)のデータも記憶されている。この例で、ディスプレイコントローラー107および駆動部106それ自体は、必ずしも周期的または定常的に表示部101の表示を更新しているわけではなく、アプリケーション220等から更新命令を受けたときに、表示部101の表示を更新する処理を行う。   Data of an image to be displayed next on the display unit 101 (hereinafter referred to as “next image”) is written into the frame buffer 105 by the application 220 or the display driver 202. The frame buffer 105 also stores data of an image currently displayed on the display unit 101 (hereinafter referred to as “current image”). In this example, the display controller 107 and the drive unit 106 themselves do not necessarily update the display of the display unit 101 periodically or regularly. When receiving an update command from the application 220 or the like, the display unit 107 Processing to update the display of 101 is performed.

この例で、アプリケーション220は手書き線を描画するアプリケーションであるので、更新命令を周期的にディスプレイコントローラー107に出力する。以下、アプリケーション220が更新命令を出力する周期を「命令周期」といい、命令周期の逆数を「命令周波数」という。   In this example, since the application 220 is an application for drawing a handwritten line, an update command is periodically output to the display controller 107. Hereinafter, the cycle in which the application 220 outputs the update command is referred to as “command cycle”, and the reciprocal of the command cycle is referred to as “command frequency”.

更新命令を受けると、ディスプレイコントローラー107は、フレームバッファー105から現画像および次画像のデータを読み出し、これらのデータに応じた電圧を印加するように、駆動部106を制御する。表示部101の画像の更新をするための電圧の印加は、所定の時間(例えば60Hzに相当する16.7msec)を単位として行われる。以下この単位期間を「フレーム」といい、フレームの逆数を表示部101の「更新周波数」という。更新周波数は、EPDの特性、並びに駆動部106およびディスプレイコントローラー107の設計によって決まっている。EPDの特性により、現画像から次画像への更新には複数フレームを要する。   When receiving the update command, the display controller 107 reads the data of the current image and the next image from the frame buffer 105 and controls the drive unit 106 so as to apply a voltage corresponding to these data. Application of a voltage for updating the image of the display unit 101 is performed in units of a predetermined time (for example, 16.7 msec corresponding to 60 Hz). Hereinafter, this unit period is referred to as “frame”, and the reciprocal of the frame is referred to as “update frequency” of the display unit 101. The update frequency is determined by the characteristics of the EPD and the design of the drive unit 106 and the display controller 107. Due to the characteristics of EPD, updating from the current image to the next image requires a plurality of frames.

2−2.座標データの受け渡し
次に、デジタイザー108から他のソフトウェア構成への座標データの受け渡しについて説明する。デジタイザー108は、座標データを出力する。座標データは、指示体の接触の有無を示すデータ(以下「第1データ」という)および検出した位置の座標を示すデータ(以下「第2データ」という)を含む。この例では、デジタイザー108は、表示部101において指示体が接触している位置を周期的に検出する。デジタイザー108が指示体の位置を検出する周期をサンプリング周期といい、サンプリング周期の逆数をサンプリング周波数という。サンプリング周期は、例えば、100Hzに相当する10msecである。すなわち、デジタイザー108は、10msec毎に位置を検出し、座標データを出力する。なお、表示部101に指示体が接触していない場合、第2データの値はヌル値を示す。
2-2. Transfer of Coordinate Data Next, transfer of coordinate data from the digitizer 108 to another software configuration will be described. The digitizer 108 outputs coordinate data. The coordinate data includes data indicating the presence or absence of contact of the indicator (hereinafter referred to as “first data”) and data indicating the coordinates of the detected position (hereinafter referred to as “second data”). In this example, the digitizer 108 periodically detects the position where the indicator is in contact with the display unit 101. The cycle in which the digitizer 108 detects the position of the indicator is called a sampling cycle, and the reciprocal of the sampling cycle is called a sampling frequency. The sampling period is, for example, 10 msec corresponding to 100 Hz. That is, the digitizer 108 detects a position every 10 msec and outputs coordinate data. When the indicator is not in contact with the display unit 101, the value of the second data indicates a null value.

以下の説明において、時刻nにおいて検出された座標を座標p(n)と表し、座標p(n)を含む座標データを、座標データD(n)と表す。既に説明したとおり座標の検出は周期的に行われているので、時刻nは離散的な値をとる。そこで、座標p(n)の一つ前に検出された座標を座標p(n−1)、一つ後に検出された座標を座標p(n+1)と表す。   In the following description, coordinates detected at time n are represented as coordinates p (n), and coordinate data including the coordinates p (n) are represented as coordinate data D (n). As described above, since the coordinate detection is performed periodically, the time n takes a discrete value. Therefore, a coordinate detected immediately before the coordinate p (n) is expressed as a coordinate p (n−1), and a coordinate detected immediately after the coordinate p (n−1) is expressed as a coordinate p (n + 1).

デジタイザードライバー201は、デジタイザー108から座標データD(n)を取得する。デジタイザードライバー201は、取得した座標データD(n)を、グラフィックシステム210に出力する。   The digitizer driver 201 acquires coordinate data D (n) from the digitizer 108. The digitizer driver 201 outputs the acquired coordinate data D (n) to the graphic system 210.

デジタイザードライバー201から座標データD(n)を取得すると、グラフィックシステム210は、座標データに応じてペンイベントを生成する。より詳細には、グラフィックシステム210は、座標データD(n)に含まれる第1データと座標データD(n−1)に含まれる第1データを確認し、これら2つの第1データの少なくとも一方が接触有りを示している場合、ペンイベントを生成する。これら2つの第1データがいずれも接触無しを示している場合、グラフィックシステム210は、ペンイベントを生成しない。   When the coordinate data D (n) is acquired from the digitizer driver 201, the graphic system 210 generates a pen event according to the coordinate data. More specifically, the graphic system 210 confirms the first data included in the coordinate data D (n) and the first data included in the coordinate data D (n−1), and at least one of these two first data. If indicates that there is a touch, a pen event is generated. If both of these two first data indicate no contact, the graphics system 210 does not generate a pen event.

生成されるペンイベントには、ペンタッチイベント、ペンリリースイベント、およびペン移動イベントがある。ペンタッチイベントは、指示体が新たに表示部101に接触したことを示すデータである。ペンリリースイベントは、それまで接触していたペンが表示部101から離されたことを示すデータである。ペン移動イベントは、接触しているペンの位置が移動したことを示すデータである。   The generated pen events include a pen touch event, a pen release event, and a pen movement event. The pen touch event is data indicating that the indicator has newly touched the display unit 101. The pen release event is data indicating that the pen that has been in contact so far has been released from the display unit 101. The pen movement event is data indicating that the position of the pen in contact has moved.

これら3つのペンイベントのうちどのペンイベントを生成するかは、以下のとおり判断される。座標データD(n−1)に含まれる第1データが接触無し、およびD(n)に含まれる第1データが接触有りを示している場合、グラフィックシステム210は、ペンタッチイベントを生成する。座標データD(n−1)およびD(n)に含まれる第1データがいずれも接触有りを示している場合、グラフィックシステム210は、ペン移動イベントを生成する。座標データD(n−1)に含まれる第1データがそれぞれ接触有りおよびD(n)に含まれる第1データが接触無しを示している場合、グラフィックシステム210は、ペンリリースイベントを生成する。   Which of the three pen events is to be generated is determined as follows. If the first data included in the coordinate data D (n−1) indicates no contact, and the first data included in D (n) indicates that there is contact, the graphic system 210 generates a pen touch event. When both of the first data included in the coordinate data D (n−1) and D (n) indicate that there is a touch, the graphic system 210 generates a pen movement event. If the first data included in the coordinate data D (n−1) indicates that there is contact and the first data included in D (n) indicates that there is no contact, the graphic system 210 generates a pen release event.

生成されるペンイベントは、そのペンイベントがペンタッチイベント、ペンリリースイベント、およびペン移動イベントのうちどのイベントであるかを示す識別子と、そのペンイベントに対応する座標pを含む。座標データD(n−1)およびD(n)からペンタッチイベントおよびペン移動イベントが生成される場合、イベントには座標p(n)が含まれ、ペンリリースイベントが生成される場合、イベントには座標p(n−1)が含まれる。なお以下において、座標データD(n−1)およびD(n)から生成されたペンイベントを、ペンイベントE(n)と表す。   The generated pen event includes an identifier indicating which of the pen event, the pen release event, and the pen movement event, and the coordinate p corresponding to the pen event. When the pen touch event and the pen movement event are generated from the coordinate data D (n−1) and D (n), the event includes the coordinate p (n), and when the pen release event is generated, the event includes Coordinate p (n-1) is included. In the following, a pen event generated from the coordinate data D (n−1) and D (n) is represented as a pen event E (n).

グラフィックシステム210は、生成したペンイベントE(n)をアプリケーション220に出力する。アプリケーション220は、取得したペンイベントを用いて手書き線の描画処理を行う。   The graphic system 210 outputs the generated pen event E (n) to the application 220. The application 220 performs handwritten line drawing processing using the acquired pen event.

2−3.手書き線の描画
図4は、手書き線の描画処理を示すフローチャートである。図4のフローは、例えば、アプリケーション220が起動されたことを契機として開始される。
2-3. Drawing of Handwritten Line FIG. 4 is a flowchart showing a drawing process of a handwritten line. The flow in FIG. 4 is started when the application 220 is started, for example.

ステップS100において、アプリケーション220は、カウンターtを初期化する。ここでは、t=0に初期化する。カウンターtは、ペンイベントを取得した回数を示す。   In step S100, the application 220 initializes a counter t. Here, t = 0 is initialized. The counter t indicates the number of times a pen event has been acquired.

ステップS101において、アプリケーション220は、新たなペンイベントを取得したか判断する。新たなペンイベントを取得したと判断された場合(S101:YES)、アプリケーション220は、処理をステップS102に移行する。なお以下では、ペンイベントE(n)が最新のペンイベントである。新たなペンイベントを取得していないと判断された場合(S101:NO)、アプリケーション220は、新たなペンイベントを取得するまで待機する。   In step S101, the application 220 determines whether a new pen event has been acquired. If it is determined that a new pen event has been acquired (S101: YES), the application 220 proceeds to step S102. In the following, the pen event E (n) is the latest pen event. When it is determined that a new pen event has not been acquired (S101: NO), the application 220 waits until a new pen event is acquired.

ステップS102において、アプリケーション220は、ペンイベントE(n)が、ペンタッチイベント、ペンリリースイベント、およびペン移動イベントのうちどのイベントであるか判断する。ペンイベントE(n)がペンタッチイベントである場合(S102:T)、アプリケーション220は、処理をステップS103に移行する。ペンイベントE(n)がペン移動イベントである場合(S102:M)、アプリケーション220は、処理をステップS104に移行する。ペンイベントE(n)がペンリリースイベントである場合(S102:R)、アプリケーション220は、処理をステップS109に移行する。   In step S102, the application 220 determines which of the pen touch event, the pen release event, and the pen movement event the pen event E (n) is. When the pen event E (n) is a pen touch event (S102: T), the application 220 proceeds to step S103. If the pen event E (n) is a pen movement event (S102: M), the application 220 proceeds to step S104. If the pen event E (n) is a pen release event (S102: R), the application 220 proceeds to step S109.

ステップS103において、アプリケーション220は、座標p(n)に点を描画する。具体的には、アプリケーション220は、座標p(n)に点を描画するためのデータをフレームバッファー105に書き込む。このとき、アプリケーション220は、グラフィックシステム210を介さず、直接、フレームバッファー105にデータを書き込む。なお、以下の処理においてフレームバッファー105にデータを書き込む際、アプリケーション220は、グラフィックシステム210を介さず、直接、フレームバッファー105にデータを書き込む。データを書き込むと、アプリケーション220は、処理をステップS105に移行する。   In step S103, the application 220 draws a point at the coordinate p (n). Specifically, the application 220 writes data for drawing a point at the coordinate p (n) in the frame buffer 105. At this time, the application 220 writes data directly to the frame buffer 105 without going through the graphic system 210. Note that when data is written to the frame buffer 105 in the following processing, the application 220 writes data directly to the frame buffer 105 without using the graphic system 210. When the data is written, the application 220 proceeds to step S105.

ステップS104において、アプリケーション220は、座標p(n)と座標p(n−1)とを結ぶ線分を描画する。具体的には、アプリケーション220は、この線分を描画するためのデータをフレームバッファー105に書き込む。データを書き込むと、アプリケーション220は、処理をステップS105に移行する。   In step S104, the application 220 draws a line segment connecting the coordinates p (n) and the coordinates p (n-1). Specifically, the application 220 writes data for drawing the line segment in the frame buffer 105. When the data is written, the application 220 proceeds to step S105.

なおステップS104において、カウンターtがt=1である場合、すなわち、カウンターtが初期化されてから最初の点の座標の検出であった場合、アプリケーション220は、まず、フレームバッファー105に記憶されている、座標p(n)と座標p(n−1)とを結ぶ線分のデータを消去する。ステップS104においてt=1である場合とは、前回、表示部101における表示の更新をしてから引き続きペン移動イベントが検出されている場合であり、この時点でフレームバッファー105に記憶されている、座標p(n)と座標p(n−1)とを結ぶ線分は、予測された座標p(n)を用いて描画された線分である。いま座標p(n)は実測されたので、予測に基づく線分は消去される。予測に基づく線分のデータを消去した後で、アプリケーション220は、実測された座標p(n)と座標p(n−1)とを結ぶ線分のデータを、フレームバッファー105に書き込む。   In step S104, when the counter t is t = 1, that is, when the coordinate of the first point is detected after the counter t is initialized, the application 220 is first stored in the frame buffer 105. The data of the line connecting the coordinates p (n) and the coordinates p (n-1) is deleted. The case where t = 1 in step S104 is a case where a pen movement event has been continuously detected since the last display update on the display unit 101, and is stored in the frame buffer 105 at this time. A line segment connecting the coordinate p (n) and the coordinate p (n−1) is a line segment drawn using the predicted coordinate p (n). Since the coordinate p (n) is actually measured, the line segment based on the prediction is deleted. After deleting the line segment data based on the prediction, the application 220 writes the line segment data connecting the actually measured coordinates p (n) and the coordinates p (n−1) to the frame buffer 105.

ステップS105において、アプリケーション220は、カウンターtをインクリメントする。   In step S105, the application 220 increments the counter t.

ステップS106において、アプリケーション220は、カウンターtの値が、しきい値thに達したか判断する。しきい値thは、例えば、表示部101の更新周波数およびアプリケーション220の命令周波数に応じて決められる。より詳細には、しきい値thは、更新周波数と命令周波数との差が最少になるように決められる。この例では、更新周波数はハードウェア構成によって決まる固定値である。一方で命令周波数は、アプリケーション220によって決められる値である。より詳細には、命令周波数ωcは、しきい値thとデジタイザー108のサンプリング周期Tsとによって決まっており、
ωc=1/(Ts・th) …(2)
である。例えば、デジタイザー108のサンプリング周波数ωsが133Hzである場合、すなわちTs=7.5msecである場合、命令周波数は以下のとおりである。
ωc=133Hz (th=1の場合)
ωc=66.5Hz (th=2の場合)
ωc=44.3Hz (th=3の場合)
ωc=33.3Hz (th=4の場合)
したがって、更新周波数と命令周波数との差を最少にするには、表示部101の更新周波数が60Hzの場合はth=2とし、の更新周波数が50Hzの場合はth=3とする。
In step S106, the application 220 determines whether the value of the counter t has reached the threshold value th. The threshold th is determined according to the update frequency of the display unit 101 and the command frequency of the application 220, for example. More specifically, the threshold value th is determined so that the difference between the update frequency and the instruction frequency is minimized. In this example, the update frequency is a fixed value determined by the hardware configuration. On the other hand, the command frequency is a value determined by the application 220. More specifically, the command frequency ωc is determined by the threshold th and the sampling period Ts of the digitizer 108,
ωc = 1 / (Ts · th) (2)
It is. For example, when the sampling frequency ωs of the digitizer 108 is 133 Hz, that is, when Ts = 7.5 msec, the command frequency is as follows.
ωc = 133 Hz (when th = 1)
ωc = 66.5 Hz (when th = 2)
ωc = 44.3Hz (when th = 3)
ωc = 33.3 Hz (when th = 4)
Therefore, in order to minimize the difference between the update frequency and the command frequency, th = 2 when the update frequency of the display unit 101 is 60 Hz, and th = 3 when the update frequency is 50 Hz.

このように、更新周波数と命令周波数との差が最少になるようにしきい値thを決めることにより、指示体による位置の指示が行われてから、表示部101に実際に線が表示されるまでの遅延を低減することができる。その理由は以下のとおりである。指示体の動作に係るイベントが発生する毎に更新命令を発行すると、先に発行された更新命令によって駆動部106が表示部101の制御を行っているときに、新たな更新命令が発行されてしまう。ディスプレイコントローラー107は、表示部101の制御を行っている駆動部106が新たな更新命令を受け取れない場合、更新命令の転送を待つ。指示体の座標の検出の周期が短いと、更新命令の発行が頻繁となり、更新命令の転送待ちが多くなるため、手書きの線の描画が遅くなる。これに対し、本実施形態では、更新周波数と命令周波数との差が最小になるように制御される。このため、ディスプレイコントローラー107が更新命令の転送を待つことが少なくなり、指示体の動作に係るイベントが発生する毎に更新命令を発行する場合と比較すると、手書きの線の描画が速くなる。   Thus, by determining the threshold value th so that the difference between the update frequency and the command frequency is minimized, the position is indicated by the indicator until the line is actually displayed on the display unit 101. Can be reduced. The reason is as follows. When an update command is issued each time an event related to the operation of the indicator occurs, a new update command is issued when the drive unit 106 controls the display unit 101 by the previously issued update command. End up. If the drive unit 106 that controls the display unit 101 cannot receive a new update command, the display controller 107 waits for the transfer of the update command. If the cycle of detecting the coordinates of the indicator is short, update commands are issued frequently and waiting for transfer of update commands increases, so that handwritten line drawing becomes slow. On the other hand, in this embodiment, control is performed so that the difference between the update frequency and the command frequency is minimized. For this reason, it is less likely that the display controller 107 waits for the transfer of the update command, and the handwritten line is drawn faster than when the update command is issued each time an event related to the operation of the indicator occurs.

カウンターtの値がしきい値に達したと判断された場合(S106:YES)、アプリケーション220は、処理をステップS107に移行する。カウンターtの値がしきい値に達していないと判断された場合(S106:NO)、アプリケーション220は、処理をステップS101に移行する。カウンターtの値がしきい値に達したと判断された場合(S106:YES)、アプリケーション220は、処理をステップS107に移行する。   If it is determined that the value of the counter t has reached the threshold value (S106: YES), the application 220 proceeds to step S107. When it is determined that the value of the counter t has not reached the threshold value (S106: NO), the application 220 proceeds to step S101. If it is determined that the value of the counter t has reached the threshold value (S106: YES), the application 220 proceeds to step S107.

ステップS107において、アプリケーション220は、座標p(n+1)を予測する。なおこの時点で最新の座標はp(n)であり、座標p(n+1)はまだ取得されていない。   In step S107, the application 220 predicts the coordinate p (n + 1). At this time, the latest coordinate is p (n), and the coordinate p (n + 1) has not been acquired yet.

図5は、ステップS107における座標の予測処理の詳細を示すフローチャートである。ステップS201において、アプリケーション220は、速度ベクトルv(n)を算出する。速度ベクトルv(n)は、次式(3)により算出される。
v(n)=p(n)−p(n−1) …(3)
なお一般的には、v(n)=dp(n)/dtであるが、ここでは、p(n)を一定の周期でサンプリングしているので「/dt」の項を省略し、便宜的に式(3)で速度ベクトルを計算している。
FIG. 5 is a flowchart showing details of the coordinate prediction process in step S107. In step S201, the application 220 calculates a velocity vector v (n). The velocity vector v (n) is calculated by the following equation (3).
v (n) = p (n) -p (n-1) (3)
In general, v (n) = dp (n) / dt. However, since p (n) is sampled at a constant period, the term “/ dt” is omitted for convenience. The velocity vector is calculated by equation (3).

ステップS202において、アプリケーション220は、加速度ベクトルa(n)を算出する。加速度ベクトルa(n)は、次式(4)により算出される。
a(n)=v(n)−v(n−1) …(4)
なお、
v(n−1)=p(n−1)−p(n−2)
である。
In step S202, the application 220 calculates an acceleration vector a (n). The acceleration vector a (n) is calculated by the following equation (4).
a (n) = v (n) −v (n−1) (4)
In addition,
v (n-1) = p (n-1) -p (n-2)
It is.

ステップS203において、アプリケーション220は、座標p(n+1)を予測する。予測には、既に説明した式(1)が用いられる。
p(n+1)=p(n)+αv(n)+βa(n) …(1)
ここで、αおよびβは、それぞれ速度および加速度の重みを示す係数である。係数αおよびβは、
α<1、β<1 …(5)
であることが好ましく、
α>β …(6)
であることがより好ましい。
In step S203, the application 220 predicts the coordinate p (n + 1). For the prediction, the already described formula (1) is used.
p (n + 1) = p (n) + αv (n) + βa (n) (1)
Here, α and β are coefficients indicating weights of velocity and acceleration, respectively. The coefficients α and β are
α <1, β <1 (5)
It is preferable that
α> β (6)
It is more preferable that

なお、アプリケーション220は、ステップS201〜S203の計算を行うため、最新のものから少なくともth回分の座標pおよび(th−1)回分の速度ベクトルvを記憶している。   The application 220 stores at least th coordinates p and (th−1) speed vectors v from the latest in order to perform the calculations in steps S201 to S203.

図6は、予測された座標を例示する図である。この例では、座標p(n−2)、p(n−1)、およびp(n)が実測された座標であり、座標p(n+1)が予測された座標である。p(n+1)の予測には、v(n)およびa(n)が用いられる。   FIG. 6 is a diagram illustrating predicted coordinates. In this example, coordinates p (n-2), p (n-1), and p (n) are actually measured coordinates, and coordinates p (n + 1) are predicted coordinates. For the prediction of p (n + 1), v (n) and a (n) are used.

再び図4を参照する。ステップS108において、アプリケーション220は、座標p(n+1)と座標p(n)とを結ぶ線分を描画する。具体的には、アプリケーション220は、この線分を描画するためのデータをフレームバッファー105に書き込む。データを書き込むと、アプリケーション220は、処理をステップS109に移行する。   Refer to FIG. 4 again. In step S108, the application 220 draws a line segment connecting the coordinates p (n + 1) and the coordinates p (n). Specifically, the application 220 writes data for drawing the line segment in the frame buffer 105. After writing the data, the application 220 moves the process to step S109.

ステップS109において、アプリケーション220は、表示を更新する領域を特定する。表示を更新する領域は、前回、表示を更新した際に、最後にサンプリングされた位置p(n)を用いて描画された線分を含む領域である。   In step S109, the application 220 specifies an area for updating the display. The area for updating the display is an area including a line segment drawn using the position p (n) sampled last when the display was updated last time.

ステップS101において取得されたペンイベントE(n)がペン移動イベントである場合、ステップS109において表示を更新する領域は、少なくとも座標p(n−th)〜p(n+1)の(th+2)個の座標を含む領域である。例えば、th=3である場合、表示を更新する領域は、座標p(n−3)〜p(n+1)の5個の座標を含む領域である。なお、時刻(n−3)〜(n−1)の間にペンタッチイベントが発生している場合、表示を更新する領域は、ペンタッチイベント以降の座標を含む領域である。   If the pen event E (n) acquired in step S101 is a pen movement event, the area whose display is updated in step S109 is at least (th + 2) coordinates p (n−th) to p (n + 1). It is an area including For example, when th = 3, the region whose display is updated is a region including five coordinates of coordinates p (n−3) to p (n + 1). When a pen touch event has occurred between times (n-3) to (n-1), the area whose display is updated is an area including coordinates after the pen touch event.

ステップS101において取得されたペンイベントE(n)がペンリリースイベントである場合、ステップS109において表示を更新する領域は、座標p(n−t)〜p(n−1)のt個の座標を含む領域である。例えば、t=2の場合、表示を更新する領域は、座標p(n−2)〜p(n−1)の2個の座標を含む領域である。   When the pen event E (n) acquired in step S101 is a pen release event, the area whose display is updated in step S109 includes t coordinates from coordinates p (nt) to p (n-1). It is an area to include. For example, when t = 2, the region whose display is updated is a region including two coordinates of coordinates p (n−2) to p (n−1).

ステップS110において、アプリケーション220は、ディスプレイコントローラー107に更新命令を出力する。更新命令を出力すると、アプリケーション220は処理をステップS100に移行する。   In step S <b> 110, the application 220 outputs an update command to the display controller 107. When the update instruction is output, the application 220 proceeds to step S100.

図7AおよびBは、情報処理装置1により表示される画像の遷移を例示する図である。これらの図中、時刻は、デジタイザー108のサンプリング周期を単位として記載されている。また、各時刻におけるカウンターtの値を併せて記載している。図7AおよびBの画像のうち、左の列の画像はデジタイザー108により検出された位置を、中央の列の画像はフレームバッファー105に記憶されている画像を、右の列の画像は表示部101に表示されている画像を、それぞれ示している。なおこの例では、しきい値th=3である。   7A and 7B are diagrams illustrating transition of images displayed by the information processing apparatus 1. In these drawings, the time is described with the sampling period of the digitizer 108 as a unit. Moreover, the value of the counter t at each time is also described. Of the images in FIGS. 7A and 7B, the left column image indicates the position detected by the digitizer 108, the central column image indicates the image stored in the frame buffer 105, and the right column image indicates the display unit 101. The images displayed in are respectively shown. In this example, the threshold value th = 3.

時刻n=1〜3において、それぞれ検出された位置に応じて、フレームバッファー105に、時系列で連続する2つの座標を結ぶ線分のデータが書き込まれる(図7A)。時刻n=3においては、さらに、座標p’(4)が予測される。ここで、実測された座標と予測された座標を区別するために、予測された座標をp’と表す。なおここでは説明のため、予測された座標を白抜きのドットで示している。フレームバッファー105には、p(1)〜p(3)およびp’(4)の4つの点を結ぶ線分群のデータが書き込まれている。p(1)〜p(3)およびp’(4)の4つの点を含む矩形領域が、表示を更新する領域として特定される(図中破線部分)。そして、表示部101において、この領域の表示が更新される。   At time n = 1 to 3, data of line segments connecting two continuous coordinates in time series are written in the frame buffer 105 according to the detected positions (FIG. 7A). At time n = 3, the coordinate p ′ (4) is further predicted. Here, in order to distinguish the actually measured coordinate from the predicted coordinate, the predicted coordinate is represented as p ′. Here, for the sake of explanation, the predicted coordinates are indicated by white dots. In the frame buffer 105, data of a line segment group connecting four points p (1) to p (3) and p ′ (4) is written. A rectangular area including the four points p (1) to p (3) and p ′ (4) is specified as an area for updating the display (broken line portion in the figure). And the display of this area | region is updated in the display part 101. FIG.

時刻n=4において、p(4)が検出される。まず、フレームバッファー105に記憶されているp’(4)とP(3)を結ぶ線分のデータが消去され、次に、p(4)とP(3)を結ぶ線分のデータがフレームバッファー105に書き込まれる(図7B)。時刻n=5および6において、それぞれ検出された位置に応じて、フレームバッファー105に、時系列で連続する2つの座標を結ぶ線分のデータが書き込まれる。時刻n=6においては、さらに、座標p’(7)が予測される。フレームバッファー105には、p(1)〜p(6)およびp’(7)の7つの点を結ぶ線分群のデータが書き込まれている。p(3)〜p(6)およびp’(7)の5つの点を含む領域が、表示を更新する領域として特定される(図中破線部分)。そして、表示部101において、この領域の表示が更新される。すなわち、前回、予測された位置を用いて描画した線分を削除し、今回、実測された位置および予測された位置を用いて描画された線分を追加するため、これらの線分を含む領域の表示が更新される。   At time n = 4, p (4) is detected. First, the data of the line connecting p ′ (4) and P (3) stored in the frame buffer 105 is erased, and then the data of the line connecting p (4) and P (3) is framed. It is written in the buffer 105 (FIG. 7B). At times n = 5 and 6, data of line segments connecting two coordinates that are continuous in time series are written into the frame buffer 105 according to the detected positions. At time n = 6, the coordinate p ′ (7) is further predicted. In the frame buffer 105, data of a line segment group connecting seven points p (1) to p (6) and p '(7) is written. A region including five points p (3) to p (6) and p '(7) is specified as a region for updating the display (the broken line portion in the figure). And the display of this area | region is updated in the display part 101. FIG. That is, to delete the line segment drawn using the predicted position last time, and to add the line segment drawn using the actually measured position and the predicted position this time, an area including these line segments The display of is updated.

以上で説明したように本実施形態によれば、指示体の位置を予測する場合において、ユーザーに与える違和感を低減することができる。   As described above, according to the present embodiment, it is possible to reduce a sense of discomfort given to the user when predicting the position of the indicator.

3.変形例
本発明は上述の実施形態に限定されるものではなく、種々の変形実施が可能である。以下、変形例をいくつか説明する。以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。
3. Modifications The present invention is not limited to the above-described embodiments, and various modifications can be made. Hereinafter, some modifications will be described. Two or more of the following modifications may be used in combination.

3−1.変形例1
座標の予測は、ペン移動イベント毎に行われてもよい。すなわち、アプリケーション220は、座標p(n)に対し、毎回、座標p(n+1)を予測してもよい。この場合、カウンターtを用いた、命令周波数ωcの最適化は行われなくてもよい。
3-1. Modification 1
The prediction of coordinates may be performed for each pen movement event. That is, the application 220 may predict the coordinate p (n + 1) every time for the coordinate p (n). In this case, the optimization of the instruction frequency ωc using the counter t may not be performed.

3−2.変形例2
速度ベクトルおよび加速度ベクトルを計算する方法は、実施形態で説明した式(3)および(4)を用いるものに限定されない。例えば速度ベクトルvは、3つ以上の座標pを用いて、次式(7)により算出されてもよい。

Figure 2015203915
ここで、ciは重み付け係数である。ciはiによらず等しくてもよいが、より時間的に直近の情報を重視する観点から、ci>ci-1であることが好ましい。加速度ベクトルaについても同様に、3つ以上の速度ベクトルv(すなわち4つ以上の座標p)を用いて算出されてもよい。 3-2. Modification 2
The method of calculating the velocity vector and the acceleration vector is not limited to the method using the equations (3) and (4) described in the embodiment. For example, the velocity vector v may be calculated by the following equation (7) using three or more coordinates p.
Figure 2015203915
Here, c i is a weighting coefficient. Although c i may be equal regardless of i, it is preferable that c i > c i-1 from the viewpoint of emphasizing the latest information in terms of time. Similarly, the acceleration vector a may be calculated using three or more velocity vectors v (that is, four or more coordinates p).

3−3.変形例3
式(1)における係数αおよびβの値の少なくとも一方は、固定値ではなく動的に変化してもよい。例えば、係数αおよびβの値は、描画される線の太さに応じて変化してもよい。より具体的には、より線が太い場合に係数αおよびβをより小さくしてもよい。予測のずれ量が同じであっても、線が太い方が書き換わる領域が広く、書き直しが目立ってしまう場合がある。そのため、線が太いほど係数αおよびβを小さくして予測が外れた場合に書き直される領域が狭くなるようにしている。
3-3. Modification 3
At least one of the values of the coefficients α and β in the equation (1) may be dynamically changed instead of a fixed value. For example, the values of the coefficients α and β may change according to the thickness of the drawn line. More specifically, the coefficients α and β may be made smaller when the line is thicker. Even if the amount of deviation in prediction is the same, the area where the thicker line is rewritten is wider, and rewriting may become conspicuous. For this reason, the thicker the line, the smaller the coefficients α and β are made so that the area to be rewritten becomes smaller when the prediction is lost.

3−4.変形例4
情報処理装置1のハードウェア構成は実施形態で説明したものに限定されない。例えば、情報処理装置1は、表示装置とは別体のスタイラス型装置(ペン型装置)であってもよい。すなわち実施形態では、タブレット端末とスタイラスを有するシステムにおいて、スタイラスが触れた位置をタブレット端末が検出する例を説明した。しかし、このシステムにおいて、スタイラスが、自身が触れた位置を検出する機能を有していてもよい。この場合、スタイラス型の情報処理装置1は、検出手段11として例えば光学センサーを有し、表示部の表面に形成された模様を読み取ることにより、自身の位置を検出する。このような構成において、スタイラス型の情報処理装置1は、次の座標を予測し、予測された座標に対応する点を含む画像を、表示装置に表示させる。
3-4. Modification 4
The hardware configuration of the information processing apparatus 1 is not limited to that described in the embodiment. For example, the information processing apparatus 1 may be a stylus type device (pen type device) separate from the display device. That is, in the embodiment, an example has been described in which a tablet terminal detects a position touched by a stylus in a system having a tablet terminal and a stylus. However, in this system, the stylus may have a function of detecting a position touched by the stylus. In this case, the stylus type information processing apparatus 1 includes, for example, an optical sensor as the detection unit 11 and detects its own position by reading a pattern formed on the surface of the display unit. In such a configuration, the stylus type information processing apparatus 1 predicts the next coordinate and causes the display device to display an image including a point corresponding to the predicted coordinate.

また、情報処理装置1は、上で説明したタブレット端末、スタイラス型装置以外にも、電子ブックリーダー、電子手帳、電卓、POS端末、デジタルスチルカメラ、携帯電話機などであってもよい。   Further, the information processing apparatus 1 may be an electronic book reader, an electronic notebook, a calculator, a POS terminal, a digital still camera, a mobile phone, or the like other than the tablet terminal and the stylus type apparatus described above.

3−5.変形例5
座標p(n)およびp(n−1)に対応する画像は、これら2点を結ぶ線分に限定されない。例えば、これら2点を含む複数の点に対しスプライン補完等を用いて曲線を生成し、この曲線を描画してもよい。
3-5. Modification 5
The image corresponding to the coordinates p (n) and p (n-1) is not limited to the line segment connecting these two points. For example, a curve may be generated using spline interpolation or the like for a plurality of points including these two points, and the curve may be drawn.

3−6.他の変形例
表示装置は、マイクロカプセル方式のEPDに限定されない。隔壁型(マイクロカップ)の電気泳動方式や、電子粉粒体、コレステリック液晶、エレクトロクロミックなど、他の記憶性表示素子が用いられてもよい。あるいは、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイなど、非記憶性表示素子が用いられてもよい。
3-6. Other Modifications The display device is not limited to a microcapsule type EPD. Other memory display elements such as a partition type (microcup) electrophoresis system, an electronic powder, a cholesteric liquid crystal, and an electrochromic may be used. Alternatively, a non-memory display element such as a liquid crystal display or an organic EL (Electro Luminescence) display may be used.

情報処理装置1のソフトウェア構成は図3で説明したものに限定されない。要求される機能を実現できるものであれば、情報処理装置1はどのようなソフトウェア構成を有していてもよい。   The software configuration of the information processing apparatus 1 is not limited to that described with reference to FIG. The information processing apparatus 1 may have any software configuration as long as the required function can be realized.

上述の実施形態においてCPU102等によって実行されるプログラムは、磁気記録媒体(磁気テープ、磁気ディスク(HDD、FD(Flexible Disk))など)、光記録媒体(光ディスク(CD(Compact Disk)、DVD(Digital Versatile Disk))など)、光磁気記録媒体、半導体メモリ(フラッシュROMなど)などのコンピューター読取り可能な記録媒体に記憶した状態で提供されてもよい。また、このプログラムは、インターネットのようなネットワーク経由でダウンロードされてもよい。   In the above-described embodiment, the program executed by the CPU 102 or the like is a magnetic recording medium (magnetic tape, magnetic disk (HDD, FD (Flexible Disk)), etc.), optical recording medium (optical disk (CD (Compact Disk)), DVD (Digital Versatile Disk))), a magneto-optical recording medium, and a computer-readable recording medium such as a semiconductor memory (flash ROM or the like). The program may be downloaded via a network such as the Internet.

1…情報処理装置、10…表示手段、11…検出手段、12…算出手段、13…予測手段、14…描画制御手段、15…記憶手段、16…生成手段、17…記憶制御手段、18…出力手段、19…出力手段、101…表示部、102…CPU、103…RAM、104…記憶装置、105…フレームバッファー、106…駆動部、107…ディスプレイコントローラー、108…デジタイザー、200…OS、201…デジタイザードライバー、202…ディスプレイドライバー、210…グラフィックシステム、220…アプリケーション DESCRIPTION OF SYMBOLS 1 ... Information processing apparatus, 10 ... Display means, 11 ... Detection means, 12 ... Calculation means, 13 ... Prediction means, 14 ... Drawing control means, 15 ... Storage means, 16 ... Generation means, 17 ... Storage control means, 18 ... Output means, 19 ... output means, 101 ... display section, 102 ... CPU, 103 ... RAM, 104 ... storage device, 105 ... frame buffer, 106 ... drive section, 107 ... display controller, 108 ... digitizer, 200 ... OS, 201 ... Digitizer driver, 202 ... Display driver, 210 ... Graphic system, 220 ... Application

Claims (9)

周期的に検出される指示体の座標を取得する取得手段と、
前記取得手段により取得された座標のうち異なる3以上の時刻において検出された座標に基づいて、前記指示体の速度ベクトルおよび加速度ベクトルを算出する算出手段と、
前記算出手段により算出された速度ベクトルvおよび加速度ベクトルaを用いて、時刻nにおいて検出された座標p(n)に対して、時刻(n+1)における座標p(n+1)を次式(1)により予測する予測手段と、
p(n+1)=p(n)+αv+βa …(1)
(ただし、αおよびβは係数)
前記予測手段により予測された座標p(n+1)に対応する点を含む画像を生成する描画制御手段と
を有する情報処理装置。
Acquisition means for acquiring the coordinates of the indicator detected periodically;
Calculation means for calculating a velocity vector and an acceleration vector of the indicator based on coordinates detected at three or more different times among the coordinates acquired by the acquisition means;
Using the velocity vector v and acceleration vector a calculated by the calculation means, the coordinate p (n + 1) at time (n + 1) is expressed by the following equation (1) with respect to the coordinate p (n) detected at time n. Prediction means to predict;
p (n + 1) = p (n) + αv + βa (1)
(Where α and β are coefficients)
An image processing apparatus comprising: a drawing control unit that generates an image including a point corresponding to the coordinate p (n + 1) predicted by the prediction unit.
前記画像は前記指示体の軌跡に応じた線であり、
前記予測手段は前記線の太さに応じて前記係数αおよびβの少なくとも一方の値を変化させる
ことを特徴とする請求項1に記載の情報処理装置。
The image is a line corresponding to the locus of the indicator,
The information processing apparatus according to claim 1, wherein the prediction unit changes at least one of the coefficients α and β according to a thickness of the line.
前記予測手段は、前記線の太さがb1であるときよりも前記線の太さがb2(ただしb2>b1)であるときの方が、前記係数αおよびβの値を小さくする
ことを特徴とする請求項2に記載の情報処理装置。
The predicting means reduces the values of the coefficients α and β when the line thickness is b2 (where b2> b1) than when the line thickness is b1. The information processing apparatus according to claim 2.
前記算出手段は、前記取得手段により取得された座標のうち異なる4以上の時刻において検出された座標に基づいて、当該座標が検出された時刻に応じた重み付け係数を用いた重み付き平均を用いて、前記指示体の速度ベクトルおよび加速度ベクトルを算出する
ことを特徴とする請求項1ないし3のいずれか一項に記載の情報処理装置。
The calculation means uses a weighted average using a weighting coefficient according to the time at which the coordinates are detected based on the coordinates detected at four or more different times among the coordinates acquired by the acquisition means. The information processing apparatus according to claim 1, wherein a velocity vector and an acceleration vector of the indicator are calculated.
前記取得手段により取得された座標のうち時刻n1に検出された座標が最新のものである場合において、時刻n1に対応する重み付け係数は、時刻n2(ただしn1>n2)に対応する重み付け係数よりも大きい
ことを特徴とする請求項4に記載の情報処理装置。
When the coordinates detected at time n1 among the coordinates acquired by the acquisition means are the latest, the weighting coefficient corresponding to time n1 is higher than the weighting coefficient corresponding to time n2 (where n1> n2). The information processing apparatus according to claim 4, wherein the information processing apparatus is large.
画像を表示する表示手段と、
前記表示手段の表面において指示体が指示した座標を検出する検出手段と、
前記検出手段により検出された座標のうち異なる3以上の時刻において検出された座標に基づいて、前記指示体の速度ベクトルおよび加速度ベクトルを算出する算出手段と、
前記算出手段により算出された速度ベクトルvおよび加速度ベクトルaを用いて、時刻nにおいて検出された座標p(n)に対して、時刻(n+1)における座標p(n+1)を次式(1)により予測する予測手段と、
p(n+1)=p(n)+αv+βa …(1)
(ただし、αおよびβは係数)
前記予測手段により予測された座標p(n+1)に対応する点を含む画像を、前記表示手段に表示させる描画制御手段と
を有する表示装置。
Display means for displaying an image;
Detecting means for detecting coordinates indicated by the indicator on the surface of the display means;
Calculation means for calculating a velocity vector and an acceleration vector of the indicator based on coordinates detected at three or more different times among the coordinates detected by the detection means;
Using the velocity vector v and acceleration vector a calculated by the calculation means, the coordinate p (n + 1) at time (n + 1) is expressed by the following equation (1) with respect to the coordinate p (n) detected at time n. Prediction means to predict;
p (n + 1) = p (n) + αv + βa (1)
(Where α and β are coefficients)
A display device comprising: a drawing control unit that causes the display unit to display an image including a point corresponding to the coordinate p (n + 1) predicted by the prediction unit.
記憶手段と、
前記検出手段によって異なる3以上の時刻において検出された座標に基づいて線分の画像データを生成する生成手段と、
前記生成手段により生成された画像データを前記記憶手段に記憶させる記憶制御手段と、
前記表示手段の表示が前回更新されてから前記検出手段によって異なる3以上の時刻において座標が検出されると、前記表示手段の表示を更新する更新命令を出力する出力手段と、
前記更新命令に応じて、前記記憶部に記憶されている画像データに応じた画像を前記表示手段に表示させるための信号を出力する出力手段と
を有し、
前記予測手段は、前記3以上の時刻において検出された座標のうち最新の時刻において検出された座標の次の座標を予測する
ことを特徴とする請求項6に記載の表示装置。
Storage means;
Generating means for generating image data of line segments based on coordinates detected at three or more different times by the detecting means;
Storage control means for storing the image data generated by the generating means in the storage means;
An output means for outputting an update command for updating the display of the display means when coordinates are detected at three or more different times by the detection means since the display of the display means was updated last time;
Output means for outputting a signal for causing the display means to display an image corresponding to the image data stored in the storage unit in response to the update command;
The display device according to claim 6, wherein the prediction unit predicts a coordinate next to a coordinate detected at the latest time among the coordinates detected at the three or more times.
周期的に検出される指示体の座標を取得するステップと、
前記取得された座標のうち異なる3以上の時刻において検出された座標に基づいて、前記指示体の速度ベクトルおよび加速度ベクトルを算出するステップと、
前記算出された速度ベクトルvおよび加速度ベクトルaを用いて、時刻nにおいて検出された座標p(n)に対して、時刻(n+1)における座標p(n+1)を次式(1)により予測するステップと、
p(n+1)=p(n)+αv+βa …(1)
(ただし、αおよびβは係数)
前記予測された座標p(n+1)に対応する点を含む画像を生成するステップと
を有する表示制御方法。
Obtaining the coordinates of the indicator detected periodically;
Calculating a velocity vector and an acceleration vector of the indicator based on coordinates detected at three or more different times among the acquired coordinates;
A step of predicting a coordinate p (n + 1) at time (n + 1) by the following equation (1) with respect to the coordinate p (n) detected at time n using the calculated velocity vector v and acceleration vector a. When,
p (n + 1) = p (n) + αv + βa (1)
(Where α and β are coefficients)
Generating an image including a point corresponding to the predicted coordinate p (n + 1).
コンピューターに、
周期的に検出される指示体の座標を取得するステップと、
前記取得された座標のうち異なる3以上の時刻において検出された座標に基づいて、前記指示体の速度ベクトルおよび加速度ベクトルを算出するステップと、
前記算出された速度ベクトルvおよび加速度ベクトルaを用いて、時刻nにおいて検出された座標p(n)に対して、時刻(n+1)における座標p(n+1)を次式(1)により予測するステップと、
p(n+1)=p(n)+αv+βa …(1)
(ただし、αおよびβは係数)
前記予測された座標p(n+1)に対応する点を含む画像を生成するステップと
を実行させるためのプログラム。
On the computer,
Obtaining the coordinates of the indicator detected periodically;
Calculating a velocity vector and an acceleration vector of the indicator based on coordinates detected at three or more different times among the acquired coordinates;
A step of predicting a coordinate p (n + 1) at time (n + 1) by the following equation (1) with respect to the coordinate p (n) detected at time n using the calculated velocity vector v and acceleration vector a. When,
p (n + 1) = p (n) + αv + βa (1)
(Where α and β are coefficients)
Generating an image including a point corresponding to the predicted coordinate p (n + 1).
JP2014081946A 2014-04-11 2014-04-11 Information processing apparatus, display device, display control method, and program Pending JP2015203915A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014081946A JP2015203915A (en) 2014-04-11 2014-04-11 Information processing apparatus, display device, display control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014081946A JP2015203915A (en) 2014-04-11 2014-04-11 Information processing apparatus, display device, display control method, and program

Publications (1)

Publication Number Publication Date
JP2015203915A true JP2015203915A (en) 2015-11-16

Family

ID=54597362

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014081946A Pending JP2015203915A (en) 2014-04-11 2014-04-11 Information processing apparatus, display device, display control method, and program

Country Status (1)

Country Link
JP (1) JP2015203915A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109891491A (en) * 2016-10-28 2019-06-14 雷马克伯有限公司 Interactive display
JP6998436B1 (en) 2020-10-19 2022-01-18 レノボ・シンガポール・プライベート・リミテッド Information processing equipment, information processing system, and control method
WO2022164043A1 (en) * 2021-01-28 2022-08-04 삼성전자 주식회사 Electronic device for determining whether to apply prediction algorithm, by using acceleration and/or angular acceleration of touch input, and method for controlling same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109891491A (en) * 2016-10-28 2019-06-14 雷马克伯有限公司 Interactive display
JP6998436B1 (en) 2020-10-19 2022-01-18 レノボ・シンガポール・プライベート・リミテッド Information processing equipment, information processing system, and control method
JP2022066874A (en) * 2020-10-19 2022-05-02 レノボ・シンガポール・プライベート・リミテッド Information processing apparatus, information processing system, and control method
US11392240B2 (en) 2020-10-19 2022-07-19 Lenovo (Singapore) Pte. Ltd. Information processing apparatus, information processing system, and control method
WO2022164043A1 (en) * 2021-01-28 2022-08-04 삼성전자 주식회사 Electronic device for determining whether to apply prediction algorithm, by using acceleration and/or angular acceleration of touch input, and method for controlling same

Similar Documents

Publication Publication Date Title
US20130271487A1 (en) Position lag reduction for computer drawing
EP2725474B1 (en) Display device and method for controlling display image
JP5618858B2 (en) Display device, communication device, and program
US9594449B2 (en) Electronic device including touch-sensitive display
US9501215B2 (en) Image display device, image display control method, program and information storage medium
JP5516535B2 (en) Electronic information terminal and area setting control program
US20180089867A1 (en) Calculating device, graph display method of calculating device, and storage medium retaining graph display program
US20100156853A1 (en) Display apparatus and program
JP6242092B2 (en) Display device, display device control method, and program
JP2014006640A (en) Display device, display method, and program
CN104919519B (en) Mobile communication terminal and brightness control method
CN111133766B (en) Image display method
CA2838769C (en) Touch display with variable touch-scan rate
JP2015203915A (en) Information processing apparatus, display device, display control method, and program
JP4310358B2 (en) Character scroll display device, character scroll display method, display control program, and recording medium
TWI485582B (en) Method for correcting touch position
EP2725469B1 (en) Information-processing device, program, information-processing method, and information-processing system
EP2620857A1 (en) Touch-sensitive display and method of controlling a touch-sensitive display
CN104285204A (en) Display device, display control method and non-temporary computer-readable medium
KR101820657B1 (en) System and Method for Auto-Scrolling Webtoon Screen Image
JP5509757B2 (en) Information processing apparatus, display control method, and program
CN108605158B (en) Interface refreshing method and terminal
US20100156784A1 (en) Display apparatus and program
JP4281973B2 (en) Character scroll display device, character scroll display method, display control program, and recording medium
KR102484386B1 (en) Electronic device and operating method for scaling image