[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2014006695A - Drawing processing apparatus - Google Patents

Drawing processing apparatus Download PDF

Info

Publication number
JP2014006695A
JP2014006695A JP2012141802A JP2012141802A JP2014006695A JP 2014006695 A JP2014006695 A JP 2014006695A JP 2012141802 A JP2012141802 A JP 2012141802A JP 2012141802 A JP2012141802 A JP 2012141802A JP 2014006695 A JP2014006695 A JP 2014006695A
Authority
JP
Japan
Prior art keywords
pressure
drawing processing
detection unit
display
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012141802A
Other languages
Japanese (ja)
Inventor
Katsunori Nakamura
克則 中村
Shigeru Kano
茂 加納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Ltd
Original Assignee
Hitachi Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Ltd filed Critical Hitachi Solutions Ltd
Priority to JP2012141802A priority Critical patent/JP2014006695A/en
Publication of JP2014006695A publication Critical patent/JP2014006695A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 特別なスイッチやアイコンの使用を低減しつつ、ジャスチャーの複雑性をもたらすことなく、多くの機能に対応することのできる描画処理装置を提供する。
【解決手段】 表示部12は、表示面14に対して表示を行う。座標検出部16は、操作面22上の対象物(ペンや指など)の座標を検出する。圧力検出部18は、対象物の操作面22に対する圧力を検出する。なお、この実施形態では、表示面14と操作面22は、同一平面としている。描画処理手段20は、座標検出部16によって検出された対象物の座標と、圧力検出部18によって検出された圧力に基づいて、描画のための処理を実行する。描画処理手段20は、この描画のための処理によって表示部12を制御して、表示面14への描画を行う。
【選択図】 図1
PROBLEM TO BE SOLVED: To provide a drawing processing apparatus capable of supporting many functions without reducing the use of a special switch or icon and bringing about the complexity of a gesture.
A display unit 12 displays on a display surface 14. The coordinate detection unit 16 detects the coordinates of an object (such as a pen or a finger) on the operation surface 22. The pressure detector 18 detects the pressure on the operation surface 22 of the object. In this embodiment, the display surface 14 and the operation surface 22 are the same plane. The drawing processing unit 20 executes a drawing process based on the coordinates of the object detected by the coordinate detection unit 16 and the pressure detected by the pressure detection unit 18. The drawing processing unit 20 controls the display unit 12 by the drawing process to perform drawing on the display surface 14.
[Selection] Figure 1

Description

この発明は描画処理を行う描画処理装置に関するものである。   The present invention relates to a drawing processing apparatus that performs drawing processing.

図12に示すような描画処理装置が実用化されている。プロジェクター4は、PC6の制御により、表示面2に画像を表示する。表示面2の上部には、表示面2上のペンや指の位置を検出するためのセンサ8が設けられている。センサ8によってペンや指が検出されると、PC6はこれを受けて、その検出位置に基づいた処理を行い、プロジェクター4を介して描画などの処理を行う。たとえば、ペンや指が移動した軌跡に対応して、線などを描画する。このようにして、描画処理装置が実現されている。   A drawing processing apparatus as shown in FIG. 12 has been put into practical use. The projector 4 displays an image on the display surface 2 under the control of the PC 6. A sensor 8 for detecting the position of a pen or a finger on the display surface 2 is provided at the top of the display surface 2. When a pen or finger is detected by the sensor 8, the PC 6 receives this and performs processing based on the detected position, and performs processing such as drawing through the projector 4. For example, a line or the like is drawn corresponding to the locus of movement of the pen or finger. In this way, a drawing processing apparatus is realized.

このような描画処理装置において、描画のための機能(オブジェクトの削除や移動など)を働かせるために、図12に示すように、機能アイコン10を設けている。機能アイコン10をペンや指で選択し、所望の機能を実行できるようにしている。   In such a drawing processing apparatus, a function icon 10 is provided as shown in FIG. 12 in order to make a drawing function (deletion or movement of an object, etc.) work. The function icon 10 is selected with a pen or a finger so that a desired function can be executed.

また、特許文献1に示されるように、ペンに機能を指示するスイッチを設け、これによって所望の機能を実行できるようにしている。   Further, as disclosed in Patent Document 1, a switch for instructing a function to a pen is provided so that a desired function can be executed.

しかし、ペンに特別なスイッチを設けなければならないという問題があり、また機能アイコン10を設けると、表示面2が小さくなってしまうという問題があった。そこで、ペンや指の軌跡に基づいて、描画のための機能を選択するようにすることが提案されている。たとえば、Xをペンや指で描くと、Xの描かれた矩形領域のオブジェクトを削除することができる。これにより、機能アイコン10を無く(あるいは減ら)すことができる。   However, there is a problem that a special switch must be provided on the pen, and when the function icon 10 is provided, there is a problem that the display surface 2 becomes small. Therefore, it has been proposed to select a drawing function based on the trajectory of a pen or a finger. For example, if X is drawn with a pen or a finger, the object in the rectangular area where X is drawn can be deleted. Thereby, the function icon 10 can be eliminated (or reduced).

特開2007−328506JP2007-328506A

しかしながら、上記のような従来技術においては、次のような問題があった。描画のための機能が増えてくると、ペンや指の動かし方が多種多様になって、混乱を生じるという問題がある。   However, the conventional techniques as described above have the following problems. As the number of functions for drawing increases, there is a problem in that there are various ways of moving the pen and fingers, causing confusion.

たとえば、Xを描くことによりオブジェクトを削除する場合、重なり合ったオブジェクトのうちのいずれかを選択することができなかった。これを実現するため、重なり合ったオブジェクトの何番目のオブジェクトを削除するかを、別途、ペンや指で描くこと(たとえば、3を描けば3番目のオブジェクトを削除する)も考えられる。   For example, when an object is deleted by drawing X, any of the overlapping objects cannot be selected. In order to realize this, it is conceivable to draw with a pen or a finger separately what number of overlapping objects is to be deleted (for example, if 3 is drawn, the third object is deleted).

しかし、このようにすると、描画のための機能に対応するペンや指の動かし方(ジェスチャー)が多種多様になり、ユーザに混乱をもたらすおそれがあった。   However, in this case, there are various ways of moving pens and fingers (gestures) corresponding to the drawing function, which may cause confusion for the user.

この発明は、上記のような問題点を解決して、特別なスイッチやアイコンの使用を低減しつつ、ジャスチャーの複雑性をもたらすことなく、多くの機能に対応することのできる描画処理装置を提供することを目的とする。   The present invention solves the above-described problems, and reduces the use of special switches and icons, while providing a drawing processing apparatus that can handle many functions without causing the complexity of gestures. The purpose is to provide.

(1)(2)(3)(4)この発明に係る描画処理装置は、表示面に表示を行う表示部と、対象物の座標位置を検出する座標検出部と、対象物が操作面に対して与える圧力を検出する圧力検出部と、前記座標検出部によって検出された前記対象物の座標位置および検知した前記圧力に基づいて表示部を制御し、表示面に対する描画処理を行う描画処理手段とを備えている。 (1) (2) (3) (4) A drawing processing apparatus according to the present invention includes a display unit for displaying on a display surface, a coordinate detection unit for detecting the coordinate position of the target, and the target on the operation surface. A pressure detection unit that detects a pressure applied to the display unit, and a drawing processing unit that controls the display unit based on the coordinate position of the object detected by the coordinate detection unit and the detected pressure, and performs a drawing process on the display surface And.

したがって、圧力も考慮した制御を行うことで、ジャスチャーの複雑性をもたらすことなく、多くの機能に対応することができる。   Therefore, by performing control in consideration of the pressure, it is possible to cope with many functions without causing the complexity of the gesture.

(5)この発明に係る描画処理装置は、描画処理手段が、前記ペンの軌跡によって描画機能を決定し、前記圧力によって当該描画機能の実行量、実行範囲または実行速度を決定することを特徴としている。 (5) The drawing processing apparatus according to the present invention is characterized in that the drawing processing means determines a drawing function based on the locus of the pen, and determines an execution amount, an execution range, or an execution speed of the drawing function based on the pressure. Yes.

したがって、圧力に応じた操作量などを実現することができる。   Therefore, an operation amount corresponding to the pressure can be realized.

(6)この発明に係る描画処理装置は、描画処理手段が、圧力によって奥行き方向の実行量を決定することを特徴としている。 (6) The drawing processing apparatus according to the present invention is characterized in that the drawing processing means determines the execution amount in the depth direction by pressure.

したがって、直感的に理解しやすい圧力によって、奥行き方向の実行量を決定することができる。   Therefore, the execution amount in the depth direction can be determined by a pressure that is intuitively easy to understand.

(7)この発明に係る描画処理装置は、描画処理手段が、圧力が第一の所定値以下の場合には、当該圧力の大きさに比例してオブジェクトの奥方向への移動量を決定し、圧力が第一の所定値を超えている場合には、当該圧力の大きさに比例してオブジェクトの奥方向とは逆の方向への移動量を決定することを特徴としている。 (7) In the drawing processing device according to the present invention, when the pressure is equal to or lower than the first predetermined value, the drawing processing means determines the amount of movement of the object in the depth direction in proportion to the magnitude of the pressure. When the pressure exceeds the first predetermined value, the amount of movement of the object in the direction opposite to the depth direction is determined in proportion to the magnitude of the pressure.

したがって、一方向へ圧力を加えるという操作により、両方向へのオブジェクトの移動を決定することができる。   Therefore, the movement of the object in both directions can be determined by the operation of applying pressure in one direction.

(8)この発明に係る描画処理装置は、描画処理手段が、前記対象物の軌跡によって描画機能を決定し、前記圧力によって当該描画機能を実行する対象オブジェクトの奥行を決定することを特徴としている。 (8) The drawing processing apparatus according to the present invention is characterized in that the drawing processing means determines a drawing function based on a trajectory of the object, and determines a depth of a target object that executes the drawing function based on the pressure. .

したがって、重なり合って選択の困難なオブジェクトを容易に選択することができる。   Therefore, it is possible to easily select objects that overlap and are difficult to select.

(9)この発明に係る描画処理装置は、表示面と操作面は同一の面であることを特徴としている。 (9) The drawing processing apparatus according to the present invention is characterized in that the display surface and the operation surface are the same surface.

したがって、直感的に理解しやすい描画処理を実現することができる。   Therefore, it is possible to realize a drawing process that is intuitively easy to understand.

(10)この発明に係る描画方法は、表示を行う表示面と、対象物の座標位置を検出する座標検出部と、対象物が操作面に対して与える圧力を検出する圧力検出部と、コンピュータとを用いた描画方法であって、前記コンピュータが、前記座標検出部によって検出された前記対象物の座標位置および検知した前記圧力に基づいて表示部を制御し、表示面に対する描画処理を行うことを特徴としている。 (10) A drawing method according to the present invention includes a display surface for displaying, a coordinate detection unit for detecting a coordinate position of an object, a pressure detection unit for detecting pressure applied to the operation surface by the object, and a computer And the computer controls the display unit based on the coordinate position of the object detected by the coordinate detection unit and the detected pressure, and performs a drawing process on the display surface. It is characterized by.

したがって、圧力も考慮した制御を行うことで、ジャスチャーの複雑性をもたらすことなく、多くの機能に対応することができる。   Therefore, by performing control in consideration of the pressure, it is possible to cope with many functions without causing the complexity of the gesture.

「表示部」とは、表示を行うためのものをいい、プロジェクター、ディスプレイ、タッチパネルディスプレイなどを含む概念である。実施形態においては、プロジェクター50がこれに対応する。   The “display unit” refers to a unit for performing display, and includes a projector, a display, a touch panel display, and the like. In the embodiment, the projector 50 corresponds to this.

「座標検出部」とは、対象物の位置を検出するものをいい、赤外線、超音波等によって対象物の位置を検出するものだけでなく、圧力センサなどによって対象物によって押圧された位置を検出するものも含む概念である。実施形態においては、位置検出センサ34がこれに対応する。   The “coordinate detection unit” refers to a unit that detects the position of an object, and not only a unit that detects the position of an object by infrared rays, ultrasonic waves, or the like, but also a position that is pressed by the object by a pressure sensor or the like. It is a concept including what to do. In the embodiment, the position detection sensor 34 corresponds to this.

「圧力検出部」とは、対象物によって操作面が押された圧力を検出するものをいい、圧力を検出するセンサが対象物自体に設けられている場合だけでなく、操作面に設けられている場合も含む概念である。実施形態においては、電子ペン40に設けられた圧力センサ41がこれに対応する。   “Pressure detection unit” refers to a unit that detects a pressure at which an operation surface is pushed by an object, and is not only provided when a sensor for detecting pressure is provided on the object itself, but also provided on the operation surface. It is a concept that includes cases where In the embodiment, the pressure sensor 41 provided in the electronic pen 40 corresponds to this.

「描画処理手段」は、実施形態においては、ステップS3、S4がこれに対応する。   In the embodiment, “drawing processing means” corresponds to steps S3 and S4.

「プログラム」とは、CPUにより直接実行可能なプログラムだけでなく、ソース形式のプログラム、圧縮処理がされたプログラム、暗号化されたプログラム等を含む概念である。   The “program” is a concept that includes not only a program that can be directly executed by the CPU, but also a source format program, a compressed program, an encrypted program, and the like.

この発明の一実施形態による描画処理装置の機能ブロック図である。It is a functional block diagram of the drawing processing apparatus by one Embodiment of this invention. 描画処理装置の外観を示す図である。It is a figure which shows the external appearance of a drawing processing apparatus. ハードウエア構成を示す図である。It is a figure which shows a hardware configuration. 描画処理プログラム44のフローチャートである。4 is a flowchart of a drawing processing program 44. ジェスチャーテーブルの例である。It is an example of a gesture table. Xジェスチャーによる処理を示す図である。It is a figure which shows the process by X gesture. Xジェスチャーによる処理を示す図である。It is a figure which shows the process by X gesture. Zオーダー移動による処理を示す図である。It is a figure which shows the process by Z order movement. Zオーダー移動による処理を示す図である。It is a figure which shows the process by Z order movement. Zオーダー移動による処理を示す図である。It is a figure which shows the process by Z order movement. Zオーダー移動による処理を示す図である。It is a figure which shows the process by Z order movement. 従来の描画処理装置を示す図である。It is a figure which shows the conventional drawing processing apparatus.

1.描画処理装置の機能ブロック図
図1に、この発明の一実施形態による描画処理装置の機能ブロック図を示す。表示部12は、表示面14に対して表示を行う。座標検出部16は、操作面22上の対象物(ペンや指など)の座標を検出する。圧力検出部18は、対象物の操作面22に対する圧力を検出する。なお、この実施形態では、表示面14と操作面22は、同一平面としている。描画処理手段20は、座標検出部16によって検出された対象物の座標と、圧力検出部18によって検出された圧力に基づいて、描画のための処理を実行する。描画処理手段20は、この描画のための処理によって表示部12を制御して、表示面14への描画を行う。
1. Functional Block Diagram of Drawing Processing Device FIG. 1 shows a functional block diagram of a drawing processing device according to an embodiment of the present invention. The display unit 12 performs display on the display surface 14. The coordinate detection unit 16 detects the coordinates of an object (such as a pen or a finger) on the operation surface 22. The pressure detector 18 detects the pressure on the operation surface 22 of the object. In this embodiment, the display surface 14 and the operation surface 22 are the same plane. The drawing processing unit 20 executes a drawing process based on the coordinates of the object detected by the coordinate detection unit 16 and the pressure detected by the pressure detection unit 18. The drawing processing unit 20 controls the display unit 12 by the drawing process to perform drawing on the display surface 14.

2.外観および位置検出センサ
図2に、一実施形態による描画処理装置の外観を示す。表示ボード21の前面は、表示面14となっている。プロジェクター50は、PC48の制御により、表示面14に画像を表示する。なお、この実施形態では、表示面14は、操作面22を兼ねている。
2. Appearance and Position Detection Sensor FIG. 2 shows an appearance of a drawing processing apparatus according to an embodiment. The front surface of the display board 21 is a display surface 14. The projector 50 displays an image on the display surface 14 under the control of the PC 48. In this embodiment, the display surface 14 also serves as the operation surface 22.

表示ボード21の上部には、位置検出センサ34が設けられている。位置検出センサ34には、赤外光発光部と赤外光受光部によるセンサが2組設けられている。赤外光発光部は、表示面14の全方向に向けて赤外光を照射する。赤外光受光部は、表示面14の全方向からの赤外反射光を受光する。   A position detection sensor 34 is provided above the display board 21. The position detection sensor 34 is provided with two sets of sensors including an infrared light emitting unit and an infrared light receiving unit. The infrared light emitting unit irradiates infrared light toward all directions of the display surface 14. The infrared light receiving unit receives infrared reflected light from all directions of the display surface 14.

また、表示ボード21の左右端、下端には、再帰性反射部材31が設けられている。再帰性反射部材31は、入射した赤外光を同じ方向に反射するように構成されている。   In addition, retroreflective members 31 are provided at the left and right ends and the lower end of the display board 21. The retroreflective member 31 is configured to reflect incident infrared light in the same direction.

したがって、表示面14に対象物である電子ペン40が存在すると、赤外光発光部からの赤外光が電子ペン40によって遮られ、赤外光受光部において受光されない。一方、電子ペン40の存在しない部分では、赤外光は再帰性反射部材31によって反射され、赤外光受光部において受光される。   Therefore, when the electronic pen 40 as an object is present on the display surface 14, infrared light from the infrared light emitting unit is blocked by the electronic pen 40 and is not received by the infrared light receiving unit. On the other hand, in the part where the electronic pen 40 does not exist, the infrared light is reflected by the retroreflective member 31 and received by the infrared light receiving unit.

なお、位置検出センサ34には、電子ペン40の座標位置検出回路が設けられている。座標位置検出回路は、2組のセンサによる電子ペン40の検出角度に基づいて、電子ペン40の表示面22上における座標位置を算出して出力する。   The position detection sensor 34 is provided with a coordinate position detection circuit for the electronic pen 40. The coordinate position detection circuit calculates and outputs the coordinate position on the display surface 22 of the electronic pen 40 based on the detection angle of the electronic pen 40 by the two sets of sensors.

位置検出センサ34によって電子ペン40の位置が検出されると、PC48はこれを受ける。また、電子ペン40には、圧力を検出する圧力センサ41が設けられている。圧力センサ41の出力は、PC48に与えられる。   When the position of the electronic pen 40 is detected by the position detection sensor 34, the PC 48 receives this. The electronic pen 40 is provided with a pressure sensor 41 that detects pressure. The output of the pressure sensor 41 is given to the PC 48.

PC48は、位置検出センサ34による検出位置と、圧力センサ41による検出圧力に基づいて、プロジェクター50を介して描画処理を行う。たとえば、電子ペン40が移動した軌跡に対応して、線などを描画する。また、検出位置と検出圧力に基づいて、描画のための機能(オブジェクトの削除、移動、ページ送りなど)を実行する。
The PC 48 performs drawing processing via the projector 50 based on the detection position by the position detection sensor 34 and the detection pressure by the pressure sensor 41. For example, a line or the like is drawn corresponding to the locus of movement of the electronic pen 40. Further, based on the detection position and the detection pressure, a function for drawing (deletion, movement, page turning, etc.) is executed.

3.ハードウエア構成
図3に、ハードウエア構成を示す。CPU30には、メモリ32、位置検出センサ34、CD−ROMドライブ36、ハードディスク38、電子ペン40の圧力センサ41、プロジェクター50が接続されている。
3. Hardware Configuration FIG. 3 shows a hardware configuration. A memory 32, a position detection sensor 34, a CD-ROM drive 36, a hard disk 38, a pressure sensor 41 of an electronic pen 40, and a projector 50 are connected to the CPU 30.

ハードディスク38には、オペレーティングシステム(マイクロソフト社のWINDOWS(商標)など)42、描画処理プログラム44が記録されている。描画処理プログラム44は、オペレーティングシステム42と協働してその機能を発揮するものである。オペレーティングシステム42、描画処理プログラム44は、CD−ROM44に記録されていたものを、CD−ROMドライブ36を介して、ハードディスク38にインストールしたものである。また、インターネットなどを介してダウンロードしたものであってもよい。
An operating system (such as WINDOWS (trademark) from Microsoft) 42 and a drawing processing program 44 are recorded on the hard disk 38. The drawing processing program 44 performs its function in cooperation with the operating system 42. The operating system 42 and the drawing processing program 44 are those recorded on the CD-ROM 44 and installed on the hard disk 38 via the CD-ROM drive 36. Moreover, what was downloaded via the internet etc. may be used.

4.描画処理プログラム44の処理
図4に、描画処理プログラム44の処理フローチャートを示す。CPU30は、まず、位置検出センサ34が電子ペン40を検出しているかどうかを判断する(ステップS1)。電子ペン40の位置を検出していれば、CPU30は、位置検出センサ34が検出した位置と、圧力センサ41が検出した圧力を、所定時間間隔でハードディスク38に記録する(ステップS2)。
4). Processing of Drawing Processing Program 44 FIG. 4 shows a processing flowchart of the drawing processing program 44. The CPU 30 first determines whether or not the position detection sensor 34 has detected the electronic pen 40 (step S1). If the position of the electronic pen 40 is detected, the CPU 30 records the position detected by the position detection sensor 34 and the pressure detected by the pressure sensor 41 on the hard disk 38 at predetermined time intervals (step S2).

次に、CPU30は、このようにして記録された位置が、予め記録されているジェスチャに合致するかどうかを判断する(ステップS3)。図5に、ハードディスク38に記録されているジェスチャテーブルの一部を示す。CPU30は、電子ペン40の位置(軌跡)が、ジェスチャテーブルの位置情報の欄に記載されたものと合致するかどうかを判断する。いずれのジェスチャにも合致しない場合には、通常の描画処理(線を描く、図形を描くなど)を実行する(ステップS5)。   Next, the CPU 30 determines whether or not the position recorded in this way matches a previously recorded gesture (step S3). FIG. 5 shows a part of the gesture table recorded on the hard disk 38. The CPU 30 determines whether or not the position (trajectory) of the electronic pen 40 matches that described in the position information column of the gesture table. If it does not match any gesture, normal drawing processing (drawing lines, drawing figures, etc.) is executed (step S5).

図5のテーブルにおいて、電子ペン40の軌跡がXであればオブジェクトの削除、電子ペン40の軌跡(位置)が移動していなければオブジェクトのZ方向への移動、電子ペン40の軌跡がいずれかの方向に跳ねる動きであればページめくりを実行すべきであることが分かる。   In the table of FIG. 5, if the trajectory of the electronic pen 40 is X, the object is deleted. If the trajectory (position) of the electronic pen 40 is not moved, the object moves in the Z direction, and the trajectory of the electronic pen 40 is any. It can be seen that the page turning should be executed if the movement jumps in the direction of.

たとえば、ユーザが電子ペン40にて、図6Aに示すような軌跡を描いたとする。CPU30は、記録された位置情報からこれがXの軌跡であると判断し(たとえば、ほぼ同じ長さの2つの直線がクロスして描かれていることによって判断する)、ジェスチャテーブルに基づいて、端点P1〜P4によって構成される矩形内のオブジェクトの削除処理を行う(ステップS4)。   For example, assume that the user draws a trajectory as shown in FIG. 6A with the electronic pen 40. The CPU 30 determines that this is the locus of X from the recorded position information (for example, it is determined by crossing two straight lines having substantially the same length), and based on the gesture table, the end point is determined. The deletion process of the object in the rectangle constituted by P1 to P4 is performed (step S4).

この際、CPU30は、図6Bに示す記録された圧力の変化を参照し、いずれの深さのオブジェクトを削除するかを判断する。たとえば、図7に示すように、最前面にオブジェクトJ1、次にオブジェクトJ2、最背面にオブジェクトJ3が配置されているとする。この時、今までは、オブジェクトJ2やJ3のみを削除することは難しかった。この実施形態では、圧力の大きさに応じ、いずれの順位のオブジェクトを削除するかを決定することができる。   At this time, the CPU 30 refers to the recorded change in pressure shown in FIG. 6B to determine which depth of object to delete. For example, as shown in FIG. 7, it is assumed that an object J1 is placed at the forefront, then an object J2, and an object J3 is placed at the back. At this time, until now, it has been difficult to delete only the objects J2 and J3. In this embodiment, it is possible to determine which order of objects to delete according to the magnitude of pressure.

図6Bに示すように、Xジェスチャを入力した際の圧力の最大値が、しきい値L1を超えていなければ、最前面オブジェクトJ1を削除する。しきい値L1とL2の間であれば、オブジェクトJ2を削除する。また、しきい値L3を超えていれば、オブジェクトJ3を削除する。図6Bに示すような圧力変化があった場合には、オブジェクトJ2が削除されることになる。   As shown in FIG. 6B, if the maximum pressure value when the X gesture is input does not exceed the threshold value L1, the foreground object J1 is deleted. If it is between the threshold values L1 and L2, the object J2 is deleted. If the threshold value L3 is exceeded, the object J3 is deleted. When there is a pressure change as shown in FIG. 6B, the object J2 is deleted.

ステップS3において、図8Aに示すように、ユーザが電子ペン40を所定時間以上、移動させず、圧力をかけ続けたとする。CPU30は、ジェスチャテーブルを参照し、オブジェクトのZオーダー移動であると判断する。この際、CPU30は、どのオーダーまでオブジェクトを移動するかを、圧力に基づいて決定する。   In step S3, it is assumed that the user continues to apply pressure without moving the electronic pen 40 for a predetermined time or longer as shown in FIG. 8A. The CPU 30 refers to the gesture table and determines that the object is Z-order movement. At this time, the CPU 30 determines to what order the object is moved based on the pressure.

たとえば、図9の状態A1に示すように、最前面(Zオーダー=2)にオブジェクトJ1、次の面(Zオーダー=1)にオブジェクトJ2、最背面にオブジェクトJ3(Zオーダー=0)が配置されているとする。この時に、ユーザが、オブジェクトJ1の見えている部分のいずれかの箇所を電子ペン40にて所定時間押圧する。これにより、CPU30は、オブジェクトのZオーダー移動であると判断する。   For example, as shown in state A1 in FIG. 9, an object J1 is placed on the forefront (Z order = 2), an object J2 is placed on the next face (Z order = 1), and an object J3 (Z order = 0) is placed on the back. Suppose that At this time, the user presses any part of the visible portion of the object J1 with the electronic pen 40 for a predetermined time. Thereby, CPU30 judges that it is a Z order movement of an object.

たとえば、今、図8Bに示すように、圧力P1より大きく、圧力P2より小さい圧力が、所定時間(たとえば1秒)以上印加されたとする。これを、継続印加圧力がP2であると表現する。この場合、CPU30は、対象となるオブジェクトJ1を、1つだけ(Zオーダー1レベル分)背面に移動させる。つまり、図9の状態A2に示すような状態にする。   For example, as shown in FIG. 8B, it is assumed that a pressure larger than the pressure P1 and smaller than the pressure P2 is applied for a predetermined time (for example, 1 second) or longer. This is expressed as the continuous applied pressure is P2. In this case, the CPU 30 moves only one target object J1 (Z order 1 level) to the back. That is, a state as shown in state A2 in FIG.

また、図9の状態A1において、オブジェクトJ1を対象として、継続印加圧力がP3であった場合、CPU30は、オブジェクトJ1のZオーダーを2レベル下げる。つまり、図9の状態A3に示すように、オブジェクトJ1を最背面に移動させる。   In the state A1 in FIG. 9, when the continuous applied pressure is P3 for the object J1, the CPU 30 lowers the Z order of the object J1 by two levels. That is, as shown in the state A3 in FIG. 9, the object J1 is moved to the rearmost surface.

図10の状態B1において、オブジェクトJ2を対象として、継続印加圧力をP2とする圧力が加えられたとする。これにより、状態B2に示すように、オブジェクトJ2が最背面に移動する。   In the state B1 of FIG. 10, it is assumed that a pressure with the continuous applied pressure P2 is applied to the object J2. As a result, as shown in state B2, the object J2 moves to the rearmost surface.

図10の状態B1において、オブジェクトJ2を対象として、継続印加圧力をP3とする圧力が加えられたとする、これにより、CPU30は、状態B3に示すように、オブジェクトJ2を元のレベルに戻す。つまり、最背面までオブジェクトが到達するため以上の継続印加圧力を加えると、オブジェクトのZオーダーがあがるようにしている。   In the state B1 of FIG. 10, assuming that a pressure is applied to the object J2 with the continuously applied pressure being P3, the CPU 30 returns the object J2 to the original level as shown in the state B3. In other words, since the object reaches the back surface, the Z-order of the object is raised when the above continuous applied pressure is applied.

図11の状態C1において、オブジェクトJ3を対象として、継続印加圧力をP2とする圧力が加えられたとする。これにより、状態C2に示すように、オブジェクトJ3のZオーダーが1つあがる(1面だけ前に来る)。   In the state C1 of FIG. 11, it is assumed that a pressure with the continuous applied pressure P2 is applied to the object J3. As a result, as shown in the state C2, the Z order of the object J3 is increased by one (coming one plane forward).

また、図11の状態C1において、オブジェクトJ3を対象として、継続印加圧力をP3とする圧力が加えられたとする。これにより、状態C3に示すように、オブジェクトJ3のZオーダーが2つあがり、最上面に来る。   Further, in the state C1 of FIG. 11, it is assumed that a pressure with the continuous applied pressure P3 is applied to the object J3. As a result, as shown in the state C3, two Z orders of the object J3 rise and come to the top surface.

この実施形態では、継続印加圧力の大きさに応じて、オブジェクトを背面に移動させ、最背面に到達する継続印加圧力より大きな圧力が印加されると、オブジェクトを上面に向けて移動するように制御している。したがって、印加圧力の大きさに応じて、オブジェクトを背面にも全面にも移動させることが可能である。   In this embodiment, according to the magnitude of the continuously applied pressure, the object is moved to the back surface, and when a pressure larger than the continuously applied pressure reaching the backmost surface is applied, the object is controlled to move toward the top surface. doing. Therefore, it is possible to move the object to the back surface or the entire surface according to the magnitude of the applied pressure.

また、ステップS3において、電子ペン40を所定方向に素早く移動(加速度が増加するように移動)させると、CPU30は、ジェスチャテーブルを参照し、ページめくりの処理を行う。   In step S3, when the electronic pen 40 is quickly moved in a predetermined direction (moved so as to increase the acceleration), the CPU 30 refers to the gesture table and performs a page turning process.

この際、CPU30は、その際の最大圧力の大きさに応じて、ページめくりを行うページ数を決定する。たとえば、最大圧力が大きければ、ページ数を多く、小さければ少なくする。   At this time, the CPU 30 determines the number of pages to be turned according to the magnitude of the maximum pressure at that time. For example, if the maximum pressure is large, the number of pages is increased, and if the maximum pressure is small, it is decreased.

以上のようにして、圧力に応じた処理を行うことができる。
As described above, processing according to pressure can be performed.

5.その他の実施形態
(1)上記実施形態では、表示面と操作面を共用しているが、別々に設けられたものであってもよい。
5. Other embodiments
(1) In the above embodiment, the display surface and the operation surface are shared, but they may be provided separately.

(2)上記実施形態では、プロジェクタ50と赤外線による位置検出センサ34を用いているが、表示機能を有するタッチパネルを用いてもよい。この場合、タッチパネルが、表示部と圧力検出部の役割を持つことになる。また、対象物として、電子ペン40の代わりに、指などを用いることができる。 (2) Although the projector 50 and the position detection sensor 34 using infrared rays are used in the above embodiment, a touch panel having a display function may be used. In this case, the touch panel serves as a display unit and a pressure detection unit. In addition, a finger or the like can be used as an object instead of the electronic pen 40.

(3)上記実施形態では、位置検出センサ34から赤外光を発して位置を検出するようにしている。しかし、電子ペン40から赤外光を発し、これを検出して位置を特定するようにしてもよい。 (3) In the above embodiment, infrared light is emitted from the position detection sensor 34 to detect the position. However, infrared light may be emitted from the electronic pen 40 and detected to identify the position.

(4)上記実施形態では、継続印加圧力の大きさに応じて、Zオーダーの移動量(操作量)を決めている。しかし、圧力の印加時間の長さに応じて、Zオーダーの移動量(操作量)を決めるようにしてもよい。 (4) In the above embodiment, the Z-order movement amount (operation amount) is determined according to the magnitude of the continuously applied pressure. However, the Z-order movement amount (operation amount) may be determined according to the length of time during which the pressure is applied.

(5)上記実施形態では、オブジェクトの削除、移動、ページめくりについて説明した。しかし、その他の処理についても適用することができる。 (5) In the above embodiment, the deletion, movement, and page turning of objects have been described. However, other processes can also be applied.

たとえば、オブジェクトの選択の際に、圧力の大きさに応じて選択されるオブジェクトのZオーダーを変化させるなどである。つまり、圧力が大きいほど、背面にあるオブジェクトが選択されるようになる。   For example, when the object is selected, the Z order of the selected object is changed according to the magnitude of the pressure. That is, as the pressure increases, the object on the back side is selected.

また、圧力の大きさに応じてページめくりの速度を変えるようにしてもよい。さらに、画面スクロールの量を、電子ペン40の移動距離と筆圧の積などによって決定するようにしてもよい。   Also, the page turning speed may be changed according to the pressure. Furthermore, the amount of screen scrolling may be determined by the product of the moving distance of the electronic pen 40 and the writing pressure.

(6)また、上記実施形態では、圧力の大きさに応じて、削除されるオブジェクトが1つ決定された。しかし、圧力の大きさに応じて、最前面から決定されたオブジェクトまでのすべてのオブジェクトを削除するようにしてもよい。つまり、操作を行う1つのオブジェクトを圧力に基づいて決定するのではなく、操作を行うオブジェクトの範囲(Zオーダー方向の範囲)を圧力に基づいて決定するようにしてもよい。 (6) In the above embodiment, one object to be deleted is determined according to the magnitude of pressure. However, all objects from the foreground to the determined object may be deleted according to the pressure level. That is, instead of determining one object to be operated based on pressure, the range of objects to be operated (range in the Z-order direction) may be determined based on pressure.

(7)また、圧力の大きさに応じて、入力する数値の大きさを変えるようにしてもよい。たとえば、数字入力において、弱い圧力では「1」が入力され、強い圧力では「2」が入力され、さらに強い圧力では「3」が入力されというようにしてもよい。 (7) The numerical value to be input may be changed according to the pressure. For example, in numerical input, “1” may be input for a weak pressure, “2” may be input for a strong pressure, and “3” may be input for a stronger pressure.

(8)上記実施形態では、電子ペン40の移動軌跡によって機能を選択し、圧力によってその機能実行の程度を決定するようにしている。しかし、電子ペン40移動の軌跡と、圧力の組み合わせによって、機能を選択するようにしてもよい。

(8) In the above embodiment, a function is selected based on the movement trajectory of the electronic pen 40, and the degree of function execution is determined based on the pressure. However, the function may be selected depending on the combination of the locus of movement of the electronic pen 40 and the pressure.

Claims (10)

表示面に表示を行う表示部と、
対象物の座標位置を検出する座標検出部と、
対象物が操作面に対して与える圧力を検出する圧力検出部と、
前記座標検出部によって検出された前記対象物の座標位置および検知した前記圧力に基づいて表示部を制御し、表示面に対する描画処理を行う描画処理手段と、
を備えた描画処理装置。
A display unit for displaying on the display surface;
A coordinate detection unit for detecting the coordinate position of the object;
A pressure detector that detects the pressure applied to the operation surface by the object;
Drawing processing means for controlling the display unit based on the coordinate position of the object detected by the coordinate detection unit and the detected pressure, and performing drawing processing on the display surface;
A drawing processing apparatus.
表示面に表示を行う表示部と、対象物の座標位置を検出する座標検出部と、対象物が操作面に対して与える圧力を検出する圧力検出部とを備えた描画処理装置をコンピュータによって実現するための描画処理プログラムであって、前記コンピュータを
前記座標検出部によって検出された前記対象物の座標位置および検知した前記圧力に基づいて表示部を制御し、表示面に対する描画処理を行う描画処理手段として機能させるための描画処理プログラム。
A drawing processing apparatus including a display unit for displaying on a display surface, a coordinate detection unit for detecting the coordinate position of an object, and a pressure detection unit for detecting pressure applied to the operation surface by the object is realized by a computer. A drawing processing program for controlling the display unit based on the coordinate position of the object detected by the coordinate detection unit and the detected pressure and performing drawing processing on the display surface A drawing processing program for functioning as a means.
対象物の座標位置を検出する座標検出部と、
前記座標検出部によって検出された前記対象物の座標位置および前記対象物が操作面に対して与える圧力を検出する圧力検出部が検知した圧力に基づいて表示部を制御し、表示面に対する描画処理を行う描画処理手段と、
を備えた描画制御装置。
A coordinate detection unit for detecting the coordinate position of the object;
Drawing processing on the display surface by controlling the display unit based on the coordinate position of the object detected by the coordinate detection unit and the pressure detected by the pressure detection unit that detects the pressure applied to the operation surface by the object Drawing processing means for performing
A drawing control apparatus.
対象物の座標位置を検出する座標検出部を備えた描画制御装置をコンピュータによって実現するための描画処理プログラムであって、前記コンピュータを
前記座標検出部によって検出された前記対象物の座標位置および前記対象物が操作面に対して与える圧力を検出する圧力検出部が検知した圧力に基づいて表示部を制御し、表示面に対する描画処理を行う描画処理手段として機能させるための描画処理プログラム。
A drawing processing program for realizing, by a computer, a drawing control apparatus including a coordinate detection unit that detects a coordinate position of an object, wherein the computer detects the coordinate position of the object detected by the coordinate detection unit and the computer A drawing processing program for controlling a display unit based on pressure detected by a pressure detection unit that detects pressure applied to an operation surface by an object and functioning as a drawing processing unit that performs drawing processing on the display surface.
請求項1〜4のいずれかの装置または描画処理プログラムにおいて、
前記描画処理手段は、前記対象物の軌跡によって描画機能を決定し、前記圧力によって当該描画機能の実行量、実行範囲または実行速度を決定することを特徴とする装置またはプログラム。
In the apparatus or the drawing processing program according to any one of claims 1 to 4,
The drawing processing means determines a drawing function based on a trajectory of the object, and determines an execution amount, an execution range, or an execution speed of the drawing function based on the pressure.
請求項5の装置または描画処理プログラムにおいて、
前記描画処理手段は、前記圧力によって奥行き方向の実行量を決定することを特徴とする装置またはプログラム。
In the apparatus or drawing processing program of Claim 5,
The drawing processing means determines an execution amount in the depth direction based on the pressure.
請求項6の装置または描画処理プログラムにおいて、
前記描画処理手段は、前記圧力が第一の所定値以下の場合には、当該圧力の大きさに比例してオブジェクトの奥方向への移動量を決定し、前記圧力が第一の所定値を超えている場合には、当該圧力の大きさに比例してオブジェクトの奥方向とは逆の方向への移動量を決定することを特徴とする装置またはプログラム。
The apparatus according to claim 6 or a drawing processing program.
When the pressure is equal to or less than a first predetermined value, the drawing processing means determines the amount of movement of the object in the depth direction in proportion to the pressure, and the pressure reaches the first predetermined value. An apparatus or a program characterized by determining the amount of movement of the object in the direction opposite to the depth direction in proportion to the magnitude of the pressure when the pressure exceeds.
請求項1〜7のいずれかの装置または描画処理プログラムにおいて、
前記描画処理手段は、前記ペンの軌跡によって描画機能を決定し、前記圧力によって当該描画機能を実行する対象オブジェクトの奥行を決定することを特徴とする装置またはプログラム。
In the apparatus or the drawing processing program according to any one of claims 1 to 7,
The drawing processing means determines a drawing function based on the locus of the pen, and determines a depth of a target object that executes the drawing function based on the pressure.
請求項1〜8のいずれかの装置または描画処理プログラムにおいて、
前記表示面と前記操作面は同一の面であることを特徴とする装置またはプログラム。
In the apparatus or the drawing processing program according to any one of claims 1 to 8,
The apparatus or program is characterized in that the display surface and the operation surface are the same surface.
表示を行う表示面と、対象物の座標位置を検出する座標検出部と、対象物が操作面に対して与える圧力を検出する圧力検出部と、コンピュータとを用いた描画処理方法であって、
前記コンピュータが、前記座標検出部によって検出された前記対象物の座標位置および検知した前記圧力に基づいて表示部を制御し、表示面に対する描画処理を行うことを特徴とする描画処理方法。

A drawing processing method using a display surface that performs display, a coordinate detection unit that detects a coordinate position of an object, a pressure detection unit that detects pressure applied to the operation surface by the object, and a computer,
A drawing processing method, wherein the computer controls the display unit based on the coordinate position of the object detected by the coordinate detection unit and the detected pressure to perform drawing processing on a display surface.

JP2012141802A 2012-06-25 2012-06-25 Drawing processing apparatus Pending JP2014006695A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012141802A JP2014006695A (en) 2012-06-25 2012-06-25 Drawing processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012141802A JP2014006695A (en) 2012-06-25 2012-06-25 Drawing processing apparatus

Publications (1)

Publication Number Publication Date
JP2014006695A true JP2014006695A (en) 2014-01-16

Family

ID=50104357

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012141802A Pending JP2014006695A (en) 2012-06-25 2012-06-25 Drawing processing apparatus

Country Status (1)

Country Link
JP (1) JP2014006695A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017182449A (en) * 2016-03-30 2017-10-05 ブラザー工業株式会社 Program and information display device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017182449A (en) * 2016-03-30 2017-10-05 ブラザー工業株式会社 Program and information display device
US10963137B2 (en) 2016-03-30 2021-03-30 Brother Kogyo Kabushiki Kaisha Information display apparatus and non-transitory recording medium storing program for controlling information display apparatus

Similar Documents

Publication Publication Date Title
JP5537458B2 (en) Image display device capable of touch input, control device for display device, and computer program
EP2256614B1 (en) Display control apparatus, display control method, and computer program
KR102148725B1 (en) Method and Apparatus for displaying application
US9990062B2 (en) Apparatus and method for proximity based input
JP5832784B2 (en) Touch panel system and electronic device using the same
TWI451309B (en) Touch device and its control method
JP5640486B2 (en) Information display device
JP2009193423A5 (en)
CA2862435A1 (en) Method for manipulating a graphical object and an interactive input system employing the same
US8830196B2 (en) Information processing apparatus, information processing method, and program
JP5809202B2 (en) Image display device capable of screen operation and operation method thereof
JP5374564B2 (en) Drawing apparatus, drawing control method, and drawing control program
JP3850570B2 (en) Touchpad and scroll control method using touchpad
US20160085441A1 (en) Method, Apparatus, and Interactive Input System
WO2013114499A1 (en) Input device, input control method, and input control program
US20180059806A1 (en) Information processing device, input control method for controlling input to information processing device, and computer-readable storage medium storing program for causing information processing device to perform input control method
JP2006085218A (en) Touch panel operating device
JP4856136B2 (en) Movement control program
JP2014006695A (en) Drawing processing apparatus
JP5782157B2 (en) Image display device capable of touch input, control device for display device, and computer program
JP2015153197A (en) Pointing position deciding system
CN110389698B (en) Page control method, device, input device and server
KR101468970B1 (en) Method and apparatus for sliding objects across a touch-screen display
JP2013238963A (en) Interactive display device
KR101445062B1 (en) Apparatus and method for controlling terminal display with backside input function and sight line sensor

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140522