[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2011145330A1 - 座標決定装置、座標決定方法及び座標決定プログラム - Google Patents

座標決定装置、座標決定方法及び座標決定プログラム Download PDF

Info

Publication number
WO2011145330A1
WO2011145330A1 PCT/JP2011/002729 JP2011002729W WO2011145330A1 WO 2011145330 A1 WO2011145330 A1 WO 2011145330A1 JP 2011002729 W JP2011002729 W JP 2011002729W WO 2011145330 A1 WO2011145330 A1 WO 2011145330A1
Authority
WO
WIPO (PCT)
Prior art keywords
coordinate
input
unit
information
time
Prior art date
Application number
PCT/JP2011/002729
Other languages
English (en)
French (fr)
Inventor
山内 真樹
良宏 小島
知成 高橋
久美 原田
池田 洋一
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to US13/383,966 priority Critical patent/US9041649B2/en
Priority to CN201180002866.0A priority patent/CN102473060B/zh
Priority to JP2011536220A priority patent/JP5762967B2/ja
Publication of WO2011145330A1 publication Critical patent/WO2011145330A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04892Arrangements for controlling cursor position based on codes indicative of cursor displacements from one discrete location to another, e.g. using cursor control keys associated to different directions or using the tab key

Definitions

  • the present invention relates to a coordinate determination device, a coordinate determination method, and a coordinate determination program, and more particularly to a coordinate determination device that determines a coordinate position of a pointer on a display unit included in a display device based on input information acquired from the coordinate input device. .
  • TVs can be used not only for viewing broadcast programs and movies, but also for various information browsing via the Internet connection, linkage with home devices connected to the network, New functions such as various applications such as photo browsing and games are being realized and used.
  • the pointing device is an input device that can control a pointer or cursor displayed on the screen and can specify an arbitrary position and direction, such as a touch panel, a trackball, a joystick, and a mouse.
  • a touch panel such as a touch panel, a trackball, a joystick, and a mouse.
  • a pointer position presentation method and operation method on a display device based on such a conventional coordinate input device includes a classification axis “whether the coordinate input device and the display device are integrated or separated”, and “user Can be roughly divided into four categories according to the classification axis “whether the coordinate system on the coordinate input device side that is input by and the coordinate system on the display device side displayed by the system corresponds to one body 1”.
  • the integrated type refers to “a shape that overlaps like a touch panel as one device”
  • the separation type refers to a “separated shape such as a personal computer display and a mouse”.
  • the coordinate system input by the user and the coordinate system displayed by the system corresponding to one body 1 will be referred to as an absolute coordinate mode, and the other will be referred to as a relative coordinate mode for convenience. Further, switching between the two coordinate modes is referred to as coordinate mode switching for convenience.
  • the display unit of the display device and the input detection unit of the coordinate input device do not physically overlap, and the coordinate input is indirect to the display device.
  • Coordinates on the input detection unit such as a touch pad or tablet are associated with the coordinates on the display unit on a one-to-one basis.
  • Touchpad for handwritten character input devices external input tablet for drawing tools, etc.
  • Wacom's pen input tablet and touch tablet (not integrated with liquid crystal). Since the coordinate point touched (started to input) on the input detection unit is directly converted into the corresponding coordinate position on the display unit, it is used for input of handwritten Chinese characters, illustration drawing, and the like.
  • Integrated and in relative coordinate mode In some game applications using a touch panel, in order to operate the main character in the game, a part of the display unit of the display device and the input detection unit of the coordinate input device is used. There is an example to use.
  • the control device / method corresponding to this case is not common compared to the above (1) to (3).
  • FIGS. 16 and 17 show pointing examples using “separate type absolute coordinate mode” and “separate type relative coordinate mode”.
  • the input detection unit 210 is, for example, a touch pad.
  • the display unit 230 is an LCD (Liquid Crystal Display) or the like, for example.
  • the coordinate mode it is assumed that the trace of the pointer is displayed on the display unit 230 when the input detection unit 210 is traced with a finger.
  • FIG. 16 is a diagram showing a correspondence between a finger trajectory in the input detection unit 210 and a pointer trajectory in the display unit 230 in the absolute coordinate mode.
  • a locus display A620 is displayed on the display unit 230.
  • the contact coordinates on the input detection unit 210 correspond one-to-one with the coordinates on the display unit 230.
  • FIG. 17 is a diagram showing the correspondence between the finger trajectory in the input detection unit 210 and the pointer trajectory in the display unit 230 in the relative coordinate mode.
  • the display unit 230 displays a continuous trajectory display B640, trajectory display C642, and trajectory display D644.
  • the trajectory display B640, the trajectory display C642, and the trajectory display D644 respectively correspond to the input of the trajectory B630, the trajectory C632, and the trajectory D634.
  • JP 2001-117713 A JP 10-340153 A Japanese Patent Laid-Open No. 11-095912 JP 2006-201916 A JP 2001-228964 A
  • the conventional coordinate input device has a problem that the coordinate mode cannot be automatically switched in a natural operation / operation system for the user.
  • relative operation is automatically performed without operation of a physical switch or the like for switching the coordinate mode. It is necessary to switch between coordinate mode and absolute coordinate mode.
  • the conventional technique cannot be realized by a coordinate input device that automatically switches the coordinate mode.
  • the present invention solves such conventional problems, and provides a coordinate determination device that automatically recognizes a coordinate mode that is easier for the user to use while performing natural operations and switches the coordinate mode. With the goal.
  • a coordinate determination apparatus is a coordinate determination apparatus that determines output coordinates according to input coordinates, and acquires coordinate information indicating the input coordinates and input time sequentially and stores the information in a recording medium.
  • a storage unit a time correlation specifying unit for specifying a correlation between input times indicated by the first and second coordinate information among the plurality of coordinate information stored in the recording medium as a time correlation value;
  • a coordinate correlation specifying unit that specifies a correlation between input coordinates indicated by the second and third coordinate information of the coordinate information as a coordinate correlation value, and a first coordinate based on the coordinate correlation value and the time correlation value
  • a coordinate mode selection unit that selects one of the mode and the second coordinate mode as a coordinate mode, and an input coordinate indicated by the second coordinate information by the coordinate mode selection unit.
  • a coordinate conversion unit that determines the coordinates as the output coordinates by converting the coordinates according to the selected coordinate mode, and the coordinate conversion unit, when the first coordinate mode is selected, When the input coordinate indicated by the second coordinate information is converted into a coordinate predetermined and associated with the input coordinate and the second coordinate mode is selected, the input coordinate indicated by the second coordinate information is displayed. Is converted into coordinates corresponding to the output coordinates already determined for other input coordinates.
  • the feature amount corresponding to the time of the touch operation and the coordinate position is calculated without any special operation such as a physical switch by the user, and these are integrated to determine the user's mental model.
  • the coordinate mode that is easier for the user to use can be automatically recognized and the coordinate mode can be switched while the user performs a natural motion.
  • the coordinate correlation specifying unit specifies a distance between the input coordinates as the coordinate correlation value, and determines whether or not the specified coordinate correlation value is less than a predetermined threshold value.
  • the time correlation specifying unit specifies the difference between the input times as the time correlation value, determines whether the specified time correlation value is less than a predetermined time, and the coordinate mode
  • the selection unit is The coordinate mode may be selected as the coordinate mode.
  • the coordinate mode according to the mental model of the user who operates the coordinate input device is automatically recognized using the operation time at the time of the touch operation and the distance between the touched coordinates as the feature amount. Can do.
  • the acquisition storage unit acquires coordinate information from a coordinate input device having an input detection unit
  • the first coordinate information is a coordinate corresponding to a time when a user lifts a finger from the input detection unit.
  • the second coordinate information may be coordinate information corresponding to a time when the user again touches the input detection unit with the finger after the first coordinate information is detected.
  • the third coordinate information is coordinate information corresponding to a time when a user touches the input detection unit with a finger, and the first coordinate information is detected from the third coordinate information. Is coordinate information corresponding to a time when the user lifts his / her finger from the input detection unit, and the second coordinate information is detected by the user after the first coordinate information is detected.
  • the coordinate information may correspond to the time when the finger is brought into contact again.
  • the acquisition storage unit further acquires selection completion information including a selection completion time that is a completion time of a selection operation by a user and stores the selection completion information in the recording medium, and the coordinate mode selection unit selects the selection from the recording medium.
  • selection completion information including a selection completion time that is a completion time of a selection operation by a user and stores the selection completion information in the recording medium
  • the coordinate mode selection unit selects the selection from the recording medium.
  • This process prevents the user from unintentionally switching the coordinate mode with a secondary release accompanying a click.
  • the coordinate determination device further includes the coordinate input device.
  • the coordinate input device accepts a coordinate input operation and a selection operation by a user, and acquires the coordinate information and the selection completion information from the acquisition storage unit.
  • the input detection unit is a clickable touch pad capable of detecting a mechanical push-down operation, and the return operation of the clickable touch pad caused by a user releasing a finger that pushed down the clickable touch pad. May be specified as the selection completion time.
  • the user in a coordinate input device equipped with a clickable touchpad, the user automatically recognizes a coordinate mode that is easier to use for the user while performing natural operations without any special operation such as a physical switch by the user.
  • the coordinate mode can be switched.
  • the coordinate mode selection unit has an operation degree indicating a user operation characteristic based on at least one or more of the plurality of coordinate information and selection information acquired by the acquisition storage unit before the second coordinate information. It may be calculated and at least one of the specific time, the specific threshold, and the specific grace time may be changed based on the calculated degree of operation.
  • a coordinate mode that is easier to use for the user can be automatically recognized by each user while performing a more natural operation, and the coordinate mode can be switched.
  • the coordinate mode selection unit calculates a difference between an input time indicated by the coordinate information and an input time indicated by other coordinate information.
  • the reciprocal of the calculated average value of the plurality of differences may be calculated as the operation degree.
  • the user's familiarity with the coordinate input system can be used as the degree of operation.
  • the coordinate mode selection unit may change the specific time, the specific threshold value, and the specific grace time so as to decrease as the calculated operation degree increases.
  • the user can quickly recognize the natural motion.
  • the position indicated by the third coordinate information may coincide with the position indicated by the first coordinate information.
  • the first coordinate information is included in a first coordinate series that is a series of coordinate information that is input from when the user once touches the input detection unit until the user releases the finger
  • the second coordinate information is included.
  • Is included in the second coordinate series which is a series of coordinate information input from when the user touches the input detection unit again after the input of the first coordinate series until the user releases the finger.
  • the coordinate information 3 may be included in the first coordinate series.
  • the coordinate mode selection unit has not passed a predetermined time from the input time indicated by the first coordinate information, and the acquisition storage unit stores the second coordinate information. If it is not acquired, a specific image may be displayed on the display unit.
  • This display allows the user to predict the coordinate mode that the system automatically recognizes.
  • the coordinate determination apparatus further includes an operation recognition unit that determines whether or not the first coordinate series is a gesture for instructing a display device to start a specific computer process.
  • the coordinate mode selection unit may not select the coordinate mode.
  • a coordinate mode that is easy for the user to use can be automatically recognized and the coordinate mode can be switched while the user performs natural operations.
  • the acquisition storage unit further acquires grip information indicating which position of the coordinate input device the user is gripping and stores the grip information in the recording medium
  • the coordinate determination device further includes the recording A grip estimation unit configured to estimate a grip state of the coordinate input device by a user using the grip information acquired from a medium, and the coordinate mode selection unit, according to the grip state estimated by the grip estimation unit, You may change at least 1 value among a specific threshold value, the said specific time, and the said specific grace time.
  • the coordinate input device includes at least two or more input detection units, and the acquisition storage unit acquires coordinate information acquired from a first input detection unit among the plurality of input detection units and a second input detection unit.
  • the coordinate information acquired from the recording medium may be stored in the recording medium.
  • a coordinate determination device that determines output coordinates according to input coordinates
  • an acquisition storage unit that sequentially acquires coordinate information indicating the input coordinates from the coordinate input device and stores them in a recording medium, and is displayed on a display device.
  • a coordinate on the display device corresponding to the center of the icon and an output coordinate obtained by converting the input coordinate indicated by the second coordinate information among the plurality of coordinate information stored in the recording medium according to the absolute coordinate mode.
  • a coordinate correlation specifying unit that specifies a distance, a coordinate mode selection unit that selects one of an absolute coordinate mode and a relative coordinate mode as a coordinate mode based on the distance, and the second coordinate information.
  • the coordinates are determined as the output coordinates.
  • a coordinate conversion unit and when the absolute coordinate mode is selected, the coordinate conversion unit converts the input coordinate indicated by the second coordinate information into a coordinate that is predetermined and associated with the input coordinate.
  • the coordinate determination device may convert the input coordinates indicated by the second coordinate information into coordinates corresponding to output coordinates already determined with respect to other input coordinates. .
  • the coordinate determination device can automatically select the absolute coordinate mode, and the coordinate mode according to the user's intention can be selected. You can choose.
  • a coordinate determination device that automatically recognizes a coordinate mode that is easier to use for the user while the user performs a natural motion and switches the coordinate mode.
  • FIG. 1 is an external view of a coordinate input system that realizes a coordinate determination device according to the present embodiment.
  • FIG. 2 is a functional block diagram showing an example of a coordinate determination device in the present embodiment.
  • FIG. 3 is a schematic diagram illustrating an example of a user operation in the input detection unit according to the present embodiment.
  • FIG. 4 is a schematic diagram showing an example of contact coordinates used for determination of the coordinate mode in the present embodiment.
  • FIG. 5 is a state transition diagram showing a coordinate mode determination process for input information obtained after the end of pointer display in the present embodiment.
  • FIG. 6 is a state transition diagram showing a coordinate mode determination process for input information acquired before the end of pointer display in the present embodiment.
  • FIG. 7 is a flowchart showing the processing of the coordinate determination apparatus in the present embodiment.
  • FIG. 8 is a flowchart showing details of event processing other than the release event in the present embodiment.
  • FIG. 9 is a flowchart showing processing for changing a threshold value or the like according to the degree of operation in the first modification example of the present embodiment.
  • FIG. 10 is a schematic diagram illustrating an example of a distance used for determination of the coordinate mode in the second modification example of the present embodiment.
  • FIG. 11 is a flowchart showing the processing of the coordinate determination device in the third modification example of the present embodiment.
  • FIG. 12 is an external view showing an example of a computer system that realizes the coordinate determination device according to the embodiment of the present invention.
  • FIG. 13 is a block diagram showing a hardware configuration of a computer system that realizes the coordinate determination apparatus according to the embodiment of the present invention.
  • FIG. 14A is a flowchart of the coordinate switching means disclosed in the conventional example (Patent Document 1).
  • FIG. 14B is a flowchart of the coordinate switching means disclosed in the conventional example (Patent Document 1).
  • FIG. 15a is a flowchart of the coordinate switching means disclosed in the conventional example (Patent Document 5).
  • FIG. 15b is a flowchart of the coordinate switching means disclosed in the conventional example (Patent Document 5).
  • FIG. 16 is a diagram showing the correspondence between the locus on the input detection unit and the locus on the display device in the absolute coordinate mode.
  • FIG. 17 is a diagram illustrating the correspondence between the locus on the input detection unit and the locus on the display device in the relative coordinate mode.
  • FIG. 14a and 14b are flowcharts showing a conventional coordinate mode switching process described in Patent Document 1.
  • FIG. 14a and 14b are flowcharts showing a conventional coordinate mode switching process described in Patent Document 1.
  • step S2 the coordinate input system sets the coordinate mode to the absolute coordinate mode.
  • the coordinate input system corrects the coordinates input to the touchpad by the user in step S4 within the size determined in step S5 (in the absolute coordinate mode).
  • step S8 the coordinate input system continues the above processing.
  • step S8 If the coordinate input system does not detect the input of the ESC key from the user in step S8, the coordinate input system switches to the relative coordinate mode in step S9.
  • step S14 the coordinate input system determines whether or not the mouse cursor (pointer) is within a predetermined area.
  • the coordinate input system switches the coordinate mode from the relative coordinate mode to the absolute coordinate mode in step S15. Thereafter, the coordinate input system sets the coordinate mode to the absolute coordinate mode until the coordinate input system detects the input of the ESC key in step S19.
  • the coordinate mode switching in Patent Document 1 is performed when the coordinate input system detects the input of the ESC key by the user.
  • Patent Document 5 it is proposed to switch the “input mode” using a time interval of input to the touch pad.
  • steps S44 to S49 of FIG. 15a an average value of n coordinate inputs on the touch pad is calculated, and this is used as an input coordinate value, and the coordinate mode is determined in step S50.
  • the determination of the coordinate mode is performed based on “whether the input interval on the touch pad is within a predetermined time” as shown in step S34 of FIG. 15b. That is, if it is outside the predetermined time, the mode is switched to the input mode called “first mode” in step S35, while if it is within the predetermined time, the mode is switched to “second mode or absolute value mode” in step S36.
  • the difference between the first mode and the second mode disclosed in Patent Document 5 is only the presence / absence of the determination part “presence of previous coordinate value?” In step S55. In actual coordinate processing, the first mode and the second mode are different. In both the second mode, the “relative value of the current input coordinate value with respect to the previous input coordinate value” in steps S57 to S59 is output.
  • both the first mode and the second mode are so-called relative coordinate modes that output “relative values between input coordinate values”.
  • Patent Document 5 does not disclose a criterion for the coordinate input system to determine whether the second mode or the absolute value mode should be used. That is, it is only described that whether or not the mode is the absolute value mode is determined only by setting with a physical switch (described as “switch 5” in Patent Document 5) (In Patent Document 5, the absolute value mode is described). "[0032] The switch 5 switches between the absolute value mode and the relative value mode of the coordinate input panel 10 according to the power supply voltage 29. By switching the switch 5, the CPU 3 switches to the absolute value mode. And the relative value mode is switched to detect the coordinate value.
  • the user's input intention (that is, whether the user wants to input as absolute coordinates or relative coordinates) is estimated from the user's input operation regardless of the application.
  • switching the coordinate mode used by the coordinate input device is not an object of the invention.
  • the touch pad will be described as an example.
  • the prior art has the following problems.
  • Patent Documents 1 and 2 and Patent Documents 4 to 5 Each time the user desires to switch the coordinate mode, it is necessary to perform a coordinate mode switching operation using a specific button, switch, input detection unit, or the like.
  • Patent Documents 1 and 3 The user is forced to move the pointer to a specific position in order to switch the coordinate mode, and if the pointer is moved to that position, the switch is forcibly generated, so it is impossible to switch the operation system freely.
  • Non-Patent Document 1 The user is forced to learn a new (unusual) operation such as operating the pointer while controlling the contact area of the finger in order to switch the coordinate mode, and the operation is also difficult on the operation surface. Forced (Non-Patent Document 1).
  • the present invention solves the above conventional problems by providing a coordinate determination device that can appropriately select a coordinate mode according to a user's mental model at the time of the input operation based on the input operation of the user. can do.
  • FIG. 1 is an external view of a coordinate input system 90 realized by using a coordinate determination device 200 according to the present invention in the present embodiment.
  • the coordinate input system 90 includes a display device 100 and a coordinate input device 201.
  • the display device 100 is a device that receives a user input from the coordinate input device 201 and displays a processing result corresponding to the input on the display unit 230.
  • a television or a video recording / playback device can be considered, but the present invention is not limited thereto.
  • the coordinate input device 201 is an input device that inputs user operation information to the display device 100 connected by wire or wirelessly.
  • a remote controller such as a television or a video recording / playback device is conceivable, but is not limited thereto.
  • the display device 100 includes a coordinate determination device 200 and a display unit 230.
  • the coordinate determination device 200 is a processing device that acquires user input information input to the coordinate input device 201 and displays it on the display unit 230.
  • the coordinate determination device 200 automatically determines a coordinate mode that is easier for the user to use, and after converting the input coordinates acquired from the coordinate input device 201 into the pointer coordinate position according to the determined coordinate mode. To the display unit 230.
  • the pointer coordinate position is an output coordinate of the coordinate determination device 200.
  • the display unit 230 is a visual display device included in the display device 100.
  • LCD and CRT Cathode Ray Tube
  • the display unit 230 displays the pointer 110 at the pointer coordinate position output by the coordinate determination device 200.
  • the pointer 110 is a small graphic that is displayed to indicate the object of investigation in a GUI (Graphical User Interface) environment.
  • GUI Graphic User Interface
  • the pointer 110 displayed on the display unit 230 moves.
  • the pointer 110 is a figure or the like shaped like an arrow or a finger.
  • the coordinate input apparatus 201 includes an input detection unit 210, a grip detection sensor 212, and a transmission unit 220.
  • the input detection unit 210 is a pointing device that acquires input information.
  • a device used for the input detection unit 210 for example, a touch pad, a tablet, a trackball, or the like can be considered.
  • the input information acquired by the input detection unit 210 is mainly coordinate information and selection information.
  • the coordinate information is, for example, input coordinates and the input time that the user inputs by touching the input detection unit 210 with a finger. That is, the coordinate determination device 200 determines the pointer coordinate position that is the output coordinate from the input coordinates included in the coordinate information.
  • the input coordinates included in the coordinate information correspond to the position where the user touches the finger on the input detection unit 210.
  • the input coordinates are values representing points on a two-dimensional or three-dimensional space, for example.
  • the user can move the pointer 110, for example, by inputting coordinate information using the input detection unit 210.
  • the selection information is input information indicating either the start or the end of the selection operation that the user inputs by tapping or clicking the input detection unit 210, for example.
  • the selection information is one of selection start time information indicating the selection start time and selection end time information indicating the selection end.
  • the input detection unit 210 when the input detection unit 210 is a clickable touch pad, the input detection unit 210 outputs the time when the user has pushed the input detection unit 210 as selection start time information.
  • the time when the input detection unit 210 returns to the original position is selected by the spring mechanism of the clickable touchpad.
  • the input detection unit 210 outputs the time information.
  • the user can select the icon displayed on the display unit 230 and execute processing associated with the icon by inputting selection information using the input detection unit 210, for example.
  • a drag operation can be performed by combining the selection information and the coordinate information.
  • the grip detection sensor 212 is a sensor that detects which position of the casing of the coordinate input device 201 the user is gripping and outputs as grip information.
  • the coordinate determination device 200 can hold the coordinate input device 201 with the left hand or the right hand, for example. Get information to determine whether or not.
  • the detection method of the grip detection sensor 212 may be a resistance film type, an infrared type, a SAW type, an electrostatic type, or the like, but is not limited thereto.
  • the transmission unit 220 is a communication interface.
  • the transmission unit 220 transmits the input information detected by the input detection unit 210 to the coordinate determination device 200.
  • the input information transmitted by the transmission unit 220 includes a plurality of coordinate information, selection information, grip information, and the like.
  • the communication method used by the transmission unit 220 includes, but is not limited to, wireless LAN, infrared communication, short-range wireless communication, and the like.
  • the coordinate input device 201 and the coordinate determination device 200 include an arithmetic device such as a CPU (Central Processing Unit), a storage such as a ROM (Read Only Memory) and a RAM (Random Access Memory).
  • arithmetic device such as a CPU (Central Processing Unit)
  • a storage such as a ROM (Read Only Memory) and a RAM (Random Access Memory).
  • An apparatus may be provided.
  • the user can move the pointer 110 displayed on the display unit 230 included in the display device 100 to a desired position by performing an operation on the input detection unit 210 included in the coordinate input device 201. it can.
  • a desired icon can be selected.
  • the input detection unit 210 in FIG. 1 is a personal computer mouse (in addition to a general scroll mouse, pointing in the air such as Logitech Air Mouse (registered trademark) MX) Air) It is assumed that the device is generally available, such as an arbitrary mouse, such as a mouse that can be used), an aerial pointing device (such as a Wii (registered trademark) remote control using a camera), and a tablet-type input device.
  • a personal computer mouse in addition to a general scroll mouse, pointing in the air such as Logitech Air Mouse (registered trademark) MX) Air
  • the device is generally available, such as an arbitrary mouse, such as a mouse that can be used), an aerial pointing device (such as a Wii (registered trademark) remote control using a camera), and a tablet-type input device.
  • the coordinate input device 201 and the coordinate determination device 200 are separated, but the coordinate input device 201 and the coordinate determination device 200 may be integrated.
  • FIG. 2 is a block diagram showing functional configurations of the coordinate input device 201 and the display device 100 in the present embodiment.
  • the same elements as those in FIG. 1 are denoted by the same reference numerals and description thereof is omitted.
  • the coordinate determination device 200 includes an acquisition storage unit 204, a detection result series storage unit 314, a grip estimation unit 316, an operation recognition unit 318, a time correlation specification unit 320, a coordinate correlation specification unit 324, and a coordinate mode selection unit. 326 and a coordinate conversion unit 328.
  • the acquisition storage unit 204 sequentially acquires input information (coordinate information, selection information, grip information, etc.) transmitted from the coordinate input device 201 by wireless or wired, and stores it in the detection result sequence storage unit 314.
  • the detection result series storage unit 314 is a recording medium and can be realized by, for example, a RAM.
  • the grip estimation unit 316 acquires the grip information output from the grip detection sensor 212 from the detection result series storage unit 314. Thereafter, the grip estimation unit 316 estimates the gripping state of the user from the grip information and outputs it to the coordinate mode selection unit 326.
  • the operation recognizing unit 318 acquires input information (coordinate information, selection information, etc.) from the detection result series storage unit 314, and whether the input information matches any of a plurality of predetermined “events”. Recognize whether or not. Thereafter, the operation recognition unit 318 notifies the coordinate mode selection unit 326 of the recognition result.
  • the types of events recognized by the operation recognition unit 318 include, for example, “(pointer) movement”, “release”, “gesture (slide, flick, etc.)” and “selection”.
  • the selection event and the release event are events that can be recognized from one selection information.
  • a movement event and a gesture event can be distinguished only after acquiring a series of coordinate information.
  • the operation recognition unit 318 may recognize a series of coordinate information once recognized as a movement event, for example, as a gesture for drawing a circle and then separately recognize it as a gesture event.
  • the time correlation specifying unit 320 includes an input time indicated by the first coordinate information and an input time indicated by the second coordinate information among the plurality of coordinate information acquired from the detection result series storage unit 314.
  • the correlation between the two is specified as a time correlation value, and is output to the coordinate mode selection unit 326.
  • “specify the correlation as a time correlation value” means, for example, that after calculating the difference between the input time when the first coordinate information is input and the input time when the second coordinate information is input, It is to compare a specific time set in advance.
  • the time correlation identification unit 320 outputs the magnitude relationship between the difference between the two input times and the specific time to the coordinate mode selection unit 326 as a time correlation value.
  • the coordinate correlation specifying unit 324 includes an input coordinate indicated by the third coordinate information and an input coordinate indicated by the second coordinate information among the plurality of coordinate information acquired from the detection result series storage unit 314.
  • the correlation between the two is specified as a coordinate correlation value, and is output to the coordinate mode selection unit 326.
  • “identify correlation as a coordinate correlation value” is determined in advance after calculating the distance between the input coordinates of the third coordinate information and the input coordinates of the second coordinate information, for example. Compare specific thresholds.
  • the coordinate correlation specifying unit 324 outputs the magnitude relationship between the distance between two input coordinates and a specific threshold value to the coordinate mode selection unit 326 as a coordinate correlation value.
  • the coordinate mode selection unit 326 selects the absolute coordinate mode (that is, the first coordinate mode) and the relative coordinate mode (that is, the second coordinate mode) based on the identification results acquired from the coordinate correlation identification unit 324 and the time correlation identification unit 320.
  • the coordinate mode is determined to be one of the following.
  • the coordinate mode selection unit 326 may determine the coordinate mode to be the relative coordinate mode. A more detailed determination method will be described later.
  • the coordinate conversion unit 328 converts the input coordinates indicated by the coordinate information into a pointer coordinate position on the display unit 230 according to the coordinate mode determined by the coordinate mode selection unit 326, and the converted pointer coordinate position is displayed on the display unit 230. Output to.
  • the coordinate mode selection unit 326 determines the coordinate mode as the relative coordinate mode.
  • the coordinate conversion unit 328 converts the input coordinate corresponding to the start end of the trajectory C632 into a pointer coordinate position corresponding to the end of the trajectory display B640 and outputs the converted coordinate to the display unit 230.
  • the coordinate conversion unit 328 converts the input coordinate corresponding to the start end of the trajectory C632 into a coordinate corresponding to the end of the trajectory display B640, which is an output coordinate already determined with respect to other input coordinates.
  • the coordinate conversion unit 328 converts the input coordinates corresponding to the starting end of the trajectory C632 into coordinates that are predetermined and associated with the input coordinates.
  • the coordinate conversion unit 328 performs this association according to a static rule (that is, determined independently of coordinate information other than the coordinate information corresponding to the starting end of the trajectory C632).
  • the coordinate determination apparatus 200 includes only the acquisition storage unit 204, the time correlation specification unit 320, the coordinate correlation specification unit 324, the coordinate mode selection unit 326, and the coordinate conversion unit 328. Can also achieve the object of the invention.
  • the detection result sequence storage unit 314 is not included as a component of the coordinate determination device 200, for example, the coordinate input device 201 or the display device 100 other than the coordinate determination device 200 includes the detection result sequence storage unit 314.
  • the invention can be implemented.
  • the present invention is implemented even if the coordinate input device 201 estimates the grip state and the coordinate determination device 200 acquires the estimation result, for example. be able to. Further, as will be described later, the coordinate mode selection unit 326 only uses the gripping state as additional information for selecting the coordinate mode, so that the present invention can be used even if the coordinate mode selection unit 326 does not use the gripping state. Can be implemented.
  • the present invention is implemented. be able to. Further, when the types of events that occur are limited, for example, in a system that aims only at the movement of the pointer 110, it is possible to know the events that have occurred without recognizing the user's operation. Therefore, the present invention can be implemented without the operation recognition unit 318.
  • FIG. 3 is a schematic diagram showing an example of a user operation in the input detection unit related to the determination of the coordinate mode in the present embodiment.
  • the user operates the input detection unit 210 in the order of the first input state 810 to the fourth input state 816.
  • the current finger position 800 is at the contact start point 904.
  • the input coordinates and input time of the contact start point 904 can be used.
  • the user is about to release the finger from the movement end point 906 on the input detection unit 210.
  • the first coordinate information in the present invention it is conceivable to use the input coordinates and input time of the movement end point 906 immediately before the finger is released from the input detection unit 210.
  • the user In the third input state 814, the user once lifts the finger from the movement end point 906 and puts the finger again at the contact start point 910.
  • the input coordinates and input time of the contact start point 910 can be used.
  • the user In the fourth input state 816, the user is moving his / her finger on the input detection unit 210, and the current finger position 800 is at the moving point 912.
  • a series of coordinate information input from when the user once touches the contact start point 904 on the input detection unit 210 until the user releases the finger at the movement end point 906 is defined as a first coordinate series.
  • FIG. 4 is a diagram showing G_it (x, y) 510, G_n (x, y) 512, and G_cur (x, y) 520, which are coordinates on the input detection unit 210.
  • G_it (x, y) 510 is the beginning of the first coordinate series. Therefore, the contact start point 904 in FIG. 3 is G_it (x, y) 510.
  • G_n (x, y) 512 is the start of the second coordinate series. Therefore, the contact start point 910 in FIG. 3 is G_n (x, y) 512.
  • G_cur (x, y) 520 is a coordinate currently in contact with the input detection unit 210. Therefore, the movement point 912 in FIG. 3 is G_cur (x, y) 520.
  • the coordinate mode selection unit 326 selects a coordinate mode using the input coordinates, input time, grip information, etc., such as G_it (x, y) 510, G_n (x, y) 512, and G_cur (x, y) 520. To do.
  • FIG. 5 is a state transition diagram illustrating an example of a coordinate mode determination process performed by the coordinate mode selection unit 326 in the present embodiment.
  • the coordinate mode selection unit 326 uses the absolute coordinate mode 130 and the relative coordinates as coordinate modes for displaying G_n (x, y) 512, which is the start of the second coordinate series acquired from the input detection unit 210, on the display unit 230. One of the modes 132 is selected. That is, the coordinate mode selection unit 326 selects a coordinate mode for outputting the input coordinates indicated by the second coordinate information as the pointer coordinate position.
  • the current coordinate mode is the absolute coordinate mode 130.
  • Wr be the time from when the user who inputs coordinate information releases his / her finger from the input detection unit 210 until he / she touches the input detection unit 210 again.
  • the time difference from when the user removes the finger from the input detection unit 210 at the movement end point 906 to when the user places the finger again at the contact start point 910 on the input detection unit 210 is Wr. More specifically, let Wr be the difference between the input time indicated by the first coordinate information and the input time indicated by the second coordinate information.
  • the time correlation identification unit 320 compares Wr with the specific time Wd, and notifies the coordinate mode selection unit 326 of a time correlation value indicating whether or not Wr is equal to or greater than the specific time Wd.
  • the coordinate mode selection unit 326 acquires the notification, and if Wr is equal to or greater than the specific time Wd, the coordinate mode selection unit 326 selects the absolute coordinate mode 130 as the coordinate mode (S800).
  • the coordinate mode selection unit 326 obtains the notification, and if Wr is less than the specific time Wd, the coordinate mode selection unit 326 selects the relative coordinate mode 132 as the coordinate mode (S806).
  • the current coordinate mode is the relative coordinate mode 132.
  • the time correlation identification unit 320 compares Wr with the specific time Wd and notifies the coordinate mode selection unit 326 of a time correlation value indicating whether or not Wr is equal to or greater than the specific time Wd.
  • the coordinate mode selection unit 326 acquires the notification, and if Wr is equal to or greater than the specific time Wd, the coordinate mode selection unit 326 selects the absolute coordinate mode 130 as the coordinate mode (S802).
  • the coordinate mode selection unit 326 obtains the notification, and if Wr is less than the specific time Wd, the coordinate mode selection unit 326 selects the relative coordinate mode 132 as the coordinate mode (S804).
  • FIG. 6 is a state transition diagram showing another example of the coordinate mode selection process performed by the coordinate mode selection unit 326 in the present embodiment.
  • the coordinate mode selection unit 326 displays the coordinate mode for displaying G_n (x, y) 512, which is the start of the second coordinate series acquired from the input detection unit 210, on the display unit 230 as an absolute coordinate.
  • G_n (x, y) 512 which is the start of the second coordinate series acquired from the input detection unit 210, on the display unit 230 as an absolute coordinate.
  • One of the mode 130 and the relative coordinate mode 132 is selected.
  • the current coordinate mode is the absolute coordinate mode 130.
  • Rm be the distance between two points of the initial contact position G_it (x, y) 510 and the initial position G_n (x, y) 512.
  • the distance between the contact start point 904 and the contact start point 910 is Rm. More specifically, the distance between the input coordinates indicated by the third coordinate information and the input coordinates indicated by the second coordinate information is Rm.
  • the coordinate correlation specifying unit 324 compares Rm with a specific threshold value Rr, and notifies the coordinate mode selection unit 326 as a coordinate correlation value whether or not Rm is larger than the specific threshold value Rr.
  • the coordinate mode selection unit 326 acquires the notification, and if Rm is larger than the specific threshold value Rr, the coordinate mode selection unit 326 selects the absolute coordinate mode 130 as the coordinate mode (S820).
  • the coordinate mode selection unit 326 acquires the notification, and if the comparison result by the coordinate correlation specification unit 324 indicates that Rm is equal to or less than the specific threshold value Rr, the coordinate mode selection unit 326 selects the relative coordinate mode 132 as the coordinate mode. (S836).
  • the current coordinate mode is the relative coordinate mode 132.
  • the coordinate correlation specifying unit 324 compares Rm with a specific threshold value Rb, and notifies the coordinate mode selection unit 326 as a coordinate correlation value whether Rm is larger than the specific threshold value Rb.
  • the coordinate mode selection unit 326 acquires the notification, and if Rm is larger than the specific threshold value Rb, the coordinate mode selection unit 326 selects the absolute coordinate mode 130 as the coordinate mode (S822).
  • the coordinate mode selection unit 326 obtains the notification, and if Rm is equal to or less than the specific threshold value Rb, the coordinate mode selection unit 326 selects the relative coordinate mode 132 as the coordinate mode (S824).
  • FIG. 7 is a flowchart showing a specific process of the coordinate determination apparatus 200 in the present embodiment.
  • the initial state is the absolute coordinate mode.
  • the transmission unit 220 transmits signals detected by the input detection unit 210 and the grip detection sensor 212 to the acquisition storage unit 204 as input information.
  • the acquisition storage unit 204 stores the acquired input information in the detection result series storage unit 314.
  • the coordinate mode selection unit 326 acquires coordinate information from the detection result series storage unit 314, and stores the input coordinates included in the coordinate information as G_it (x, y) 510 (S214).
  • G_it (x, y) 510 and G_cur (x, y) 520 match.
  • the coordinate conversion unit 328 converts the acquired input coordinate G_cur (x, y) 520 into a pointer coordinate position corresponding to the absolute coordinate mode 130 that is the current coordinate mode, and outputs the pointer coordinate position to the display unit 230.
  • the display unit 230 updates the pointer coordinate position held for displaying the pointer 110 to the pointer coordinate position corresponding to G_cur (x, y) 520 (S216).
  • the pointer 110 is displayed at the pointer coordinate position on the display unit 230 corresponding to the input coordinates on the input detection unit 210 where the user touches the finger.
  • the operation recognition unit 318 attempts to acquire new input information that has not been acquired from the detection result series storage unit 314 (S218).
  • the operation recognition unit 318 tries to acquire again (No in S218).
  • the operation recognition unit 318 determines which event the input information can be recognized (Yes in S218, S220, S231, S232).
  • the events recognized by the operation recognition unit 318 include a release event, a movement event, a selection event, a gesture event, and the like.
  • the release event is an event indicating that the finger once touched by the input detection unit 210 is released from the input detection unit 210.
  • the operation recognizing unit 318 can recognize the occurrence of a release event by determining whether the difference between adjacent input times is greater than a specific value or whether the distance between adjacent input coordinates is greater than a specific value.
  • the movement event is an event indicating that the finger once touched on the input detection unit 210 is moved without being separated from the input detection unit 210.
  • the operation recognition unit 318 obtains coordinate information including an input time within a certain time from the input time included in the immediately preceding coordinate information and including an input coordinate within a certain distance from the input coordinates included in the immediately preceding coordinate information. Thus, the occurrence of the movement event can be recognized.
  • the selection event is an event that means the completion of the selection operation by the user.
  • the operation recognition unit 318 recognizes the occurrence of a selection event when the selection information acquired from the detection result series storage unit 314 is selection completion information.
  • the selection completion information is one of selection start time information and selection end time information. Which of the selection start time information and the selection end time information is used as the selection completion information is determined in advance depending on the coordinate determination device 200.
  • the gesture event is performed by causing the user to repel the input detection unit 210 or by performing a specific input such as writing a circle or a square, thereby causing the display device 100 to perform a specific computer process associated with the specific input.
  • the operation recognizing unit 318 can recognize the occurrence of a movement event, for example, when input coordinates are greatly different at adjacent times. However, the operation recognizing unit 318 can recognize the occurrence of the gesture event only after acquiring continuous input information for a certain period.
  • the operation recognition unit 318 determines whether or not the input information acquired from the detection result series storage unit 314 can be recognized as a release event (S220).
  • the display device 100 performs event processing according to the event type (S219). Details thereof will be described later.
  • the coordinate mode selection unit 326 inputs the input time (included in the coordinate information that is the input information recognized as the release event) ( The time when the user lifts the finger from the coordinate input device 201 is recorded. Hereinafter, this time is assumed to be Tr.
  • the operation recognition unit 318 determines whether or not the input information recognized as the release event can be recognized as a part of the gesture event (S231). That is, the operation recognition unit 318 determines whether or not a series of coordinate information acquired from the acquisition storage unit 204 by the operation recognition unit 318 can be recognized as a gesture event.
  • the operation recognition unit 318 performs a series of inputs from the contact start point 904 (input coordinates indicated by the third coordinate information) to the movement end point 906 (input coordinates indicated by the first coordinate information). It is determined whether or not the first coordinate series as coordinates can be recognized as a gesture event (S231).
  • the operation recognizing unit 318 needs to determine whether or not a series of coordinate information input by the user is a gesture event when the user releases the finger from the input detecting unit 210 (S231).
  • the operation recognition unit 318 determines that the coordinate information recognized as the release event is a part of the gesture event (that is, the end of a series of coordinate information recognized as the gesture event) (Yes in S231). ), The display device 100 performs processing corresponding to the gesture event (S230).
  • the display device 100 changes or controls the screen display according to the operation direction of the flick gesture (flicked in the horizontal direction or flicked in the vertical direction, etc.).
  • the coordinate mode selecting unit 326 uses the time correlation specifying unit 320 to generate the release event occurrence time. It is determined whether or not the selection event has occurred within a specific grace period (hereinafter referred to as Wt) from Tr (S232).
  • the time correlation identification unit 320 stores the selection event occurrence time (selection operation completion time) Ts stored in the coordinate mode selection unit 326 (FIG. 8, S412 described later), and the release event occurrence time (finger detection of input).
  • the difference in Tr) is calculated, and the difference is compared with a specific delay time Wt, and the comparison result is output to the coordinate mode selection unit 326 as a time correlation value.
  • the coordinate mode selection unit 326 indicates that “This release event is secondary to the occurrence of the selection event. It is determined that the event has occurred (Yes in S232), and the process proceeds to processing according to the selected event (S234).
  • the coordinate mode selection unit 326 does not select the coordinate mode or change the coordinate mode.
  • the display device 100 displays a display process indicating that the button has been pressed on the screen.
  • substantial processing expected by the user is performed (S234).
  • the coordinate mode selection unit 326 starts the coordinate mode selection process.
  • Wr be the elapsed time from the occurrence of the release event (the elapsed time from the input time included in the coordinate information recognized by the operation recognition unit 318 as being a release event).
  • the time correlation specifying unit 320 determines whether or not a specific time Wp has elapsed since the release event occurred, that is, whether or not Wr ⁇ Wp is satisfied, and uses the result as a time correlation value in the coordinate mode.
  • the data is output to the selection unit 326 (S240).
  • the coordinate mode selection unit 326 determines whether new coordinate information can be acquired from the detection result series storage unit 314 (S242).
  • the coordinate mode selection unit 326 When the coordinate mode selection unit 326 cannot acquire new coordinate information (No in S242), the coordinate mode selection unit 326 displays an image such as the pointer 110 indicating that Wp has not elapsed on the display unit 230 ( S244). Thereafter, when Wr ⁇ Wp is satisfied, the coordinate mode selection unit 326 returns to the new coordinate information acquisition determination process (S242) (loop from S246 to S240).
  • the process of the coordinate mode selection unit 326 is in a polling state (or a callback state), and until the coordinate information is acquired or a specific time Wp elapses after the release event occurs.
  • the image display such as the pointer 110 for 100 is continued (S244).
  • the coordinate mode selection unit 326 exits the loop processing from S240 to S246, and then performs the pointer 110 for the display unit 230. Is terminated (S250).
  • the coordinate mode selection unit 326 determines whether or not new coordinate information can be acquired from the detection result series storage unit 314 for a certain time (S251).
  • the coordinate mode selection unit 326 acquires new coordinate information from the detection result series storage unit 314 (Yes in S251), the coordinate mode selection unit 326 performs a coordinate mode selection process (S252).
  • the coordinate mode selection unit 326 selects the absolute coordinate mode 130 as the coordinate mode (“absolute” in S252), the absolute coordinate mode 130 is selected as the coordinate mode (S254).
  • the coordinate mode selection unit 326 determines the relative coordinate mode 132 (“relative” in S252)
  • the relative coordinate mode 132 is selected as the coordinate mode (S256).
  • the coordinate determining apparatus 200 restarts the process from the beginning of the loop 1 (S214).
  • a pointer 110 for example, an image imitating the shape of a finger
  • the coordinate determination apparatus 200 processes the input as an input in relative coordinates from the position of the pointer 110.
  • an input to the input detection unit 210 after the display of the pointer 110 disappears is processed as an input in absolute coordinates.
  • the display contents of the input detection unit 210 and the display unit 230 such that the input start point input after the display of the pointer 110 disappears is treated as input in absolute coordinates.
  • the technology for changing the correspondence relationship with the user's operation time and the premise problem thereof are not disclosed in the prior art.
  • the coordinate mode selection unit 326 sets the default value of the coordinate determination apparatus 200 as the coordinate mode. select. For example, if the relative coordinate mode 132 is a default value, the relative coordinate mode 132 is selected as the coordinate mode (S256). Thereafter, the coordinate determining apparatus 200 restarts the process from the beginning of the loop 1 (S214).
  • the coordinate mode selection unit 326 selects a coordinate mode using the acquired coordinate information (S280).
  • operation mode selection (S280) performed by the coordinate mode selection unit 326 may be performed as shown in FIG. 6, for example.
  • the coordinate mode selection unit 326 selects the absolute coordinate mode 130 (“Absolute” in S280), the absolute coordinate mode 130 is selected as the coordinate mode (S282). If the coordinate mode selection unit 326 determines the relative coordinate mode 132 (“relative” in S280), the relative coordinate mode 132 is selected as the coordinate mode (S284).
  • the coordinate determination apparatus 200 automatically recognizes a coordinate mode that is easier to use for the user while the user performs a natural operation, which cannot be realized by the following processing, and automatically switches the coordinate mode. Processing is realized.
  • the coordinate determination apparatus 200 calculates, as the time correlation value, Wr, which is the difference between the occurrence time of the release event and the current time, by the time correlation identification unit 320 (S240), and the time correlation value is calculated as the coordinate mode selection unit 326. Is output.
  • the coordinate correlation identification unit 324 calculates the distance Rm between G_it (x, y) 510 and G_n (x, y) 512. Then, the comparison result (magnitude relationship) between the distance and one of Rr and Rb, which are specific threshold values, is output to the coordinate mode selection unit 326 as a coordinate correlation value.
  • the coordinate mode selection unit 326 automatically selects the coordinate mode as the absolute coordinate mode 130 if Rm is larger than a specific threshold value, and as the relative coordinate mode 132 if smaller than Rm (S280).
  • the display device 100 restarts the process from updating the display coordinates according to the coordinate mode (S216).
  • the coordinate mode selection unit 326 selects the absolute coordinate mode 130 as the coordinate mode (S282), the coordinate mode selection unit 326 sets G_cur (x, y) 520 as a new G_it (x, y) 510. Store (S286).
  • FIG. 8 is a flowchart showing details of event processing other than release events in the present embodiment.
  • the display device 100 performs processing according to the movement event (S404). Specifically, the display device 100 updates the value of G_cur (x, y) 520 stored in the coordinate mode selection unit 326.
  • the coordinate conversion unit 328 converts G_cur (x, y) 520 to the pointer coordinate position on the corresponding display unit 230. Further, the display unit 230 draws the pointer 110 (S216).
  • the operation recognition unit 318 determines that the input information is a gesture event (No in S402 and Yes in S406), the display device 100 performs processing according to the gesture event (S408).
  • the gesture may be any gesture.
  • the operation recognition unit 318 recognizes an operation similar to “rotation” on the input detection unit 210, the event is recognized as a “rotation gesture”. Is done. Thereafter, the display device 100 performs a process corresponding to the “rotation gesture”. Specifically, for example, scrolling the screen display can be considered.
  • the coordinate mode selection unit 326 selects the selection completion time (selection start) indicated by the selection completion information. Any one of the time and the selection end time), the coordinates of G_cur (x, y) 520 at the selection completion time, the type of icon selected as necessary, and the like are recorded (S412).
  • the display device 100 performs processing associated with the selection completion information (S416). Specifically, when the input detection unit 210 that is a clickable touch pad is pressed on a specific icon, the display device 100 draws a state in which the button at the position of the pointer 110 is recessed on the display unit 230. Etc.
  • the coordinate input device can dynamically select an operation mode according to the user's operation, and does not require an explicit operation switching by the user, and each user can be seamlessly operated. It is possible to provide an easy-to-use operation mode for every situation.
  • the coordinate mode selection unit 326 waits for input (S251) and shifts to the operation mode determination. (S252).
  • the coordinate determination apparatus 200 may return the process to the beginning of the loop 1. That is, step S251, step S252, step S254, and step S256 may be omitted from the processing performed by the coordinate determination apparatus 200. In that case, the coordinate determination apparatus 200 executes step S214 after step S250.
  • the coordinate mode selection unit 326 switches the content of the selection process (S252) according to the time from the occurrence of the release event (S220) to the next contact (input) (S242, S251). , S280).
  • the coordinate mode selection unit 326 may perform the selection process without switching the operation mode according to time (S252). Specifically, step S240, step S242, step S244, step S246, step S280, step S282, step S284, and step S286 may be omitted from the processing performed by the coordinate determination apparatus 200. In this case, if the predetermined condition is not satisfied in step S232 (No in S2332), the coordinate determining apparatus 200 performs the process of S250 (the loop process from S240 to S246 is not necessary).
  • step S240 when it is desired to switch the coordinate mode selection processing performed by the coordinate mode selection unit 326 according to the time until the next contact (input) when an arbitrary event occurs, the processing before step S240 is omitted, and step S240 and subsequent steps are omitted. It can be applied to any input system.
  • the coordinate mode selection process (S252 and S280) by the coordinate mode selection unit 326 is not limited to the above.
  • the coordinate mode selection unit 326 may select the coordinate mode according to arbitrary data that can be known by the coordinate determination apparatus 200 such as a device or a device.
  • the coordinate determination device 200 can arbitrarily determine the specified value of the coordinate mode. For example, even if the coordinate determination device 200 dynamically determines the coordinate mode based on an artificial or past use history or history, or the coordinate determination device 200 acquires the coordinate mode from a ROM or the like as an initial setting value. Good.
  • “move” is taken up as a pointing function
  • “gesture” is taken as a general motion recognition function
  • selection is taken up as a function to convey an intention such as a decision.
  • the input information to be processed by the coordinate determination device 200 is not limited to these three events, but “information that can be acquired from the generally available input detection unit 210 and the recognition that is generally available.
  • the event may include “recognition result information obtained by combining technologies”.
  • the movement event process (S404) performed by the display device 100 includes not only the update of the internal pointer coordinates but also an arbitrary process generally performed when the pointer is moved in a personal computer or an embedded device.
  • the gesture event processing (S408) performed by the display device 100 includes not only rotation but also arbitrary processing based on a general gesture recognition technique. For example, there are screen scroll processing by a slide operation and screen enlargement processing by a pinch-out operation, but the present invention is not limited to this.
  • the selection event processing (S412) performed by the display device 100 may be triggered by an arbitrary selection event generated by a selection operation method by the general input detection unit 210.
  • the input detection unit 210 is a touch pad
  • an input switch mechanism is provided below the touch pad so that the entire touch pad functions as a clickable touch pad, and this touch pad is used as a physical switch (button). It is good also as a trigger of selection operation.
  • the selection operation is not limited to these.
  • gesture event process (S408) performed by the display device 100 is not limited to the flick operation described above, and may be a gesture operation with any release.
  • the operation according to the selection event (S234) performed by the display device 100 is not limited to the button display example, and is an arbitrary process or display during a general selection event in a personal computer or a general device. Also good.
  • loop 2 (S240, S242, S244, S246) waiting for input by the coordinate mode selection unit 326 is not necessarily loop control, and is equivalent to any programming means or system configuration means such as system interrupt processing. The function may be realized. The same applies to loop 1 and input waiting (S218, S251).
  • the pointer display end processing (S250) after loop control waiting for input performed by the coordinate mode selection unit 326 not only stops (erase) the immediate display after the end of the loop from S246 to S246, but also gradually reduces the display. Or blink, or display animation effects, tooltips, comments, etc. to indicate that it will soon expire.
  • the coordinate mode selection unit 326 may display a comment or the like on the display unit 230. Furthermore, the user's attention and understanding may be promoted by changing these expressions over time.
  • the selection (S232) regarding whether or not the selection event has occurred within the specific grace time Wt performed by the coordinate mode selection unit 326 is not limited to the selection event, and may be determined for any of the above-described events. .
  • the determination criterion “within a specific grace period Wt” is set based on the occurrence of the corresponding past event. Timing. Specifically, when the coordinate mode selection unit 326 obtains the nth event occurrence, the coordinate mode selection unit 326 determines the elapsed time from the occurrence of the n ⁇ 1th same type of event and the specific grace time Wt. Are compared (S232).
  • the coordinate mode selection unit 326 includes a comparison result by the coordinate correlation specification unit 324, a comparison result by the time correlation specification unit 320, a grip state estimation result by the grip estimation unit 316, and a user operation recognition result by the operation recognition unit 318. , At least one result may be obtained, and the coordinate mode may be determined based on the result.
  • Wt, Wp, Wd, Rr, and Rb are set to predetermined values.
  • Wt, Wp, Wd, Rr, and Rb are moved according to the “operation degree” of the user. Change.
  • degree of operation examples include the number of operations per unit time, the operation period of the coordinate determination device 200, the usage history for each coordinate mode, and the like, but are not limited thereto.
  • FIG. 9 is a flowchart illustrating a process for changing a threshold value or the like depending on the degree of operation in the first modification example of the present embodiment.
  • the coordinate mode selection unit 326 acquires the use history of each coordinate mode determined in the past by the coordinate mode selection unit 326 (S289). That is, the usage history of the absolute coordinate mode 130 and the relative coordinate mode 132 is acquired.
  • a past history mode notified by the coordinate mode selection unit 326 to the coordinate conversion unit 328 is recorded in a RAM, a hard disk, a flash memory, or the like, so that a history can be acquired later.
  • the coordinate mode selection unit 326 also acquires a history of event processing data (S289). For example, the type, occurrence time, end time, and the like of each of the generated movement event, gesture event, and selection event can be considered.
  • the coordinate mode selection unit 326 calculates the degree of operation based on the acquired coordinate mode and event processing data (S290).
  • the operation recognition unit 318 selects the number of times per unit time recognized as the movement event, the gesture event, and the selection event, the average value of the input time for each movement event, the gesture event, and the selection event, etc.
  • the unit 326 calculates.
  • the coordinate mode selection unit 326 may calculate a plurality of differences from the user selection completion time to the release event occurrence time, and calculate the reciprocal of the average value of the calculated differences as the operation degree. .
  • the degree of operation is not limited to these, and may be another feature amount that characterizes the input operation to the input detection unit 210 by the user.
  • the coordinate mode selection unit 326 corrects the value of the specific grace period Wt based on the calculated degree of operation (S292).
  • Wt is made smaller.
  • the coordinate mode selection unit 326 determines that the user is used to the current coordinate mode when the degree of operation, which is the operation period of the coordinate determination device 200, is large, and sets a specific grace period Wt short. Good (S232).
  • the coordinate mode selection unit 326 corrects the values of specific times Wp and Wd based on the calculated operation degree (S294 and S297).
  • the coordinate mode selection unit 326 determines that the operation degree as the operation frequency is larger than before because the number of movement events generated per unit time is large, the values of Wp and Wd are made smaller. Thereby, even if it is a case where it is desired for the user to recognize the absolute coordinate mode 130, it is possible to improve the tendency when the relative coordinate mode 132 is recognized.
  • the coordinate mode selection unit 326 corrects the specific threshold values Rr and Rb based on the calculated degree of operation (S299).
  • the coordinate mode selection unit 326 determines that the input degree corresponding to the start end of the movement event is always within a certain range, and the degree of operation that is the reciprocal of the variation in the contact start point is greater than before, Rr And the value of Rb is made smaller. Therefore, even if it is a case where it is desired for the user to recognize the absolute coordinate mode 130, it is possible to improve the tendency when the relative coordinate mode 132 is recognized.
  • the method of correcting parameters such as Wt, Wp, Wd, Rr, and Rb based on the degree of operation may be changed according to the purpose of the coordinate input system 90.
  • the coordinate mode selection unit 326 may determine the degree of operation based on the history of the coordinate mode, the duration of the current determination mode, and the length of the usage time, and may change parameters such as Wd, Rr, and Rb. Specifically, the coordinate mode selection unit 326 sets parameters such as Wd, Rr, and Rb so that the change of the coordinate mode is less likely to occur as the current coordinate mode continues for a long time. It is possible to correct it.
  • the coordinate mode selection unit 326 increases the parameter as the degree of operation is higher, that is, as the user is used to input using the coordinate determination apparatus 200.
  • the second or third photo can be selected by moving the finger touching the input detection unit 210.
  • the coordinate determining apparatus 200 provides an application-specific operation method.
  • the user who is used to the coordinate determination apparatus 200 determines that he / she wants to perform a specific operation, and by setting Wt longer, the user can easily select many photographs at the same time. Leads to.
  • the coordinate mode selection unit 326 may calculate a plurality of operation degrees.
  • the operation degree information may be held as a time series, or the operation degree may be calculated for each event.
  • the coordinate mode selection unit 326 is individually or combined with respect to a plurality of components / information that the system can know, such as by user, by time zone used, by day of the week, by application, etc.
  • the degree of operation may be set to.
  • “composite” means a combination of the above-described constituent elements such as “operation degree in application A on Tuesday” and “frequency of occurrence of selection event in application B of user A”.
  • a specific time, a specific threshold value, or the like may be corrected depending on the coordinate mode regardless of the degree of operation. Specifically, when operating in the relative coordinate mode 132, a specific time, a specific threshold, or the like is set long (or short), and in the absolute coordinate mode 130, a specific time or a specific threshold is set. You may set a threshold value etc. short (or long).
  • Wt, Wp, Wd, and the like which are predetermined times, may be set according to the generation time distribution of events such as selection, the average generation time, the longest time, and the shortest time under each coordinate mode.
  • the coordinate mode selection unit 326 may correct the value of each parameter based on an operation degree and a correction method that are different for each parameter such as Wt, Wp, Wd, Rr, and Rb.
  • the operation degree calculated by the coordinate mode selection unit 326 is not only “the number of operations within a unit time”, but also “the number and frequency of occurrence of each event”, “the coordinate mode when the event occurs, and the pointer mode. It may be determined according to “position, position distribution”, and the like.
  • the coordinate mode selection unit 326 calculates the degree of operation based on, for example, “an arbitrary combination of internal data that the system can know and information that the user can input in advance or dynamically”. May be.
  • the detection result series storage unit 314 may hold the generation time, the coordinate mode selection result by the coordinate mode selection unit 326 and the time, the ID for identifying the operating user, the operation date and time, and the like.
  • the coordinate mode selection unit 326 may change the erased representation of the pointer.
  • the coordinate mode selection unit 326 may display the increase / decrease state of Wp itself with an animation effect, a tool tip, a comment, or the like.
  • the coordinate mode selection unit 326 may correct parameters such as Wt, Wp, Wd, Rr, and Rb according to the operation proficiency level in each coordinate mode.
  • the operation proficiency level is a kind of operation level, and is determined according to the frequency of event occurrence (number of selected events, etc.), the number of errors, usage time, etc. in each coordinate mode.
  • the coordinate mode may be selected according to the level of operation proficiency.
  • the “operation degree” corresponding to the familiarity, habit, usage, etc. of the operation is calculated for each user, and using this, the time used by the coordinate mode selection unit 326 and A distance threshold or the like (Wt, Wp, Wd, Rr, and Rb) can be changed.
  • the coordinate determination apparatus 200 can more precisely cope with a natural input operation for each user, and can automatically recognize and switch to a coordinate mode that is easier for the user to use.
  • the display time of the pointer 110 (Wp described above) is shortened and the relative coordinate mode is entered. It is also possible to perform processing such as making it difficult to determine or determining the absolute coordinate mode even if the finger is left. Further, as in the case of typing in general keyboard input, for example, even if the distance between each input point is shorter than a threshold value, the absolute coordinate mode may be determined. In addition, such a process and the subject used as the premise are not shown by the prior art.
  • G_it (x, y) 510 that is the input coordinate indicated by the third coordinate information as the distance used by the coordinate mode selection unit 326 to select the coordinate mode and the input indicated by the second coordinate information.
  • the coordinate mode selection unit 326 uses a different distance in this modification.
  • FIG. 10 is a schematic diagram illustrating an example of a distance used by the coordinate mode selection unit 326 to determine the coordinate mode in the second modification example of the present embodiment.
  • G_it (x, y) 510 corresponds to the contact start point 904.
  • G_n (x, y) 512 corresponds to the contact start point 910.
  • a distance between the contact start point 904 and the contact start point 910 is a distance Dgg740.
  • the display unit 230 displays the corresponding pointer 110 from the display contact start point 944 to the display movement end point 946.
  • a display position on the display unit 230 when the contact start point 910 is interpreted as the absolute coordinate mode 130 is set as a contact start assumed point 950.
  • the display position on the display unit 230 when the movement point 912 is interpreted as the absolute coordinate mode 130 is set as the assumed pointer position 952.
  • an icon 924 as an icon being displayed on the display unit 230, and the center coordinate of the icon 924 is an icon center 928.
  • the distance between the display movement end point 946 and the assumed contact start point 950 is defined as a distance Dgp720.
  • the distance between the icon center 928 and the assumed contact start point 950 is a distance Dgd710.
  • the distance between the assumed pointer position 952 and the icon center 928 is a distance Dpd730.
  • the coordinate mode selection unit 326 can select a coordinate mode using a conditional expression that arbitrarily combines these distances.
  • the coordinate mode selection unit 326 may select the absolute coordinate mode 130 as the coordinate mode. Conceivable.
  • the coordinate mode selection unit 326 It is conceivable to select the relative coordinate mode 132 as the coordinate mode.
  • the screen display part with which the coordinate mode selection unit 326 compares the distance with the pointer 110 is not limited to the closest screen display part.
  • the coordinate mode selection unit 326 can use the distance between the pointer 110 and an arbitrary part and the multiple distances between the pointer 110 and a plurality of parts in combination.
  • the coordinate mode selection unit 326 may select the coordinate mode according to information that the pointer 110 is on the screen display part (does not exist).
  • the assumed pointer position 952 is defined as the display position of the pointer 110 on the display unit 230 in the absolute coordinate mode 130, but the actual display position of the pointer 110 in the absolute coordinate mode 130 or the relative coordinate mode 132. You may think.
  • the display device 100 may display an image having an arbitrary shape such as a finger shape in addition to a general cursor shape as the shape of the pointer 110 displayed on the display unit 230.
  • the distance Dgd 710 is defined as the distance between the icon center 928 and the assumed contact start point 950.
  • the distance information to any place of the screen display part is not limited to the icon center 928. You may obtain
  • the number of screen display parts for calculating the distance information used by the coordinate mode selection unit 326 is not limited to one.
  • the coordinate mode selection unit 326 may calculate and use a distance from a plurality of screen display parts, and may further use an average value thereof.
  • the method used in the coordinate mode determination by the coordinate mode selection unit 326 before the standby pointer display ends is partially used. Or may be used in combination or in part.
  • the coordinate mode selection unit 326 may select the coordinate mode according to the distance between G_n (x, y) 512 and the screen display (GUI).
  • the coordinate mode selection unit 326 may select the coordinate mode according to the position (or history) of the current (or past) pointer on the screen.
  • the coordinate mode selection unit 326 selects a coordinate mode according to the mutual distance between the three points G_n (x, y) 512, the position of the screen display (GUI), and G_cur (x, y) 520. Also good.
  • G_it (x, y) 510 may be added to the previous three, and the coordinate mode selection unit 326 may select a coordinate mode according to the mutual distance of the four points.
  • the coordinate mode selection unit 326 is not limited to G_it (x, y) 510, but arbitrary coordinate information included in the first coordinate series (for example, at the end of the first coordinate series or in the middle of the start and end points).
  • the coordinate mode may be selected using coordinate information corresponding to a certain point).
  • the coordinate mode selection unit 326 can display the pointer on the GUI part by selecting the absolute coordinate mode 130 as the coordinate mode (S280).
  • the coordinate mode selection unit 326 may select the absolute coordinate mode 130 as the coordinate mode in preference to other conditions. Good.
  • G_it (x, y) 510, G_n (x, y) 512, the screen display (GUI) position, and the current position of the pointer 110 on the display unit 230 depend on the mutual distance.
  • the coordinate mode selection unit 326 may select the coordinate mode.
  • the coordinate mode selection unit 326 may select the coordinate mode by combining a plurality of mutual distances or weighting.
  • the coordinate input device 201 may have a plurality of input detection units 210 (for example, touch pads) like the remote-control type coordinate input device 201 with a touch pad shown in FIG.
  • the acquisition storage unit 204 stores all inputs from the plurality of input detection units 210 in the detection result series storage unit 314.
  • the coordinate mode selection unit 326 may return the coordinate mode to the default value when the input detection unit 210 (touch pad) used for input is changed.
  • the coordinate mode selection unit 326 may select the coordinate mode according to the estimation result of the grip estimation unit 316 (for example, how to hold the user such as the right hand, the left hand, and both hands).
  • the coordinate mode selection unit 326 determines at least one of a specific grace time Wt, specific times Wp and Wd, and specific thresholds Rr and Rb according to the gripping state estimated by the grip estimation unit 316. It may be increased or decreased.
  • the left side and the right side of the input detection unit 210 are easier operations for the user as the positions where the thumb is brought into contact. This is because touching the right side of the input detection unit 210 with the thumb while gripping with the right hand becomes unstable as the gripping state.
  • the coordinate mode selection unit 326 may return the coordinate mode to a specified value (either one of the absolute coordinate mode 130 and the relative coordinate mode 132) when the user's way of holding changes. Also, the coordinate mode selection unit 326 may return the coordinate mode to the specified value once the user's hand has left the coordinate input device 201.
  • the coordinate mode selection unit 326 may change the specified value of the coordinate mode when the user holds the coordinate input device 201 with both hands and when the user holds it with one hand.
  • the coordinate mode selection unit 326 may change the specified value of the coordinate mode depending on whether the user holds the coordinate input device 201 with the right hand or the left hand.
  • the coordinate mode selection unit 326 may change the specified value of the coordinate mode according to the user's dominant hand.
  • the coordinate mode selection unit 326 may select the coordinate mode by other methods without being limited to these.
  • the specified value of the coordinate mode could not be changed.
  • the specified value of the coordinate mode can be changed according to, for example, the user's preference and purpose of use.
  • FIG. 11 is a flowchart showing the processing of the coordinate determining apparatus 200 in the third modification example of the present embodiment.
  • the coordinate determining apparatus 200 first sets the default value of the coordinate mode to one of the absolute coordinate mode 130 and the relative coordinate mode 132 (S310).
  • the coordinate mode selection unit 326 displays a GUI screen on the display unit 230 and acquires and sets the result of selection by the user using the coordinate input device 201, or the coordinate mode selection unit A method in which 326 determines from the past operation history is conceivable.
  • the coordinate mode selection process (S350) performed by the coordinate mode selection unit 326 is not limited to the above.
  • the input time of the contact start point 910 is within a certain time from the input time of the movement end point 906, and the distance between the input coordinates of the contact start point 910 and the input coordinates of the contact start point 904 is within a certain distance.
  • the coordinate mode selection unit 326 may select the relative coordinate mode 132 as the coordinate mode, and may select the absolute coordinate mode 130 in other cases.
  • the coordinate mode selection unit 326 may select the coordinate mode using the determination process (S232, S252, S280) used in the other modified example described above.
  • coordinate determination device 200 described in the present embodiment can be realized by a computer.
  • coordinate determination apparatus 200 includes a computer 34, a keyboard 36 and mouse 38 for giving instructions to computer 34, a display 32 for presenting information such as calculation results of computer 34, a computer 34 includes a CD-ROM (Compact Disc-Read Only Memory) device 40 for reading the program executed in 34 and a communication modem (not shown).
  • CD-ROM Compact Disc-Read Only Memory
  • a program for realizing each process performed by the coordinate determination device 200 is stored in a CD-ROM 42 which is a computer-readable medium and is read by the CD-ROM device 40. Alternatively, it is read by a communication modem through the computer network 26.
  • FIG. 13 is a block diagram showing a hardware configuration of a computer system that implements the coordinate determination apparatus 200.
  • the computer 34 includes a CPU 44, a ROM 46, a RAM 48, a hard disk 50, a communication modem 52, and a bus 54.
  • the CPU 44 executes the program read via the CD-ROM device 40 or the communication modem 52.
  • the ROM 46 stores programs and data necessary for the operation of the computer 34.
  • the RAM 48 stores data such as parameters at the time of program execution.
  • the hard disk 50 stores programs and data.
  • the communication modem 52 communicates with other computers via the computer network 26.
  • the bus 54 connects the CPU 44, the ROM 46, the RAM 48, the hard disk 50, the communication modem 52, the display 32, the keyboard 36, the mouse 38, and the CD-ROM device 40 to each other.
  • the system LSI is a super multifunctional LSI manufactured by integrating a plurality of components on one chip, and specifically, a computer system including a microprocessor, a ROM, a RAM, and the like. .
  • a computer program is stored in the RAM.
  • the system LSI achieves its functions by the microprocessor operating according to the computer program.
  • a part or all of the constituent elements constituting each of the above devices may be constituted by an IC card or a single module that can be attached to and detached from each device.
  • the IC card or module is a computer system that includes a microprocessor, ROM, RAM, and the like.
  • the IC card or the module may include the super multifunctional LSI described above.
  • the IC card or the module achieves its function by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.
  • the present invention may be the method described above. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of the computer program.
  • the present invention relates to a computer-readable recording medium such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray Disc). (Registered trademark)), a memory card such as a USB memory or an SD card, or a semiconductor memory. Further, the digital signal may be recorded on these recording media.
  • a computer-readable recording medium such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray Disc). (Registered trademark)
  • a memory card such as a USB memory or an SD card
  • the digital signal may be recorded on these recording media.
  • the computer program or the digital signal may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like.
  • the present invention may also be a computer system including a microprocessor and a memory, in which the memory stores the computer program, and the microprocessor operates according to the computer program.
  • program or the digital signal is recorded on the recording medium and transferred, or the program or the digital signal is transferred via the network or the like and executed by another independent computer system. You may do that.
  • the present invention can be applied to a coordinate determination device or the like, and in particular to a coordinate determination device or the like that determines the coordinate position of a pointer on a display unit of a display device based on input information acquired from the coordinate input device.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 ユーザが自然な動作を行う中で自動的にユーザにとってより使いやすい座標モードを認識し、座標モードの切替を行う座標決定装置を提供するため、本発明に係る座標決定装置(200)は、座標入力装置(201)から座標情報を取得して記録媒体に格納する取得格納部(204)と、記憶媒体に格納された複数の座標情報のうち第1及び第2の座標情報によって示される入力時刻間の相関を特定する時間相関特定部(320)と、複数の座標情報のうち第3の座標情報及び第2の座標情報によって示される入力座標間の相関を特定する座標相関特定部(324)と、座標相関値及び時刻相関値に基づいて座標モードを選択する座標モード選択部(326)と、第2の座標情報によって示される入力座標を座標モード選択部(326)によって選択された座標モードにしたがった座標に変換する座標変換部(328)とを備える。

Description

座標決定装置、座標決定方法及び座標決定プログラム
 本発明は、座標決定装置、座標決定方法及び座標決定プログラムに関し、特に座標入力装置から取得した入力情報に基づき、表示装置が有する表示部上でのポインタの座標位置を決定する座標決定装置等に関する。
 ディスプレイの大画面化・高性能化に伴い、TVを単に放送番組及び映画を視聴するために利用するだけでなく、インターネット接続による多様な情報閲覧、ネットワークに接続された家庭内機器との連携、写真閲覧やゲームといった各種アプリケーション、といった新しい機能が実現され利用されつつある。
 このような状況において、今後も更に開発されると予想される多種多様なアプリケーションや機能を操作するためには、従来の代表的な複数のボタンで構成される入力装置に加えて、より自由度が高く柔軟な入力操作が可能な入力装置の開発が必須である。
 ポインティングデバイスは、画面に表示されたポインタやカーソルを制御し、任意の位置及び方向を指定することがでる入力装置で、例えば、タッチパネル、トラックボール、ジョイスティック及びマウスなどである。従来のボタン型に比べて、GUIの構成に関わらず、メニューやオブジェクトの選択操作が容易なため、近年開発されている携帯電話やAV機器、ゲーム機器に数多く搭載されつつある。
 中でも、近年タッチパネルやタッチパッドを入力装置として採用している機器が多く開発されており、直接指やペンでタッチすることで操作できる直感性が特徴である。数多くのコマンド・ジェスチャ操作を使用することができるため、素早く自由度の高いポインティングデバイスとして情報機器に加えて、より多くのユーザが使う家電機器のリモコンにも用いられつつある。
 このような従来の座標入力装置に依る表示装置上でのポインタ位置の提示方法及び操作方法は、「座標入力装置と表示装置が一体型となっているか分離型か」という分類軸、及び「ユーザが入力する座標入力装置側の座標系とシステムが表示する表示装置側の座標系が1体1に対応しているか」という分類軸によって、大きく4つに区分できる。
 ここで一体型とは「1つのデバイスとしてタッチパネルのように重畳している形状」を指し、分離型とは「パソコンのディスプレイとマウスのような分離している形状」を指している。
 以下、ユーザが入力する座標系とシステムが表示する座標系が1体1に対応しているものを絶対座標モードと呼び、それ以外を相対座標モードと便宜的に呼称する。また、両座標モードを相互に切り替えることを座標モード切替と便宜的に呼称する。
 (1)一体型で絶対座標モードであるもの
 表示装置の表示部(ディスプレイ)と座標入力装置の入力検知部(タッチパネル)が重畳した構成で、直接、表示部上の操作対象物(アイコン等)を触ることでポインティングを行うもの。任天堂社のNintendoDS(登録商標)や、アップル社のiPhone(登録商標)など。
 (2)分離型で相対座標モードであるもの
 表示装置の表示部と座標入力装置の入力検知部が物理的に重なり合っておらず、座標入力が表示装置に対して間接的になるもの。デスクトップパソコンのマウス、ラップトップパソコンのタッチパッドなど。ラップトップパソコン全体を1つの機器とみなした場合、タッチパッドと表示装置は一体型になっているとも言えるが、本願では、表示部と入力検知部が前例(1)のように物理的に重なり合っていないことから、分離型として扱う。
 (3)分離型で絶対座標モードであるもの
 タッチパッドやタブレットなどの入力検知部上の座標が、表示部上の座標に1対1で対応付けられているもの。手書き文字入力機器用のタッチパッド、描画ツール用の外付け入力タブレットなど。ワコム社(Wacom社)のペン入力型タブレットやタッチタブレット(液晶との一体型ではないもの)など。入力検知部に触れた(入力し始めた)座標点がそのまま表示部上の対応する座標位置に変換されるため、手書き漢字の入力やイラスト描画等に用いられる。
 (4)一体型で相対座標モードであるもの
 タッチパネルを用いた一部のゲームアプリケーションで、ゲーム中の主人公を操作するために、表示装置の表示部兼座標入力装置の入力検知部の一部を用いる例などがある。このケースに相当するコントロールデバイス・方法は、上記(1)~(3)に比べ一般的ではない。
 このように座標入力装置と表示装置の間には、座標のやり取り(表示コントロール)の方法において大きく「絶対座標モード」と「相対座標モード」の2つが存在する。
 代表例として、図16及び図17に、「分離型で絶対座標モード」と「分離型で相対座標モード」を用いたポインティング例を示す。なお、入力検知部210は例えばタッチパッド等である。また、表示部230は例えばLCD(Liquid Crystal Display)等である。いま、座標モードの説明のため、入力検知部210を指でなぞると、そのポインタの軌跡が表示部230に表示されるものとする。
 図16は絶対座標モード時の入力検知部210での指の軌跡と表示部230でのポインタの軌跡の対応を示す図である。
 例えば入力検知部210上に指を接触させ、軌跡A610のようなぞると、表示部230上では軌跡表示A620が表示される。このとき入力検知部210上の接触座標は表示部230上の座標に1対1に対応している。
 一方、図17は相対座標モード時の入力検知部210での指の軌跡と表示部230でのポインタの軌跡の対応を示す図である。
 例えば入力検知部210上に指を接触させ、順に軌跡B630、軌跡C632、軌跡D634となぞると、表示部230では連続した軌跡表示B640、軌跡表示C642及び軌跡表示D644が表示される。ここで、軌跡表示B640、軌跡表示C642及び軌跡表示D644は、それぞれ軌跡B630、軌跡C632及び軌跡D634の入力にそれぞれ対応している。
特開2001-117713号公報 特開平10-340153号公報 特開平11-095912号公報 特開2006-201916号公報 特開2001-228964号公報
花井幸太郎、角田博保著「接触面積を用いたタッチパッドのためのカーソル移動手法」、情報処理学会インタラクション2008、電気通信大学情報工学科
 しかしながら、従来の座標入力装置では、ユーザにとって自然な動作・操作体系の中で、自動的に座標モード切替をすることが出来ないという課題がある。
 実用上、1つの座標入力装置において、座標モードの切替が必要となるケースは、頻繁に発生する。すなわち、1つの座標入力装置において、ユーザからの入力を絶対座標モードとして解釈すべき場合と、相対座標モードとして解釈すべき場合とが存在する。
 相対座標モードと絶対座標モードのどちらで操作するかはユーザの好みの問題であるが、ユーザが快適な操作を行うには、座標モードを切り替えるための物理スイッチ等の操作無しに自動的に相対座標モードと絶対座標モードを切り替える必要が有る。しかし、従来技術では、座標モードを自動的に切り替える座標入力装置では実現できていない。
 本発明は、こうした従来の課題を解決するもので、ユーザが自然な動作を行う中で自動的にユーザにとってより使いやすい座標モードを認識し、座標モードの切替を行う座標決定装置を提供することを目的とする。
 本発明のある局面に係る座標決定装置は、入力座標に応じた出力座標を決定する座標決定装置であって、前記入力座標及び入力時刻を示す座標情報を順次取得して記録媒体に格納する取得格納部と、前記記録媒体に格納されている複数の座標情報のうち第1及び第2の座標情報によって示される入力時刻間の相関を時刻相関値として特定する時間相関特定部と、前記複数の座標情報のうち第2及び第3の座標情報によって示される入力座標間の相関を座標相関値として特定する座標相関特定部と、前記座標相関値及び前記時刻相関値に基づいて、第一の座標モード及び第二の座標モードのうちの何れか一方を座標モードとして選択する座標モード選択部と、前記第2の座標情報によって示される入力座標を、前記座標モード選択部によって選択された座標モードにしたがった座標に変換することによって、当該座標を前記出力座標として決定する座標変換部とを備え、前記座標変換部は、前記第一の座標モードが選択されたときには、前記第2の座標情報によって示される入力座標を、当該入力座標に予め定め対応付けられた座標に変換し、前記第二の座標モードが選択されたときには、前記第2の座標情報によって示される入力座標を、他の入力座標に対して既に決定された出力座標に応じた座標に変換する。
 この構成によると、ユーザによる物理スイッチ等の特別な操作無しに、タッチ操作の時刻と、座標位置とに対応する特徴量をそれぞれ算出し、これらを統合してユーザのメンタルモデルを判断することにより、ユーザが自然な動作を行う中で自動的にユーザにとってより使いやすい座標モードを認識し、座標モードを切り替えることができる。
 具体的には、前記座標相関特定部は前記入力座標間の距離を前記座標相関値として特定し、特定した前記座標相関値が事前に定められた特定の閾値未満であるか否かを判定し、前記時間相関特定部は前記入力時刻間の差を前記時刻相関値として特定し、特定した前記時刻相関値が事前に定められた特定の時間未満であるか否かを判定し、前記座標モード選択部は前記座標相関特定部及び前記時間相関特定部によって、前記座標相関値が特定の閾値未満であり、かつ前記時刻相関値が特定の時間未満であると判断された場合、前記第二の座標モードを座標モードとして選択してもよい。
 このように判断することで、タッチ操作時の操作時間と、タッチした座標間の距離とを特徴量として、座標入力装置を操作するユーザのメンタルモデルに応じた座標モードを自動的に認識することができる。
 好ましくは、前記取得格納部は、入力検知部を有する座標入力装置から座標情報を取得しており、前記第1の座標情報は、ユーザが前記入力検知部から指を離した時刻に対応する座標情報であり、前記第2の座標情報は、前記第1の座標情報が検知された後、ユーザが前記入力検知部に再度指を接触させた時刻に対応する座標情報であるとしてもよい。
 このような情報を用いることで、ユーザの操作時刻からユーザにとって使いやすい座標モードを認識できる。
 より好ましくは、前記第3の座標情報は、ユーザが前記入力検知部に指を接触させた時刻に対応する座標情報であり、前記第1の座標情報は、前記第3の座標情報が検知された後、ユーザが前記入力検知部から指を離した時刻に対応する座標情報であり、前記第2の座標情報は、前記第1の座標情報が検知された後、ユーザが前記入力検知部に再度指を接触させた時刻に対応する座標情報であるとしてもよい。
 このような情報を用いることで、ユーザの操作時刻と座標からユーザにとって使いやすい座標モードを認識できる。
 また、前記取得格納部は、さらに、ユーザによる選択操作の完了時刻である選択完了時刻を含む選択完了情報を取得して前記記録媒体に格納し、前記座標モード選択部は前記記録媒体から前記選択完了情報を取得し、前記第1の座標情報によって示される入力時刻が、前記選択完了時刻から事前に定められた特定の猶予時間内であれば、座標モードの選択を行わない若しくは座標モードの変更を行わないとしてもよい。
 この処理により、クリックに伴う副次的なリリースで、ユーザの意図しない座標モードの切替を防ぐことができる。
 また、前記座標決定装置は、さらに、前記座標入力装置を備えており、前記座標入力装置は、ユーザによる座標入力操作及び選択操作を受け付けて、前記座標情報及び前記選択完了情報を前記取得格納部に送信し、前記入力検知部は、機械的な押し下げ動作を検知可能なクリッカブルタッチパッドであり、ユーザが前記クリッカブルタッチパッドを押し下げた指を離したことに起因して前記クリッカブルタッチパッドの戻し動作が完了する時刻を前記選択完了時刻として特定してもよい。
 この構成によると、クリッカブルタッチパッドを備えた座標入力装置において、ユーザによる物理スイッチ等の特別な操作無しに、ユーザが自然な動作を行う中で自動的にユーザにとってより使いやすい座標モードを認識し、座標モードを切り替えることができる。
 また、前記座標モード選択部は、前記第2の座標情報より前に前記取得格納部が取得した複数の座標情報及び選択情報のうち少なくとも1以上に基づいて、ユーザの操作特性を示す操作度合いを算出し、前記算出された操作度合いに基づいて、前記特定の時間、前記特定の閾値及び前記特定の猶予時間のうち少なくとも1つを変更してもよい。
 この処理によると、ユーザごとの操作の違いに応じて、個々のユーザによって、より自然な動作を行う中で自動的にユーザにとってより使いやすい座標モードを認識し、座標モードを切り替えることができる。
 具体的には、前記座標モード選択部は、前記複数の座標情報に含まれる一の座標情報ごとに、当該座標情報によって示される入力時刻と、他の座標情報によって示される入力時刻との差を算出し、算出された前記複数の差の平均値の逆数を前記操作度合いとして算出するとしてもよい。
 この処理によると、座標入力システムに対するユーザの慣れを操作度合いとして用いることができる。
 さらに、前記座標モード選択部は、前記算出された操作度合いが大きいほど、前記特定の時間、前記特定の閾値及び前記特定の猶予時間のうち少なくとも1つを小さくなるように変更するとしてもよい。
 この処理によると、座標入力システムに対するユーザの慣れが進むにつれ、ユーザにとって自然な動作の認識を迅速にできるようになる。
 また、前記第3の座標情報で示される位置が、前記第1の座標情報で示される位置と一致してもよい。
 また、前記第1の座標情報は、ユーザが前記入力検知部に一旦指を触れてから離すまでに入力された一連の座標情報である第1の座標系列に含まれ、前記第2の座標情報は、前記第1の座標系列の入力後、ユーザが再度前記入力検知部に指を触れてから指を離すまでに入力された一連の座標情報である第2の座標系列に含まれ、前記第3の座標情報は、前記第1の座標系列に含まれてもよい。
 こうした様々な距離を用いることで、より多様な使用状況において自動的にユーザにとってより使いやすい座標モードを認識し、座標モードを切り替えることができる。
 また、前記座標モード選択部は、前記第1の座標情報によって示される入力時刻から事前に定められた特定の時間が経過しておらず、かつ、前記取得格納部が前記第2の座標情報を取得していない場合には、表示部へ特定の画像を表示させてもよい。
 この表示によると、ユーザはシステムが自動的に認識する座標モードについて予測することが可能となる。
 また、前記座標決定装置は、さらに、前記第1の座標系列が、表示装置に対して特定の計算機処理の開始を指令するジェスチャであるか否かを判定する操作認識部を有し、前記操作認識部が前記第1の座標系列をジェスチャと判定した場合、前記座標モード選択部は、前記座標モードの選択を行わないとしてもよい。
 この構成によると、様々なジェスチャを入力できる座標入力装置においても、ユーザが自然な動作を行う中で自動的にユーザにとって使いやすい座標モードを認識し、座標モードを切り替えることができる。
 また、前記取得格納部は、さらに、ユーザが前記座標入力装置のどの位置を把持しているのかを示す把持情報を取得して前記記録媒体に格納し、前記座標決定装置は、さらに、前記記録媒体から取得した前記把持情報を用いてユーザによる前記座標入力装置の把持状況を推定する把持推定部を有し、前記座標モード選択部は、前記把持推定部が推定した把持状況に応じて、前記特定の閾値、前記特定の時間及び前記特定の猶予時間のうち少なくとも1つの値を変更するとしてもよい。
 この構成によると、より正確に、ユーザにとって使いやすい座標モードを認識し、座標モードを切り替えることができる。
 また、前記座標入力装置は、前記入力検知部を少なくとも2以上備え、前記取得格納部は、前記複数の入力検知部のうち第1の入力検知部から取得する座標情報及び第2の入力検知部から取得する座標情報を前記記録媒体に格納するとしてもよい。
 この構成によると、2以上の入力検知部を備えた座標入力装置においても、ユーザにとって使いやすい座標モードを認識し、座標モードを切り替えることができる。
 また、入力座標に応じた出力座標を決定する座標決定装置であって、座標入力装置から前記入力座標を示す座標情報を順次取得して記録媒体に格納する取得格納部と、表示装置に表示されるアイコンの中心に対応する表示装置上の座標と、前記記録媒体に格納された前記複数の座標情報のうち第2の座標情報によって示される入力座標を絶対座標モードにしたがって変換した出力座標との距離を特定する座標相関特定部と、前記距離に基づいて、絶対座標モード及び相対座標モードのうちの何れか一方を座標モードとして選択する座標モード選択部と、前記第2の座標情報によって示される入力座標を、前記座標モード選択部によって選択された座標モードにしたがった座標に変換することによって、当該座標を前記出力座標として決定する座標変換部とを備え、前記座標変換部は、前記絶対座標モードが選択されたときには、前記第2の座標情報によって示される入力座標を、当該入力座標に予め定め対応付けられた座標に変換し、前記相対座標モードが選択されたときには、前記第2の座標情報によって示される入力座標を、他の入力座標に対して既に決定された出力座標に応じた座標に変換する座標決定装置としてもよい。
 この構成によると、ユーザが画面上の特定の位置に表示されたアイコンをクリックする際に、座標決定装置は自動的に絶対座標モードを選択することができ、ユーザの意図に沿った座標モードを選択することができる。
 以上より、本発明によると、ユーザが自然な動作を行う中で自動的にユーザにとってより使いやすい座標モードを認識し、座標モードの切替を行う座標決定装置を提供できる。
図1は本実施の形態における、座標決定装置を実現する座標入力システムの外観図である。 図2は本実施の形態における、座標決定装置の一例を示す機能ブロック図である。 図3は本実施の形態における、入力検知部におけるユーザの操作の一例を示す模式図である。 図4は本実施の形態における、座標モードの判定に用いる接触座標の一例を示す模式図である。 図5は本実施の形態における、ポインタ表示終了後に取得された入力情報に対する座標モード判定処理を示す状態遷移図である。 図6は本実施の形態における、ポインタ表示終了前に取得された入力情報に対する座標モード判定処理を示す状態遷移図である。 図7は本実施の形態における、座標決定装置の処理を示すフローチャートである。 図8は本実施の形態における、リリースイベント以外のイベント処理の詳細を示すフローチャートである。 図9は本実施の形態における第1の変形例において、操作度合いによる閾値等の変更処理を示すフローチャートである。 図10は本実施の形態における第2の変形例において、座標モードの判定に用いる距離の一例を示す模式図である。 図11は本実施の形態における第3の変形例において、座標決定装置の処理を示すフローチャートである。 図12は本発明の実施の形態における、座標決定装置を実現するコンピュータシステムの一例を示す外観図である。 図13は本発明の実施の形態における、座標決定装置を実現するコンピュータシステムのハードウェア構成を示すブロック図である。 図14aは従来例(特許文献1)に開示されている座標切替手段のフローチャートである。 図14bは従来例(特許文献1)に開示されている座標切替手段のフローチャートである。 図15aは従来例(特許文献5)に開示されている座標切替手段のフローチャートである。 図15bは従来例(特許文献5)に開示されている座標切替手段のフローチャートである。 図16は絶対座標モード時の入力検知部上での軌跡と表示装置上での軌跡の対応を示す図である。 図17は相対座標モード時の入力検知部上での軌跡と表示装置上での軌跡の対応を示す図である。
 まず、本願発明と従来技術との差異を明確にするため、座標決定装置において座標モードを切り替えるための従来技術についてより詳細に説明する。
 従来、座標モードを切り替えるための技術としては、
 ・ユーザにESCキーを押下させるなど、アプリケーションに依存させて絶対座標モードと相対座標モードを切り替えるもの(例えば、特許文献1参照)、
 ・入力検知部210上に備えた物理的な切換えボタン(スイッチ)をユーザに操作させるもの(例えば、特許文献2参照)、
 ・表示部230上でのポインタ位置によって切り替えるもの(例えば、特許文献1及び特許文献3参照)、
 ・絶対座標モードの入力と相対座標モードの入力にそれぞれ別々の入力検知部210を仮定しているもの(例えば、特許文献4参照)、
 ・タッチパッド上での指の接触面積の大きさによって座標モード切替を行うもの(例えば、非特許文献1参照)、
 ・タッチパッドへ入力する時間間隔によって座標モード切替を行うもの(例えば、特許文献5参照)などが提案されている。
 図14a及び図14bは、特許文献1に記載された従来の座標モード切替処理を示すフローチャートである。
 図14aに示すように、ステップS2で座標入力システムは座標モードを絶対座標モードに設定する。
 次にステップS4でユーザがタッチパッドに入力した座標を、座標入力システムはステップS5で決められたサイズ内で(絶対座標モードに)補正する。
 以後、ステップS8で座標入力システムがユーザからのESCキーの入力を検知する限り、座標入力システムは上記の処理を続ける。
 また、ステップS8で座標入力システムがユーザからのESCキーの入力を検知しなければ、座標入力システムはステップS9で相対座標モードに切り替える。
 さらに、図14bに示すように、ステップS14で座標入力システムはマウスカーソル(ポインタ)が所定の領域内に有るか否かを判断する。
 マウスカーソル(ポインタ)が領域内にある場合には、ステップS15で座標入力システムは相対座標モードから絶対座標モードに座標モードを切り替える。以後、ステップS19で座標入力システムがESCキーの入力を検知するまで、座標入力システムは座標モードを絶対座標モードに設定する。
 このように、特許文献1における座標モード切替は、座標入力システムがユーザによるESCキーの入力を検知することで行われている。
 また、特許文献5では、タッチパッドへの入力の時間間隔を用いて、「入力モード」を切り替えることが提案されている。
 図15a及び図15bは、特許文献5に記載された座標入力システムにおける入力モードの座標モード切替処理を示すフローチャートである。図15aのステップS44~ステップS49では、タッチパッド上へのn回の座標入力の平均値を算出し、これを入力座標値として、ステップS50で座標モードを判定している。
 この座標モードの判定は、図15bのステップS34で示されるように「タッチパッド上への入力間隔が一定時間内であるかどうか」を基準に行われている。すなわち、一定時間外であればステップS35で「第1モード」と呼ばれる入力モードに切り替わり、一方、一定時間以内であればステップS36で「第2モード又は絶対値モード」に切り替わる。
 しかし、特許文献5に開示されている第1モードと第2モードの違いは、ステップS55の「前回座標値有り?」という判断部分の有無だけであり、実際の座標処理では、第1モード及び第2モードともに、ステップS57~ステップS59の「今回入力座標値の前回入力座標値に対する相対値」を出力している。
 すなわち、特許文献5に開示された発明においては、第1モード及び第2モードともに、「入力座標値間の相対値」を出力する、いわゆる相対座標モードとなっている。
 さらに特許文献5では、第2モード又は絶対値モードのどちらを用いるべきかを、座標入力システムが判断するための判断基準については開示されていない。すなわち、絶対値モードかどうかは物理的なスイッチ(特許文献5中で「スイッチ5」と記載)による設定でのみ判断が為される旨のみが記載されている(特許文献5では、絶対値モードへの以下のような記載がある。「[0032]また、スイッチ5は、電源電圧29によって座標入力パネル10の絶対値モード及び相対値モードを切り替える。スイッチ5の切り替えにより、CPU3は絶対値モードと相対値モードを切り替えて座標値の検出を行う。」)。
 以上述べたように、いずれの従来技術においても、アプリケーションによらずユーザの入力意図(すなわち、絶対座標として入力したいのか、又は相対座標として入力したいのかという意図)をユーザの入力動作から推定することで、座標入力装置が使用する座標モードを切り替えることは、発明の課題とされていない。
 より具体的に、タッチパッドを例に挙げて説明すると、相対座標モードによる操作では、「タッチパッド上で指を滑らせ、離し、また開始場所近辺に戻り、パッド上に指を滑らせる」といった「同じような動作の繰り返し」が基本となる。
 一方、絶対座標モードによる操作では、「タッチパッドから指を離さず目的の場所まで一回で到達する」形が、ユーザがタッチパッドを用いて操作する場合の基本的な(暗黙のうちに行う)メンタルモデルである。
 従来はこういったユーザの実際の利用場面に沿ったメンタルモデルに基づいて、座標入力システムが「実際に使い易い」座標モードを選択し、座標モードを切り替える手法が提案されていない。
 具体的に、従来技術では、以下の課題を有している。
 ・ユーザは座標モードを切り替えたいと欲するたびに、特定のボタン、スイッチ、入力検知部等を使用して座標モードの切替操作を行う必要が有る(特許文献1~2及び特許文献4~5)。
 ・ユーザは座標モードを切り替えるために特定の位置へのポインタの移動を強いられ、かつ、その位置にポインタを移動させると強制的に切替が発生するため自由な操作系の切替が不可能である(特許文献1及び3)。
 ・ユーザは座標モードを切り替えるために指の接触面積をコントロールしながらポインタも操作する、といった(一般的とは言えない)新奇な操作を覚えることを強いられ、かつ、操作面でも困難な動作を強いられる(非特許文献1)。
 そのため、ユーザにとって自然な動作・操作体系の中で、自動的に座標モード切替をすることが出来ないといった根源的な課題を有している。
 また、物理的なボタン等の設置や複数のインプットデバイスの設置はコストアップの要因となる。仮に画面上に仮想的な切替ボタンを配置しても、都度、スイッチを切り替える必要があるため直感的に操作できず、さらに画面デザイン・デバイスデザインにも制約が加わる。
 一方、本発明は、ユーザの入力動作に基づいて、当該入力動作時のユーザのメンタルモデルに応じた座標モードを適切に選択可能な座標決定装置を提供することで、以上の従来の課題を解決することができる。
 以下本発明の実施の形態について、図面を参照しながら説明する。
 図1は、本実施の形態において、本発明に係る座標決定装置200を用いて実現される座標入力システム90の外観図である。座標入力システム90は、表示装置100と、座標入力装置201から構成される。
 表示装置100は、座標入力装置201からユーザの入力を受け付け、その入力に対応する処理結果を表示部230に表示する装置である。例えば、テレビや映像録画・再生装置等が考えられるが、これらに限られない。
 座標入力装置201は、有線又は無線で接続された表示装置100へユーザの操作情報を入力する入力装置である。例えば、テレビや映像録画・再生装置等のリモコン等が考えられるが、これらに限られない。
 また、表示装置100は座標決定装置200と、表示部230とを備える。
 座標決定装置200は、座標入力装置201へ入力されたユーザの入力情報を取得し、表示部230に表示する処理装置である。
 本実施の形態に係る座標決定装置200は、自動的にユーザにとってより使いやすい座標モードを決定し、決定した座標モードに従って座標入力装置201内から取得した入力座標をポインタ座標位置へと変換した後に、表示部230へ出力する。
 すなわち、ポインタ座標位置は、座標決定装置200の出力座標である。
 表示部230は、表示装置100が備える視覚表示装置である。例えばLCDやCRT(Cathode Ray Tube)等が考えられるが、これらに限られない。表示部230は、座標決定装置200が出力するポインタ座標位置にポインタ110を表示する。
 ポインタ110は、GUI(Graphical User Interface)環境において、捜査対象を示すために表示される小さな図形である。座標入力装置201への操作によって、表示部230に表示されたポインタ110が移動する。例えば、ポインタ110は矢印や指等の形をした図形等である。
 また、座標入力装置201は、入力検知部210と、把持検出センサ212と、送信部220とを備える。
 入力検知部210は、入力情報を取得するポインティングデバイスである。入力検知部210に用いられるデバイスとしては、例えば、タッチパッドやタブレット、トラックボール等が考えられる。
 入力検知部210が取得する入力情報は、主に座標情報及び選択情報である。
 座標情報とは、例えばユーザが入力検知部210に指を触れることで入力する、入力座標及びその入力時刻である。すなわち、座標決定装置200は、座標情報に含まれる入力座標から、出力座標であるポインタ座標位置を決定する。
 座標情報に含まれる入力座標は、入力検知部210上でユーザが指を触れた位置に対応する。
 なお、入力座標とは、例えば2次元又は3次元空間上の点を表す値である。
 ユーザは、入力検知部210を用いて座標情報を入力することで、例えばポインタ110を移動させることができる。
 次に選択情報とは、例えばユーザが入力検知部210をタップ又はクリック等して入力する選択操作の開始及び終了のいずれかを示す入力情報である。具体的には、選択情報は選択開始時刻を示す選択開始時刻情報及び選択終了を示す選択終了時刻情報のいずれか一方である。
 例えば入力検知部210がクリッカブルタッチパッドの場合、ユーザによる入力検知部210の押し込みが完了した時刻を選択開始時刻情報として、入力検知部210は出力する。
 また、ユーザが入力検知部210から指を離すことで、クリッカブルタッチパッドが有するバネ機構により、入力検知部210が元の位置に戻った(クリッカブルタッチパッドの戻し動作が完了した)時刻を選択終了時刻情報として、入力検知部210は出力する。
 ユーザは、入力検知部210を用いて選択情報を入力することで、例えば表示部230に表示されたアイコンを選択し、アイコンに関連づけられた処理を実行することができる。
 さらに、選択情報と座標情報とを組み合わせることで、例えばドラッグ操作が可能となる。
 把持検出センサ212は、ユーザが座標入力装置201の筐体のどの位置を把持しているかを検出し、把持情報として出力するセンサである。
 例えば、ユーザに把持されている箇所に設置された把持検出センサ212のみが、把持されている間は把持されていることを示すON情報を出力することが考えられる。
 こうした把持検出センサ212を、座標入力装置201の筐体の外縁や裏面等に設置することで、座標決定装置200は、例えばユーザが座標入力装置201を左手で把持しているか、右手で把持しているか等を判断するための情報を得る。
 把持検出センサ212の検出方式としては、抵抗膜式、赤外線式、SAW式、静電式等が考えられるが、これに限られない。
 送信部220は、通信インタフェースである。送信部220は、入力検知部210が検知した入力情報を座標決定装置200に送信する。送信部220が送信する入力情報は、具体的には、複数の座標情報、選択情報及び把持情報等である。
 送信部220が用いる通信方式には、無線LANや赤外線通信、近距離無線通信等が考えられるが、これらに限られない。
 なお、図1には記載されていないが、座標入力装置201及び座標決定装置200は、CPU(Central Processing Unit)等の演算装置、ROM(Read Only Memory)及びRAM(Random Access Memory)等の記憶装置を備えていてもよい。
 以上の構成により、ユーザは座標入力装置201が備える入力検知部210に対して操作を加えることにより、表示装置100が備える表示部230に表示されるポインタ110を、所望の位置に移動させることができる。また、所望のアイコンを選択することができる。
 なお、図1における入力検知部210としてはタッチパッド及びタッチパネルはもちろんのこと、パソコンのマウス(一般的なスクロールマウスのほか、ロジクール社のエアーマウス(登録商標)MX Airのような空中でのポインティングが可能なマウスなど、任意のマウスを含む)、空中ポインティングデバイス(カメラ式によるWii(登録商標)のリモコンなど)及びタブレット型入力デバイスなど一般的に入手可能なデバイスを前提としている。
 また、図1では座標入力装置201と座標決定装置200とが分離しているが、座標入力装置201と座標決定装置200とが一体型であってもよい。
 図2は本実施の形態における座標入力装置201及び表示装置100の機能構成を示すブロック図である。なお、図1と同じ要素については同じ符号を付け、説明を省略する。
 座標決定装置200は、取得格納部204と、検知結果系列記憶部314と、把持推定部316と、操作認識部318と、時間相関特定部320と、座標相関特定部324と、座標モード選択部326と、座標変換部328とを備えている。
 取得格納部204は、座標入力装置201から送信される入力情報(座標情報、選択情報、把持情報等)を無線又は有線により順次取得し、検知結果系列記憶部314に格納する。
 検知結果系列記憶部314は、記録媒体であり、例えばRAM等により実現できる。
 把持推定部316は、把持検出センサ212が出力した把持情報を検知結果系列記憶部314から取得する。その後、把持推定部316は把持情報から、ユーザの把持状況を推定し、座標モード選択部326に出力する。
 操作認識部318は、検知結果系列記憶部314から入力情報(座標情報、選択情報等)を取得し、その入力情報が事前に定められた複数の「イベント」のうちのいずれかにマッチするか否かを認識する。その後、操作認識部318は座標モード選択部326に認識結果を通知する。
 操作認識部318が認識するイベントの種類には、例えば「(ポインタの)移動」「リリース」「ジェスチャ(スライド、フリックなど)」「選択」などが考えられる。
 このうち、選択イベントとリリースイベントは、一の選択情報から認識可能なイベントである。
 一方、移動イベントとジェスチャイベントは、一連の座標情報を取得した後でなければ区別ができない。この場合、操作認識部318は、一旦移動イベントとして認識した一連の座標情報を、例えば丸を描くジェスチャだと認識できた後に、ジェスチャイベントとして別途認識することが考えられる。
 次に、時間相関特定部320は、検知結果系列記憶部314から取得した複数の座標情報のうち、第1の座標情報によって示される入力時刻と、第2の座標情報によって示される入力時刻との間の相関を時刻相関値として特定し、座標モード選択部326に出力する。
 ここで、「相関を時刻相関値として特定する」とは、例えば第1の座標情報が入力された入力時刻と第2の座標情報が入力された入力時刻の差を算出した後、その差と事前に定められた特定の時間を比較することである。
 すなわち、時間相関特定部320は、2つの入力時刻の差と特定の時間との大小関係を、時刻相関値として座標モード選択部326に出力する。
 次に、座標相関特定部324は、検知結果系列記憶部314から取得した複数の座標情報のうち、第3の座標情報によって示される入力座標と、第2の座標情報によって示される入力座標との間の相関を座標相関値として特定し、座標モード選択部326に出力する。
 ここで、「相関を座標相関値として特定する」とは、例えば第3の座標情報の入力座標と、第2の座標情報の入力座標の距離を算出した後、その距離と、事前に定められた特定の閾値を比較することである。
 すなわち、座標相関特定部324は、2つの入力座標間の距離と特定の閾値との大小関係を、座標相関値として座標モード選択部326に出力する。
 座標モード選択部326は、座標相関特定部324及び時間相関特定部320から取得した特定結果に基づき、座標モードを絶対座標モード(すなわち、第一の座標モード)及び相対座標モード(すなわち、第二の座標モード)のいずれか一方に決定する。
 例えば、第1の座標情報が入力された時刻と第2の座標情報が入力された時刻との差が、特定の時間以下であり、かつ、第3の座標情報に示される入力座標と第2の座標情報に示される入力座標との距離が特定の閾値以内であれば、座標モード選択部326は座標モードを相対座標モードに決定することが考えられる。より詳細な決定方法については、後述する。
 座標変換部328は、座標モード選択部326が決定した座標モードに従って、座標情報によって示される入力座標を、表示部230上のポインタ座標位置へと変換し、変換されたポインタ座標位置を表示部230へ出力する。
 図17を用いて具体的に説明すると、いまユーザが軌跡B630を入力した後、一旦入力検知部210から指を離し、軌跡C632の始端に指を触れたとする。また、座標モード選択部326は、座標モードを相対座標モードとして決定したとする。
 この場合、座標変換部328は、軌跡C632の始端に対応する入力座標を、軌跡表示B640の終端に対応するポインタ座標位置に変換して表示部230へ出力する。
 すなわち座標変換部328は、軌跡C632の始端に対応する入力座標を、他の入力座標に対して既に決定された出力座標である軌跡表示B640の終端に応じた座標に変換する。
 また、座標モードが絶対座標モードの場合、座標変換部328は、軌跡C632の始端に対応する入力座標を、その入力座標に対して予め定め対応付けられた座標に変換する。座標変換部328は、この対応付けを静的な(すなわち、軌跡C632の始端に対応する座標情報以外の座標情報とは無関係に定められる)ルールに従って行う。
 なお、本発明にかかる座標決定装置200は、取得格納部204と、時間相関特定部320と、座標相関特定部324と、座標モード選択部326と、座標変換部328のみを備える構成であっても、発明の目的を達成できる。
 すなわち、検知結果系列記憶部314が座標決定装置200の構成要素として含まれずとも、例えば座標入力装置201や、座標決定装置200以外の表示装置100が検知結果系列記憶部314を備えても、本発明を実施することができる。
 また、把持推定部316が座標決定装置200の構成要素として含まれずとも、例えば座標入力装置201が把持状態を推定し、その推定結果を座標決定装置200が取得しても、本発明を実施することができる。また、後述するように、座標モード選択部326は把持状況を座標モード選択のための付加的な情報として使用するに過ぎないため、座標モード選択部326が把持状況を使用せずとも、本発明を実施することができる。
 また、操作認識部318が座標決定装置200の構成要素として含まれずとも、例えば座標入力装置201がユーザ操作を認識し、その認識結果を座標決定装置200が取得しても、本発明を実施することができる。また、例えばポインタ110の移動のみを目的としたシステム等、発生するイベントの種類を限定した場合には、ユーザの操作を認識せずとも発生イベントを知ることができる。よって、操作認識部318を備えずとも、本発明を実施することができる。
 次に、図3~図6を用いて、座標モード選択部326が行う座標モード選択処理の概要を説明する。
 図3は、本実施の形態において座標モードの決定に関わる、入力検知部におけるユーザの操作の一例を示す模式図である。
 図3に示すように、第1入力状態810~第4入力状態816の順に、ユーザは入力検知部210を操作する。
 第1入力状態810では、現在の指の位置800が接触開始点904にある。本発明における第3の座標情報として、例えば接触開始点904の入力座標及び入力時刻を用いることが考えられる。
 第2入力状態812では、ユーザは入力検知部210上で指を移動させた後、今まさに入力検知部210上の移動終了点906から指を離そうとしている。例えば、本発明における第1の座標情報として、指を入力検知部210から離す直前の移動終了点906の入力座標及び入力時刻を用いることが考えられる。
 第3入力状態814では、ユーザが指を移動終了点906から一旦離し、再度接触開始点910に指を置く。本発明における第2の座標情報として、例えば接触開始点910の入力座標及び入力時刻を用いることが考えられる。
 第4入力状態816では、ユーザが入力検知部210上で指を移動中の状態であり、現在の指の位置800が移動点912にある。
 なお、ユーザが入力検知部210上の接触開始点904に一旦指を触れてから、移動終了点906で指を離すまでに入力される一連の座標情報を第1の座標系列とする。
 また、第1の座標系列の入力後、ユーザが再度入力検知部210上の接触開始点910に指を触れてから移動点912を通り、再度指を離すまでに入力される一連の座標情報を第2の座標系列とする。
 次に図4は、入力検知部210上の座標である、G_it(x,y)510、G_n(x,y)512及びG_cur(x,y)520を示す図である。
 G_it(x,y)510は、第1の座標系列の始端である。よって、図3の接触開始点904は、G_it(x,y)510である。
 G_n(x,y)512は、第2の座標系列の始端である。よって、図3の接触開始点910は、G_n(x,y)512である。
 G_cur(x,y)520は、現在、入力検知部210上に接触している座標である。よって、図3の移動点912は、G_cur(x,y)520である。
 座標モード選択部326は、これらG_it(x,y)510、G_n(x,y)512及びG_cur(x,y)520等の入力座標や入力時刻、把持情報等を用いて、座標モードを選択する。
 図5は、本実施の形態における、座標モード選択部326が行う座標モード判定処理の一例を示す状態遷移図である。
 座標モード選択部326は、入力検知部210から取得した第2の座標系列の始端であるG_n(x,y)512を表示部230に表示する際の座標モードとして、絶対座標モード130及び相対座標モード132のいずれか一方を選択する。すなわち、座標モード選択部326は、第2座標情報によって示される入力座標をポインタ座標位置として出力するための座標モードを選択する。
 ここで説明のため、現在の座標モードが絶対座標モード130であるとする。
 また、座標情報を入力するユーザが入力検知部210から指を離してから、再度入力検知部210に指を触れるまでの時間をWrとする。
 具体的には、ユーザが移動終了点906で入力検知部210から指を離した後、入力検知部210上の接触開始点910に再び指を置くまでの時間差がWrである。より具体的には、第1の座標情報によって示される入力時刻と第2の座標情報によって示される入力時刻との差をWrとする。
 このとき、時間相関特定部320は、Wrと特定の時間Wdとを比較し、Wrが特定の時間Wd以上であるか否かを示す、時刻相関値を座標モード選択部326に通知する。座標モード選択部326は通知を取得し、Wrが特定の時間Wd以上であれば、座標モード選択部326は座標モードとして絶対座標モード130を選択する(S800)。
 また、座標モード選択部326は通知を取得し、Wrが特定の時間Wd未満であれば、座標モード選択部326は座標モードとして相対座標モード132を選択する(S806)。
 一方、現在の座標モードが相対座標モード132であるとする。
 このときも、時間相関特定部320は、Wrと特定の時間Wdとを比較し、Wrが特定の時間Wd以上であるか否かを示す時刻相関値を、座標モード選択部326に通知する。
 座標モード選択部326は通知を取得し、Wrが特定の時間Wd以上であれば、座標モード選択部326は座標モードとして絶対座標モード130を選択する(S802)。
 また、座標モード選択部326は通知を取得し、Wrが特定の時間Wd未満であれば、座標モード選択部326は座標モードとして相対座標モード132を選択する(S804)。
 また図6は、本実施の形態における、座標モード選択部326が行う座標モード選択処理の他の一例を示す状態遷移図である。
 図5と同じく、座標モード選択部326は、入力検知部210から取得した第2の座標系列の始端であるG_n(x,y)512を表示部230に表示する際の座標モードを、絶対座標モード130及び相対座標モード132のいずれか一方として選択する。
 説明のため、現在の座標モードが絶対座標モード130であるとする。
 また、初期接触位置G_it(x,y)510と初期位置G_n(x,y)512との2点間の距離をRmとする。
 具体的には、接触開始点904と接触開始点910との距離がRmとなる。より具体的には、第3の座標情報によって示される入力座標と、第2の座標情報によって示される入力座標との距離をRmとする。
 このとき、座標相関特定部324は、Rmを特定の閾値Rrと比較し、Rmが特定の閾値Rrよりも大きいか否かを、座標相関値として座標モード選択部326に通知する。座標モード選択部326は通知を取得し、Rmが特定の閾値Rrよりも大きければ、座標モード選択部326は座標モードとして絶対座標モード130を選択する(S820)。
 また、座標モード選択部326は通知を取得し、座標相関特定部324による比較の結果、Rmが特定の閾値Rr以下であれば、座標モード選択部326は座標モードとして相対座標モード132を選択する(S836)。
 一方、現在の座標モードが相対座標モード132であるとする。
 このとき、座標相関特定部324は、Rmを特定の閾値Rbと比較し、Rmが特定の閾値Rbよりも大きいか否かを、座標相関値として座標モード選択部326に通知する。
 座標モード選択部326は通知を取得し、Rmが特定の閾値Rbよりも大きければ、座標モード選択部326は座標モードとして絶対座標モード130を選択する(S822)。
 また、座標モード選択部326は通知を取得し、Rmが特定の閾値Rb以下であれば、座標モード選択部326は座標モードとして相対座標モード132を選択する(S824)。
 以上が、座標モード選択部326が行う処理の概要である。
 図7は本実施の形態における、座標決定装置200の具体的な処理を示すフローチャートである。
 なお、説明のため以下では、初期状態が絶対座標モードであるとして説明する。
 また、当初、ユーザは入力検知部210に指を触れていないとする。
 まず、ユーザは座標入力装置201を把持し、入力検知部210に指を触れたとする。その結果、送信部220は、入力検知部210及び把持検出センサ212が検知した信号を入力情報として取得格納部204に送信する。取得格納部204は取得した入力情報を検知結果系列記憶部314へ格納する。
 次に、座標モード選択部326は、検知結果系列記憶部314から座標情報を取得し、座標情報に含まれる入力座標をG_it(x,y)510として記憶する(S214)。
 なお、現時点でユーザは指を入力検知部210上で移動させていないため、G_it(x,y)510とG_cur(x,y)520は一致する。
 次に、座標変換部328は、取得した入力座標であるG_cur(x,y)520を現在の座標モードである絶対座標モード130に応じたポインタ座標位置に変換し、表示部230へ出力する。
 その結果、表示部230は、ポインタ110を表示するために保持するポインタ座標位置を、G_cur(x,y)520に対応するポインタ座標位置へと更新する(S216)。
 こうして、ユーザが指を触れた入力検知部210上での入力座標に対応する表示部230上のポインタ座標位置にポインタ110が表示される。
 なお、座標変換部328が行う座標の変換処理を関数Mで表すと、絶対座標モードでG_cur(x,y)520を表示部230上のポインタ座標位置P(X,Y)に変換する処理は、P(X,Y)=M(x,y)で示される。すなわち、接触した瞬間の座標情報に含まれる入力座標(x,y)のみによって、座標変換部328はポインタ座標位置P(X,Y)を決定する。
 一方、相対座標モードにおける座標の変換処理は、P(x,y)=M(x,y,X_pre,Y_pre)で示される。すなわち、入力座標(x,y)に加えて、それ以前の入力に対応するポインタ座標位置(X_pre,Y_pre)に依存して、座標変換部328は出力するポインタ座標位置(X,Y)を決定する。
 次に操作認識部318は、検知結果系列記憶部314から、まだ取得していない新しい入力情報の取得を試みる(S218)。
 新しい入力情報が取得できない場合、操作認識部318は再度の取得を試みる(S218でNo)。
 一方、操作認識部318が何らかの入力情報を検知結果系列記憶部314から取得できた場合、操作認識部318は、その入力情報がいずれのイベントとして認識できるかを判定する(S218でYes、S220、S231、S232)。
 ここで、操作認識部318が認識するイベントには、リリースイベント、移動イベント、選択イベント、ジェスチャイベント等がある。
 リリースイベントは、ユーザが入力検知部210に一旦接触させた指を、入力検知部210から離したことを示すイベントである。操作認識部318は、隣り合う入力時刻の差が特定の値以上であるか、隣り合う入力座標の距離が特定の値以上であるかを判断することで、リリースイベントの発生を認識できる。
 移動イベントは、ユーザが入力検知部210上に一旦接触した指を、入力検知部210から離さぬまま移動させたことを示すイベントである。操作認識部318は、直前の座標情報に含まれる入力時刻から一定時間以内の入力時刻を含み、かつ直前の座標情報に含まれる入力座標から一定距離以内の入力座標を含む座標情報を取得すること等により、移動イベントの発生を認識できる。
 選択イベントは、ユーザによる選択操作の完了を意味するイベントである。
 操作認識部318は検知結果系列記憶部314から取得した選択情報が選択完了情報であった場合には、選択イベントの発生を認識する。
 選択完了情報とは、選択開始時刻情報及び選択終了時刻情報のいずれか一方である。選択開始時刻情報及び選択終了時刻情報のどちらを選択完了情報とするかは、座標決定装置200に依存して事前に定められる。
 なぜなら、ユーザによる選択操作の完了を、ユーザによる選択が開始された時刻とするか、選択が終了した時刻とするかは、アプリケーションや座標決定装置200に依存するため、選択開始時刻情報及び選択終了時刻情報のいずれも、選択完了情報となりうるためである。
 ジェスチャイベントは、ユーザが入力検知部210上をはじくような動作を行い又は円や四角を書くなど特定の入力をすることにより、こうした特定の入力と関連づけられた特定の計算機処理を表示装置100に開始させるイベントである。
 前述の通り、操作認識部318は、例えば隣り合う時刻において入力座標が大きく異なることで、移動イベントの発生を認識できる。しかし、操作認識部318は、一定期間の連続した入力情報を取得した後でなければ、ジェスチャイベントの発生を認識できない。
 まず操作認識部318は、検知結果系列記憶部314から取得した入力情報がリリースイベントとして認識できるか否かを判定する(S220)。
 操作認識部318がその入力情報をリリースイベントとして認識できないと判断した場合は(S220でNo)、表示装置100はイベント種別に応じたイベント処理を行う(S219)。その詳細については、後述する。
 一方、操作認識部318がその入力情報をリリースイベントとして認識した場合には(S220でYes)、座標モード選択部326は、リリースイベントとして認識された入力情報である座標情報に含まれる入力時刻(ユーザが座標入力装置201から指を離した時刻)を記録する。以後、この時刻をTrとする。
 次に、操作認識部318は、リリースイベントとして認識された入力情報がジェスチャイベントの一部として認識できるか否かを判定する(S231)。すなわち、操作認識部318が取得格納部204から取得した一連の座標情報が、ジェスチャイベントとして認識できるか否かを操作認識部318は判定する。
 より具体的には、操作認識部318は接触開始点904(第3の座標情報によって示される入力座標)から、移動終了点906(第1の座標情報によって示される入力座標)までの一連の入力座標である第1の座標系列がジェスチャイベントとして認識できるか否かを判定する(S231)。
 なぜなら、フリック動作(指で弾くようなジェスチャ動作)の場合など、指を入力検知部210から離したときに、初めてフリック動作として確定し認識できる種類のジェスチャ動作が存在する。したがって、操作認識部318は、ユーザが入力検知部210から指を離した時点で、ユーザが入力した一連の座標情報がジェスチャイベントであるか否かの判断を行う必要が生じる(S231)。
 ここで、操作認識部318が、リリースイベントとして認識した座標情報をジェスチャイベントの一部(すなわち、ジェスチャイベントと認識される一連の座標情報の終端)であると判断した場合には(S231でYes)、表示装置100は当該ジェスチャイベントに対応する処理を行う(S230)。
 例えばフリック動作の場合、フリックジェスチャの操作方向(横方向にフリックした、若しくは縦方向にフリックした、など)に応じて、表示装置100が画面表示を変更・制御することなどが行われる。
 一方、操作認識部318が座標情報をジェスチャイベントの一部としては認識しなかった場合には(S231でNo)、座標モード選択部326は時間相関特定部320を用いて、リリースイベントの発生時刻Trから溯って特定の猶予時間(以後、Wtとする)以内に選択イベントが発生していたか否かを判断する(S232)。
 すなわち、時間相関特定部320は、座標モード選択部326が記憶した(後述する図8、S412)選択イベントの発生時刻(選択操作の完了時刻)Tsと、リリースイベントの発生時刻(指が入力検知部210から離れた時刻)Trの差を算出し、この差と特定の猶予時間Wtとを比較して、比較結果を時刻相関値として座標モード選択部326へ出力する。
 座標モード選択部326は、時間相関特定部320による比較の結果、TrとTsの差が特定の猶予時間Wt以内の場合は、「今回のリリースイベントは、選択イベントが発生したことによる副次的なイベント発生である」と判断し(S232で、Yes)、選択イベントに従った処理へ移行する(S234)。
 すなわち、座標モード選択部326は、座標モードの選択を行わない若しくは座標モードの変更を行わない。
 例えば、ボタンを押すという選択動作を行ったことに付随するリリースであると、座標モード選択部326が判断した場合、表示装置100は、画面上でボタンが押され終わったことを示す表示処理や、ボタンを押すことでユーザが期待する実質的処理などを行う(S234)。
 一方、TrとTsの差が特定の猶予時間Wtよりも大きかった場合には(S232でNo)、座標モード選択部326は座標モードの選択処理を開始する。
 ここで以後の説明のため、リリースイベントが発生してからの経過時間(リリースイベントであると操作認識部318が認識した座標情報に含まれる入力時刻からの経過時間)をWrとする。
 時間相関特定部320は、リリースイベントが発生してから現在までに特定の時間Wpが経過していないか、すなわちWr≦Wpを満たすか否かを判定し、その結果を時刻相関値として座標モード選択部326へ出力する(S240)。
 座標モード選択部326が時間相関特定部320から時刻相関値を取得した結果、リリースイベントが発生してから特定の時間Wpを経過していない、すなわち、Wr≦Wpを満たすことが判明した場合は、座標モード選択部326は、検知結果系列記憶部314から新たな座標情報が取得できるか否かを判定する(S242)。
 座標モード選択部326が新たな座標情報が取得できない場合には(S242でNo)、座標モード選択部326はWpが経過していないことを示すポインタ110等の画像を表示部230へ表示する(S244)。その後、Wr≦Wpを満たす場合には、座標モード選択部326は新たな座標情報の取得判定処理(S242)に戻る(S246からS240のループ)。
 つまり、座標モード選択部326の処理は、ポーリング状態(又はコールバック状態)になっており、座標情報が取得されるか、リリースイベントが発生してから特定の時間Wpが経過するまで、表示装置100に対するポインタ110等の画像表示が継続される(S244)。
 座標モード選択部326は、新たな座標情報を特定の時間Wp以内に検知結果系列記憶部314から取得できなかった場合には、S240からS246のループ処理を抜けた後、表示部230に対するポインタ110の表示を終了する(S250)。
 ポインタ110の表示を終了した後も、座標モード選択部326は一定時間、検知結果系列記憶部314から新たな座標情報が取得可能か否かを判定する(S251)。
 ここで、座標モード選択部326が検知結果系列記憶部314から新たな座標情報を取得した場合は(S251でYes)、座標モード選択部326は座標モードの選択処理を行う(S252)。
 その結果、座標モード選択部326が座標モードとして絶対座標モード130を選択した場合は(S252で「絶対」)、座標モードとして絶対座標モード130が選択される(S254)。
 一方、座標モード選択部326が相対座標モード132と決定した場合は(S252で「相対」)、座標モードとして相対座標モード132が選択される(S256)。
 その後、いずれのモードに設定され場合も座標決定装置200はループ1の最初から処理を再開する(S214)。
 なお、座標モード選択部326が行う動作モードの選択(S252)は、例えば前述の図5に示した通りに行うことが考えられる。
 その際、特定の時間Wdの値を十分に大きく設定することで、ポインタ110の表示が終了した後も(S250)、元のポインタ位置を基点とした相対座標モード132に移行しやすくなる(S252で「相対」)。逆にWdの値を小さくすることで、ポインタ110の表示が終了した後は(S250)、絶対座標モード130に移行しやすくなる(S252で「絶対」)。Wdの値は、例えば事前に定めた特定の値を使用することができる。
 例えば、Wpを2秒間に設定した場合、ユーザが入力検知部210から指を離して2秒間は、表示部230にポインタ110(例えば、指の形状を模した画像)が表示される。このポインタ110が表示されている間に再度、入力検知部210へ入力した場合には、座標決定装置200は、その入力をポインタ110の位置からの相対座標での入力として処理する。一方、ポインタ110の表示が消えてからの入力検知部210への入力は、絶対座標での入力として処理する。このように、ポインタの表示状態と座標入力モードとが対応付けられた座標決定装置は、従来技術では開示されていない。また、たとえ相対座標モードとして動作している場合でも、ポインタ110の表示が消えた後に入力された入力開始点からは絶対座標での入力として扱うといった、入力検知部210と表示部230の表示内容との対応関係をユーザの操作時間に基づき変化させる技術、及びその前提となる課題は、従来技術において開示されていない。
 次に、座標モード選択部326が検知結果系列記憶部314から新たな座標情報を取得できなかった場合は(S251でNo)、座標モード選択部326は座標モードとして座標決定装置200の既定値を選択する。例えば相対座標モード132が既定値であれば、座標モードとして相対座標モード132が選択される(S256)。その後、座標決定装置200はループ1の最初から処理を再開する(S214)。
 以上、座標モード選択部326が、座標情報を所定時間Wp以内に検知結果系列記憶部314から取得できなかった場合(S250以降)の、座標モード選択部326の処理について述べた。
 次に、座標モード選択部326が、座標情報を所定時間Wp以内に検知結果系列記憶部314から取得できた場合(S242でYes)の、座標モード選択部326の処理について説明する。
 その場合、座標モード選択部326は、取得できた座標情報を用いて、座標モードを選択する(S280)。
 なお、座標モード選択部326が行う動作モードの選択(S280)は、例えば前述の図6に示した通りに行うことが考えられる。
 その結果、座標モード選択部326が絶対座標モード130を選択した場合には(S280で「絶対」)、座標モードとして絶対座標モード130が選択される(S282)。また、座標モード選択部326が相対座標モード132と決定した場合には(S280で「相対」)、座標モードとして相対座標モード132が選択される(S284)。
 ここで、座標決定装置200は以下の処理により、従来は実現できなかった、ユーザが自然な動作を行う中で自動的にユーザにとってより使いやすい座標モードを認識し、自動的に座標モードを切り替える処理を実現している。
 すなわち、座標決定装置200は、時間相関特定部320により、リリースイベントの発生時刻と現在時刻との差であるWrを時刻相関値として算出し(S240)、その時刻相関値を座標モード選択部326に出力している。
 ここでWrがWp以下のときに座標モード選択部326が新たな座標情報を取得すると、座標相関特定部324は、G_it(x,y)510とG_n(x,y)512の距離Rmを算出し、その距離と特定の閾値であるRr及びRbのいずれか一方との比較結果(大小関係)を、座標相関値として座標モード選択部326に出力する。
 座標モード選択部326は、その比較結果に従い、Rmが特定の閾値より大きければ絶対座標モード130として、逆に小さければ相対座標モード132として、座標モードを自動的に選択している(S280)。
 最後に、いずれのモードに設定された場合も、表示装置100は座標モードに応じた表示座標の更新から処理を再開する(S216)。
 なお、座標モード選択部326が座標モードとして絶対座標モード130を選択した場合には(S282)、座標モード選択部326は、G_cur(x,y)520を新たなG_it(x,y)510として記憶する(S286)。
 図8は、本実施の形態における、リリースイベント以外のイベント処理の詳細を示すフローチャートである。
 すなわち、図8に示されるフローチャートは、操作認識部318が入力情報をリリースイベントとして認識できないと判断した場合に(S220でNo)、表示装置100が行うイベント種別に応じた処理(S219)の詳細である。
 まず操作認識部318が入力情報を移動イベントであると判断した場合(S402でYes)、表示装置100は移動イベントに応じた処理を行う(S404)。具体的には、表示装置100は、座標モード選択部326が記憶するG_cur(x,y)520の値を更新する。
 その後、座標変換部328はG_cur(x,y)520を、対応する表示部230上のポインタ座標位置に変換する。さらに、表示部230はポインタ110を描画する(S216)。
 また、操作認識部318が入力情報をジェスチャイベントであると判断した場合は(S402でNo、かつ、S406でYes)、表示装置100はジェスチャイベントに応じた処理を行う(S408)。
 ジェスチャは任意のジェスチャでよいが、例えば「回転」動作である場合は、入力検知部210上での「回転」に類似した動作を操作認識部318が認識すると、「回転ジェスチャ」としてイベントが認識される。その後、表示装置100は「回転ジェスチャ」に対応する処理を行う。具体的には、例えば、画面表示をスクロールすること等が考えられる。
 また、操作認識部318が入力情報を選択イベントであると判断した場合は(S406でNo、かつ、S410でYes)、座標モード選択部326は、選択完了情報によって示される選択完了時刻(選択開始時刻及び選択終了時刻のいずれか)、選択完了時刻におけるG_cur(x,y)520の座標及び必要に応じて選択されたアイコンの種類等を記録する(S412)。
 さらに、選択完了情報に伴う処理を表示装置100は行う(S416)。具体的には、特定のアイコン上でクリッカブルタッチパッドである入力検知部210が押しこまれた時に、表示部230上でポインタ110の位置にあるボタンが凹んだ様子を表示装置100が描画する処理などが相当する。
 以上が、リリースイベント以外のイベントに対する処理(S219)である。
 以上述べたように、本実施の形態に係る座標入力装置は、ユーザの操作に応じた動作モードを動的に選択できることとなり、ユーザによる明示的な動作切り替えを必要とせず、シームレスに各々のユーザにとって及び時々の状況によって使い易い動作モードを提供することができる。
 なお、本実施の形態において、座標モード選択部326によるループ処理(S240~S246)が最後まで終わった場合に、座標モード選択部326は入力を待ち受け(S251)、動作モード判定に移行している(S252)。
 だが、ポインタ表示終了(S250)後、座標決定装置200は処理をループ1の最初に戻してもよい。すなわち、座標決定装置200が行う処理のうち、ステップS251、ステップS252、ステップS254及びステップS256を省いてもよい。その場合、座標決定装置200は、ステップS250の次にステップS214を実行する。
 なお、本実施の形態において、リリースイベントの発生(S220)から次の接触(入力)までの時間に応じて(S242、S251)、座標モード選択部326は選択処理の内容を切り替えている(S252、S280)。
 だが、座標モード選択部326は、時間に応じて動作モードを切り替えることなく選択処理を行ってもよい(S252)。具体的には、座標決定装置200が行う処理のうち、ステップS240,ステップS242,ステップS244,ステップS246,ステップS280,ステップS282,ステップS284、ステップS286を省いてもよい。その場合、座標決定装置200はステップS232で所定条件が成立しない場合(S2332でNo)、次にS250の処理を行う(S240からS246のループ処理は必要では無くなる)。
 なお、任意のイベント発生時に次の接触(入力)までの時間に応じて座標モード選択部326が行う座標モードの選択処理を切り替えたい場合は、ステップS240より前の処理を省き、ステップS240以降を任意の入力システムに対して適用することができる。
 なお、座標モード選択部326による座標モードの選択処理(S252及びS280)は、上記の限りではない。例えば、機器やデバイス等、座標決定装置200が知り得る任意のデータに応じて、座標モード選択部326は座標モードを選択してもよい。
 なお、座標決定装置200は座標モードの規定値を任意に決定できる。例えば、人為的若しくはこれまでの使用履歴・経緯に基づいて座標決定装置200が座標モードを動的に決定することや、座標決定装置200が初期設定値として座標モードをROM等から取得してもよい。
 なお、操作認識部318がどのようなイベントを検出・処理(S218、S220、S231)するかは、システム構成やアプリケーション構成に依存し、必ずしも前述の3つのイベントに限られない。
 本実施の形態では、ポインティング機能として「移動」を、一般的な動作認識機能として「ジェスチャ」を、決定等の意図を伝える機能として「選択」を取り上げた。
 しかし、座標決定装置200が処理の対象とする入力情報は、これら3イベントに限られるものでは無く、「一般的に利用可能な入力検知部210から取得できる情報、及び一般的に利用可能な認識技術を組み合わせて得られる認識結果情報などによって構成される」イベント全般を含み得るものである。
 なお、表示装置100が行う移動イベント処理(S404)は、内部のポインタ座標の更新だけではなく、一般的にパソコン・組み込み機器等においてポインタの移動時に行われる任意の処理を含む。
 例えば、GUI部品に対するポインタの当たり判定処理・表示などがあるが、これに限られない。
 なお、表示装置100が行うジェスチャイベント処理(S408)は、回転だけではなく、一般的なジェスチャ認識技術による任意の処理が含まれる。例えば、スライド操作による画面のスクロール処理や、ピンチアウト操作による画面の拡大処理などがあるが、これに限られない。
 なお、表示装置100が行う選択イベント処理(S412)は、一般的な入力検知部210による選択操作手法により発生した任意の選択イベントをトリガーとしてもよい。
 例えば、入力検知部210がタッチパッドである場合に、タッチパッドの下部に入力スイッチ機構を設けることで、タッチパッド全体をクリッカブルタッチパッドとして機能させ、このタッチパッドを物理的なスイッチ(ボタン)のように押すことを、選択操作のトリガーとしてもよい。また、選択操作はこれらに限られない。
 なお、表示装置100が行うジェスチャイベント処理(S408)は、前述のフリック動作に限られず、任意のリリースを伴うジェスチャ操作でよい。
 なお、表示装置100が行う、選択イベントに従った動作(S234)は、ボタン表示例だけに限らず、パソコンや一般的な機器における、一般的な選択イベント中の任意の処理若しくは表示であってもよい。
 なお、座標モード選択部326による入力待ちのループ2(S240、S242、S244、S246)は、必ずしもループ制御である必要は無く、システムの割り込み処理等、任意のプログラミング手段やシステム構成手段により、同等の機能を実現してもよい。これは、ループ1や、入力待ち(S218、S251)においても同様である。
 なお、座標モード選択部326が行う、入力待ちのループ制御後のポインタ表示終了処理(S250)は、S246からS246のループ終了後に即時表示をやめる(消去する)だけではなく、徐々に表示を薄くしたり、点滅させたり、「もうすぐ時間切れになる」ことを示すアニメーション効果やツールチップ、コメントなどを表示してもよい。
 なお、入力待ちのループ制御中(S240、S242、S244、S246)に、上記のような徐々に表示を薄くしたり、点滅させたり、「もうすぐ時間切れになる」ことを示すアニメーション効果やツールチップ、コメントなどを、座標モード選択部326は表示部230へ表示してもよい。さらにまた、時間の経過とともにこれらの表現を変化させることで、ユーザの注意や理解を促してもよい。
 なお、座標モード選択部326が行う、特定の猶予時間Wt以内に選択イベントが発生していたか否かについての選択(S232)は、選択イベントに限らず前述の任意のイベントについて判定してもよい。
 ただし、座標モード選択部326が、操作認識部318の検出する前述のイベントと同一のイベント種類を用いる場合は、「特定の猶予時間Wt以内」の判定基準を、対応する過去のイベント発生からのタイミングとする。具体的には、座標モード選択部326がn回目のイベント発生を取得した場合に、座標モード選択部326は、n-1回目の同種のイベント発生時からの経過時間と特定の猶予時間Wtとを比較する(S232)。
 なお、座標モード選択部326は、座標相関特定部324による比較結果、時間相関特定部320による比較結果、把持推定部316による把持状況の推定結果及び操作認識部318によるユーザ操作の認識結果のうち、少なくとも1つの結果を取得し、その結果に基づいて座標モードを決定してもよい。
 (変形例1)
 以下、本実施の形態による変形例について説明する。
 上記実施の形態では、Wt、Wp、Wd、Rr及びRbをあらかじめ定められた値としていたが、本変形例では、Wt、Wp、Wd、Rr及びRbをユーザの「操作度合い」に応じて動的に変更する。
 なお、操作度合いの具体例には、単位時間あたりの操作回数や、座標決定装置200の操作期間、座標モード毎の使用履歴等が考えられるが、これらに限られない。
 図9は、本実施の形態における第1の変形例において、操作度合いによる閾値等の変更処理を示すフローチャートである。
 まず、座標モード選択部326は、座標モード選択部326が過去に決定した各座標モードの使用履歴を取得する(S289)。すなわち、絶対座標モード130と相対座標モード132の使用履歴を取得する。取得方法としては、例えば座標モード選択部326が座標変換部328に通知した過去の座標モードをRAM、ハードディスク又はフラッシュメモリ等に記録しておくことで、後に履歴を取得できる。
 座標モード選択部326は、あわせて、イベント処理データの履歴を取得する(S289)。例えば、発生した移動イベント、ジェスチャイベント及び選択イベントそれぞれの、種類、発生時刻、終了時刻等が考えられる。
 これらは、操作認識部318による認識処理の結果を座標モード選択部326が取得し、RAM、ハードディスク又はフラッシュメモリ等に記録しておくことで、履歴を取得できる。
 次に座標モード選択部326は、取得した座標モード及びイベント処理データに基づき、操作度合いを算出する(S290)。
 例えば、操作認識部318が移動イベント、ジェスチャイベント及び選択イベントとして、それぞれ認識した単位時間あたりの回数や、移動イベント、ジェスチャイベント及び選択イベントそれぞれ1回あたりの入力時間の平均値等を座標モード選択部326が算出する。
 より具体的には、座標モード選択部326がユーザの選択完了時刻からリリースイベントの発生時刻までの差を複数算出し、算出された差の平均値の逆数を操作度合いとして算出することが考えられる。
 また、操作度合いはこれらに限られず、ユーザの入力検知部210への入力操作を特徴付ける他の特徴量であってもよい。
 次に、座標モード選択部326は、算出された操作度合いに基づいて、特定の猶予時間Wtの値を修正する(S292)。
 例えば、算出した操作度合いが以前より大きく、ユーザが座標決定装置200の操作に慣れてきたと座標モード選択部326が判断すれば、Wtをより小さくする。
 また、座標モード選択部326は、座標決定装置200による操作期間である操作度合いが大きい場合に、ユーザが現在の座標モードに慣れていると判断し、特定の猶予時間Wtを短く設定してもよい(S232)。
 これにより、ユーザにとっては座標モードを変更してほしいのに(S232でNo)、座標モード選択部326が座標モードを変更しないと判断する(S232でYes)という不具合を改善することができる。
 次に、座標モード選択部326は、算出した操作度合いに基づいて、特定の時間Wp及びWdの値を修正する(S294及びS297)。
 例えば、座標モード選択部326が、単位時間あたりの移動イベントの発生回数が多いため、操作頻度である操作度合いが以前と比較し大きいと判断すれば、Wp及びWdの値をより小さくする。これにより、ユーザにとっては絶対座標モード130と認識してほしい場合であっても、相対座標モード132と認識されてしまう場合傾向を改善することができる。
 最後に、座標モード選択部326は、算出した操作度合いに基づいて、特定の閾値Rr及びRbの値を修正する(S299)。
 例えば、座標モード選択部326が、移動イベントの始端に対応する入力座標がいつも一定範囲内にあるため、接触開始点のばらつきの逆数である操作度合いが以前と比較し大きいと判断すれば、Rr及びRbの値をより小さくする。これにより、ユーザにとっては絶対座標モード130と認識してほしい場合であっても、相対座標モード132と認識されてしまう場合傾向を改善することができる。
 なお、本実施の形態において、操作度合いに基づく、Wt、Wp、Wd、Rr及びRb等のパラメタの修正方法は、座標入力システム90の目的によって変えてもよい。
 例えば、表示部230にキーボードを表示するヴァーチャルキーボードや、シューティングゲームのような状況下では、連続的に選択イベントが多数発生する。
 よって、Wtを短く設定する事により、選択操作の完了後からリリースまでのユーザによる意図的な保持操作を短時間で検出しやすくなり、ユーザは素早く入力ができるというメリットがある。
 これは、他のWp、Wd、Rr及びRb等のパラメタについても、同様である。
 例えば、座標モード選択部326は座標モードの履歴や現在の決定モードの継続時間や、利用時間の長短をもとに操作度合い決定し、Wd、Rr及びRb等のパラメタを変更してもよい。具体的には、現在の座標モードが長い間変更されずに継続している場合ほど、座標モード選択部326は、座標モードの変更が発生しにくいように、Wd、Rr及びRb等のパラメタを修正することが考えられる。
 一方、アプリケーションによっては操作度合いが高いほど、すなわちユーザが座標決定装置200を用いた入力に慣れているほど、座標モード選択部326はパラメタを長くする場合も想定される。
 例えば、写真一覧をサムネイル表示する写真閲覧アプリケーションにおいて、1つの写真を選択した後、入力検知部210に接触した指を移動させることで、2つ目・3つ目の写真の選択ができるという、アプリケーション特有の操作方法を座標決定装置200が提供するとする。
 この場合、座標決定装置200に慣れているユーザほど、特有の操作を行いたがると判断し、Wtを長く設定することで、多くの写真を同時に選択しやすくすることがユーザの使いやすさにつながる。
 なお座標モード選択部326は、操作度合いを複数算出してもよい。
 具体的には、時系列として操作度合い情報を保持してもよく、若しくは、各イベントそれぞれで操作度合いを算出してもよい。
 また、座標モード選択部326は、ユーザ別、使用される時間帯別、曜日別、アプリケーション別、など、システムが知り得る構成要素・情報のうち、複数存在するものに対して個別に若しくは複合的に操作度合いを設定してもよい。この場合、複合的とは、例えば「火曜日のアプリケーションAにおける操作度合い」や「ユーザAのアプリケーションBにおける選択イベントの発生頻度」など、先に挙げた構成要素の組み合わせを意味している。
 また、操作度合いによらず、座標モードによって、特定の時間や特定の閾値等を修正してもよい。具体的には、相対座標モード132で操作している場合には、特定の時間や特定の閾値等を長く(又は、短く)設定し、絶対座標モード130のときは、特定の時間や特定の閾値等を短く(又は、長く)設定してもよい。
 また、それぞれの座標モード下における、選択等のイベントの発生時間分布や平均発生時間や最長時間や最短時間に応じて所定時間である、Wt、Wp、Wd等を設定してもよい。
 また、座標モード選択部326は、Wt、Wp、Wd、Rr及びRb等のパラメタ毎に異なる操作度合いや修正方法に基づいて、各パラメタの値を修正しもよい。
 また、座標モード選択部326が算出する操作度合いは、単に「単位時間内の操作回数」だけではなく、「各イベントの発生回数や頻度」や、「イベントが発生したときの座標モードやポインタの位置、位置の分布」等に応じて決定されてもよい。
 さらにまた「入力センサの接触位置、位置の分布」や、「過去の利用状況とのマッチングによるユーザ推定などでユーザ固有の操作度合いを設定する」ことや、「所定時間や判定条件を変更する前と後での操作状況の変化」や、「システムが知り得る内部データと、ユーザが前もって若しくは動的に入力可能な情報との任意の組み合わせ」などにより、座標モード選択部326は操作度合いを算出してもよい。
 この場合、操作度合いを座標モード選択部326が算出するために必要な一切の情報、すなわち、入力検知部210で検知された座標等及びその時刻、操作認識部318により認識されたイベントの種類と発生時刻、座標モード選択部326による座標モードの選択結果とその時刻、操作ユーザを識別するID等と操作日時、等を検知結果系列記憶部314が保持してもよい。
 また、入力待ちのループ制御(S240、S242、S244、S246)が終了する条件である特定の時間Wpが、座標モード選択部326によって修正された場合に、その絶対値(所定時間が短いか長いかなど)や相対値(これまでの条件よりも短くなったか、長くなったかなど)に応じて、ポインタの消去表現を座標モード選択部326は変化させてもよい。
 さらに、座標モード選択部326は、Wpの増減状態そのものをアニメーション効果やツールチップ、コメントなどで表示してもよい。
 なお、座標モード選択部326は、それぞれの座標モードでの操作習熟度に応じて、Wt、Wp、Wd、Rr及びRb等のパラメタの修正を行ってもよい。
 操作習熟度とは、操作度合いの一種であり、それぞれの座標モードにおけるイベントの発生頻度(選択イベントの数など)やエラー回数、利用時間などに応じて決まる。
 また、操作習熟度の高低に応じて座標モードを選択してもよい。
 以上、本実施の形態の変形例1によると、ユーザごとに操作の慣れや癖、用途などに対応する「操作度合い」を算出し、これを用いて、座標モード選択部326が使用する時間及び距離の閾値等(Wt、Wp、Wd、Rr及びRb)を変更することができる。
 これにより、各ユーザにとっての自然な入力操作に座標決定装置200はより細かく対応することができ、自動的にユーザにとってより使いやすい座標モードの認識とその切替を実現することができる。
 より具体的には、絶対座標モードによる入力操作に慣れているユーザであるとシステムが判定したユーザに対しては、ポインタ110の表示時間(前述のWp)を短くして、相対座標モードへ移行しにくくする、又は指を残していても絶対座標モードと判定する、といった処理を行ってもよい。また、一般のキーボード入力におけるタイピングのように、たとえば入力された各点の間の距離が閾値よりも短くても、絶対座標モードと判定してもよい。なお、こうした処理、及びその前提となる課題について従来技術では示されていない。
 (変形例2)
 以下、本実施の形態による第2の変形例について説明する。
 上記実施の形態では、座標モード選択部326が座標モードの選択に用いる距離として第3の座標情報によって示される入力座標であるG_it(x,y)510と、第2の座標情報によって示される入力座標であるG_n(x,y)512との間の距離を用いたが、本変形例では座標モード選択部326が異なる距離を使用する。
 以下、図10を用いて具体的に説明する。
 図10は、本実施の形態における第2の変形例において、座標モード選択部326が座標モードの決定に用いる距離の一例を示す模式図である。
 いま、ユーザはタッチパッド形式の入力検知部210上の点である接触開始点904に指を触れたとする。その後、ユーザは入力検知部210から指を離さないまま、指を移動させ、移動終了点906で指を離す。
 その後、ユーザは再び接触開始点910から接触を開始し、入力検知部210から指を離さないまま、指を移動点912まで移動したとする。
 このとき、G_it(x,y)510は接触開始点904に相当する。また、G_n(x,y)512は接触開始点910に相当する。また、接触開始点904と接触開始点910の間の距離を距離Dgg740とする。
 また、接触開始点904から移動終了点906まで指を移動させたとき、表示部230では、それに対応するポインタ110が表示接触開始点944から表示移動終了点946まで表示されるとする。
 さらに、接触開始点910を絶対座標モード130として解釈した場合の表示部230上での表示位置を接触開始想定点950とする。また、前述の通りユーザが指を移動点912まで移動させた場合に、移動点912を絶対座標モード130として解釈した場合の表示部230上での表示位置を想定ポインタ位置952とする。
 さらにまた、表示部230に表示中のアイコンとして、アイコン924があり、アイコン924の中心座標をアイコン中心928とする。
 このとき、表示移動終了点946と接触開始想定点950との距離を距離Dgp720とする。
 また、アイコン中心928と接触開始想定点950との距離を距離Dgd710とする。
 また、想定ポインタ位置952とアイコン中心928との距離を距離Dpd730とする。
 これらの距離を任意に組み合わせた条件式用いて、座標モード選択部326は座標モードを選択することができる。
 一例として、距離Dgg740が所定の値以上かつ、距離Dgd710が所定の値以下かつ距離Dgp720が所定の値以上の場合には、座標モード選択部326は座標モードとして絶対座標モード130を選択することが考えられる。
 また、距離Dgg740が所定の値以上かつ、距離Dgd710が所定の値以下かつ、距離Dgp720が所定の値以上の場合の場合かつ、距離Dpd730が所定の値以下の場合は、座標モード選択部326は座標モードとして相対座標モード132を選択することが考えられる。
 なお、座標モード選択部326がポインタ110との距離を比較する画面表示パーツは最も近い画面表示パーツには限られない。座標モード選択部326は座標モードの選択の際に、ポインタ110と任意のパーツとの距離や、ポインタ110と複数パーツとの複数の距離を複合的に用いることができる。
 また、座標モード選択部326は、ポインタ110が画面表示パーツ上に有る(無い)といった情報に応じて座標モードを選択してもよい。
 なお、上述の説明では、想定ポインタ位置952を絶対座標モード130における表示部230上でのポインタ110の表示位置と定義したが、絶対座標モード130又は相対座標モード132における実際のポインタ110の表示位置と考えてもよい。
 なお、表示装置100は、表示部230に表示するポインタ110の形状として、一般的なカーソル形状の他、指形状等任意の形状をした画像を表示してもよい。
 なお、上述の説明では、距離Dgd710をアイコン中心928と接触開始想定点950との間の距離と定義したが、アイコン中心928に限らず、画面表示パーツの任意の場所への距離情報を少なくとも1以上用いて求めてもよい。
 また、座標モード選択部326が使用する距離情報を算出するための画面表示パーツの数は1つに限られない。座標モード選択部326は、複数の画面表示パーツとの距離を算出して使用してもよく、さらにその平均値等を使用してもよい。
 なお、待機ポインタ表示終了後の座標モード選択部326による座標モードの選択(S252)時には、待機ポインタ表示終了前の座標モード選択部326による座標モードの決定(S280)で用いている方法を部分的に、又は一部を組み合わせて、又はそのまま用いてもよい。
 また、座標モード選択部326はG_n(x,y)512と画面の表示(GUI)との距離に応じて座標モードを選択してもよい。
 また、座標モード選択部326は現在(若しくは過去)のポインタの画面上での位置(若しくは履歴)に応じて座標モードを選択してもよい。
 また、座標モード選択部326は、G_n(x,y)512と、画面の表示(GUI)の位置と、G_cur(x,y)520の3点の相互距離に応じて座標モードを選択してもよい。
 さらにまた、先の3つにG_it(x,y)510を加え、座標モード選択部326は4点の相互距離に応じて座標モードを選択してもよい。
 なお、座標モード選択部326は、G_it(x,y)510だけではなく、第1の座標系列に含まれる任意の座標情報(例えば、第1の座標系列の終端や、始端と終端の途中にある点に対応する座標情報など)を用いて座標モードを選択してもよい。
 具体的には、ユーザが相対座標モード132でポインタ110を操作中に、絶対座標モード130であれば特定のGUIパーツ(ボタンなど)に相当する部分の付近をポインタ110が通過したとする。このとき、座標モード選択部326は座標モードとして絶対座標モード130を選択する(S280)ことで当該のGUIパーツ上にポインタが表示できるようにすることができる。
 さらに、当該GUIパーツの位置と画面上のポインタ110の位置とが特定の距離以下であれば、他の条件に優先して座標モード選択部326は座標モードとして絶対座標モード130を選択してもよい。
 なお、G_it(x,y)510、G_n(x,y)512、画面の表示(GUI)の位置及び現在のポインタ110の表示部230上での位置の4つについて、それぞれ相互の距離に応じて、座標モード選択部326は座標モードを選択してもよい。
 また、相互の距離を複数組み合わせたり、重み付けをしたりすることにより、座標モード選択部326は、座標モードを選択してもよい。
 なお、図1に示すタッチパッド付リモコン型の座標入力装置201のように、座標入力装置201は入力検知部210(例えばタッチパッド)を複数持っていてもよい。
 このとき、取得格納部204は、複数の入力検知部210からのすべて入力を検知結果系列記憶部314に格納する。
 なお、入力に用いられる入力検知部210(タッチパッド)が変化したことにより、座標モード選択部326は座標モードをデフォルト値に戻してもよい。
 また、座標モード選択部326は、把持推定部316の推定結果(例えば、右手・左手・両手などユーザの持ち方)に応じて座標モードを選択してもよい。
 例えば、座標モード選択部326は、把持推定部316が推定した把持状況に応じて、特定の猶予時間Wt、特定の時間Wp及びWd、並びに特定の閾値Rr及びRbのうち少なくとも1つの大きさを増加させ、又は減少させてもよい。
 より具体的には、図1に示すように、ユーザが右手で座標入力装置201を把持し、親指で入力検知部210を操作する場合を考える。
 このとき、親指を接触させる位置として、入力検知部210(タッチパッド)の左側と右側では、左側の方がユーザにとっては楽な操作となる。右手で把持しつつ、入力検知部210の右側に親指で触れることは、把持状態として不安定となるためである。
 したがって、ユーザが入力検知部210の右側をG_it(x,y)510として触れた場合には、敢えて操作しにくい操作をしている意図として、その点に特別な意味があるものと推定し、絶対座標モードが選択されやすくなるように、特定の猶予時間Wt、特定の時間Wp及びWd、並びに特定の閾値Rr及びRbの値を小さくすることが考えられる。
 また座標モード選択部326は、ユーザの持ち方が変化した場合には座標モードを規定値(絶対座標モード130及び相対座標モード132のいずれか一方)に戻してもよい。また、座標モード選択部326は、座標入力装置201から一旦ユーザの手が離れた場合は座標モードを規定値に戻してもよい。
 また、座標モード選択部326は、ユーザが座標入力装置201を両手で持つ時と片手で持つ時とで座標モードの規定値そのものを変更してもよい。
 また、座標モード選択部326は、ユーザが座標入力装置201を右手で持つ時と左手で持つ時とで、座標モードの規定値を変更してもよい。
 また、座標モード選択部326は、ユーザの利き手に合わせて座標モードの規定値を変更してもよい。
 また、これらに限定されず、座標モード選択部326は他の方法で座標モードを選択してもよい。
 最後に、本実施の形態による第3の変形例について説明する。
 上記実施の形態では、座標モードの規定値を変更することができなかった。しかし本変形例では、例えばユーザの好みや使用目的に応じて、座標モードの規定値を変更することができる。
 図11は、本実施の形態における第3の変形例において、座標決定装置200の処理を示すフローチャートである。
 なお、図7と共通のステップについては、同じ符号を付け、説明は省略する。
 第3の変形例では、座標決定装置200は、まず座標モードの既定値を、絶対座標モード130及び相対座標モード132のいずれか一方に設定する(S310)。
 既定値の設定方法としては、例えば座標モード選択部326が表示部230にGUI画面を表示し、ユーザが座標入力装置201を用いて選択した結果を取得して設定する方法や、座標モード選択部326が過去の操作履歴から決定する方法などが考えられる。
 その後、操作認識部318がリリースイベントを認識した後、座標モード選択部326が再度のユーザによる座標情報を取得した場合(S242でYes)、座標モード選択部326は座標モードの選択処理を行う(S350)。
 例えば、図3を参照して、接触開始点910の入力時刻が、移動終了点906の入力時刻から一定時間以内である場合(S350でYes)、相対座標モード132に移行する(S284)。
 又は、接触開始点910の入力座標と接触開始点904の入力座標の距離が一定の距離以内である場合(S350でYes)、相対座標モード132に移行する(S284)。
 それ以外の場合は、絶対座標モード130に移行する(S282)。
 なお、座標モード選択部326の行う座標モードの選択処理(S350)は、上記に限られない。
 例えば、接触開始点910の入力時刻が、移動終了点906の入力時刻から一定時間以内であり、かつ、接触開始点910の入力座標と接触開始点904の入力座標の距離が一定距離以内である場合に、座標モード選択部326は座標モードとして相対座標モード132を選択し、それ以外の場合は、絶対座標モード130を選択してもよい。
 さらにまた、座標モード選択部326は、上述の他の変形例で使用する決定処理(S232、S252、S280)等を用いて座標モードの選択を行ってもよい。
 また、本実施の形態で説明した座標決定装置200は、コンピュータにより実現することが可能である。図12を参照して、座標決定装置200は、コンピュータ34と、コンピュータ34に指示を与えるためのキーボード36及びマウス38と、コンピュータ34の演算結果等の情報を提示するためのディスプレイ32と、コンピュータ34で実行されるプログラムを読み取るためのCD-ROM(Compact Disc-Read Only Memory)装置40及び通信モデム(図示せず)とを含む。
 座標決定装置200が行う各処理を実現するためのプログラムは、コンピュータで読取可能な媒体であるCD-ROM42に記憶され、CD-ROM装置40で読み取られる。又は、コンピュータネットワーク26を通じて通信モデムで読み取られる。
 図13は、座標決定装置200を実現するコンピュータシステムのハードウェア構成を示すブロック図である。コンピュータ34は、CPU44と、ROM46と、RAM48と、ハードディスク50と、通信モデム52と、バス54とを含む。
 CPU44は、CD-ROM装置40又は通信モデム52を介して読み取られたプログラムを実行する。ROM46は、コンピュータ34の動作に必要なプログラムやデータを記憶する。RAM48は、プログラム実行時のパラメタなどのデータを記憶する。ハードディスク50は、プログラムやデータなどを記憶する。通信モデム52は、コンピュータネットワーク26を介して他のコンピュータとの通信を行う。バス54は、CPU44、ROM46、RAM48、ハードディスク50、通信モデム52、ディスプレイ32、キーボード36、マウス38及びCD-ROM装置40を相互に接続する。
 さらに、上記の各装置を構成する構成要素の一部又は全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
 さらにまた、上記の各装置を構成する構成要素の一部又は全部は、各装置に脱着可能なICカード又は単体のモジュールから構成されているとしてもよい。ICカード又はモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカード又はモジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、ICカード又はモジュールは、その機能を達成する。このICカード又はこのモジュールは、耐タンパ性を有するとしてもよい。
 また、本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
 さらに、本発明は、上記コンピュータプログラム又は上記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray Disc(登録商標))、USBメモリ、SDカードなどのメモリカード、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されている上記デジタル信号であるとしてもよい。
 また、本発明は、上記コンピュータプログラム又は上記デジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
 また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、上記メモリは、上記コンピュータプログラムを記憶しており、上記マイクロプロセッサは、上記コンピュータプログラムに従って動作するとしてもよい。
 また、上記プログラム又は上記デジタル信号を上記記録媒体に記録して移送することにより、又は上記プログラム又は上記デジタル信号を、上記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
 さらに、上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
 今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
 本発明は、座標決定装置等に適用でき、特に座標入力装置から取得した入力情報に基づき、表示装置が有する表示部上でのポインタの座標位置を決定する座標決定装置等に適用できる。
32 ディスプレイ
34 コンピュータ
36 キーボード
38 マウス
40 CD-ROM装置
44 CPU
46 ROM
48 RAM
50 ハードディスク
52 通信モデム
54 バス
90 座標入力システム
100 表示装置
110 ポインタ
130 絶対座標モード
132 相対座標モード
200 座標決定装置
201 座標入力装置
204 取得格納部
210 入力検知部
212 把持検出センサ
220 送信部
230 表示部
314 検知結果系列記憶部
316 把持推定部
318 操作認識部
320 時間相関特定部
324 座標相関特定部
326 座標モード選択部
328 座標変換部
510 G_it(x,y)
512 G_n(x,y)
520 G_cur(x,y)
610 軌跡A
620 軌跡表示A
630 軌跡B
632 軌跡C
634 軌跡D
640 軌跡表示B
642 軌跡表示C
644 軌跡表示D
710 距離Dgd
720 距離Dgp
730 距離Dpd
740 距離Dgg
800 現在の指の位置
810 第1入力状態
812 第2入力状態
814 第3入力状態
816 第4入力状態
904、910 接触開始点
906 移動終了点
912 移動点
924 アイコン
928 アイコン中心
944 表示接触開始点
946 表示移動終了点
950 接触開始想定点
952 想定ポインタ位置

Claims (19)

  1.  入力座標に応じた出力座標を決定する座標決定装置であって、
     前記入力座標及び入力時刻を示す座標情報を順次取得して記録媒体に格納する取得格納部と、
     前記記録媒体に格納されている複数の座標情報のうち第1及び第2の座標情報によって示される入力時刻間の相関を時刻相関値として特定する時間相関特定部と、
     前記複数の座標情報のうち第2及び第3の座標情報によって示される入力座標間の相関を座標相関値として特定する座標相関特定部と、
     前記座標相関値及び前記時刻相関値に基づいて、第一の座標モード及び第二の座標モードのうちの何れか一方を座標モードとして選択する座標モード選択部と、
     前記第2の座標情報によって示される入力座標を、前記座標モード選択部によって選択された座標モードにしたがった座標に変換することによって、当該座標を前記出力座標として決定する座標変換部とを備え、
     前記座標変換部は、
     前記第一の座標モードが選択されたときには、前記第2の座標情報によって示される入力座標を、当該入力座標に予め定め対応付けられた座標に変換し、
     前記第二の座標モードが選択されたときには、前記第2の座標情報によって示される入力座標を、他の入力座標に対して既に決定された出力座標に応じた座標に変換する
     座標決定装置。
  2.  前記座標相関特定部は前記入力座標間の距離を前記座標相関値として特定し、特定した前記座標相関値が事前に定められた特定の閾値未満であるか否かを判定し、
     前記時間相関特定部は前記入力時刻間の差を前記時刻相関値として特定し、特定した前記時刻相関値が事前に定められた特定の時間未満であるか否かを判定し、
     前記座標モード選択部は前記座標相関特定部及び前記時間相関特定部によって、前記座標相関値が特定の閾値未満であり、かつ前記時刻相関値が特定の時間未満であると判断された場合、前記第二の座標モードを座標モードとして選択する
     請求項1に記載の座標決定装置。
  3.  前記取得格納部は、入力検知部を有する座標入力装置から座標情報を取得しており、
     前記第1の座標情報は、ユーザが前記入力検知部から指を離した時刻に対応する座標情報であり、
     前記第2の座標情報は、前記第1の座標情報が検知された後、ユーザが前記入力検知部に再度指を接触させた時刻に対応する座標情報である
     請求項2に記載の座標決定装置。
  4.  前記第3の座標情報は、ユーザが前記入力検知部に指を接触させた時刻に対応する座標情報であり、
     前記第1の座標情報は、前記第3の座標情報が検知された後、ユーザが前記入力検知部から指を離した時刻に対応する座標情報であり、
     前記第2の座標情報は、前記第1の座標情報が検知された後、ユーザが前記入力検知部に再度指を接触させた時刻に対応する座標情報である
     請求項2に記載の座標決定装置。
  5.  前記取得格納部は、さらに、ユーザによる選択操作の完了時刻である選択完了時刻を含む選択完了情報を取得して前記記録媒体に格納し、
     前記座標モード選択部は前記記録媒体から前記選択完了情報を取得し、前記第1の座標情報によって示される入力時刻が、前記選択完了時刻から事前に定められた特定の猶予時間内であれば、座標モードの選択を行わない若しくは座標モードの変更を行わない、
     請求項4に記載の座標決定装置。
  6.  前記座標決定装置は、さらに、前記座標入力装置を備えており、
     前記座標入力装置は、ユーザによる座標入力操作及び選択操作を受け付けて、前記座標情報及び前記選択完了情報を前記取得格納部に送信し、
     前記入力検知部は、機械的な押し下げ動作を検知可能なクリッカブルタッチパッドであり、
     ユーザが前記クリッカブルタッチパッドを押し下げた指を離したことに起因して前記クリッカブルタッチパッドの戻し動作が完了する時刻を前記選択完了時刻として特定する
     請求項5に記載の座標決定装置。
  7.  前記座標モード選択部は、
     前記第2の座標情報より前に前記取得格納部が取得した複数の座標情報及び選択情報のうち少なくとも1以上に基づいて、ユーザの操作特性を示す操作度合いを算出し、前記算出された操作度合いに基づいて、前記特定の時間、前記特定の閾値及び前記特定の猶予時間のうち少なくとも1つを変更する
     請求項5に記載の座標決定装置。
  8.  前記座標モード選択部は、前記複数の座標情報に含まれる一の座標情報ごとに、当該座標情報によって示される入力時刻と、他の座標情報によって示される入力時刻との差を算出し、算出された前記複数の差の平均値の逆数を前記操作度合いとして算出する
     請求項7に記載の座標決定装置。
  9.  前記座標モード選択部は、前記算出された操作度合いが大きいほど、前記特定の時間、前記特定の閾値及び前記特定の猶予時間のうち少なくとも1つを小さくなるように変更する
     請求項7又は8に記載の座標決定装置。
  10.  前記第3の座標情報で示される位置が、前記第1の座標情報で示される位置と一致する
     請求項1又は2に記載の座標決定装置。
  11.  前記第1の座標情報は、ユーザが前記入力検知部に一旦指を触れてから離すまでに入力された一連の座標情報である第1の座標系列に含まれ、
     前記第2の座標情報は、前記第1の座標系列の入力後、ユーザが再度前記入力検知部に指を触れてから指を離すまでに入力された一連の座標情報である第2の座標系列に含まれ、
     前記第3の座標情報は、前記第1の座標系列に含まれる
     請求項1又は2に記載の座標決定装置。
  12.  前記座標モード選択部は、前記第1の座標情報によって示される入力時刻から事前に定められた特定の時間が経過しておらず、かつ、前記取得格納部が前記第2の座標情報を取得していない場合には、表示部へ特定の画像を表示させる
     請求項2に記載の座標決定装置。
  13.  前記座標決定装置は、さらに、
     前記第1の座標系列が、表示装置に対して特定の計算機処理の開始を指令するジェスチャであるか否かを判定する操作認識部を有し、
     前記操作認識部が前記第1の座標系列をジェスチャと判定した場合、前記座標モード選択部は、前記座標モードの選択を行わない
     請求項11に記載の座標決定装置。
  14.  前記取得格納部は、さらに、ユーザが前記座標入力装置のどの位置を把持しているのかを示す把持情報を取得して前記記録媒体に格納し、
     前記座標決定装置は、さらに、前記記録媒体から取得した前記把持情報を用いてユーザによる前記座標入力装置の把持状況を推定する把持推定部を有し、
     前記座標モード選択部は、前記把持推定部が推定した把持状況に応じて、前記特定の閾値、前記特定の時間及び前記特定の猶予時間のうち少なくとも1つの値を変更する
     請求項3に記載の座標決定装置。
  15.  前記座標入力装置は、前記入力検知部を少なくとも2以上備え、
     前記取得格納部は、前記複数の入力検知部のうち第1の入力検知部から取得する座標情報及び第2の入力検知部から取得する座標情報を前記記録媒体に格納する
     請求項1又は2に記載の座標決定装置。
  16.  入力座標に応じた出力座標を決定する座標決定方法であって、
     前記入力座標及び入力時刻を示す座標情報を順次取得して記録媒体に格納する取得格納ステップと、
     前記記録媒体に格納されている複数の座標情報のうち第1及び第2の座標情報によって示される入力時刻間の相関を時刻相関値として特定する時刻相関特定ステップと、
     前記複数の座標情報のうち第2及び第3の座標情報によって示される入力座標間の相関を座標相関値として特定する座標相関特定ステップと、
     前記座標相関値及び前記時刻相関値に基づいて、第一の座標モード及び第二の座標モードのうちの何れか一方を座標モードとして選択する座標モード選択ステップと、
     前記第2の座標情報によって示される入力座標を、前記座標モード選択部によって選択された座標モードにしたがった座標に変換することによって、当該座標を前記出力座標として決定する座標変換ステップとを含み、
     前記座標変換ステップは、
     前記第一の座標モードが選択されたときには、前記第2の座標情報によって示される入力座標を、当該入力座標に予め定め対応付けられた座標に変換し、
     前記第二の座標モードが選択されたときには、前記第2の座標情報によって示される入力座標を、他の入力座標に対して既に決定された出力座標に応じた座標に変換する
     座標決定方法。
  17.  請求項16に記載の座標決定方法をコンピュータで実行させる
     プログラム。
  18.  請求項17に記載のプログラムを記録した
     コンピュータ読み取り可能な記録媒体。
  19.  入力座標に応じた出力座標を決定する集積回路であって、
     前記入力座標及び入力時刻を示す座標情報を順次取得して記録媒体に格納する取得格納部と、
     前記記録媒体に格納されている複数の座標情報のうち第1及び第2の座標情報によって示される入力時刻間の相関を時刻相関値として特定する時間相関特定部と、
     前記複数の座標情報のうち第2及び第3の座標情報によって示される入力座標間の相関を座標相関値として特定する座標相関特定部と、
     前記座標相関値及び前記時刻相関値に基づいて、第一の座標モード及び第二の座標モードのうちの何れか一方を座標モードとして選択する座標モード選択部と、
     前記第2の座標情報によって示される入力座標を、前記座標モード選択部によって選択された座標モードにしたがった座標に変換することによって、当該座標を前記出力座標として決定する座標変換部とを備え、
     前記座標変換部は、
     前記第一の座標モードが選択されたときには、前記第2の座標情報によって示される入力座標を、当該入力座標に予め定め対応付けられた座標に変換し、
     前記第二の座標モードが選択されたときには、前記第2の座標情報によって示される入力座標を、他の入力座標に対して既に決定された出力座標に応じた座標に変換する
     集積回路。
PCT/JP2011/002729 2010-05-18 2011-05-17 座標決定装置、座標決定方法及び座標決定プログラム WO2011145330A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US13/383,966 US9041649B2 (en) 2010-05-18 2011-05-17 Coordinate determination apparatus, coordinate determination method, and coordinate determination program
CN201180002866.0A CN102473060B (zh) 2010-05-18 2011-05-17 坐标决定装置、坐标决定方法
JP2011536220A JP5762967B2 (ja) 2010-05-18 2011-05-17 座標決定装置、座標決定方法及び座標決定プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010114752 2010-05-18
JP2010-114752 2010-05-18

Publications (1)

Publication Number Publication Date
WO2011145330A1 true WO2011145330A1 (ja) 2011-11-24

Family

ID=44991448

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/002729 WO2011145330A1 (ja) 2010-05-18 2011-05-17 座標決定装置、座標決定方法及び座標決定プログラム

Country Status (4)

Country Link
US (1) US9041649B2 (ja)
JP (1) JP5762967B2 (ja)
CN (1) CN102473060B (ja)
WO (1) WO2011145330A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013088559A1 (ja) * 2011-12-15 2013-06-20 トヨタ自動車株式会社 操作装置
JP2015041189A (ja) * 2013-08-21 2015-03-02 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
JP2015115038A (ja) * 2013-12-16 2015-06-22 セイコーエプソン株式会社 情報処理装置および情報処理装置の制御方法
JP5739015B2 (ja) * 2013-03-28 2015-06-24 株式会社東芝 通信装置、通信方法及びプログラム
CN103376926B (zh) * 2012-04-16 2016-07-06 汉王科技股份有限公司 可切换坐标的绘画板及其坐标切换方法
JP2016130975A (ja) * 2015-01-14 2016-07-21 シャープ株式会社 情報処理装置およびプログラム
US10031610B2 (en) 2013-02-19 2018-07-24 Toyota Jidosha Kabushiki Kaisha Operation device for vehicle
JPWO2020217336A1 (ja) * 2019-04-24 2020-10-29
CN115185411A (zh) * 2022-07-08 2022-10-14 北京字跳网络技术有限公司 光标移动方法、装置和电子设备

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9746995B2 (en) * 2011-07-14 2017-08-29 Microsoft Technology Licensing, Llc Launcher for context based menus
US9491146B2 (en) 2011-09-07 2016-11-08 Elwha Llc Computational systems and methods for encrypting data for anonymous storage
JP6091829B2 (ja) * 2011-09-28 2017-03-08 京セラ株式会社 装置、方法、及びプログラム
US9924907B2 (en) * 2011-09-30 2018-03-27 Google Technology Holdings LLC Method and system for identifying location of a touched body part
US20130127738A1 (en) * 2011-11-23 2013-05-23 Microsoft Corporation Dynamic scaling of touch sensor
US20130176218A1 (en) * 2012-01-10 2013-07-11 Cywee Group Limited Pointing Device, Operating Method Thereof and Relative Multimedia Interactive System
KR20140010780A (ko) * 2012-07-17 2014-01-27 최경순 터치 유저 인터페이스, 영상 장치, 시스템 및 원격 터치 입력 장치
US9348512B2 (en) * 2012-08-08 2016-05-24 Nuance Communications, Inc. Methods for facilitating text entry
CN103019375B (zh) * 2012-11-28 2016-02-10 广东远峰电子科技有限公司 一种基于图像识别的光标控制方法及其系统
KR20140089660A (ko) * 2013-01-04 2014-07-16 삼성전자주식회사 터치 패드, 디스플레이 장치 및 터치 패드의 제어 방법
US10175874B2 (en) * 2013-01-04 2019-01-08 Samsung Electronics Co., Ltd. Display system with concurrent multi-mode control mechanism and method of operation thereof
US9584849B2 (en) 2013-07-17 2017-02-28 Kyung Soon CHOI Touch user interface method and imaging apparatus
EP2853992A1 (en) * 2013-09-27 2015-04-01 Movea Air pointer with improved user experience
KR20150046852A (ko) * 2013-10-23 2015-05-04 삼성전자주식회사 전자 장치 및 전자 장치의 암호를 이용한 인증 방법
CN103645847A (zh) * 2013-12-02 2014-03-19 乐视致新电子科技(天津)有限公司 通过移动终端模拟鼠标控制智能电视的方法和系统
JP6034281B2 (ja) * 2013-12-18 2016-11-30 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation オブジェクト選択方法、装置及びコンピュータ・プログラム
CN103727899B (zh) * 2013-12-31 2015-07-01 京东方科技集团股份有限公司 一种电视系统中检测遥控器旋转角度的方法及电视系统
JP2015128918A (ja) * 2014-01-06 2015-07-16 株式会社東海理化電機製作所 操作装置
CN103699244B (zh) * 2014-01-08 2016-08-17 福建利利普光电科技有限公司 测量仪器中轨迹球的识别方法
US10019155B2 (en) * 2014-06-30 2018-07-10 Honda Motor Co., Ltd. Touch control panel for vehicle control system
US9727236B2 (en) * 2014-08-28 2017-08-08 Peigen Jiang Computer input device
CN104866136B (zh) * 2015-05-11 2019-02-15 努比亚技术有限公司 一种确定终端操作模式的方法及装置
US11578470B2 (en) * 2017-03-30 2023-02-14 Komatsu Ltd. Control system for work vehicle, method for setting trajectory of work implement, and work vehicle
CN107145259A (zh) * 2017-05-09 2017-09-08 深圳Tcl新技术有限公司 触摸图标校对方法及装置
US11222295B2 (en) * 2017-08-24 2022-01-11 Mitsubishi Electric Corporation Activity recording device, activity recording program, and activity recording method
CN107728837A (zh) * 2017-09-27 2018-02-23 惠州Tcl移动通信有限公司 一种触摸屏定位输出的方法、存储介质及智能终端
KR102492560B1 (ko) * 2017-12-12 2023-01-27 삼성전자주식회사 전자 장치 및 그의 입력 제어 방법
CN110069147B (zh) * 2018-01-23 2023-02-03 可赛尔内存股份有限公司 操控装置及其控制方法
JP7308188B2 (ja) * 2018-05-14 2023-07-13 株式会社ワコム 学習支援システム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009276819A (ja) * 2008-05-12 2009-11-26 Fujitsu Ltd ポインティング装置の制御方法およびポインティング装置、並びにコンピュータプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4049877B2 (ja) * 1997-03-31 2008-02-20 株式会社ワコム 電子ペンを用いたコンピュータシステム
JPH10340153A (ja) 1997-06-06 1998-12-22 Smk Corp 座標入力装置
JPH1195912A (ja) 1997-09-22 1999-04-09 Sanyo Electric Co Ltd 座標入力装置、座標入力方法及び座標入力プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2001117713A (ja) 1999-10-19 2001-04-27 Casio Comput Co Ltd データ処理装置、及び記憶媒体
JP4878667B2 (ja) 2000-02-17 2012-02-15 富士通コンポーネント株式会社 座標検出装置及び座標検出方法
JP2003167669A (ja) * 2001-11-22 2003-06-13 Internatl Business Mach Corp <Ibm> 情報処理装置、プログラム及び座標入力方法
JP3952896B2 (ja) 2002-07-30 2007-08-01 キヤノン株式会社 座標入力装置及びその制御方法、プログラム
JP4776237B2 (ja) 2005-01-19 2011-09-21 富士通コンポーネント株式会社 座標入力制御システムおよび座標入力制御処理をコンピュータに実行させるためのプログラム
JP2007164470A (ja) 2005-12-14 2007-06-28 Alps Electric Co Ltd 入力装置およびこの入力装置を使用した電子機器
KR20080021906A (ko) * 2006-09-05 2008-03-10 삼성전자주식회사 휴대용 단말기에서 아날로그 조작을 하기 위한 장치 및방법
JP4966636B2 (ja) * 2006-12-13 2012-07-04 株式会社ワコム 座標入力装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009276819A (ja) * 2008-05-12 2009-11-26 Fujitsu Ltd ポインティング装置の制御方法およびポインティング装置、並びにコンピュータプログラム

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9176634B2 (en) 2011-12-15 2015-11-03 Toyota Jidosha Kabushiki Kaisha Operation device
WO2013088559A1 (ja) * 2011-12-15 2013-06-20 トヨタ自動車株式会社 操作装置
CN103376926B (zh) * 2012-04-16 2016-07-06 汉王科技股份有限公司 可切换坐标的绘画板及其坐标切换方法
US10031610B2 (en) 2013-02-19 2018-07-24 Toyota Jidosha Kabushiki Kaisha Operation device for vehicle
JP5739015B2 (ja) * 2013-03-28 2015-06-24 株式会社東芝 通信装置、通信方法及びプログラム
US9736513B2 (en) 2013-03-28 2017-08-15 Kabushiki Kaisha Toshiba Communication device and communication method
JP2015041189A (ja) * 2013-08-21 2015-03-02 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
JP2015115038A (ja) * 2013-12-16 2015-06-22 セイコーエプソン株式会社 情報処理装置および情報処理装置の制御方法
JP2016130975A (ja) * 2015-01-14 2016-07-21 シャープ株式会社 情報処理装置およびプログラム
JPWO2020217336A1 (ja) * 2019-04-24 2020-10-29
WO2020217336A1 (ja) * 2019-04-24 2020-10-29 株式会社ワコム タッチパッド用のシステム
JP7342111B2 (ja) 2019-04-24 2023-09-11 株式会社ワコム タッチパッド用のシステム
US12019825B2 (en) 2019-04-24 2024-06-25 Wacom Co., Ltd. System for touch pad
JP7514989B2 (ja) 2019-04-24 2024-07-11 株式会社ワコム デバイスドライバ
CN115185411A (zh) * 2022-07-08 2022-10-14 北京字跳网络技术有限公司 光标移动方法、装置和电子设备
CN115185411B (zh) * 2022-07-08 2024-03-15 北京字跳网络技术有限公司 光标移动方法、装置和电子设备

Also Published As

Publication number Publication date
CN102473060A (zh) 2012-05-23
US9041649B2 (en) 2015-05-26
US20120113001A1 (en) 2012-05-10
JP5762967B2 (ja) 2015-08-12
JPWO2011145330A1 (ja) 2013-07-22
CN102473060B (zh) 2016-03-23

Similar Documents

Publication Publication Date Title
JP5762967B2 (ja) 座標決定装置、座標決定方法及び座標決定プログラム
US12093525B2 (en) Character recognition on a computing device
US11520467B2 (en) Input device and user interface interactions
US8217905B2 (en) Method and apparatus for touchscreen based user interface interaction
US8407623B2 (en) Playback control using a touch interface
US8610678B2 (en) Information processing apparatus and method for moving a displayed object between multiple displays
US20110060986A1 (en) Method for Controlling the Display of a Touch Screen, User Interface of the Touch Screen, and an Electronic Device using The Same
US20180088896A1 (en) Devices, Methods, and Graphical User Interfaces for Media Playback Control Using Intensity-Based User Inputs
US20160299659A1 (en) Remote multi-touch control
JP6141301B2 (ja) 間接的対話装置の対話モデル
US9691270B1 (en) Automatically configuring a remote control for a device
US11107345B1 (en) Automatically configuring a remote control for a device

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180002866.0

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2011536220

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11783267

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13383966

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11783267

Country of ref document: EP

Kind code of ref document: A1