[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2011197848A - Touch-panel input device - Google Patents

Touch-panel input device Download PDF

Info

Publication number
JP2011197848A
JP2011197848A JP2010061817A JP2010061817A JP2011197848A JP 2011197848 A JP2011197848 A JP 2011197848A JP 2010061817 A JP2010061817 A JP 2010061817A JP 2010061817 A JP2010061817 A JP 2010061817A JP 2011197848 A JP2011197848 A JP 2011197848A
Authority
JP
Japan
Prior art keywords
touch
point
touch panel
input
point touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010061817A
Other languages
Japanese (ja)
Inventor
Shigehide Yano
茂秀 矢野
Kazunori Hisa
和則 久
Takashi Oki
崇 大木
Masahide Tanaka
雅英 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rohm Co Ltd
Original Assignee
Rohm Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rohm Co Ltd filed Critical Rohm Co Ltd
Priority to JP2010061817A priority Critical patent/JP2011197848A/en
Priority to PCT/JP2011/053347 priority patent/WO2011102406A1/en
Priority to US13/579,378 priority patent/US9250800B2/en
Priority to CN2011800196740A priority patent/CN102844732A/en
Publication of JP2011197848A publication Critical patent/JP2011197848A/en
Priority to US14/978,082 priority patent/US9760280B2/en
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a practical touch-panel input device practically using a touch-panel allowing multipoint detection.SOLUTION: The touch-panel input device performs input of different functions in response to a first-point touch and a second-point touch onto a touch-panel display screen including display and touch-panel functions. The touch-panel input device associates and inputs the first-point touch and the second-point touch when a time interval to second-point touch detection from first-point touch detection is within a prescribed time, and performs input as first-point touch operation when it is longer than the prescribed time. For example, a consonant is designated by the first-point touch, a vowel is designated by the second-point touch, and a character is input by a combination of both sides. A second-point touch position is dragged to a first-point touch position to execute input. A touch reference position of the consonant of the character and a touch reference position of the vowel of the character are disposed in side portions of the touch-panel display screen, and ten-key pad display is disposed in a central portion of the touch-panel display screen.

Description

本発明は、タッチパネル入力装置に関する。   The present invention relates to a touch panel input device.

タッチパネル入力装置に関しては種々の提案がなされており、例えば特許文献1や特許文献2には、2点のタッチ位置が検出可能なアナログ抵抗膜方式タッチパネルが提案されている。
特開2009−146191号公報 特開2010−26641号公報
Various proposals have been made regarding touch panel input devices. For example, Patent Document 1 and Patent Document 2 propose analog resistance film type touch panels capable of detecting two touch positions.
JP 2009-146191 A JP 2010-26641 A

しかしながら、タッチパネルの活用おいては具体的に検討しなければならない種々の問題があり、特に多点の検知が可能なタッチパネルについては実用面における検討が未だ不充分である。   However, there are various problems that need to be specifically examined in the use of touch panels, and practical studies are still insufficient for touch panels that can detect multiple points.

本発明の課題は、上記に鑑み、多点の検知が可能なタッチパネルを活用した実用的なタッチパネル入力装置を提供することにある。   In view of the above, an object of the present invention is to provide a practical touch panel input device utilizing a touch panel capable of detecting multiple points.

上記課題を達成するため、本発明は、タッチパネルと、タッチパネルへの2点同時タッチ状態を検知する検知部と、検知部の2点タッチのタイミングに応じ異なった入力を行う入力制御部とを有するタッチパネル入力装置を提供する。これによって2点タッチ操作の混乱を防止するとともに簡単な操作感覚での入力を可能とすることができる。   To achieve the above object, the present invention includes a touch panel, a detection unit that detects a two-point simultaneous touch state on the touch panel, and an input control unit that performs different inputs according to the timing of the two-point touch of the detection unit. A touch panel input device is provided. As a result, confusion of the two-point touch operation can be prevented and input with a simple operation feeling can be made possible.

本発明の具体的特徴によれば、入力制御部は、検知部が検知する2点タッチにおける1点目タッチと2点目タッチに応答して異なった機能の入力を行う。これによって、1点目タッチに続く2点目タッチによって連続して異なった入力を行うことができ、例えば親指と人差指など異なった指の連続タッチにより連続して異なった入力を行うことができる。   According to a specific feature of the present invention, the input control unit inputs different functions in response to the first point touch and the second point touch in the two point touch detected by the detection unit. Accordingly, different input can be continuously performed by the second point touch subsequent to the first point touch, and different input can be continuously performed by continuous touch of different fingers such as the thumb and the index finger.

本発明の他の具体的特徴によれば、入力制御部は、検知部が検知する2点タッチにおける1点目タッチ検知後2点目タッチ検知までの時間間隔に応答して入力を異ならしめる。これによってタッチ感覚の自然な相違により混乱なく所望の入力を行うことが可能となる。例えば、1点目タッチ検知後2点目タッチ検知までの時間間隔が所定以上ある場合、2点目タッチに応答する入力を禁止するようにすれば、偶然生じた2点タッチによる誤入力を防止することができる。   According to another specific feature of the present invention, the input control unit varies the input in response to a time interval from the first point touch detection to the second point touch detection in the two point touch detected by the detection unit. This makes it possible to perform a desired input without confusion due to a natural difference in touch feeling. For example, if there is a predetermined time interval between the first point touch detection and the second point touch detection, input that responds to the second point touch is prohibited to prevent accidental input due to the two point touch. can do.

また、例えば、1点目タッチ検知後2点目タッチ検知までの時間間隔が所定時間以内であるとき1点目タッチと2点目タッチを関連づけて入力するようにすれば、意図的に行われた2点タッチを適切に識別し、所望の入力を行うことが可能となる。さらに、また、たとえば、1点目タッチ検知後2点目タッチ検知までの時間間隔が所定時間以上あるとき1点タッチ操作としての入力を実行するよう構成すれば、自然な操作感覚で1点操作入力と2点操作入力を使い分けることができる。   Also, for example, if the time interval from the first point touch detection to the second point touch detection is within a predetermined time, the first point touch and the second point touch are input in association with each other, and this is performed intentionally. Thus, it is possible to appropriately identify the two-point touch and perform a desired input. Furthermore, for example, if an input as a one-point touch operation is executed when a time interval between the first point touch detection and the second point touch detection is equal to or longer than a predetermined time, the one-point operation is performed with a natural operation feeling. Input and 2-point operation input can be used properly.

本発明の他の特徴によれば、タッチパネルと、タッチパネルへの2点同時タッチ状態を検知する検知部と、検知部が検知する2点タッチにおける1点目タッチ位置と2点目タッチ位置の組合せにより入力を行う入力制御部とを有するタッチパネル入力装置が提供される。これによって複数の要素の組合せに基づく入力が可能となる。   According to another feature of the present invention, a touch panel, a detection unit that detects a two-point simultaneous touch state on the touch panel, and a combination of the first point touch position and the second point touch position in the two point touch detected by the detection unit A touch panel input device having an input control unit for performing input is provided. This enables input based on a combination of a plurality of elements.

具体的な特徴によれば、上記のタッチパネルは表示およびタッチパネル機能を備えたタッチパネル表示画面として構成されるとともに、タッチの基準位置をタッチパネル表示画面に表示する表示制御部が設けられる。これによって組合せ候補の表示と2点タッチによるその選択が適切に行われる。 According to a specific feature, the touch panel is configured as a touch panel display screen having a display and a touch panel function, and a display control unit that displays a reference position of the touch on the touch panel display screen is provided. As a result, the combination candidates are displayed appropriately and selected by two-point touch.

上記本発明の他の具体的な特徴によれば、入力制御部は、検知部が検知する2点タッチにおける特定の1点目タッチ位置と特定の2点目タッチ位置の相対位置変化に応じて所定の入力を行う。これによって2点タッチによる組合せの指定と指定された組合せによる入力実行が簡単な操作で可能となる。より具体的な特徴によれば、入力制御部は、検知部が検知する2点タッチにおける特定の1点目タッチ位置に特定の2点目タッチ位置がドラグされることによって所定の入力を行う。これにより、2点タッチによる指定の組合せによる入力が感覚的にも了解しやすい形で行われる。このような入力の具体例は文字の子音要素と母音要素の組合せによる文字入力である。   According to the other specific feature of the present invention, the input control unit is configured to respond to a relative position change between the specific first point touch position and the specific second point touch position in the two-point touch detected by the detection unit. Make a predetermined input. As a result, it is possible to specify a combination by two-point touch and execute an input by the specified combination with a simple operation. According to a more specific feature, the input control unit performs a predetermined input by dragging the specific second point touch position to the specific first point touch position in the two-point touch detected by the detection unit. Thereby, the input by the designation | designated combination by two-point touch is performed in the form which is easy to understand sensuously. A specific example of such input is character input by a combination of character consonant elements and vowel elements.

本発明の他の特徴によれば、表示およびタッチパネル機能を備えたタッチパネル表示画面と、文字の子音のタッチ基準位置および文字の母音のタッチ基準位置をタッチパネル表示画面の辺部分に配置する表示制御部と、タッチパネル表示画面へのタッチ状態を検知する検知部と、検知部によるタッチ検知に応じ文字入力を行う入力制御部とを有することを特徴とするタッチパネル入力装置が提供される。これによって文字の直接指定よりも少ない要素の組合せによる文字入力が可能となり、タッチパネル表示画面の中央部分を有効に活用することができる。   According to another feature of the present invention, a touch panel display screen having a display and a touch panel function, and a display control unit that arranges a touch reference position of a consonant of a character and a touch reference position of a vowel of a character on a side portion of the touch panel display screen There is provided a touch panel input device comprising: a detection unit that detects a touch state on the touch panel display screen; and an input control unit that performs character input in response to touch detection by the detection unit. As a result, it is possible to input characters by combining fewer elements than direct specification of characters, and the center portion of the touch panel display screen can be used effectively.

上記本発明の具体的な特徴によれば、表示制御部は、テンキー表示をタッチパネル表示画面の中央部分に配置する。このようにして、文字の子音のタッチ基準位置および文字の母音のタッチ基準位置をタッチパネル表示画面の辺部分に配置するとともにテンキー表示をタッチパネル表示画面の中央部分に配置することにより、限られたタッチパネル表示画面を利用して多様かつ容易な入力が可能となる。   According to the specific feature of the present invention, the display control unit arranges the numeric keypad display at the center portion of the touch panel display screen. In this way, the touch reference position of the consonant of the character and the touch reference position of the vowel of the character are arranged in the side part of the touch panel display screen, and the numeric keypad is arranged in the central part of the touch panel display screen, thereby limiting the touch panel Various and easy input is possible using the display screen.

より具体的な特徴によれば、検知部は、タッチパネル表示画面の前記テンキー表示への1点タッチ状態を検知することにより数字入力を行う。このようにして、文字の子音および母音の組合せを2点タッチにより指定するとともに、タッチ基準位置をタッチパネル表示画面の辺部分に配置するとともにテンキー表示への1点タッチにより数字を指定することにより、多様な入力を容易に行うことができる。また、このような1点タッチと2点タッチの使い分けに関しては、上記の本発明の種々の特徴を必要に応じ併用することができる。   According to a more specific feature, the detection unit performs numeric input by detecting a one-point touch state on the numeric keypad display on the touch panel display screen. In this way, by specifying the combination of the consonant and vowel of the character by two-point touch, by placing the touch reference position on the side part of the touch panel display screen and by specifying the number by one-point touch on the numeric keypad display, Various inputs can be performed easily. Moreover, regarding the proper use of such one-point touch and two-point touch, the various features of the present invention described above can be used together as necessary.

上記のように、本発明によれば、多点の検知が可能なタッチパネルを活用した実用的なタッチパネル入力装置を提供することができる。   As described above, according to the present invention, it is possible to provide a practical touch panel input device using a touch panel capable of detecting multiple points.

本発明の実施の形態に係るタッチパネル入力装置の実施例1を示すブロック図である。It is a block diagram which shows Example 1 of the touchscreen input device which concerns on embodiment of this invention. 図1の抵抗膜式タッチパネル表示部において右ハンドル車の運転席側から左手でメニュー選択操作する場合メニュー選択を行う場合の表示画面図である。FIG. 6 is a display screen diagram when menu selection is performed when a menu selection operation is performed with the left hand from the driver's seat side of the right-hand drive vehicle in the resistive touch panel display unit of FIG. 1. 図1の抵抗膜式タッチパネル表示部において右ハンドル車の助手席側から右手でメニュー選択操作する場合の表示画面図である。FIG. 2 is a display screen diagram when a menu selection operation is performed with the right hand from the passenger seat side of the right-hand drive vehicle in the resistive touch panel display unit of FIG. 1. 図1の抵抗膜式タッチパネル表示部において行先入力操作を行う場合の表示画面図である。It is a display screen figure in the case of performing destination input operation in the resistive film type touch panel display part of FIG. 図1の抵抗膜式タッチパネル表示部において走行中に地図の拡大縮小操作をする場合の左手操作と右手操作の違いを説明する画面図である。It is a screen figure explaining the difference between left-hand operation and right-hand operation in the case of carrying out map enlargement / reduction operation during traveling on the resistive touch panel display unit of FIG. 図5(B)の状態から2点の絶対位置で決まる矩形領域を抵抗膜式タッチパネル表示部いっぱいに拡大する操作を示す画面図である。It is a screen figure which shows operation which expands the rectangular area | region decided by the absolute position of two points from the state of FIG. 5 (B) to the resistive film type touch panel display part. 図6の経過を経て地図が拡大された履歴がある場合において、その地図を所望の点を中心に所定の縮小率にて広域側に縮小する操作を示す画面図である。FIG. 7 is a screen diagram illustrating an operation of reducing the map to a wide area side with a predetermined reduction rate centered on a desired point when there is a history of the map being enlarged through the progress of FIG. 6. 図5(A)の状態から、2点の絶対位置がどこにあるかにかかわらず地図の拡大操作を行う際の画面図である。FIG. 6 is a screen diagram when a map enlargement operation is performed from the state of FIG. 5A regardless of where the absolute positions of the two points are; 図5(A)の状態から、2点の絶対位置がどこにあるかにかかわらず地図の縮小操作を行う際の画面図である。FIG. 6 is a screen diagram when a map reduction operation is performed from the state of FIG. 5A regardless of where the absolute positions of the two points are. 図1の実施例1における制御部の動作のフローチャートである。It is a flowchart of operation | movement of the control part in Example 1 of FIG. 図10のステップS10の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S10 of FIG. 図10のステップS16の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S16 of FIG. 図10のステップS24の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S24 of FIG. 本発明の実施の形態に係るタッチパネル入力装置の実施例2を示すブロック図である。It is a block diagram which shows Example 2 of the touchscreen input device which concerns on embodiment of this invention. 実施例2の抵抗膜式タッチパネル表示部に表示される被写体画像を示す画面図である。FIG. 6 is a screen diagram illustrating a subject image displayed on a resistive film type touch panel display unit of Example 2. 図14の実施例2における制御部の動作のフローチャートである。It is a flowchart of operation | movement of the control part in Example 2 of FIG.

図1は、本発明の実施の形態に係るタッチパネル入力装置の実施例1を示すブロック図である。実施例1は車両のナビゲーションシ装置(以下カーナビ装置)2を構成しており、装置全体を制御するコンピュータからなる制御部4を有し、運転者による操作部6の操作に応じて、カーナビ装置2を制御する。この制御部4の機能は記憶部8に格納されたソフトウエアによって実行される。記憶部8は、またカーナビ装置2の制御に必要な種々のデータを一時的に格納する。また、制御部4は表示ドライバ10を介して抵抗膜式タッチパネル表示部12の表示を制御し、操作部6の操作に必要なGUI表示を行うとともに制御結果の表示を行う。   FIG. 1 is a block diagram showing Example 1 of the touch panel input device according to the embodiment of the present invention. The first embodiment constitutes a vehicle navigation system device (hereinafter referred to as a car navigation device) 2, which has a control unit 4 composed of a computer for controlling the entire device, and the car navigation device according to the operation of the operation unit 6 by the driver. 2 is controlled. The function of the control unit 4 is executed by software stored in the storage unit 8. The storage unit 8 also temporarily stores various data necessary for controlling the car navigation device 2. Further, the control unit 4 controls the display of the resistive touch panel display unit 12 via the display driver 10, displays a GUI display necessary for the operation of the operation unit 6, and displays a control result.

抵抗膜式タッチパネル表示部12は表示部であるとともにタッチパネル入力装置となっていて、表示に直接タッチすることにより入力操作を行うGUI操作部となっている。また、抵抗膜式タッチパネル表示部12は、上下左右のタッチ位置情報を出力する4線の出力線(図1では、簡単のため情報伝達方向を示す一本の線で図示)によって制御部4に接続されており、制御部4はこの4線の出力を分析処理することにより、2点のタッチ位置およびその移動を検知することが可能である。この2点のタッチ位置検知による入力の詳細については、後述する。   The resistive touch panel display unit 12 is a display unit and a touch panel input device, and is a GUI operation unit that performs an input operation by directly touching the display. In addition, the resistive touch panel display unit 12 is connected to the control unit 4 by four output lines (in FIG. 1, shown as a single line indicating the information transmission direction for simplicity) that outputs the touch position information of the top, bottom, left, and right. The controller 4 is connected, and the four-wire output is analyzed to detect the two touch positions and their movement. Details of the input by detecting the touch position of these two points will be described later.

GPS部18は、GPSシステムに基づいて衛星および最寄の放送局よりカーナビ装置2の搭載された車両の絶対位置情報である緯度、経度、および高度の情報を得て制御部4に送る。制御部4は、GPS部14からの絶対位置情報を処理し、地図記憶部16の提供する地図上での車両の位置を抵抗膜式タッチパネル表示部12に表示する。   The GPS unit 18 obtains latitude, longitude, and altitude information, which are absolute position information of the vehicle on which the car navigation device 2 is mounted, from the satellite and the nearest broadcasting station based on the GPS system and sends the information to the control unit 4. The control unit 4 processes the absolute position information from the GPS unit 14 and displays the position of the vehicle on the map provided by the map storage unit 16 on the resistive touch panel display unit 12.

カーナビ装置2は、地図記憶部16に記憶する地図情報の更新等のために無線で外部と通信するため、無線通信部18およびケーブル経由の入出力部20を備えている。なお、無線通信部は、通常の電話回線によるものであってもよいし、専用の近距離無線通信部であってもよい。これらの無線通信部18および入出力部20は地図情報の入手の他、カーナビシステムまたはGPSシステムについて機能のバージョンアップやメンテナンスデータが発生したとき、外部と通信してこれらの情報を入手することができる。なお、制御部4への操作情報入力は、操作部6または抵抗膜式タッチパネル表示部12からの操作に加え、マイク19から音声によっても行うことができる。また、運転者等への情報出力は抵抗膜式タッチパネル表示部12での表示に加え、スピーカ21により音声によっても行うことができる。   The car navigation device 2 includes a wireless communication unit 18 and an input / output unit 20 via a cable in order to communicate with the outside wirelessly in order to update map information stored in the map storage unit 16. The wireless communication unit may be a normal telephone line or a dedicated short-range wireless communication unit. In addition to obtaining map information, these wireless communication unit 18 and input / output unit 20 may communicate with the outside to obtain such information when a function upgrade or maintenance data is generated for a car navigation system or a GPS system. it can. The operation information input to the control unit 4 can be performed by voice from the microphone 19 in addition to the operation from the operation unit 6 or the resistive touch panel display unit 12. In addition to the display on the resistive touch panel display unit 12, information output to the driver or the like can be performed by voice through the speaker 21.

図2から図9は、図1の抵抗膜式タッチパネル表示部(以下、「表示部」と略称)12における表示および2点タッチ検知に関連する種々の機能を説明するための表示画面図である。なお、カーナビ装置において、表示部12は車両の中央部付近に配置されるのが常であるが、右ハンドル車の場合を例にとり、運転者または助手席乗車者が表示部12におけるタッチパネルを利用して種々のGUI操作をどのように行うかについて説明する。   2 to 9 are display screen diagrams for explaining various functions related to display and two-point touch detection in the resistive touch panel display unit (hereinafter, abbreviated as “display unit”) 12 of FIG. . In the car navigation system, the display unit 12 is usually arranged near the center of the vehicle, but the driver or passenger in the passenger seat uses the touch panel on the display unit 12 as an example of a right-hand drive vehicle. How to perform various GUI operations will be described.

まず、図2は、表示部12上に表示されるメニューにタッチしてメニュー選択を行うGUI操作を行う場合を示す。図2は、運転者が操作している場合であって、この場合、操作する手は左手22となる。2点にタッチするには親指とそれ以外の任意の指のいずれか(例えば中指)を用いるのが種々の操作において最も自由度が大きいが、運転席に座った運転者が左手22を自然に表示部12においた場合、図2(A)に示すように親指の指先は他の指の指先よりも低い位置になる。従って親指のタッチ位置24とはそれ以外の任意の指のいずれか(例えば中指であり、以下中指を例にとって説明する)のタッチ位置26を結んだ線は通常、右下がりとなる。   First, FIG. 2 shows a case where a GUI operation for selecting a menu is performed by touching a menu displayed on the display unit 12. FIG. 2 shows a case where the driver is operating. In this case, the operating hand is the left hand 22. To touch two points, using either the thumb or any other finger (for example, the middle finger) is the most flexible in various operations, but the driver sitting in the driver's seat naturally holds the left hand 22 When placed on the display portion 12, the fingertip of the thumb is positioned lower than the fingertips of the other fingers as shown in FIG. Therefore, the line connecting the touch position 26 of any other finger (for example, the middle finger, which will be described below by taking the middle finger as an example) is usually downwardly to the right.

制御部4は、表示部12からの情報に基づき右下がりの2点が同時タッチ状態にあることを検知すると、表示ドライバ10に指示して図2のような左手用メニューレイアウトを表示部12に表示させる。具体的に述べると、左手用メニューレイアウトでは、左手22の親指以外のタッチが予定される行先メニュー28、オーディオメニュー30およびエアコンメニュー32が表示部12の左上寄りに配置されるとともに、親指のタッチが予定される決定エリア34は、表示部12の右下寄りに配置される。なお、制御部4が左手用メニュー表示を指示する段階では、親指のタッチ位置24と中指のタッチ位置26の絶対位置はどこでもよく、同時タッチ状態の2点を結んだ線が相対的に右下がりであることだけが判定の情報となる。   When the control unit 4 detects that two lower right points are in the simultaneous touch state based on the information from the display unit 12, the control unit 4 instructs the display driver 10 to display the left-hand menu layout as shown in FIG. Display. Specifically, in the left-hand menu layout, the destination menu 28, the audio menu 30, and the air conditioner menu 32 where a touch other than the thumb of the left hand 22 is scheduled are arranged on the upper left side of the display unit 12, and the touch of the thumb The decision area 34 scheduled for is arranged near the lower right side of the display unit 12. When the control unit 4 instructs the left hand menu display, the absolute position of the thumb touch position 24 and the middle finger touch position 26 may be anywhere, and the line connecting the two points in the simultaneous touch state is relatively lower right. Only that is the determination information.

次に、このような左手用レイアウトにおけるメニュー選択について説明する。例えば中指がメニューの一つ(例えば行先メニュー28)にタッチされ、同時に親指が決定エリア34にタッチされていると判断されると、親指のタッチ位置24と中指のタッチ位置26の絶対位置が検出され、それに応答して図2(A)のようにタッチが検知された行先メニュー28および決定エリア34が太枠で表示される。この状態で、親指の決定エリア34へのタッチを継続したまま中指のタッチ位置をずらすことによって他のメニューを選択することも可能であり、これに応答して太枠表示が行先メニュー28からオーディオメニュー30またはエアコンメニュー32に移動する。このようなメニュー選択の移動は、白矢印36に示すように左手22を上下に平行移動することによって可能である。そしてこのような左手22の平行移動によって親指が白矢印38に示すように上下に平行移動してもそのタッチ状態が保持されるよう、決定エリア34は上下に長く設定されている。   Next, menu selection in such a left-hand layout will be described. For example, when it is determined that the middle finger is touched on one of the menus (for example, the destination menu 28) and the thumb is touched on the decision area 34 at the same time, the absolute positions of the thumb touch position 24 and the middle finger touch position 26 are detected. In response to this, the destination menu 28 and the decision area 34 in which a touch is detected are displayed in a thick frame as shown in FIG. In this state, it is also possible to select another menu by shifting the touch position of the middle finger while continuing to touch the determination area 34 of the thumb, and in response to this, a thick frame display is displayed from the destination menu 28 as an audio. Move to menu 30 or air conditioner menu 32. Such menu selection can be moved by moving the left hand 22 up and down as indicated by the white arrow 36. The determination area 34 is set to be long in the vertical direction so that the touch state is maintained even when the thumb moves in parallel up and down as indicated by the white arrow 38 by the parallel movement of the left hand 22.

なお、メニュー選択の変更は、上記のように左手22を上下に平行移動する場合に限らず、左手の自然な動きに応じて任意の2点タッチを行うことが可能である。手の他の動きの例については後述する。また、必ずしも上記のように2点のタッチ状態を保ったままで手の移動を行う必要はなく、一度指を表示部12から完全に離し、その後、新たな選択のために中指および親指のタッチを行ってもよい。また、2点のタッチは完全に同時に行う必要はなく、まず中指でメニューのいずれかにタッチしてから親指で決定エリア34にタッチしてもよい。逆に、先に親指で決定エリア34にタッチしてからこれを支点として中指でメニューのいずれかにタッチしてもよい。図2のように左手用レイアウトが表示されてからのメニュー選択画面では、メニューのいずれかおよび決定エリア34の2点の同時タッチ状態が検出されない限り、これに反応してメニューおよび決定エリアが太枠表示に変わることはない。   Note that the menu selection is not limited to the case where the left hand 22 is translated up and down as described above, and any two-point touch can be performed according to the natural movement of the left hand. Examples of other hand movements will be described later. In addition, it is not always necessary to move the hand while maintaining the two-point touch state as described above, and once the finger is completely removed from the display unit 12, the middle finger and the thumb are then touched for a new selection. You may go. Further, it is not necessary to touch the two points completely at the same time. First, one of the menus may be touched with the middle finger and the decision area 34 may be touched with the thumb. Conversely, the decision area 34 may be first touched with the thumb and then touched on any of the menus with the middle finger as a fulcrum. In the menu selection screen after the left-hand layout is displayed as shown in FIG. 2, the menu and the decision area are thickened in response to any of the menus and the decision area 34 unless two simultaneous touch states are detected. There is no change to the frame display.

メニュー選択を確定させるためには、例えば、図2(A)のように行先メニュー28および決定メニュー34が太枠表示となっている状態において、中指および親指のタッチを継続したまま黒矢印40で示すように親指を中指に向かってスライドさせる。この親指の動きによって決定エリア34が行先メニュー24に向かってドラグされ、例えば両者が重なるまでドラグされた状態になると行先メニュー28の選択が確定される。そして左手22を表示部12から離すと図2(B)に示すように選択が確定された行先メニュー28の表示色が変わり、メニューの選択が確定されたことを表示する。   In order to confirm the menu selection, for example, in the state where the destination menu 28 and the decision menu 34 are displayed in a thick frame as shown in FIG. Slide your thumb toward the middle finger as shown. The decision area 34 is dragged toward the destination menu 24 by the movement of the thumb. For example, when the two are overlapped with each other, the selection of the destination menu 28 is confirmed. When the left hand 22 is released from the display unit 12, as shown in FIG. 2B, the display color of the destination menu 28 for which the selection has been confirmed changes, indicating that the menu selection has been confirmed.

図3は、表示部12を右ハンドル車の助手席側から操作する場合の表示画面図であり、この場合、操作する手は右手42となる。助手席に座った同乗者が右手42を自然に表示部12においた場合、図3(A)に示すように右手42の親指の指先は他の指の指先よりも低い位置になる。従って親指のタッチ位置44と中指のタッチ位置46を結んだ線は通常、左下がりとなる。   FIG. 3 is a display screen diagram when the display unit 12 is operated from the passenger seat side of the right-hand drive vehicle. In this case, the operating hand is the right hand 42. When the passenger sitting in the passenger seat naturally places the right hand 42 on the display unit 12, the fingertip of the thumb of the right hand 42 is lower than the fingertips of the other fingers as shown in FIG. Therefore, the line connecting the touch position 44 of the thumb and the touch position 46 of the middle finger is usually left-down.

この場合、制御部4は、表示部12からの情報に基づき左下がりの2点が同時タッチ状態にあることを検知すると、表示ドライバ10に指示して図3のような右手用メニューレイアウトを表示部12に表示させる。具体的に述べると、右手用メニューレイアウトでは、行先メニュー48、オーディオメニュー50およびエアコンメニュー52は表示部12の右上寄りに配置されるとともに、親指のタッチが予定される決定エリア54は、表示部12の左下寄りに配置される。このように図3において表示部12の左側から右手で操作する際のレイアウトは、図2のように表示部12の右側から左手で操作する場合と左右対称なので、感覚的に同様の操作となり、混乱することがない。なお、左手レイアウト決定の場合と同様、制御部4が右手用メニュー表示を指示する段階では、同時タッチ状態の2点を結んだ線が相対的に左下がりであることだけが判定の情報となる。   In this case, when the control unit 4 detects that two points on the lower left are in the simultaneous touch state based on the information from the display unit 12, the control unit 4 instructs the display driver 10 to display the right-hand menu layout as shown in FIG. This is displayed on the unit 12. More specifically, in the right-hand menu layout, the destination menu 48, the audio menu 50, and the air conditioner menu 52 are arranged near the upper right of the display unit 12, and the decision area 54 where a thumb touch is scheduled is displayed on the display unit. 12 is arranged on the lower left side. In this way, the layout when operating with the right hand from the left side of the display unit 12 in FIG. 3 is symmetrical to the case of operating with the left hand from the right side of the display unit 12 as shown in FIG. There is no confusion. As in the case of determining the left-hand layout, at the stage where the control unit 4 instructs the right-hand menu display, only the fact that the line connecting the two points in the simultaneous touch state is relatively lower left is the determination information. .

次に、図3の右手用レイアウトにおけるメニュー選択について説明する。基本的には図2の右手用レイアウトと同様なので、異なるところを中心に簡略に説明する。例えば中指がメニューの一つ(例えばオーディオメニュー50)にタッチされ、同時に親指が決定エリア54にタッチされていると判断されると、図2と同様にして親指のタッチ位置44と中指のタッチ位置46の絶対位置が検出され、それに応答して図3(A)のようにタッチが検知されたオーディオメニュー50および決定エリア54が太枠で表示される。以下、図3では、図2とは手の異なった動きによる2点タッチの例を示すが、図2や図3に限ることなく、自然な手の動きによる2点タッチが可能であることはいうまでもない。   Next, menu selection in the right-hand layout in FIG. 3 will be described. Since it is basically the same as the right-hand layout shown in FIG. For example, if it is determined that the middle finger is touched on one of the menus (for example, the audio menu 50) and the thumb is touched on the decision area 54 at the same time, the thumb touch position 44 and the middle finger touch position are determined as in FIG. The absolute position 46 is detected, and in response to this, the audio menu 50 and the decision area 54 in which a touch is detected are displayed in a thick frame as shown in FIG. In the following, FIG. 3 shows an example of a two-point touch by a different hand movement from that in FIG. 2, but the two-point touch by a natural hand movement is possible without being limited to FIG. 2 and FIG. Needless to say.

図3では、親指の決定エリア34へのタッチを支点としてこれを中心に右手42を白矢印56のように回転させることにより中指のタッチ位置をずらし、他のメニューを選択することが可能である。また、親指は必ずしも固定している必要はなく、決定エリア54の中で自然な移動を伴ってもよい。このような中指のタッチ位置の移動に応答して太枠表示がオーディオメニュー50から行先メニュー48またはエアコンメニュー52に移動する。   In FIG. 3, by touching the thumb determination area 34 as a fulcrum, the right hand 42 is rotated as shown by a white arrow 56 to shift the touch position of the middle finger, and another menu can be selected. . Further, the thumb does not necessarily have to be fixed, and may naturally move in the decision area 54. In response to the movement of the touch position of the middle finger, the thick frame display moves from the audio menu 50 to the destination menu 48 or the air conditioner menu 52.

なお、このようなメニュー選択の変更は、必ずしも上記のように2点のタッチ状態を保ったまま行う必要はなく、一度指を表示部12から完全に離し、その後新たな選択のために中指および親指のタッチを行ってもよいことは図2(A)の場合と同様である。また、2点のタッチは完全に同時に行う必要がないことも図2(A)の場合と同様である。図3のように右手用レイアウトにおいても、このレイアウトが表示されてからのメニュー選択画面では、メニューのいずれかおよび決定エリア54の2点の同時タッチ状態が検出されない限り、これに反応してメニューおよび決定エリアが太枠表示に変わることはないからである。   Note that such a menu selection change does not necessarily have to be performed while maintaining the two-point touch state as described above, and once the finger is completely removed from the display unit 12, and then the middle finger and the new finger are selected for a new selection. The thumb touch may be performed as in the case of FIG. Similarly to the case of FIG. 2A, it is not necessary to touch two points completely at the same time. Even in the right-hand layout as shown in FIG. 3, on the menu selection screen after this layout is displayed, unless a simultaneous touch state of any of the menus and the decision area 54 is detected, the menu is reacted accordingly. This is because the decision area does not change to a thick frame display.

メニュー選択の確定は、図3(A)と同様にして、例えば、図3(A)のようにオーディオメニュー50および決定メニュー54が太枠表示となっている状態において、中指および親指のタッチを継続したまま黒矢印58で示すように親指を中指に向かってスライドさせ、決定エリア54をオーディオメニュー50に向かってドラグすれば、両者が重なる時点でオーディオメニュー50の選択が確定される。そして右手42を表示部12から離すと図3(B)に示すように選択が確定されたオーディオメニュー50の表示色が変わり、メニューの選択が確定されたことを表示する   The menu selection is confirmed in the same manner as in FIG. 3A, for example, when the audio menu 50 and the decision menu 54 are displayed in a thick frame as shown in FIG. If the user continues to slide the thumb toward the middle finger as indicated by the black arrow 58 and drags the decision area 54 toward the audio menu 50, the selection of the audio menu 50 is finalized when the two overlap. Then, when the right hand 42 is released from the display unit 12, the display color of the audio menu 50 whose selection has been confirmed changes as shown in FIG. 3B, indicating that the menu selection has been confirmed.

なお、制御部4は、右下がりの2点同時タッチ状態が検知されたときであっても車両が走行中の場合は図2の左手用レイアウトを表示せず、代わりに「走行中は運転者によるメニュー変更操作禁止」の旨を表示部12上の表示またはスピーカ21のアナウンスにより運転者に告知する。これは、走行中の運転者の操作による事故を防止するためである。なお、制御部4が左下がりの2点同時タッチ状態が検知されたときは車両が停止中であっても走行中であっても図3の左手用レイアウトが表示されるので、走行中であれば助手席の同乗者にメニューの変更を依頼することができる。ここで、右手用レイアウトが表示されているとき、運転者の右手または左手の不自然な姿勢により右下がりの2点タッチをすることも不可能ではないが、運転者がこのような危険な行動を取らないよう、事前に使用説明書において告知徹底を行う。   Note that the control unit 4 does not display the left-hand layout of FIG. 2 when the vehicle is traveling even when the right-down two-point simultaneous touch state is detected, The menu change operation is prohibited ”is notified to the driver by display on the display unit 12 or announcement of the speaker 21. This is to prevent accidents caused by the operation of the driver while traveling. Note that when the control unit 4 detects a two-point simultaneous touch state with a lower left, the left-hand layout of FIG. 3 is displayed whether the vehicle is stopped or traveling, You can ask the passenger in the passenger seat to change the menu. Here, when the layout for the right hand is displayed, it is not impossible to make a two-point touch to the lower right due to the unnatural posture of the driver's right or left hand, but the driver is Thoroughly notify the user in advance in order to avoid taking them.

図4は、図2(B)のようにして行先メニューの選択が決定することにより自動的に表示される行先入力用の表示画面図を示す。図4(A)は左手用レイアウトであり、図2(A)と同様にしてタッチされた2点を結んだ線が相対的に右下がりであることが検知されることにより表示される。図4では、親指のタッチ位置60と親指以外の指(図4では例として人差指)のタッチ位置62の2点の相対位置を検知している。   FIG. 4 shows a display screen diagram for destination input that is automatically displayed when the selection of the destination menu is determined as shown in FIG. FIG. 4A shows a left-hand layout, which is displayed by detecting that the line connecting the two touched points is relatively lower right as in FIG. 2A. In FIG. 4, two relative positions of the touch position 60 of the thumb and the touch position 62 of a finger other than the thumb (for example, the index finger in FIG. 4) are detected.

図4(A)に示した行先入力用の表示画面の左手用レイアウトでは、左手22の親指以外のタッチが予定される「あかさたなはまやらわ」の「あ」以外の各行をそれぞれ意味する「K」、「S」、「T」、「N」、「H」、「M」、「Y」、「R」、「W」の子音ボタン群64(簡単のため代表として「K」のみに番号付与)が表示部12の画面上端近傍に配置されるとともに、親指のタッチが予定される「あいうえお」の各段をそれぞれ意味する「a」、「i」、「u」、「e」、「o」の母音ボタン群66(簡単のため代表として「a」のみに番号付与)が表示部12の画面右端近傍に配置される。   In the left-hand layout of the display screen for destination input shown in FIG. 4A, each line other than “A” of “Akasata Hamawara” where a touch other than the thumb of the left hand 22 is scheduled is indicated. K ”,“ S ”,“ T ”,“ N ”,“ H ”,“ M ”,“ Y ”,“ R ”,“ W ”consonant button group 64 (for simplicity, only“ K ”is representative. Numbering) is arranged in the vicinity of the upper end of the screen of the display unit 12 and “a”, “i”, “u”, “e”, A group of “o” vowel buttons 66 (for simplicity, only “a” is numbered as a representative) is arranged near the right end of the screen of the display unit 12.

次に、上記のような左手用レイアウトにおける仮名文字入力について説明する。例えば人差指が子音ボタン群64の一つ(例えば「T」)にタッチされ、同時に親指が母音ボタン群66の一つ(例えば「u」)にタッチされていると判断されると、親指のタッチ位置60と人差指のタッチ位置62の絶対位置が検出され、それに応答して図4(A)のようにタッチが検知された子音ボタン「T」および母音ボタン「u」が太枠で表示される。これらの組み合わせはローマ字の「Tu」、すなわち仮名の「つ」を意味する。このようにして、親指以外の指による子音ボタンのいずれかおよび親指による母音ボタンの2点タッチにより任意の子音と母音の組合せを指定することができる。なお、「あ」行の仮名については、親指以外の指によるブランクボタン68へのタッチと親指による母音ボタンの2点タッチにより指定することができる。さらに「ん」の指定については、親指以外の指によるブランクボタン68へのタッチと親指による「n」ボタン70の2点タッチにより指定することができる。   Next, input of kana characters in the left-hand layout as described above will be described. For example, if it is determined that the index finger is touched on one of the consonant button groups 64 (for example, “T”) and the thumb is touched on one of the vowel button groups 66 (for example, “u”), the thumb touches. The absolute position of the position 60 and the touch position 62 of the index finger is detected, and in response to this, the consonant button “T” and the vowel button “u” whose touch is detected are displayed in a thick frame as shown in FIG. . These combinations mean the Roman letter “Tu”, that is, the kana “tsu”. In this way, any combination of consonants and vowels can be specified by two-point touch of any one of the consonant buttons with a finger other than the thumb and the vowel button with the thumb. The pseudonym of the “A” line can be designated by touching the blank button 68 with a finger other than the thumb and two-point touching with a vowel button with the thumb. Furthermore, “n” can be designated by touching the blank button 68 with a finger other than the thumb and two-point touch of the “n” button 70 with the thumb.

なお、上記の入力では濁音、半濁音、撥音、促音、拗音などの入力はできないが、行先入力は新規入力ではなく、元々地図上に登録されている地名などを検索するための情報なので、入力される文字列が増えることによってその配列からソフトウエアで推測することにより該当部分を濁音、半濁音、撥音、促音、拗音に自動修正する。なお、表示部において「G」、「P」、「Ky」などの子音ボタンの数を増やせば、濁音、半濁音、撥音、促音、拗音を直接入力することも可能である。   Note that the above input does not allow you to input muddy sounds, semi-turbid sounds, repellent sounds, prompt sounds, stuttering, etc., but the destination input is not a new input, it is information for searching place names etc. originally registered on the map. As the number of generated character strings increases, the corresponding portion is automatically corrected to muddy sound, semi-turbid sound, repelling sound, sounding sound, and roaring sound by inferring from the arrangement by software. If the number of consonant buttons such as “G”, “P”, and “Ky” is increased on the display unit, it is also possible to directly input a muddy sound, a semi-turbid sound, a repellent sound, a prompt sound, and a stuttering sound.

仮名入力においても、2点のタッチは完全に同時に行う必要はなく、まず人差指でまず子音ボタン群64またはブランクボタン68のいずれかにタッチしてから親指で母音ボタン群66または「n」ボタン70のいずれかにタッチしてもよいし、その逆でもよい。2点の組合せより指定された仮名の入力を確定させるためには、例えば、図4(A)のように子音ボタン群64の「T」ボタンおよび母音ボタン群66の「u」ボタンが太枠表示となっている状態において、人差指および親指のタッチを継続したまま黒矢印72で示すように親指を人差指に向かってスライドさせる。この親指の動きによって母音ボタン群66の「u」ボタンが子音ボタン群64の決定エリア34が行先メニュー24に向かってドラグされ、例えば所定以上両者が接近すると子音と母音の組合せによる仮名の入力が確定する。そして入力が新規確定した仮名は、入力ウインドウ74に「つ」のごとく確定済みの文字に続けて大文字で表示される。上記のような子音ボタンに母音ボタンをドラグしてくっつけることにより、仮名を確定させる操作は、仮名のローマ字書きに準じた感覚での操作となり、違和感が少ない。これは日本語のローマ字入力に適するが、類似した子音および母音の組合せ文字構造を持つハングル文字の入力にも適する。なお、ハングル文字の場合、パッチムの付加は文字の基本構成を入力したあと図4の「n」ボタン70または80のように母音ボタン群の列に配置されるパッチムボタンおよび子音ボタンの組合せを続けて追加指定することにより入力する。   In the kana input, it is not necessary to touch the two points completely at the same time. First, the forefinger first touches either the consonant button group 64 or the blank button 68, and then the vowel button group 66 or the “n” button 70 with the thumb. Either of these may be touched or vice versa. In order to confirm the input of the kana specified by the combination of two points, for example, as shown in FIG. 4A, the “T” button of the consonant button group 64 and the “u” button of the vowel button group 66 are bold. In the displayed state, the thumb is slid toward the index finger as indicated by the black arrow 72 while touching the index finger and thumb. By the movement of the thumb, the “u” button of the vowel button group 66 is dragged from the decision area 34 of the consonant button group 64 toward the destination menu 24. Determine. Then, the kana whose input has been newly confirmed is displayed in capital letters after the confirmed character in the input window 74 as “T”. By dragging the vowel button to the consonant button as described above, the operation for confirming the kana becomes an operation according to the romanized writing of the kana, and there is little discomfort. This is suitable for Japanese Romaji input, but is also suitable for inputting Korean characters with a similar consonant and vowel combination character structure. In the case of a Hangul character, the addition of the patch is continued by inputting the basic structure of the character and then combining the combination of the patch button and the consonant button arranged in the row of vowel buttons like the “n” button 70 or 80 in FIG. Input by specifying the additional.

図4の行先入力行先入力用の表示画面には、さらに数字入力用のテンキーボタン76が表示部12の画面中央部近傍に表示される。このようなテンキーボタン76の配置は、子音ボタン群64を表示部12の画面上端近傍に配置するとともに母音ボタン群66を表示部12の画面右端近傍に配置し、画面中央部に空きスペースを確保したことにより可能となる。テンキーボタン76による数字入力は通常通りテンキーボタンのいずれかをタッチする1点タッチにより行う。この場合、左手用レイアウト決定における任意位置の2点タッチのうちの1点目のタッチとの混同を避けるため、テンキーの1点タッチが検知されてから、所定時間(例えば1秒)待って、2点目が続けてタッチされないことを確認してから数字入力を確定する。逆に言えば、2点タッチを行う場合は、同時である必要はないものの、2点目のタッチを1点目のタッチから所定時間以内に続けて行うべきことがユーザに要請されることになる。このようにして、所定時間の設定により、1点タッチか2点タッチかの識別が行われる。   In the destination input destination input display screen of FIG. 4, a numeric keypad 76 for inputting numbers is further displayed near the center of the screen of the display unit 12. Such an arrangement of the numeric key buttons 76 arranges the consonant button group 64 in the vicinity of the upper end of the screen of the display unit 12 and arranges the vowel button group 66 in the vicinity of the right end of the screen of the display unit 12 to secure an empty space in the center of the screen. This is possible. Numeric input using the numeric key buttons 76 is performed by one-point touch in which one of the numeric key buttons is touched as usual. In this case, in order to avoid confusion with the first touch of the two-point touch at an arbitrary position in the left-hand layout determination, wait for a predetermined time (for example, one second) after the ten-point touch of the numeric keypad is detected, After confirming that the second point is not touched continuously, confirm the number input. Conversely, when performing a two-point touch, the user is required to perform the second point touch within a predetermined time after the first point touch, although it is not necessary to be simultaneous. Become. In this way, identification of one-point touch or two-point touch is performed by setting the predetermined time.

図4(B)は、行先入力のための右手用レイアウトであり、図3(A)と同様にしてタッチされた2点を結んだ線が相対的に左下がりであることが検知されることにより表示される。図4(B)に示した右手用レイアウトでは、右手42の親指以外のタッチが予定される子音ボタン群64およびブランクボタン68が図4(A)と同様にして表示部12の画面上端近傍に配置される。このとき操作上の便のために図4(B)のようにその位置を若干右側にシフトしてレイアウトされる。しかしながら、子音の配置順自体は混乱を避けるため図4(A)と同様となっている。また、レイアウトの余裕があれば、子音ボタン群64およびブランクボタン68のレイアウトは図4(A)の左手用レイアウトと図4(B)の右手用レイアウトで全く共通としてもよい。   FIG. 4B shows a right-hand layout for a destination input, and it is detected that a line connecting two touched points is relatively leftward as in FIG. 3A. Is displayed. In the right-hand layout shown in FIG. 4B, the consonant button group 64 and the blank button 68 that are expected to be touched except for the thumb of the right hand 42 are located near the upper end of the screen of the display unit 12 in the same manner as in FIG. Be placed. At this time, for convenience of operation, the layout is shifted slightly to the right as shown in FIG. However, the consonant arrangement order itself is the same as in FIG. 4A to avoid confusion. If there is a margin for the layout, the consonant button group 64 and the blank button 68 may be completely the same for the left-hand layout in FIG. 4A and the right-hand layout in FIG. 4B.

これに対し、図4(B)における右手用レイアウトでは、右手42の親指のタッチが予定される母音ボタン群78および「n」ボタン80が、図4(A)の左手用レイアウトとは異なり、表示部12の画面左端近傍に配置される。但し、縦方向のボタンの配列自体は混乱を避けるため図4(A)と同じである。右手用レイアウトでは、このようなレイアウトにより、図3(A)と同様にして右手の自然な姿勢により仮名入力が行えるようにしている。図4(B)の右手用レイアウトにおける子音ボタンと母音ボタンの組合せによる仮名の指定および母音ボタンのドラグによる仮名入力の確定については図4(A)の左手用レイアウトの場合と同様なので説明は省略する。但し、入力ウインドウ82は手の影にならないよう、図4(B)では画面左寄りにシフトされている。なお、図4(B)の右手用レイアウトにおけるテンキーボタン76の配置は、図4(A)の左手用レイアウトにおけるものと共通である。   On the other hand, in the layout for the right hand in FIG. 4B, the vowel button group 78 and the “n” button 80 that are expected to touch the thumb of the right hand 42 are different from the layout for the left hand in FIG. The display unit 12 is arranged near the left end of the screen. However, the arrangement of the buttons in the vertical direction is the same as that in FIG. 4A to avoid confusion. In the layout for the right hand, such a layout allows the kana to be input with the natural posture of the right hand in the same manner as in FIG. The specification of kana by the combination of consonant buttons and vowel buttons in the right-hand layout of FIG. 4B and the confirmation of kana input by dragging the vowel buttons are the same as in the left-hand layout of FIG. To do. However, the input window 82 is shifted to the left of the screen in FIG. The arrangement of the numeric key buttons 76 in the right-hand layout in FIG. 4B is the same as that in the left-hand layout in FIG.

図4による行先入力の結果、入力ウインドウ78または82に所望の行先が表示されたとき、入力ウインドウ78または82をタッチすると表示部12には自車位置を含む地図が表示され、ナビゲーションが開始される。なお、図2と同様にして制御部4は、右下がりの2点同時タッチ状態が検知されたときであっても車両が走行中の場合は図4(A)の左手用レイアウトを表示せず、代わりに「走行中は運転者によるメニュー変更操作禁止」の旨を表示部12上の表示またはスピーカ21のアナウンスにより運転者に告知する。   When a desired destination is displayed in the input window 78 or 82 as a result of the destination input shown in FIG. 4, when the input window 78 or 82 is touched, a map including the vehicle position is displayed on the display unit 12, and navigation is started. The In the same way as in FIG. 2, the control unit 4 does not display the left-hand layout in FIG. 4A when the vehicle is traveling even when the two-point simultaneous touching state of lower right is detected. Instead, the driver is informed by the display on the display unit 12 or the announcement of the speaker 21 that the menu change operation is prohibited by the driver while driving.

図5から図9は、自車の位置84を含む地図86が表示部12に表示され、ナビゲーションが行われている状態における地図の拡大縮小操作を説明する画面図である。まず、図5は、走行中における左手操作と右手操作の違いを説明する画面図である。上記で説明したように右ハンドル車の場合、左手操作は運転者によって行われ、右手操作は助手席の同乗者によって行われる。この違いにより、本発明では右手操作と左手操作が異なるよう構成し、運転者に負担をかけないようにして危険を防止するとともに、助手席の同乗者からはその意図をより反映した操作が行えるよう構成している。   FIG. 5 to FIG. 9 are screen views illustrating a map enlargement / reduction operation in a state where a map 86 including the position 84 of the host vehicle is displayed on the display unit 12 and navigation is performed. First, FIG. 5 is a screen diagram for explaining the difference between the left hand operation and the right hand operation during traveling. As described above, in the case of a right-hand drive vehicle, the left hand operation is performed by the driver, and the right hand operation is performed by the passenger in the passenger seat. Due to this difference, the present invention is configured so that the right-hand operation and the left-hand operation are different from each other to prevent danger by not placing a burden on the driver, and an operation that more reflects the intention can be performed from the passenger in the passenger seat. It is configured as follows.

図5(A)は、親指のタッチ位置88および人差指のタッチ位置90の2点を結んだ線が相対的に右下がりであることが検知されており、その結果として左手操作であることを認識する。この場合は、2点の絶対位置がどこにあるかにかかわらずその相対位置のみを情報として以後の処理を行うので、運転者に正確なタッチ位置を要求することなく、左手の自然なタッチのみに基づいて処理が行われる。これに対し、図5(B)は、親指のタッチ位置92と人差指のタッチ位置94の2点を結んだ線が相対的に左下がりであることが検知されており、その結果として右手操作であることを認識する。この場合は、親指のタッチ位置92と人差指のタッチ位置94の2点の絶対位置を検知し、その2点を結ぶ線を対角線とする矩形領域96を認識して以後の処理を行うので、情報量が多くなる。そしてこの認識のため同乗者による右手操作の場合は、正確な2点のタッチを期待する。   In FIG. 5A, it is detected that the line connecting the two points of the thumb touch position 88 and the index finger touch position 90 is relatively right-down, and as a result, the left-hand operation is recognized. To do. In this case, since the subsequent processing is performed using only the relative position as information regardless of where the absolute position of the two points is, only the natural touch of the left hand is required without requiring an accurate touch position from the driver. Processing is performed based on this. On the other hand, in FIG. 5B, it is detected that the line connecting the two points of the thumb touch position 92 and the index finger touch position 94 is relatively left-down, and as a result, the right-hand operation is performed. Recognize that there is. In this case, the absolute position of the two points of the thumb touch position 92 and the index finger touch position 94 is detected, and a rectangular region 96 having a diagonal line connecting the two points is recognized, and the subsequent processing is performed. The amount increases. For this recognition, in the case of a right-hand operation by the passenger, an accurate two-point touch is expected.

図6は、図5(B)のようにして地図86に矩形領域96が認識された場合、その領域を表示部12いっぱいに拡大する操作を示す画面図である。矩形領域96を拡大するためには、図6(A)に示すように、親指および人差指をそれぞれのタッチ位置92および94から黒矢印98および100で示すように互いに離間するようスライドさせ、その後、右手42を表示部12から離す。制御部4は、この動きを拡大操作として認識し、図6(A)の矩形領域96内の地図部分を図(6(B)の地図102のように表示部12いっぱいに拡大する。このようにして、走行中の右手操作では、表示されている地図の所望の部分を切り取って表示部12いっぱいに拡大することができる。   FIG. 6 is a screen diagram showing an operation for enlarging the area to the display unit 12 when the rectangular area 96 is recognized on the map 86 as shown in FIG. To enlarge the rectangular area 96, as shown in FIG. 6A, the thumb and index finger are slid away from each touch position 92 and 94 as indicated by black arrows 98 and 100, and then The right hand 42 is moved away from the display unit 12. The control unit 4 recognizes this movement as an enlargement operation, and enlarges the map portion in the rectangular area 96 in FIG. 6A to the full display unit 12 as in the map 102 in FIG. Thus, in the right-hand operation while traveling, a desired portion of the displayed map can be cut out and enlarged to the full display unit 12.

図7は、図6の経過を経て地図が拡大された履歴がある場合において、その地図を所望の点を中心に所定の縮小率にて広域側に縮小する操作を示す画面図である。つまり、それ以前に右手により操作された履歴がある場合がこの縮小操作に該当する。図7(A)は、右手42の人差指のタッチ点104を検知することにより、縮小後の地図の中心位置106を決定する。この場合は1点タッチとなるので、2点タッチの1点目タッチと区別するため所定時間(例えば1秒)待って、その後2点目のタッチがないと1点タッチと認識する。そして中心位置106が決定されたあと右手42を表示部12から離すと、図7(B)に示すように中心位置106が地図の中央に来るように縮小地図108が表示される。このときの縮小率は1点タッチが行われる毎に所定率で縮小が行われるのでさらに縮小したい場合は、人差指による1点タッチを繰り返すことになる。それらの操作の途中で拡大の中心点を変更するのは任意である。   FIG. 7 is a screen diagram showing an operation of reducing the map to a wide area side at a predetermined reduction rate centering on a desired point when there is a history of the map being enlarged through the process of FIG. That is, the reduction operation is performed when there is a history of operations performed with the right hand before that. In FIG. 7A, the center position 106 of the reduced map is determined by detecting the touch point 104 of the index finger of the right hand 42. In this case, since it is a one-point touch, it waits for a predetermined time (for example, one second) in order to distinguish it from the first point touch of the two-point touch. When the right hand 42 is released from the display unit 12 after the center position 106 is determined, the reduced map 108 is displayed so that the center position 106 is at the center of the map as shown in FIG. At this time, the reduction rate is reduced at a predetermined rate every time one-point touch is performed. Therefore, when further reduction is desired, one-point touch with the index finger is repeated. It is optional to change the center point of the enlargement in the middle of these operations.

なお、図6および図7は、左下がりの2点タッチが検知された場合の右手操作として説明したが、車両が停止している場合は、右下がりの2点タッチが検知された場合においても、図5(B)のような矩形領域の設定が行われる。これは、運転中でない場合、危険なしに運転者に正確な操作を要求してもよいからであり、運転者は車両を停止させることによって、地図における所望の領域の拡大および所望の1点を中心とする地図の縮小を行うことができる。   6 and 7 are described as a right-hand operation when a left-pointing two-point touch is detected. However, when the vehicle is stopped, a right-down two-point touch is detected. A rectangular area as shown in FIG. 5B is set. This is because, when not driving, the driver may request an accurate operation without danger, and the driver stops the vehicle so that the desired area on the map is enlarged and the desired one point is obtained. The map at the center can be reduced.

図8は、図5(A)のようにして、2点の絶対位置がどこにあるかにかかわらず、親指のタッチ位置88および人差指のタッチ位置90の2点を結んだ線が相対的に右下がりであることだけを検知する場合において、地図の拡大操作を行う際の画面図である。この状態において地図を拡大するためには、図8(A)のように親指および人差指をそれぞれのタッチ位置88および90から白矢印110および112で示すように互いに離間するようスライドさせ、その後、左手22を表示部12から離す。制御部4は、この動きを拡大操作として認識し、図8(B)に示すように地図の中心部を固定して所定倍率で拡大した地図114を表示部12に表示する。このようにして、走行中の左手操作では、地図の位置の指定なしに、拡大操作が行われたことのみを検知して地図の中心を固定して拡大を行う。また、拡大率の指定もないので、地図は一回の拡大操作を検知する毎に所定率で拡大される。従ってさらに拡大したい場合は、2点タッチ位置の離間操作を繰り返すことになる。   As shown in FIG. 5A, the line connecting the two points of the thumb touch position 88 and the index finger touch position 90 is relatively right, regardless of where the absolute positions of the two points are. FIG. 11 is a screen diagram when a map enlargement operation is performed in the case of detecting only that it is falling. To enlarge the map in this state, as shown in FIG. 8A, the thumb and index finger are slid away from each touch position 88 and 90 as indicated by white arrows 110 and 112, and then the left hand 22 is separated from the display unit 12. The control unit 4 recognizes this movement as an enlargement operation, and displays the map 114 enlarged at a predetermined magnification while fixing the center of the map as shown in FIG. 8B. In this way, in the left-hand operation while traveling, only the enlargement operation is detected without specifying the map position, and the map center is fixed and enlarged. Further, since there is no designation of an enlargement rate, the map is enlarged at a predetermined rate every time an enlargement operation is detected. Therefore, when further enlargement is desired, the separation operation of the two-point touch position is repeated.

図9は、図5(A)のようにして、2点の絶対位置がどこにあるかにかかわらず、親指のタッチ位置88および人差指のタッチ位置90の2点を結んだ線が相対的に右下がりであることだけを検知する場合において、図8とは逆に地図の縮小操作を行う際の画面図である。この状態において地図114を縮小するためには、図9(A)のように親指および人差指をそれぞれのタッチ位置116および118から白矢印120および122で示すように互いに接近するようスライドさせ、その後、左手22を表示部12から離す。制御部4は、この動きを縮小操作として認識し、図9(B)に示すように地図の中心部を固定して所定倍率で縮小した地図124を表示部12に表示する。このようにして、走行中の左手操作では、縮小操作の場合に縮小を行う。縮小率についても指定はなく、地図は一回の縮小操作を検知する毎に所定率で縮小される。従ってさらに縮小したい場合は、2点タッチ位置の接近操作を繰り返すことになる。   In FIG. 9, the line connecting the two points of the thumb touch position 88 and the index finger touch position 90 is relatively right, regardless of where the absolute positions of the two points are, as shown in FIG. FIG. 9 is a screen diagram when a map reduction operation is performed contrary to FIG. 8 in the case of detecting only a downward movement. In order to reduce the map 114 in this state, the thumb and index finger are slid toward each other as indicated by white arrows 120 and 122 from the respective touch positions 116 and 118 as shown in FIG. The left hand 22 is moved away from the display unit 12. The control unit 4 recognizes this movement as a reduction operation, and displays a map 124 that is reduced at a predetermined magnification while fixing the center of the map as shown in FIG. 9B. In this way, in the left-hand operation while traveling, the reduction is performed in the case of the reduction operation. There is no designation for the reduction rate, and the map is reduced at a predetermined rate each time a reduction operation is detected. Accordingly, when further reduction is desired, the approaching operation at the two-point touch position is repeated.

図10は、図1の実施例1における制御部4の動作のフローチャートである。入出力部20から車両のエンジン(または電気自動車の場合は「モーター」、以下「エンジン」で代表)のがオンとなったことが伝えられるとフローがスタートし、ステップS2において表示すべき地図の初期縮尺が設定される。この初期縮尺は前回エンジンがオフになったときのものを記憶しておいてこれを採用してもよいし、毎回エンジンがオンになるたびに所定縮尺を採用するようにしてもよい。次いで、ステップSS4でGPS部14からの自車位置を示すGPS情報が取得されるとともに、ステップS6に至って自車位置を中心とする地図がステップS2で設定された倍率にて表示部12に表示される。 FIG. 10 is a flowchart of the operation of the control unit 4 in the first embodiment of FIG. The flow starts when the input / output unit 20 informs that the vehicle engine (or “motor” in the case of an electric vehicle, hereinafter “engine”) is turned on, and the flow of the map to be displayed in step S2 starts. An initial scale is set. This initial scale may be stored and used when the engine was previously turned off, or may be adopted at a predetermined scale each time the engine is turned on. Next, GPS information indicating the vehicle position from the GPS unit 14 is acquired from the GPS unit 14 in step SS4, and the map centering on the vehicle position is displayed on the display unit 12 at the magnification set in step S2 in step S6. Is done.

次いで、ステップS8では、操作部6によってメニュー表示を求める操作が行われたかどうかチェックする。ステップS8でメニュー表示操作が行われたことが検知されるとステップS10のメニュー選択処理に進む。これは、図2および図3で説明した操作を実行する処理であるがその詳細は後述する。メニュー処理が完了すると、ステップS12では、メニュー選択が確定したかどうかチェックし、確定していればステップS14に進んで行先入力メニューが選択されたかどうかチェックする。そして行先入力メニューの選択が確認された場合はステップS16の行先入力処理を実行し、その結果に基づいてステップS18の地図表示に移行する。行先入力処理の詳細は後述する。 Next, in step S8, it is checked whether an operation for obtaining menu display has been performed by the operation unit 6. When it is detected in step S8 that the menu display operation has been performed, the process proceeds to the menu selection process in step S10. This is a process for executing the operation described with reference to FIGS. 2 and 3, the details of which will be described later. When the menu processing is completed, in step S12, it is checked whether the menu selection has been confirmed. If so, the process proceeds to step S14 to check whether the destination input menu has been selected. If the selection of the destination input menu is confirmed, the destination input process of step S16 is executed, and the process proceeds to the map display of step S18 based on the result. Details of the destination input process will be described later.

一方、ステップS14で行先入力メニューの選択でないと判断されるとステップS20に進み、オーディオ処理またはエアコン処理等の他メニューの処理を行ってステップS18の地図表示に移行する。またステップS12でメニュー選択の確定が確認されない場合は、直ちにステップS18の地図表示に移行する。 On the other hand, if it is determined in step S14 that the destination input menu is not selected, the process proceeds to step S20, where other menu processing such as audio processing or air conditioning processing is performed, and the process proceeds to map display in step S18. If the confirmation of menu selection is not confirmed in step S12, the process immediately shifts to the map display in step S18.

ステップS18で地図が表示されるとステップS22で地図へのタッチが検知されたかどうかチェックする。また、ステップS8でメニュー表示操作が検知されない時はステップS6の地図表示を継続してステップS22の地図タッチ検知に移行する。ステップS22で地図タッチが検知されるとステップS24の地図タッチ処理に入る。その詳細は後述する。地図タッチ処理が完了すると、ステップS26に移行する。一方、ステップS22で地図タッチが検知されない時は直接ステップS26に移行する。ステップS26では、でエンジンがオフになったかどうかチェックし、エンジンオフが検知されないときはステップS4に戻る。以下、ステップS26でエンジンオフが検知されない限り、ステップS2からステップS26を繰り返し、各操作が検知されないときはステップS4で取得されるGPS情報を更新しながら地図表示を継続してナビゲーションを行うとともに、各操作が行われたときはそれに対応する。一方、ステップS26でエンジンオフが検知された時はフローを終了する。 When a map is displayed in step S18, it is checked in step S22 whether or not a touch on the map has been detected. If no menu display operation is detected in step S8, the map display in step S6 is continued and the process proceeds to map touch detection in step S22. When a map touch is detected in step S22, the map touch process in step S24 is started. Details thereof will be described later. When the map touch process is completed, the process proceeds to step S26. On the other hand, when no map touch is detected in step S22, the process directly proceeds to step S26. In step S26, it is checked whether or not the engine has been turned off. If engine off is not detected, the process returns to step S4. Hereinafter, unless engine off is detected in step S26, step S2 to step S26 are repeated. When each operation is not detected, the map information is continuously updated while the GPS information acquired in step S4 is updated. When each operation is performed, it corresponds to it. On the other hand, when engine-off is detected in step S26, the flow ends.

図11は、図10のステップS10におけるメニュー選択処理の詳細を示すフローチャートであり、フローがスタートするとまずステップS32で右ハンドル車であるかどうかチェックする。右ハンドル車でなければステップS34で以下の処理における「右」、「左」をそれぞれ「左」、「右」に逆転させて読替え処理する旨の処理を行ってステップS36に移行する。一方、右ハンドル車であることが確認された場合は直接ステップS36に移行する。これらの左右逆転処理は、カーナビ装置2が車両に設置された時に必要となるもので、右ハンドル車であるか左ハンドル車であるかの情報は無線通信部18または入出力部20による車両との情報交換によって取得する。左右逆転読替えを行うかどうかの判断は、カーナビ装置2が一度車両に設置されたあとは答えが同じになるが、カーナビ装置2が持ち出し可能なポータブルのもので、その後右ハンドル車にも左ハンドル車にも持ち込まれる可能性がある場合は、処理の混乱による事故を自動的に避ける意義のあるものである。   FIG. 11 is a flowchart showing details of the menu selection process in step S10 of FIG. 10. When the flow starts, it is first checked in step S32 whether the vehicle is a right-hand drive vehicle. If the vehicle is not a right-hand drive vehicle, in step S34, “right” and “left” in the following processing are reversed to “left” and “right”, respectively, and a reading process is performed, and the process proceeds to step S36. On the other hand, if it is confirmed that the vehicle is a right-hand drive vehicle, the process directly proceeds to step S36. These left and right reversing processes are required when the car navigation device 2 is installed in the vehicle. Information on whether the vehicle is a right-hand drive vehicle or a left-hand drive vehicle is obtained from the vehicle by the wireless communication unit 18 or the input / output unit 20. Acquired by exchanging information. The decision on whether to perform left-right reverse reading is the same after the car navigation device 2 is once installed in the vehicle, but it is a portable one that the car navigation device 2 can take out, and then the right-hand drive car also has a left-hand drive. If there is a possibility of being brought into a car, it is meaningful to automatically avoid accidents caused by confusion in processing.

ステップS16以降は、ステップS34における左右逆転読替えが行われない場合の右ハンドル車の場合についての処理を示す。まず、ステップS36では、右手レイアウトの表示が行われるとともに所定時間のカウントが開始される。そしてステップS38で右手レイアウト表示後所定時間が経過したかどうかのチェックが行われ、所定時間経過がなければステップS40で2点同時タッチ状態が検知されるかどうかチェックする。2点同時タッチ状態が検知されるとステップ42に移行し、検知された2点が右下がりかどうかチェックする。そして、右下がり2点であることが検知されると、運転者による左手操作がなされたものと看做し、ステップS44に進んで走行中かどうかチェックする。そして走行中でないことが確認されるとステップS46に進み、右手レイアウト表示に代えて左手レイアウト表示を行い、運転者による左手操作を可能としてステップS48に移行する。   Step S16 and subsequent steps show processing for the case of a right-hand drive vehicle when left / right reverse reading in step S34 is not performed. First, in step S36, a right-hand layout is displayed and counting for a predetermined time is started. In step S38, it is checked whether a predetermined time has elapsed after the right-hand layout display. If the predetermined time has not elapsed, it is checked in step S40 whether a two-point simultaneous touch state is detected. When the two-point simultaneous touch state is detected, the process proceeds to step 42, and it is checked whether or not the two detected points are lowered to the right. Then, if it is detected that the point is two points to the lower right, it is considered that the driver has performed a left-hand operation, and the process proceeds to step S44 to check whether the vehicle is traveling. If it is confirmed that the vehicle is not traveling, the process proceeds to step S46, where the left hand layout display is performed instead of the right hand layout display, and the driver can perform the left hand operation, and the process proceeds to step S48.

一方ステップS44で走行中であることが検知されるとステップS50に進み、走行中は運転者によるメニュー選択操作は禁止されていることを告知し、ステップS52で右手レイアウト表示を行ってステップS48に移行する。なお、ステップS52は左手レイアウト表示がなされている場合にステップS52に至った時にこれに代えて右手レイアウト表示をおこなうためのものであり、はじめから右手レイアウトが表示されている時はステップS52では何も行わず、右手レイアウト表示を継続する。なお、ステップ42において検知された2点が右下がりであることが検知されない場合は左下がりの2点が検知されたことに相当し、これは助手席の同乗者による右手操作であることを意味するので、ステップS54で右手レイアウト表示を行ってステップS48に移行する。なお、ステップS54も左手レイアウト表示がなされている場合にステップS54に至った時にこれに代えて右手レイアウト表示をおこなうためのものであり、はじめから右手レイアウトが表示されている時はステップS54では何も行わず、右手レイアウトを継続してステップS48に移行する。   On the other hand, if it is detected in step S44 that the vehicle is traveling, the process proceeds to step S50, the driver is informed that the menu selection operation is prohibited during traveling, the right-hand layout is displayed in step S52, and the process proceeds to step S48. Transition. Step S52 is for displaying a right-hand layout instead of the left-hand layout when the left-hand layout is displayed, and when the right-hand layout is displayed from the beginning. No right-hand layout display is continued. If it is not detected that the two points detected in step 42 are right-down, it corresponds to detection of two points left-down, which means that the right-hand operation is performed by a passenger in the passenger seat. Therefore, the right-hand layout display is performed in step S54, and the process proceeds to step S48. Note that step S54 is also for performing right hand layout display when step S54 is reached when left hand layout display is being performed, and in step S54 when the right hand layout is displayed from the beginning. The right hand layout is continued and the process proceeds to step S48.

ステップS48では、図2(A)または図3(A)のように、メニューの一つと決定エリア34の両者へのタッチが検知されたかどうかチェックし、検知があればその検知情報に基づいてステップS56でその2点を更新記憶するとともに2点に対応するエリアを太枠表示する。なお、タッチ位置に変更がなく検知された2点の記憶に変更がなければ同じ情報が上書き更新され、太枠表示されるエリアも変わらない。そしてステップS58に進み、ステップS36で開始された所定時間カウントをリセットし、改めて時間カウントをスタートさせ、ステップS60に移行する。   In step S48, as shown in FIG. 2 (A) or FIG. 3 (A), it is checked whether a touch on one of the menu and the decision area 34 has been detected, and if there is a detection, the step is performed based on the detection information. In S56, the two points are updated and stored, and the area corresponding to the two points is displayed in a thick frame. If there is no change in the memory of the two detected points without change in the touch position, the same information is overwritten and updated, and the area displayed in a thick frame is not changed. Then, the process proceeds to step S58, the predetermined time count started in step S36 is reset, the time count is started again, and the process proceeds to step S60.

ステップS60では、図2(A)の黒矢印40または図3(A)の黒矢印58で示すような決定エリア34または54のメニューへの接近ドラグが行われたかどうかチェックする。そして接近ドラグが検知されるとステップS62に進み、メニュー選択を確定してフローを終了する。また、ステップS38で所定時間の経過が検知されたときは直ちにフローを終了する。一方、ステップS60で接近ドラグが検知されなかったときはステップS38に戻り、以下、ステップS60で接近ドラグが検知されるかステップS38で所定時間の経過が検知されない限り、ステップS38からステップS60を繰り返し、走行と停止の状況変化やメニューへのタッチ変更に対応する。なお、ステップS40で2点の同時タッチ状態が検知されないとき、またはステップS54でメニューの一つと決定エリアとの2点タッチを検知されないときは、ステップS38に戻る。   In step S60, it is checked whether an approach drag to the menu of the decision area 34 or 54 as shown by the black arrow 40 in FIG. 2A or the black arrow 58 in FIG. When the approach drag is detected, the process proceeds to step S62, the menu selection is confirmed, and the flow ends. If the passage of the predetermined time is detected in step S38, the flow is immediately terminated. On the other hand, when the approach drag is not detected in step S60, the process returns to step S38. Hereinafter, unless the approach drag is detected in step S60 or the elapse of the predetermined time is not detected in step S38, steps S38 to S60 are repeated. Corresponds to changes in driving and stopping situations and touch changes to menus. Note that when the two-point simultaneous touch state is not detected in step S40, or when the two-point touch between one of the menus and the determination area is not detected in step S54, the process returns to step S38.

なお、図11のフローにおいてステップS60での接近ドラグの検知をもってメニュー選択を確定しているのは、誤って2点タッチしたとしても直ちにメニュー選択を確定せず、もうワンステップの確認操作を入れる安全策を意味する。しかし、このような安全策よりも操作をシンプルにすることを優先する場合は、ステップS58およびステップS60を省略し、ステップS48でメニューの一つと決定エリアとの2点タッチが検知されてステップS54からステップ56に移行した後、直ちにステップS62に進み、メニュー選択を確定するよう構成してもよい。このように構成した場合は、図2(A)または図3(A)において、メニューの一つと決定エリア34の両者へのタッチが検知され、タッチされた領域が太枠のように変わった時点でメニュー選択が確定する。   In the flow of FIG. 11, the menu selection is confirmed when the approach drag is detected in step S60. Even if two points are touched accidentally, the menu selection is not confirmed immediately, and another one-step confirmation operation is performed. Means safety measures. However, when priority is given to simplifying the operation over such safety measures, step S58 and step S60 are omitted, and a two-point touch between one of the menus and the decision area is detected in step S48, and step S54 is performed. After proceeding from step S56 to step S56, the process may proceed to step S62 immediately to confirm the menu selection. In such a configuration, when a touch on one of the menu and the decision area 34 is detected in FIG. 2A or FIG. 3A and the touched area changes like a thick frame. The menu selection is confirmed with.

図12は、図10のステップS16における行先入力処理の詳細を示すフローチャートであり、フローがスタートするとまずステップS72で左右逆転処理を行う。これは、図11のステップS32およびステップS34と同じものである。ステップS72の左右逆転処理が終わるとフローはステップS74以下に進む。図11と同様にして、ステップS74以下では、左右逆転処理において左右逆転読替えが行われない場合の右ハンドル車の場合についての処理を示す。   FIG. 12 is a flowchart showing details of the destination input process in step S16 of FIG. 10. When the flow starts, the left / right reverse process is first performed in step S72. This is the same as step S32 and step S34 in FIG. When the left / right reverse processing in step S72 ends, the flow proceeds to step S74 and thereafter. In the same manner as in FIG. 11, in step S74 and subsequent steps, processing for the case of a right-hand drive vehicle when left-right reverse reading is not performed in the left-right reverse processing is shown.

まず、ステップS76では、右手レイアウトの表示が行われるとともに所定時間のカウントが開始される。そしてステップS76で右手レイアウト表示後、所定時間が経過したかどうかのチェックが行われ、所定時間経過がなければステップS78で1点タッチが検知されるかどうかチェックする。そして、1点タッチ状態が検知されるとステップ80に移行し、所定の識別時間が経過したかどうかチェックする。この識別時間は、2点タッチが厳密に同時には行われないことを前提とし、ステップS78で検知された1点タッチが、2点タッチを意図している場合の1点タッチか、それとも意図しての1点タッチかを識別するためのものである。そして、ステップS80で識別時間が経過したことが検知されない場合はステップS82に進み、2点同時タッチ状態の検知の有無をチェックする。この検知ができない場合はステップS80に戻り、以下、識別時間が経過するか2点同時タッチ状態が検知されるかしない限りステップS80およびステップS82を繰り返す。   First, in step S76, a right-hand layout is displayed and a predetermined time is started. Then, after displaying the right hand layout in step S76, it is checked whether or not a predetermined time has elapsed. If the predetermined time has not elapsed, it is checked in step S78 whether or not a one-point touch is detected. When a one-point touch state is detected, the process proceeds to step 80 to check whether a predetermined identification time has elapsed. This identification time is based on the premise that two-point touches are not performed at exactly the same time, and is the one-point touch when the one-point touch detected in step S78 is intended for two-point touch, or is intended. This is to identify whether the touch is one point. If it is not detected in step S80 that the identification time has elapsed, the process proceeds to step S82 to check whether or not a two-point simultaneous touch state is detected. If this detection is not possible, the process returns to step S80, and thereafter, steps S80 and S82 are repeated unless the identification time elapses or a two-point simultaneous touch state is detected.

ステップS82で2点同時タッチ状態が検知されるとステップS84の左右レイアウト切換処理に入る。この処理は、図11のステップS42からステップS46およびステップS50からステップS54と同じ処理であり、右手レイアウトと左手レイアウトの切換および走行中の左手レイアウトを禁止するためのものである。そしてステップS84の左右レイアウト切換処理が終わるとステップS86に移行する。   When the two-point simultaneous touch state is detected in step S82, the left / right layout switching process in step S84 is started. This process is the same process as step S42 to step S46 and step S50 to step S54 in FIG. 11, and is for switching the right hand layout and the left hand layout and prohibiting the left hand layout during traveling. Then, when the left and right layout switching process in step S84 is completed, the process proceeds to step S86.

ステップS86では、図4のように、子音ボタン群64またはブランクボタン68の一つと母音ボタン群66(または78)または「n」ボタン70(または80)の一つの両者へのタッチが検知されたかどうかチェックし、検知があればその検知情報に基づいてステップS88でその2点を更新記憶するとともに2点に対応するエリアを太枠表示してステップS90に移行する。なお、図11のフローと同様、タッチ位置に変更がなく検知された2点の記憶に変更がなければ同じ情報が上書き更新され、太枠表示されるエリアも変わらない。   In step S86, as shown in FIG. 4, whether a touch on one of the consonant button group 64 or the blank button 68 and one of the vowel button group 66 (or 78) or the “n” button 70 (or 80) has been detected. If there is a detection, the two points are updated and stored in step S88 based on the detection information, and the area corresponding to the two points is displayed in a thick frame, and the process proceeds to step S90. Similar to the flow of FIG. 11, the same information is overwritten and updated, and the area displayed in a thick frame does not change if there is no change in the memory of the two detected points without change in the touch position.

ステップS90では、図4(A)の黒矢印72または図4(B)の黒矢印82で示すような母音ボタン(または「N」ボタン)の子音ボタン(またはブランクボタン)への接近ドラグが行われたかどうかチェックする。そして接近ドラグが検知されるとステップS92に進み、一字分の仮名文字入力を確定記憶してステップS94に移行する。一方、ステップで識別時間の経過が検知された時は1点タッチであったと看做してステップS96に移行し、これが図4のテンキー76の一つへのタッチであるかどうかチェックする。そしてテンキータッチであった場合はステップS98に進み、数字入力を確定してステップS94に移行する。このように数字入力については1点タッチと識別時間の経過のみで一文字分の数字入力を確定する。   In step S90, an approach drag to the consonant button (or blank button) of the vowel button (or “N” button) as shown by the black arrow 72 in FIG. 4A or the black arrow 82 in FIG. 4B is performed. Check if it was broken. When the approach drag is detected, the process proceeds to step S92, where the input of one character of kana characters is confirmed and stored, and the process proceeds to step S94. On the other hand, when the elapse of the identification time is detected in the step, it is considered that the touch is one point, and the process proceeds to step S96, and it is checked whether this is a touch on one of the numeric keys 76 in FIG. If it is a numeric keypad touch, the process proceeds to step S98, the numeric input is confirmed, and the process proceeds to step S94. As described above, for the numeric input, the numeric input for one character is determined only by one point touch and the identification time.

ステップS94で所定時間カウントをリセットし、改めてカウントをスタートさせてステップS100に移行する。ここでの所定時間リセットスタートは次の文字入力操作を末意義があるので、ステップS74でスタートさせた所定時間とは異なった文字入力待ちに好適な時間に設定することも可能である。なお、ステップS96でテンキーの一つへのタッチであることが検知できない場合は、意味のない1点タッチであったと看做して何も入力を確定せず直ちにステップS100に移行する。   In step S94, the count is reset for a predetermined time, the count is started again, and the process proceeds to step S100. Since the predetermined time reset start here is meaningful for the next character input operation, it can be set to a time suitable for character input waiting different from the predetermined time started in step S74. If it is not detected in step S96 that the touch is on one of the numeric keys, the touch is regarded as meaningless one-point touch, and no input is confirmed and the process immediately proceeds to step S100.

ステップS100では、ステップS92で新たに確定記憶した一文字分を含め、記憶されている仮名文字列から行先を推定可能かどうかチェックする。そして文字数が少なく推定ができないときはさらに文字を入力することを可能にするためステップS76に戻る。また、ステップS78で1点タッチが検知されないとき、またはステップS86で子音ボタン群等の一つと母音ボタン群等の一つの両者へのタッチが検知されなかったとき、またはステップS90で所定時間内の母音ボタンドラグが検知できなかったときもステップS76に戻る。以下、ステップS100で行先が推定可能であると判断されるかまたはステップS76で所定時間の経過が検知されるかしない限り、ステップS76からステップS100を繰り返し、新たな文字入力を可能とするとともに走行と停止の状況変化や右手/左手レイアウト変更に対応する。   In step S100, it is checked whether the destination can be estimated from the stored kana character string including the one character newly determined and stored in step S92. If the number of characters is small and cannot be estimated, the process returns to step S76 in order to allow further characters to be input. Further, when a one-point touch is not detected at step S78, or when a touch on one of the consonant button group and one of the vowel button group is not detected at step S86, or within a predetermined time at step S90. Even when the vowel button drag cannot be detected, the process returns to step S76. Thereafter, unless it is determined in step S100 that the destination can be estimated or the elapse of a predetermined time is detected in step S76, step S76 to step S100 are repeated to enable new character input and travel. It responds to changes in the situation of stop and right hand / left hand layout.

一方、ステップS100において行先推定が可能と判断されたときはステップS102に進み、入力された文字列に基づいて行先を推定しフローを終了する。なお、ステップS76で所定時間の経過が検知されたときは直ちにフローを終了する。なお、図12のフローにおいてステップS90での接近ドラグの検知をもって仮名入力を確定しているのは、図11の場合と同様、誤って2点タッチしたとしても直ちに仮名入力を確定せず、もうワンステップの確認操作を入れる安全策を意味する。しかし、このような安全策よりも操作をシンプルにすることを優先する場合は、図11の場合と同様、ステップS90を省略し、ステップS86で子音ボタン群等の一つと母音ボタン群等の一つの2点タッチが検知されれば直ちにステップS92に進み、仮名入力を確定するよう構成してもよい。このように構成した場合は、図4において、子音ボタン群等の一つと母音ボタン群等の一つの2点タッチが検知され、タッチされた領域が太枠のように変わった時点でメニュー選択が確定する。   On the other hand, when it is determined in step S100 that the destination can be estimated, the process proceeds to step S102, where the destination is estimated based on the input character string, and the flow ends. Note that when the passage of the predetermined time is detected in step S76, the flow is immediately terminated. In the flow of FIG. 12, the kana input is confirmed by detecting the approaching drag in step S90, as in the case of FIG. This means a safety measure with a one-step confirmation operation. However, when priority is given to simplifying the operation over such safety measures, step S90 is omitted as in the case of FIG. 11, and one of the consonant button group and one of the vowel button group and the like are omitted in step S86. If two two-point touches are detected, the process may immediately proceed to step S92 to confirm the kana input. In the case of such a configuration, in FIG. 4, when a two-point touch such as one of consonant buttons and one of vowel buttons is detected and the touched area changes like a thick frame, the menu selection is performed. Determine.

図13は、図10のステップS24における地図タッチ処理の詳細を示すフローチャートであり、フローがスタートするとまずステップS112で左右逆転処理を行う。これは、図12のステップS72と同様、図11のステップS32およびステップS34と同じものである。ステップS112の左右逆転処理が終わるとフローはステップS114以下に進む。図11および図12と同様にして、ステップS114以下では、左右逆転処理において左右逆転読替えが行われない場合の右ハンドル車の場合についての処理を示す。   FIG. 13 is a flowchart showing details of the map touch process in step S24 of FIG. 10. When the flow starts, the left / right reverse process is first performed in step S112. This is the same as step S32 and step S34 in FIG. 11 as in step S72 in FIG. When the left / right reverse processing in step S112 ends, the flow proceeds to step S114 and the subsequent steps. Similarly to FIGS. 11 and 12, in step S <b> 114 and subsequent steps, processing for the case of a right-hand drive vehicle when left / right reverse reading is not performed in the left / right reverse processing is shown.

まず、ステップS114では、図10のステップS22で地図タッチが検知されてから所定時間内に2点同時タッチ状態が検知されるかどうかチェックする。2点同時タッチ状態が検知されるとステップ116に移行し、検知された2点が右下がりかどうかチェックする。そして、右下がり2点であることが検知されると、運転者による左手操作がなされたものと看做し、ステップS118に進んで走行中かどうかチェックする。そして走行中であることが検知されるとステップS120に移行する。   First, in step S114, it is checked whether a two-point simultaneous touch state is detected within a predetermined time after the map touch is detected in step S22 of FIG. When the two-point simultaneous touch state is detected, the process proceeds to step 116, and it is checked whether the two detected points are lowered to the right. Then, if it is detected that the point is two points to the lower right, it is considered that the driver has performed a left hand operation, and the process proceeds to step S118 to check whether the vehicle is traveling. When it is detected that the vehicle is traveling, the process proceeds to step S120.

ステップS120からステップS126は、図8および図9の操作に該当するものである。まずステップS120では、ステップS114で2点同時タッチ状態が検知されてから所定時間内にその2点が相対的に接近するドラグが行われたかどうかチェックする。そして接近ドラグが検知されるとステップS122に進み、表示されている地図の中心を固定して所定比率で地図を縮小し、ステップS124に移行する。これは、図9の操作に該当する。一方、ステップS120において所定時間内の接近ドラグが検知できなかったときは、直接ステップS124に移行する。   Steps S120 to S126 correspond to the operations in FIGS. First, in step S120, it is checked whether or not dragging is performed so that the two points relatively approach within a predetermined time after the two-point simultaneous touch state is detected in step S114. If an approach drag is detected, the process proceeds to step S122, the center of the displayed map is fixed, the map is reduced at a predetermined ratio, and the process proceeds to step S124. This corresponds to the operation of FIG. On the other hand, when the approach drag within the predetermined time cannot be detected in step S120, the process directly proceeds to step S124.

ステップS124では、ステップS114で2点同時タッチ状態が検知されてから所定時間内にその2点が相対的に離間するドラグが行われたかどうかチェックする。そして離間ドラグが検知されるとステップS126に進み、表示されている地図の中心を固定して所定比率で地図を拡大し、フローを終了する。これは、図8の操作に該当する。一方、ステップS124において所定時間内の離間ドラグが検知できなかったときは、直ちにフローを終了する。この場合は地図の縮尺に変化は生じない。なお、図13においては、ステップS120およびステップS122の位置とステップS124およびステップS126の位置を差替えてもよい。   In step S124, it is checked whether or not a drag that relatively separates the two points has been performed within a predetermined time after the two-point simultaneous touch state is detected in step S114. When the separation drag is detected, the process proceeds to step S126, the center of the displayed map is fixed, the map is enlarged at a predetermined ratio, and the flow is ended. This corresponds to the operation of FIG. On the other hand, if the separation drag within the predetermined time cannot be detected in step S124, the flow is immediately terminated. In this case, the map scale does not change. In FIG. 13, the positions of steps S120 and S122 may be replaced with the positions of steps S124 and S126.

一方、ステップS116で右下がり2点が検知されなかったときは、検知された2点が左下がりであることを意味するのでステップS128に移行し、検知された2点の絶対位置が決定する領域を記憶する。これは、図5(B)における操作の状態に該当する。次いでステップS130において所定時間が経過したかどうかチェックし、経過が検知されない場合はステップS132に進んで検知された2点を相対的に離間するドラグが行われたかどうかチェックする。そして離間ドラグが検知されなければステップS130に戻り、以下、ステップS130とステップS132を繰り返して所定時間内の2点間ドラグを待つ。そしてステップS132で2点間ドラグが検知されるとステップS134に進み、ステップS128で決定記憶された領域内の地図を表示部12いっぱいに拡大し、フローを終了する。これは、図6の操作の状態に該当する。一方、ステップS130で所定時間経過が検知された時は直ちにフローを終了する。この場合は地図の拡大は行われない。   On the other hand, when the two points that are descending to the right are not detected in step S116, it means that the two detected points are descending to the left. Therefore, the process proceeds to step S128, and the absolute position of the detected two points is determined. Remember. This corresponds to the state of operation in FIG. Next, in step S130, it is checked whether or not a predetermined time has passed. If no progress has been detected, the process proceeds to step S132, and it is checked whether or not a drag that relatively separates the two detected points has been performed. If no separation drag is detected, the process returns to step S130, and thereafter, steps S130 and S132 are repeated to wait for a drag between two points within a predetermined time. When a drag between two points is detected in step S132, the process proceeds to step S134, the map in the area determined and stored in step S128 is enlarged to the full display unit 12, and the flow ends. This corresponds to the state of operation in FIG. On the other hand, when the elapse of the predetermined time is detected in step S130, the flow is immediately terminated. In this case, the map is not enlarged.

また、ステップS114において、図10のステップS22で地図タッチが検知されてから所定時間内の2点同時タッチ状態が検知されないときは、図10のステップS22で1点タッチが検知されたことを意味するから、ステップS136に移行する。ステップS136では、図10のステップS22で地図タッチが検知される直前に2点タッチ位置で決定された領域内の地図が拡大された履歴があるかどうかチェックする。そしてこのような履歴があればステップS138に進み、図10のステップS22で検知されたタッチ位置を中心に地図を所定比率で縮小してフローを終了する。これは、図7の操作に該当する。一方、ステップS136で拡大履歴が検知されない場合は直ちにフローを終了する。この場合は地図の拡大は行われない   Further, in step S114, when the two-point simultaneous touch state within a predetermined time after the map touch is detected in step S22 of FIG. 10, it means that the one-point touch is detected in step S22 of FIG. Therefore, the process proceeds to step S136. In step S136, it is checked whether or not there is a history of enlargement of the map in the area determined at the two-point touch position immediately before the map touch is detected in step S22 of FIG. If there is such a history, the process proceeds to step S138, the map is reduced at a predetermined ratio around the touch position detected in step S22 of FIG. 10, and the flow is terminated. This corresponds to the operation of FIG. On the other hand, if no enlargement history is detected in step S136, the flow is immediately terminated. In this case, the map is not enlarged

上記実施例1に示した種々の特徴は、その具体的な実施に限るものではなく、開示した利点を享受できる限り種々の実施において活用可能である。例えば、上記実施例1では右手用レイアウトと左手レイアウトの切換を走行中かどうかの検知と関連づけており、これは、走行中であっても比較的危険の少ない一定の操作を運転者に許すとともに、助手席の同乗者からは走行中であっても複雑な総祖や正確さを要する操作を可能とするものであって、一律に走行中の操作を制限する場合よりもフレキシブルな操作を可能とする点で有用である。また、実施例1では、運転者による操作であるか同乗者による操作であるかを右下がり2点が検知されるか左下がり2点が検知されるかによって判断しており、この構成は運転者か同乗者かを識別する他の手段を要しない点で有用である。しかしながら、右手用レイアウトを運転者が無理な姿勢で操作することによる事故を絶対に防止することを重視する場合は、運転者か同乗者かを識別する赤外線検知等を別途設け、これによって右手用レイアウトと左手用レイアウトを切り換えるよう攻勢してもよい。また、構成を簡単にしてカーナビ操作による事故を防止することを優先する場合は、右手用レイアウトであるか左手用レイアウトであるかにかかわらず、走行中の複雑な操作を禁止するように構成してもよい。以上いずれの場合においても、手の構造に合わせた右手用レイアウトと左手用レイアウトの切り換えは、手による2点操作を容易にする上で有用である。   The various features shown in the first embodiment are not limited to the specific implementation, but can be utilized in various implementations as long as the disclosed advantages can be enjoyed. For example, in the first embodiment, the switching between the right-hand layout and the left-hand layout is associated with detection of whether or not the vehicle is traveling, which allows the driver to perform a certain operation with relatively little danger even while traveling. , Passengers in the passenger seat can perform operations that require complex ancestors and accuracy even while driving, and can be operated more flexibly than when operating in a uniform manner It is useful in that. Further, in the first embodiment, whether the operation is performed by the driver or the passenger is determined based on whether two lower right points or two left lower points are detected. This is useful in that it does not require any other means for discriminating between passengers and passengers. However, if it is important to prevent accidents caused by the driver operating the right-hand layout in an unreasonable posture, an infrared detector that distinguishes between the driver and passenger is provided separately. You may attack to switch between layout and left-hand layout. In addition, when priority is given to simplifying the configuration and preventing accidents due to car navigation operations, it is configured to prohibit complex operations while driving regardless of whether the layout is for the right hand or the left hand. May be. In any of the above cases, switching between the right hand layout and the left hand layout in accordance with the hand structure is useful for facilitating the two-point operation by hand.

また、上記実施例1はカーナビにおける実施を示したが、開示された種々の特徴のいくつかはカーナビにおける実施に限るものではなく、開示した利点を享受できる限り種々の機器において実施可能である。例えば、デジタルスチルカメラやデジタルムービーカメラにおけるタッチパネル表示部、携帯電話などのモバイル機器におけるタッチパネル表示部において広く活用が可能である。さらには、上記において開示された右手による2点タッチ操作と左手による2点タッチ操作の切り換えなど種々の特徴のいくつかは表示機能を有さないタッチパネルにおいても活用可能なものである。   Moreover, although the said Example 1 showed implementation in a car navigation system, some of the various disclosed features are not restricted to implementation in a car navigation system, and can be implemented in various devices as long as they can enjoy the disclosed advantages. For example, it can be widely used in a touch panel display unit in a digital still camera and a digital movie camera, and a touch panel display unit in a mobile device such as a mobile phone. Furthermore, some of various features such as switching between the two-point touch operation with the right hand and the two-point touch operation with the left hand disclosed above can also be used in a touch panel having no display function.

図14は、本発明の実施の形態に係るタッチパネル入力装置の実施例2を示すブロック図である。実施例2はデジタルカメラ202を構成しており、装置全体を制御するコンピュータからなる制御部204を有し、デジタルカメラ操作者による操作部206の操作に応じて、デジタルカメラ202を制御する。この制御部204の機能は記憶部208に格納されたソフトウエアによって実行される。記憶部208は、またデジタルカメラ202の制御に必要な種々のデータを一時的に格納する。また、制御部204は表示ドライバ210を介して抵抗膜式タッチパネル表示部212の表示を制御し、操作部206の操作に必要なGUI表示を行うとともに制御結果の表示を行う。   FIG. 14 is a block diagram showing Example 2 of the touch panel input device according to the embodiment of the present invention. The second embodiment constitutes a digital camera 202, has a control unit 204 that is a computer that controls the entire apparatus, and controls the digital camera 202 in accordance with the operation of the operation unit 206 by the digital camera operator. The function of the control unit 204 is executed by software stored in the storage unit 208. The storage unit 208 also temporarily stores various data necessary for controlling the digital camera 202. Further, the control unit 204 controls the display of the resistive touch panel display unit 212 via the display driver 210, displays a GUI necessary for the operation of the operation unit 206 and displays a control result.

抵抗膜式タッチパネル表示部212は表示部であるとともにタッチパネル入力装置となっていて、表示に直接タッチすることにより入力操作を行うGUI操作部となっている。また、抵抗膜式タッチパネル表示部212の構成は図1の実施例1と同様のものであり、制御部204は抵抗膜式タッチパネル表示部212の4線の出力を分析処理することにより、2点のタッチ位置およびその移動を検知することが可能である。   The resistive touch panel display unit 212 is a display unit and a touch panel input device, and is a GUI operation unit that performs an input operation by directly touching the display. Further, the configuration of the resistive touch panel display unit 212 is the same as that of the first embodiment shown in FIG. 1, and the control unit 204 analyzes the output of the four lines of the resistive touch panel display unit 212 to obtain two points. It is possible to detect the touch position and its movement.

実施例2において実施例1の説明を準用して理解できる部分は10の位および1の位の数字が共通の200番台の番号を付して原則として説明を省略するとともに、以下デジタルカメラ特有の構成について説明する。まず、撮影モードにおいて、デジタルカメラ202は、焦点調節可能な光学系252によって結像する光学増を撮像部254によって電子画像に変換し、制御部204の画像処理部256によって圧縮を含む画像処理を行って画像記憶部258に格納する。画像記憶部258はデジタルカメラ202内蔵の画像メモリまたはデジタルカメラ202に着脱可能なメモリカードとして構成される。   In the second embodiment, parts that can be understood by applying the description of the first embodiment to the first embodiment are given the numbers of the 200 series in which the numbers of the tenth place and the first place are common, and the explanation is omitted in principle. The configuration will be described. First, in the shooting mode, the digital camera 202 converts an optical increase formed by the focus-adjustable optical system 252 into an electronic image by the imaging unit 254, and performs image processing including compression by the image processing unit 256 of the control unit 204. And store it in the image storage unit 258. The image storage unit 258 is configured as an image memory built in the digital camera 202 or a memory card that can be attached to and detached from the digital camera 202.

上記の撮影モードにおいて、撮像部254によって撮像された画像は表示ドライバ210によって抵抗膜式タッチパネル表示部212に表示される。つまり、このような撮像モードにおいては、抵抗膜式タッチパネル表示部212は、撮像の構図決めのために被写体像を表示するファインダースクリーンの機能を果たす。このとき、抵抗膜式タッチパネル表示部212に表示される被写体像の所望部分を例えば親指でタッチすることによりタッチ位置が記憶され、記憶された位置に対応する被写体部分に対しフォーカス機構260によりオートフォーカスが行われる。オートフォーカスの焦点調節判断は画像処理部256の情報に基づき制御部204が行う。また、記憶されたタッチ位置に対応する被写体部分を基準に露出制御部262が光学系252の絞りおよび撮像部254の露出時間およびゲインを制御することで露出制御を行う。露出制御の判断も、画像処理部の情報に基づき制御部204が行う。   In the above photographing mode, the image captured by the imaging unit 254 is displayed on the resistive touch panel display unit 212 by the display driver 210. That is, in such an imaging mode, the resistive touch panel display unit 212 functions as a finder screen that displays a subject image for determining an imaging composition. At this time, by touching a desired portion of the subject image displayed on the resistive touch panel display unit 212 with, for example, a thumb, the touch position is stored, and the focus mechanism 260 automatically focuses the subject portion corresponding to the stored position. Is done. The focus adjustment determination for autofocus is performed by the control unit 204 based on information from the image processing unit 256. The exposure control unit 262 controls exposure by controlling the aperture of the optical system 252 and the exposure time and gain of the imaging unit 254 based on the subject portion corresponding to the stored touch position. Determination of exposure control is also performed by the control unit 204 based on information from the image processing unit.

なお、抵抗膜式タッチパネル表示部212から親指を一度離すとタッチ位置の記憶がキャンセルされ次にタッチした位置が新たに記憶される。このようにタッチが継続する限り最初にタッチした
位置を記憶することにより、タッチを継続する際に指が抵抗膜式タッチパネル表示部212上でずれることによりタッチ位置が所望の位置から不用意に変化することを防止できる。そしてタッチを継続しながら例えば人差指で抵抗膜式タッチパネル表示部212の任意の位置をタッチするとシャッタレリーズが行われ、撮影が完了する。
Note that once the thumb is released from the resistive touch panel display unit 212, the storage of the touch position is canceled and the next touched position is newly stored. By storing the first touched position as long as the touch continues as described above, the touch position is inadvertently changed from a desired position by the finger being displaced on the resistive touch panel display unit 212 when the touch is continued. Can be prevented. Then, for example, when an arbitrary position on the resistive touch panel display unit 212 is touched with the index finger while the touch is continued, shutter release is performed, and photographing is completed.

撮影モードによって画像記憶258に記憶された画像は、再生モードの設定により、抵抗膜式タッチパネル表示部212に再生表示することができる。このような再生画像については、拡大縮小が可能であり、その操作は実施例1において説明した操作を準用することができる。   The image stored in the image storage 258 by the shooting mode can be reproduced and displayed on the resistive touch panel display unit 212 by setting the reproduction mode. Such a reproduced image can be enlarged or reduced, and the operation described in the first embodiment can be applied mutatis mutandis.

ここで、上記において説明を省略した図14の構成について、若干の補足を行うと、まず、GPS部214の情報は、撮影場所情報として画像とともに画像記憶部に記憶される。また、スピーカ221は、デジタルカメラ202の操作案内に利用される。さらに、入出力部220および無線通信部218は、画像記憶部258に格納されている画像をデジタルカメラ202外部に送信するときに利用することができる。   Here, when a little supplement is made to the configuration of FIG. 14 that is not described above, first, the information of the GPS unit 214 is stored in the image storage unit together with the image as shooting location information. The speaker 221 is used for operation guidance of the digital camera 202. Further, the input / output unit 220 and the wireless communication unit 218 can be used when an image stored in the image storage unit 258 is transmitted to the outside of the digital camera 202.

図15は、実施例2に示したデジタルカメラ202の撮影モードにおいて抵抗膜式タッチパネル表示部212に表示される被写体画像を示す画面図である。図15(A)は、右手264の親指で抵抗膜式タッチパネル表示部212の所望の位置をタッチした状態を示し、このタッチに応答してタッチ位置表示266が行われている。このタッチ位置表示はタッチされた位置を示すとともにタッチ位置が記憶されたことを示している。このような親指による1点タッチ状態で親指の位置がずれてもタッチ位置表示266が動くことはない。また、親指を抵抗膜式タッチパネル表示部212から離すとタッチ位置記憶がキャンセルされ、タッチ位置表示266消えるので新たなタッチで記憶位置を設定することが可能である。   FIG. 15 is a screen diagram showing a subject image displayed on the resistive touch panel display unit 212 in the photographing mode of the digital camera 202 shown in the second embodiment. FIG. 15A shows a state where a desired position of the resistive touch panel display unit 212 is touched with the thumb of the right hand 264, and a touch position display 266 is performed in response to this touch. The touch position display indicates a touched position and indicates that the touch position is stored. The touch position display 266 does not move even if the position of the thumb is shifted in such a one-point touch state with the thumb. Further, when the thumb is released from the resistive touch panel display unit 212, the touch position storage is canceled and the touch position display 266 disappears, so that the storage position can be set by a new touch.

撮影前の構図決めにおいては、デジタルカメラ202がぶれると抵抗膜式タッチパネル表示部212に表示される被写体像も動く。このとき、画像と記憶されたタッチ位置の両者がともに動くと基準がなくなって画像の所望位置の指定がし難くなるが、上記のようにして最初のタッチ位置を記憶固定することにより、仮にその後画像が動いても、デジタルカメラ202を動かすことで容易にタッチ位置と当初の画像の所望位置を元通りに合わせることができる。   In determining the composition before shooting, the subject image displayed on the resistive touch panel display unit 212 also moves when the digital camera 202 is shaken. At this time, if both the image and the stored touch position move together, the reference is lost and it becomes difficult to specify the desired position of the image. However, by temporarily storing the first touch position as described above, Even if the image moves, the touch position and the desired position of the original image can be easily matched to each other by moving the digital camera 202.

図15(B)は、右手264の親指のタッチを継続したまま抵抗膜式タッチパネル表示部212の任意の位置268をタッチした状態を示しており、制御部204はこのような2点タッチ状態の成立によりシャッタレリーズ操作が行われたものと判断してその状態における撮像部254の画像情報を画像処理部256で処理して画像記憶部258に記憶格納させる。   FIG. 15B shows a state in which an arbitrary position 268 of the resistive touch panel display unit 212 is touched while continuing to touch the thumb of the right hand 264, and the control unit 204 is in such a two-point touch state. If it is determined that the shutter release operation has been performed, the image information of the imaging unit 254 in that state is processed by the image processing unit 256 and stored in the image storage unit 258.

なお、実施例2では、シャッタレリーズボタン位置が抵抗膜式タッチパネル表示部212の任意の位置となるので、構図決めに専念でき、操作が簡単になる。しかしながら2点目のタッチによってシャッタレリーズを行う構成はこれに限られるものではなく、例えば図15(B)の位置268のように操作しやすい位置にシャッタボタンを表示するよう構成してもよい。このようなシャッタボタン位置表示は、最初のタッチ位置266の記憶が行われたのと同時に行う。このような構成によれば、任意位置の2点目タッチによりシャッタレリーズを行うことができないが、その反面、表示されたシャッタボタン位置以外を不用意にタッチすることで誤ってシャッタレリーズが行われるのを防止することができる。実施例2は、デジタルカメラ202の使用者のカスタム設定により、このようなシャッタレリーズボタン表示モードも選択できるよう構成してもよい。   In the second embodiment, since the shutter release button position is an arbitrary position on the resistive touch panel display unit 212, it is possible to concentrate on determining the composition and simplify the operation. However, the configuration in which the shutter release is performed by touching the second point is not limited to this. For example, the shutter button may be displayed at a position that is easy to operate, such as a position 268 in FIG. Such shutter button position display is performed at the same time as the first touch position 266 is stored. According to such a configuration, the shutter release cannot be performed by the second point touch at an arbitrary position, but on the other hand, the shutter release is erroneously performed by inadvertently touching other than the displayed shutter button position. Can be prevented. The second embodiment may be configured such that such a shutter release button display mode can be selected by a custom setting of the user of the digital camera 202.

図16は、図14の実施例2における制御部204の動作のフローチャートである。デジタルカメラ202の電源オン操作が行われるとフローがスタートし、ステップS142においてデジタルカメラの立上処理が行われ、ステップS144で初期状態として撮影モードを設定してステップS146に移行する。ステップS146では再生モード設定の手動操作が行われたかどうかチェックし操作がなければステップS148に進む。 FIG. 16 is a flowchart of the operation of the control unit 204 in the second embodiment of FIG. When the power on operation of the digital camera 202 is performed, the flow starts. In step S142, the digital camera is started up. In step S144, the shooting mode is set as an initial state, and the process proceeds to step S146. In step S146, it is checked whether the reproduction mode setting manual operation has been performed. If there is no operation, the process proceeds to step S148.

ステップS148では、1点タッチが検知されるかどうかチェックする。そして1点タッチ状態が検知されるとステップ148に移行し、タッチが検知された位置を記憶する。一方、ステップS148で1点タッチが検知されない時はステップS146に進み、以下ステップS146とステップS148を繰り返して再生モード設定操作が行われない限り1点タッチの検知を待つ。ステップS150で検知位置が記憶されるとステップS152に進んで記憶位置を表示する。この表示は、図15(A)のタッチ位置表示266に該当する。   In step S148, it is checked whether a one-point touch is detected. When the one-point touch state is detected, the process proceeds to step 148, and the position where the touch is detected is stored. On the other hand, when a one-point touch is not detected in step S148, the process proceeds to step S146, and thereafter, steps S146 and S148 are repeated to wait for a one-point touch detection unless a playback mode setting operation is performed. When the detected position is stored in step S150, the process proceeds to step S152 to display the stored position. This display corresponds to the touch position display 266 in FIG.

さらにステップS154では、記憶位置に撮像されている被写体部分に対する画像処理部256の情報に基づき制御部204がフォーカス機構260に指示を出して光学系252を駆動し、この部分のコントラストが最大になるようフォーカス調整を行う。この結果、図15(A)のタッチ位置表示266の部分の被写体にピントが合う状態となる。フォーカス指示のあとステップS156では、記憶位置に撮像されている被写体部分に対する画像処理部256の情報に基づき制御部204が露出制御部262に指示を出して光学系252の絞りおよび撮像部254の露出時間を制御する。この結果、図15(A)のタッチ位置表示266の部分の被写体が適正露出となる状態に露出制御が行われる。   In step S154, the control unit 204 instructs the focus mechanism 260 based on the information of the image processing unit 256 for the subject imaged at the storage position to drive the optical system 252, and the contrast of this part is maximized. Adjust the focus. As a result, the subject in the portion of the touch position display 266 in FIG. 15A is brought into focus. In step S156 after the focus instruction, the control unit 204 issues an instruction to the exposure control unit 262 based on the information of the image processing unit 256 with respect to the subject imaged at the storage position, and the exposure of the aperture of the optical system 252 and the exposure of the imaging unit 254. Control the time. As a result, exposure control is performed so that the subject in the portion of the touch position display 266 in FIG.

次いで、ステップS158では、ステップS148で1点タッチが検知されてから所定時間が経過したかどうかチェックする。この所定時間は例えば2秒程度であり、1点目タッチにより関心のある被写体部分を決定してから2点目タッチ検知によるシャッタレリーズを待つための時間として設定される。後述のように、この所定時間内に2点目タッチが検知されない場合は1点目タッチの記憶がキャンセルされる。   Next, in step S158, it is checked whether or not a predetermined time has elapsed since the one-point touch was detected in step S148. The predetermined time is, for example, about 2 seconds, and is set as a time for waiting for a shutter release by the second point touch detection after the subject portion of interest is determined by the first point touch. As will be described later, when the second point touch is not detected within the predetermined time, the storage of the first point touch is cancelled.

ステップS158で所定時間経過が検地されないときはステップS160に進んで1点タッチが解除されたかどうかチェックする。1点タッチ解除が検知されない場合は、ステップS162に進み、1点目タッチを継続して2点目をタッチした結果として2点同時タッチ状態が生じたかどうかチェックする。そして、2点同時タッチ状態が検知されるとステップS164に進んでシャッタレリーズが行われ、ステップS166の撮像処理に移行する。一方、ステップS162で2点同時タッチ状態が検知されない場合はステップS158に戻り、以下、所定時間が経過するか1点タッチが解除されるかしない限りステップS158からステップS162を繰り返して2点目タッチを待つ。   If it is determined in step S158 that the predetermined time has not elapsed, the process proceeds to step S160 to check whether the one-point touch has been released. If the one-point touch release is not detected, the process proceeds to step S162 to check whether the two-point simultaneous touch state has occurred as a result of continuing the first point touch and touching the second point. When the two-point simultaneous touch state is detected, the process proceeds to step S164, shutter release is performed, and the process proceeds to the imaging process in step S166. On the other hand, if the two-point simultaneous touch state is not detected in step S162, the process returns to step S158, and then the second point touch is repeated by repeating steps S158 to S162 unless a predetermined time elapses or the one-point touch is released. Wait for.

ステップ166の撮像処理は画像処理部によって画像圧縮を行うとともに圧縮画像を画像記憶部258に記憶する処理である。撮像処理では、並行して記憶対象となる画像が所定時間抵抗膜式タッチパネル表示部212に静止画として表示される。ステップS166の撮像処理が終了するとステップS168に進み、デジタルカメラ202の電源オフ操作が行われたかどうかチェックする。そして、電源オフ操作が検知されたときはフローを終了する。   The imaging process in step 166 is a process of performing image compression by the image processing unit and storing the compressed image in the image storage unit 258. In the imaging process, images to be stored in parallel are displayed as still images on the resistive touch panel display unit 212 for a predetermined time. When the imaging process of step S166 is completed, the process proceeds to step S168, and it is checked whether or not the digital camera 202 is turned off. When the power-off operation is detected, the flow ends.

一方、ステップ158で所定時間経過が検知されたとき、またはステップS160で1点タッチ解除が検知されたときはステップS170に移行し、1点タッチの記憶をキャンセルするとともにステップS172で図15(A)に示すようなタッチ位置表示266位置表示をキャンセルしステップS168に移行する。このようなステップS170およびステップS172の機能により、新たな1点目タッチ位置の決定に入ることができる。   On the other hand, when the elapse of a predetermined time is detected in step 158, or when one-point touch release is detected in step S160, the process proceeds to step S170, and the memory of one-point touch is canceled, and in FIG. ) Cancels the touch position display 266 position display as shown in FIG. With such functions of step S170 and step S172, determination of a new first point touch position can be entered.

一方、ステップS146において再生モード設定操作が検知されたときはステップS174に移行して再生モード処理が行われる。再生モード処理では、最新画像等から始まる所定の順序による画像送りによる全画面再生、サムネイル画像による画像選択、スライドショー表示などが可能である。また、再生モード処理では定期的にステップS176に移行して撮影モード設定操作の有無をチェックし、操作がなければステップS174に戻って再生モードを継続する。ステップS176で撮影モード設定操作が検知されるとステップS178で撮影モードを設定してステップS168に進む。   On the other hand, when a reproduction mode setting operation is detected in step S146, the process proceeds to step S174, and reproduction mode processing is performed. In the playback mode processing, full-screen playback by sending images in a predetermined order starting from the latest image, image selection by thumbnail images, slide show display, and the like are possible. In the playback mode process, the process periodically proceeds to step S176 to check whether or not there is a shooting mode setting operation. If there is no operation, the process returns to step S174 to continue the playback mode. If a shooting mode setting operation is detected in step S176, the shooting mode is set in step S178, and the process proceeds to step S168.

前述のように、ステップS168で電源オフ操作が検知されるとフローは終了となるが、電源オフ操作の検知がない場合はステップS146に戻る。以下、ステップS168で電源オフ操作が検知されない限りステップS146からステップS168を繰り返し、基本的には撮影モードの種々の操作に対応するとともに適宜再生モードへの移行操作および撮影モードへの復帰操作に対応する。   As described above, the flow ends when the power-off operation is detected in step S168, but if the power-off operation is not detected, the process returns to step S146. Thereafter, unless a power-off operation is detected in step S168, steps S146 to S168 are repeated, basically corresponding to various operations in the shooting mode, as well as operations for switching to the playback mode and returning to the shooting mode as appropriate. To do.

以上説明した図16のフローから明らかなように、実施例2では、検知されるタッチが1点目か2点目かを識別し、それぞれに応答する機能が変えられる。その具体例として、1点目タッチにより画面位置の指定機能が応答し、2点目タッチによりシャッタレリーズ機能が応答するものを示した。しかし本発明のこの特徴は画面位置指定機能とシャッタレリーズ機能への使い分けに限るものではなく、種々の異なった機能に1点目タッチと2点目タッチ検知を割り当てることが可能である。 As apparent from the flow of FIG. 16 described above, in the second embodiment, the function of identifying whether the detected touch is the first point or the second point and responding to each is changed. As a specific example, the screen position designation function responds by the first point touch, and the shutter release function responds by the second point touch. However, this feature of the present invention is not limited to the use of the screen position designation function and the shutter release function, and the first point touch and the second point touch detection can be assigned to various different functions.

なお、図16のフローでは、1点目タッチ位置が記憶された後にデジタルカメラ202を振ると、記憶された画面上のタッチ位置の部分に表示される画像も移動することになる。従って、フォーカス調節および露出調節の対象となる被写体部分も変化する。従って、デジタルカメラ202を振って図15(A)のタッチ位置表示266に所望被写体を合わせることでその被写体部分に対するフォーカス調節および露出調節を行うことができる。これに対し、実施例2ではフォーカスロックおよび露出調節ロックモードも可能であって、このようなロックモードが選択された時は、タッチ位置の記憶およびタッチ位置266の表示とともにタッチ位置記憶時点の撮像部254の該当被写体部分の画像データも記憶され、その記憶画像データに基づいてフォーカス調節および露出調節が行われる。従ってこのようなロックモードでは、1点目タッチ後にデジタルカメラ202を振っても、1点目タッチ時にタッチ位置にあった被写体部分へのフォーカス調節および露出調節状態を維持することができる。   In the flow of FIG. 16, if the digital camera 202 is shaken after the first point touch position is stored, the image displayed at the stored touch position portion on the screen is also moved. Accordingly, the subject portion that is subject to focus adjustment and exposure adjustment also changes. Therefore, by adjusting the desired subject to the touch position display 266 of FIG. 15A by shaking the digital camera 202, focus adjustment and exposure adjustment can be performed on the subject portion. On the other hand, the focus lock and the exposure adjustment lock mode are also possible in the second embodiment. When such a lock mode is selected, the touch position is stored and the touch position 266 is displayed and the image is captured at the time of the touch position storage. Image data of the corresponding subject portion of the unit 254 is also stored, and focus adjustment and exposure adjustment are performed based on the stored image data. Therefore, in such a lock mode, even if the digital camera 202 is shaken after the first point touch, it is possible to maintain the focus adjustment and exposure adjustment state for the subject portion that was at the touch position at the time of the first point touch.

上記のロックモードを実施する場合を図16で説明すると、ステップSステップS152とステップS154の間にロックモード設定の有無をチェックするステップが挿入され、ロックモード設定が検知されるとタッチ位置検知時点の該当部分の画像データを記憶するステップを経てステップS154に移行する。従ってこの場合、ステップS154およびステップS156は、リアルタイムで撮像部254から取得される記憶タッチ位置に該当する被写体部分データではなく、上記のようにして記憶された被写体部分データに基づいて行われることになる。また、ロックモードにおいてステップS170に進んだときはステップS172の後に被写体画像データの記憶もキャンセルしてステップS168に移行する。   The case where the lock mode is performed will be described with reference to FIG. 16. A step for checking whether or not the lock mode is set is inserted between steps S152 and S154. After the step of storing the image data of the corresponding part, the process proceeds to step S154. Therefore, in this case, step S154 and step S156 are performed based on the subject part data stored as described above, not the subject part data corresponding to the stored touch position acquired from the imaging unit 254 in real time. Become. When the process proceeds to step S170 in the lock mode, the storage of the subject image data is canceled after step S172, and the process proceeds to step S168.

本発明は、例えばカーナビ装置やデジタルカメラなどにおけるタッチパネル入力装置等に適用することができる。 The present invention can be applied to, for example, a touch panel input device in a car navigation device or a digital camera.

12、212 タッチパネル
4、204 検知部
4、204 入力制御部
12、212 タッチパネル表示画面
4、10、204、210 表示制御部
64 文字の子音
66 文字の母音
76 テンキー表示
12, 212 Touch panel 4, 204 Detection unit 4, 204 Input control unit 12, 212 Touch panel display screen 4, 10, 204, 210 Display control unit 64 Character consonant 66 Character vowel 76 Numeric keypad display

Claims (18)

タッチパネルと、前記タッチパネルへの2点同時タッチ状態を検知する検知部と、前記検知部の2点タッチのタイミングに応じ異なった入力を行う入力制御部とを有することを特徴とするタッチパネル入力装置。   A touch panel input device comprising: a touch panel; a detection unit that detects a two-point simultaneous touch state on the touch panel; and an input control unit that performs different input in accordance with the timing of the two-point touch of the detection unit. 前記入力制御部は、前記検知部が検知する2点タッチにおける1点目タッチと2点目タッチに応答して異なった機能の入力を行うことを特徴とする請求項1記載のタッチパネル入力装置。   The touch panel input device according to claim 1, wherein the input control unit performs input of different functions in response to the first point touch and the second point touch in the two point touch detected by the detection unit. 前記入力制御部は、前記検知部が検知する2点タッチにおける1点目タッチ検知後2点目タッチ検知までの時間間隔に応答して入力を異ならしめることを特徴とする請求項1または2記載のタッチパネル入力装置。   The input control unit makes the input different in response to a time interval from the first point touch detection to the second point touch detection in the two point touch detected by the detection unit. Touch panel input device. 前記入力制御部は、前記検知部が検知する2点タッチにおける1点目タッチ検知後2点目タッチ検知までの時間間隔が所定以上ある場合、2点目タッチに応答する入力を禁止することを特徴とする請求項3記載のタッチパネル入力装置。   The input control unit prohibits an input in response to the second point touch when a time interval from the first point touch detection to the second point touch detection in the two point touch detected by the detection unit is equal to or greater than a predetermined time. The touch panel input device according to claim 3. 前記入力制御部は、前記検知部が検知する2点タッチにおける1点目タッチ検知後2点目タッチ検知までの時間間隔が所定時間以内であるとき1点目タッチと2点目タッチを関連づけて入力することを特徴とする請求項3または4記載のタッチパネル入力装置。   The input control unit associates the first point touch with the second point touch when the time interval from the first point touch detection to the second point touch detection in the two point touch detected by the detection unit is within a predetermined time. The touch panel input device according to claim 3 or 4, wherein the input is performed. 前記入力制御部は、前記検知部が検知する2点タッチにおける1点目タッチ検知後2点目タッチ検知までの時間間隔が所定時間以上あるとき1点タッチ操作としての入力を実行することを特徴とする請求項3から5のいずれかに記載のタッチパネル入力装置。   The input control unit executes an input as a one-point touch operation when a time interval from the first point touch detection to the second point touch detection in the two point touch detected by the detection unit is equal to or longer than a predetermined time. The touch panel input device according to claim 3. 前記入力制御部は、前記検知部が検知する2点タッチにおける1点目タッチ位置と2点目タッチ位置の組合せにより入力を行うことを特徴とする請求項1から6のいずれかに記載のタッチパネル入力装置。   The touch panel according to claim 1, wherein the input control unit performs input by a combination of a first point touch position and a second point touch position in a two-point touch detected by the detection unit. Input device. 前記タッチパネルは表示およびタッチパネル機能を備えたタッチパネル表示画面として構成されることを特徴とする請求項1から7のいずれかに記載のタッチパネル入力装置。   The touch panel input device according to claim 1, wherein the touch panel is configured as a touch panel display screen having a display and a touch panel function. タッチパネルと、前記タッチパネルへの2点同時タッチ状態を検知する検知部と、前記検知部が検知する2点タッチにおける1点目タッチ位置と2点目タッチ位置の組合せにより入力を行う入力制御部とを有することを特徴とするタッチパネル入力装置。   A touch panel, a detection unit that detects a two-point simultaneous touch state on the touch panel, and an input control unit that performs input by a combination of a first point touch position and a second point touch position in a two-point touch detected by the detection unit; A touch panel input device comprising: 前記タッチパネルは表示およびタッチパネル機能を備えたタッチパネル表示画面として構成されるとともに、タッチの基準位置を前記タッチパネル表示画面に表示する表示制御部を有することを特徴とする請求項9記載のタッチパネル入力装置。   The touch panel input device according to claim 9, wherein the touch panel is configured as a touch panel display screen having a display and a touch panel function, and further includes a display control unit that displays a reference position of the touch on the touch panel display screen. 前記入力制御部は、前記検知部が検知する2点タッチにおける特定の1点目タッチ位置と特定の2点目タッチ位置の相対位置変化に応じて所定の入力を行うことを特徴とする請求項10記載のタッチパネル入力装置。   The said input control part performs a predetermined input according to the relative position change of the specific 1st point touch position and the specific 2nd point touch position in the 2 point touch which the said detection part detects. 10. The touch panel input device according to 10. 前記入力制御部は、前記検知部が検知する2点タッチにおける特定の1点目タッチ位置に特定の2点目タッチ位置がドラグされることによって所定の入力を行うことを特徴とする請求項11記載のタッチパネル入力装置。   The said input control part performs a predetermined input by dragging a specific 2nd point touch position to the specific 1st point touch position in the 2 point | piece touch which the said detection part detects, It is characterized by the above-mentioned. The touch panel input device described. 前記特定の1点目タッチ位置は文字の子音に対応する位置であるとともに前記特定の2点目タッチ位置は文字を構成する母音であり、前記所定の入力は前記子音と母音で特定される文字入力であることを特徴とする請求項11記または12載のタッチパネル入力装置。   The specific first point touch position is a position corresponding to a consonant of a character, the specific second point touch position is a vowel constituting a character, and the predetermined input is a character specified by the consonant and the vowel. The touch panel input device according to claim 11 or 12, wherein the touch panel input device is an input. 前記表示制御部は前記子音のタッチ基準位置および前記母音のタッチ基準位置を前記タッチパネル表示画面の辺部分に配置するとともにテンキー表示を前記タッチパネル表示画面の中央部分に配置することを特徴とする請求項13載のタッチパネル入力装置。   The said display control part arrange | positions the touch reference position of the said consonant and the touch reference position of the said vowel in the side part of the said touchscreen display screen, and arrange | positions a numeric keypad display in the center part of the said touchscreen display screen. 13 touch panel input device. 表示およびタッチパネル機能を備えたタッチパネル表示画面と、文字の子音のタッチ基準位置および文字の母音のタッチ基準位置を前記タッチパネル表示画面の辺部分に配置する表示制御部と、前記タッチパネル表示画面へのタッチ状態を検知する検知部と、前記検知部によるタッチ検知に応じ文字入力を行う入力制御部とを有することを特徴とするタッチパネル入力装置。   A touch panel display screen having a display and a touch panel function; a display control unit that arranges a touch reference position of a consonant of a character and a touch reference position of a vowel of a character at a side portion of the touch panel display screen; and touching the touch panel display screen A touch panel input device comprising: a detection unit that detects a state; and an input control unit that performs character input in response to touch detection by the detection unit. 前記検知部は、前記タッチパネル表示画面への2点同時タッチ状態を検知することを特徴とする請求項15記載のタッチパネル入力装置。   The touch panel input device according to claim 15, wherein the detection unit detects a two-point simultaneous touch state on the touch panel display screen. 前記表示制御部は、テンキー表示を前記タッチパネル表示画面の中央部分に配置することを特徴とする請求項15または16記載のタッチパネル入力装置。   17. The touch panel input device according to claim 15, wherein the display control unit arranges a numeric keypad display at a central portion of the touch panel display screen. 前記検知部は、前記タッチパネル表示画面の前記テンキー表示への1点タッチ状態を検知することにより数字入力を行うことを特徴とする請求項17記載のタッチパネル入力装置。   The touch panel input device according to claim 17, wherein the detection unit performs numeric input by detecting a one-point touch state on the numeric keypad display on the touch panel display screen.
JP2010061817A 2010-02-18 2010-03-18 Touch-panel input device Pending JP2011197848A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2010061817A JP2011197848A (en) 2010-03-18 2010-03-18 Touch-panel input device
PCT/JP2011/053347 WO2011102406A1 (en) 2010-02-18 2011-02-17 Touch-panel input device
US13/579,378 US9250800B2 (en) 2010-02-18 2011-02-17 Touch-panel input device
CN2011800196740A CN102844732A (en) 2010-02-18 2011-02-17 Touch-panel input device
US14/978,082 US9760280B2 (en) 2010-02-18 2015-12-22 Touch-panel input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010061817A JP2011197848A (en) 2010-03-18 2010-03-18 Touch-panel input device

Publications (1)

Publication Number Publication Date
JP2011197848A true JP2011197848A (en) 2011-10-06

Family

ID=44876000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010061817A Pending JP2011197848A (en) 2010-02-18 2010-03-18 Touch-panel input device

Country Status (1)

Country Link
JP (1) JP2011197848A (en)

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102819370A (en) * 2012-07-26 2012-12-12 江西联创电子有限公司 Recognizing technology of two finger gesture input of capacitive touch screen
JP2013097519A (en) * 2011-10-31 2013-05-20 Denso Corp Touch operation input device for vehicle
JP2013105425A (en) * 2011-11-16 2013-05-30 Clarion Co Ltd Input device
JP2013192071A (en) * 2012-03-14 2013-09-26 Omron Corp Program for character input and character input device
JP2014519788A (en) * 2011-06-15 2014-08-14 ジン ホ ソ User interface providing apparatus and method for providing keyboard layout
JP2015011610A (en) * 2013-07-01 2015-01-19 アルプス電気株式会社 Button combination type touch panel input device
JP2015185173A (en) * 2014-03-24 2015-10-22 株式会社 ハイヂィープ Emergency operation method and terminal machine for target to be run by touch pressure and touch area
JP5937773B1 (en) * 2016-03-09 2016-06-22 株式会社Cygames Program and mobile terminal
JP2016146218A (en) * 2016-05-16 2016-08-12 シャープ株式会社 Display device, information processing apparatus, image processing apparatus, and image forming apparatus
JP2017199394A (en) * 2012-12-29 2017-11-02 アップル インコーポレイテッド Device, method, and graphical user interface for transitioning between touch input-to-display output relationships
US10162452B2 (en) 2015-08-10 2018-12-25 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10168826B2 (en) 2012-05-09 2019-01-01 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US10175864B2 (en) 2012-05-09 2019-01-08 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects in accordance with contact intensity
US10175757B2 (en) 2012-05-09 2019-01-08 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for touch-based operations performed and reversed in a user interface
US10175879B2 (en) 2012-12-29 2019-01-08 Apple Inc. Device, method, and graphical user interface for zooming a user interface while performing a drag operation
US10180772B2 (en) 2015-03-08 2019-01-15 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10191627B2 (en) 2012-05-09 2019-01-29 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10203868B2 (en) 2015-08-10 2019-02-12 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10222980B2 (en) 2015-03-19 2019-03-05 Apple Inc. Touch input cursor manipulation
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10275087B1 (en) 2011-08-05 2019-04-30 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10303354B2 (en) 2015-06-07 2019-05-28 Apple Inc. Devices and methods for navigating between user interfaces
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10387029B2 (en) 2015-03-08 2019-08-20 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10402073B2 (en) 2015-03-08 2019-09-03 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10437333B2 (en) 2012-12-29 2019-10-08 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
US10496260B2 (en) 2012-05-09 2019-12-03 Apple Inc. Device, method, and graphical user interface for pressure-based alteration of controls in a user interface
US10613634B2 (en) 2015-03-08 2020-04-07 Apple Inc. Devices and methods for controlling media presentation
US10620781B2 (en) 2012-12-29 2020-04-14 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
US10775999B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10775994B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US10782871B2 (en) 2012-05-09 2020-09-22 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US10908808B2 (en) 2012-05-09 2021-02-02 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US10969945B2 (en) 2012-05-09 2021-04-06 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US11023116B2 (en) 2012-05-09 2021-06-01 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US11231831B2 (en) 2015-06-07 2022-01-25 Apple Inc. Devices and methods for content preview based on touch input intensity
US11240424B2 (en) 2015-06-07 2022-02-01 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US12050761B2 (en) 2012-12-29 2024-07-30 Apple Inc. Device, method, and graphical user interface for transitioning from low power mode
US12135871B2 (en) 2012-12-29 2024-11-05 Apple Inc. Device, method, and graphical user interface for switching between user interfaces

Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04287117A (en) * 1991-03-18 1992-10-12 Fujitsu Ltd Man-machine interface system for left-handed person
JPH0566888A (en) * 1991-09-09 1993-03-19 Matsushita Electric Ind Co Ltd Touch panel device
JPH0854976A (en) * 1994-08-10 1996-02-27 Matsushita Electric Ind Co Ltd Resistance film system touch panel
JPH08179868A (en) * 1994-12-27 1996-07-12 Misawa Homes Co Ltd Key input device
JPH11143604A (en) * 1997-11-05 1999-05-28 Nec Corp Portable terminal equipment
JP2000330946A (en) * 1999-05-17 2000-11-30 Casio Comput Co Ltd Function switching device and its program recording medium
JP2001060143A (en) * 1999-08-24 2001-03-06 Kenwood Corp Resistance film type touch panel
JP2001134382A (en) * 1999-11-04 2001-05-18 Sony Corp Graphic processor
JP2003529161A (en) * 2000-03-31 2003-09-30 ボルグワード、グレン ロールス Universal digital mobile device
JP2006085370A (en) * 2004-09-15 2006-03-30 Fuji Photo Film Co Ltd Instruction input system and instruction input method
JP2007516481A (en) * 2003-08-29 2007-06-21 ノキア コーポレイション Method and apparatus for recognizing two-point user input with a touch-based user input device
JP2008027183A (en) * 2006-07-21 2008-02-07 Sharp Corp Information processor
JP2009104268A (en) * 2007-10-22 2009-05-14 Hitachi Displays Ltd Coordinate detection device and operation method using touch panel
JP2009129449A (en) * 2007-11-19 2009-06-11 Palo Alto Research Center Inc Improvement in link target accuracy in touch-screen mobile device by layout adjustment
JP2009134444A (en) * 2007-11-29 2009-06-18 Smk Corp Optical touch-panel input device
JP2009146374A (en) * 2007-12-11 2009-07-02 J Touch Corp Method for controlling multipoint touch controller
JP2009525538A (en) * 2006-01-30 2009-07-09 アップル インコーポレイテッド Gesture using multi-point sensing device
JP2009276926A (en) * 2008-05-13 2009-11-26 Ntt Docomo Inc Information processor and display information editing method thereof
JP2009289157A (en) * 2008-05-30 2009-12-10 Digital Electronics Corp Display device, control method for display device and program for making computer realize the control method
WO2010008088A1 (en) * 2008-07-17 2010-01-21 日本電気株式会社 Information processing apparatus, storage medium on which program has been recorded, and object shifting method
JP2010026710A (en) * 2008-07-17 2010-02-04 Sony Corp Information processor, information processing method, and information processing program
JP2011502314A (en) * 2007-10-29 2011-01-20 フリースケール セミコンダクター インコーポレイテッド Touch screen driver for detecting multiple simultaneous touches and method of using the same

Patent Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04287117A (en) * 1991-03-18 1992-10-12 Fujitsu Ltd Man-machine interface system for left-handed person
JPH0566888A (en) * 1991-09-09 1993-03-19 Matsushita Electric Ind Co Ltd Touch panel device
JPH0854976A (en) * 1994-08-10 1996-02-27 Matsushita Electric Ind Co Ltd Resistance film system touch panel
JPH08179868A (en) * 1994-12-27 1996-07-12 Misawa Homes Co Ltd Key input device
JPH11143604A (en) * 1997-11-05 1999-05-28 Nec Corp Portable terminal equipment
JP2000330946A (en) * 1999-05-17 2000-11-30 Casio Comput Co Ltd Function switching device and its program recording medium
JP2001060143A (en) * 1999-08-24 2001-03-06 Kenwood Corp Resistance film type touch panel
JP2001134382A (en) * 1999-11-04 2001-05-18 Sony Corp Graphic processor
JP2003529161A (en) * 2000-03-31 2003-09-30 ボルグワード、グレン ロールス Universal digital mobile device
JP2007516481A (en) * 2003-08-29 2007-06-21 ノキア コーポレイション Method and apparatus for recognizing two-point user input with a touch-based user input device
JP2006085370A (en) * 2004-09-15 2006-03-30 Fuji Photo Film Co Ltd Instruction input system and instruction input method
JP2009525538A (en) * 2006-01-30 2009-07-09 アップル インコーポレイテッド Gesture using multi-point sensing device
JP2008027183A (en) * 2006-07-21 2008-02-07 Sharp Corp Information processor
JP2009104268A (en) * 2007-10-22 2009-05-14 Hitachi Displays Ltd Coordinate detection device and operation method using touch panel
JP2011502314A (en) * 2007-10-29 2011-01-20 フリースケール セミコンダクター インコーポレイテッド Touch screen driver for detecting multiple simultaneous touches and method of using the same
JP2009129449A (en) * 2007-11-19 2009-06-11 Palo Alto Research Center Inc Improvement in link target accuracy in touch-screen mobile device by layout adjustment
JP2009134444A (en) * 2007-11-29 2009-06-18 Smk Corp Optical touch-panel input device
JP2009146374A (en) * 2007-12-11 2009-07-02 J Touch Corp Method for controlling multipoint touch controller
JP2009276926A (en) * 2008-05-13 2009-11-26 Ntt Docomo Inc Information processor and display information editing method thereof
JP2009289157A (en) * 2008-05-30 2009-12-10 Digital Electronics Corp Display device, control method for display device and program for making computer realize the control method
WO2010008088A1 (en) * 2008-07-17 2010-01-21 日本電気株式会社 Information processing apparatus, storage medium on which program has been recorded, and object shifting method
JP2010026710A (en) * 2008-07-17 2010-02-04 Sony Corp Information processor, information processing method, and information processing program

Cited By (89)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014519788A (en) * 2011-06-15 2014-08-14 ジン ホ ソ User interface providing apparatus and method for providing keyboard layout
US9606727B2 (en) 2011-06-15 2017-03-28 Yong Chang Seo Apparatus and method for providing user interface providing keyboard layout
US10656752B1 (en) 2011-08-05 2020-05-19 P4tents1, LLC Gesture-equipped touch screen system, method, and computer program product
US10664097B1 (en) 2011-08-05 2020-05-26 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10275087B1 (en) 2011-08-05 2019-04-30 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10649571B1 (en) 2011-08-05 2020-05-12 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10540039B1 (en) 2011-08-05 2020-01-21 P4tents1, LLC Devices and methods for navigating between user interface
US10386960B1 (en) 2011-08-05 2019-08-20 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10365758B1 (en) 2011-08-05 2019-07-30 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10345961B1 (en) 2011-08-05 2019-07-09 P4tents1, LLC Devices and methods for navigating between user interfaces
US10338736B1 (en) 2011-08-05 2019-07-02 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
JP2013097519A (en) * 2011-10-31 2013-05-20 Denso Corp Touch operation input device for vehicle
JP2013105425A (en) * 2011-11-16 2013-05-30 Clarion Co Ltd Input device
JP2013192071A (en) * 2012-03-14 2013-09-26 Omron Corp Program for character input and character input device
US10996788B2 (en) 2012-05-09 2021-05-04 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US10884591B2 (en) 2012-05-09 2021-01-05 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects
US11068153B2 (en) 2012-05-09 2021-07-20 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US11023116B2 (en) 2012-05-09 2021-06-01 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US10592041B2 (en) 2012-05-09 2020-03-17 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US10191627B2 (en) 2012-05-09 2019-01-29 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US11010027B2 (en) 2012-05-09 2021-05-18 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US12067229B2 (en) 2012-05-09 2024-08-20 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US10496260B2 (en) 2012-05-09 2019-12-03 Apple Inc. Device, method, and graphical user interface for pressure-based alteration of controls in a user interface
US10908808B2 (en) 2012-05-09 2021-02-02 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US12045451B2 (en) 2012-05-09 2024-07-23 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US11314407B2 (en) 2012-05-09 2022-04-26 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US10969945B2 (en) 2012-05-09 2021-04-06 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US10942570B2 (en) 2012-05-09 2021-03-09 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US10175864B2 (en) 2012-05-09 2019-01-08 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects in accordance with contact intensity
US11947724B2 (en) 2012-05-09 2024-04-02 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US10168826B2 (en) 2012-05-09 2019-01-01 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US10481690B2 (en) 2012-05-09 2019-11-19 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for media adjustment operations performed in a user interface
US10175757B2 (en) 2012-05-09 2019-01-08 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for touch-based operations performed and reversed in a user interface
US10782871B2 (en) 2012-05-09 2020-09-22 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US11221675B2 (en) 2012-05-09 2022-01-11 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US10775994B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US11354033B2 (en) 2012-05-09 2022-06-07 Apple Inc. Device, method, and graphical user interface for managing icons in a user interface region
US10775999B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
CN102819370A (en) * 2012-07-26 2012-12-12 江西联创电子有限公司 Recognizing technology of two finger gesture input of capacitive touch screen
US10437333B2 (en) 2012-12-29 2019-10-08 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
JP2017199394A (en) * 2012-12-29 2017-11-02 アップル インコーポレイテッド Device, method, and graphical user interface for transitioning between touch input-to-display output relationships
US12050761B2 (en) 2012-12-29 2024-07-30 Apple Inc. Device, method, and graphical user interface for transitioning from low power mode
US12135871B2 (en) 2012-12-29 2024-11-05 Apple Inc. Device, method, and graphical user interface for switching between user interfaces
US10185491B2 (en) 2012-12-29 2019-01-22 Apple Inc. Device, method, and graphical user interface for determining whether to scroll or enlarge content
US10915243B2 (en) 2012-12-29 2021-02-09 Apple Inc. Device, method, and graphical user interface for adjusting content selection
US10620781B2 (en) 2012-12-29 2020-04-14 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
US10175879B2 (en) 2012-12-29 2019-01-08 Apple Inc. Device, method, and graphical user interface for zooming a user interface while performing a drag operation
JP2015011610A (en) * 2013-07-01 2015-01-19 アルプス電気株式会社 Button combination type touch panel input device
JP2015185173A (en) * 2014-03-24 2015-10-22 株式会社 ハイヂィープ Emergency operation method and terminal machine for target to be run by touch pressure and touch area
US10268341B2 (en) 2015-03-08 2019-04-23 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10268342B2 (en) 2015-03-08 2019-04-23 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10180772B2 (en) 2015-03-08 2019-01-15 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11977726B2 (en) 2015-03-08 2024-05-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US11112957B2 (en) 2015-03-08 2021-09-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10402073B2 (en) 2015-03-08 2019-09-03 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10387029B2 (en) 2015-03-08 2019-08-20 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10613634B2 (en) 2015-03-08 2020-04-07 Apple Inc. Devices and methods for controlling media presentation
US10338772B2 (en) 2015-03-08 2019-07-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10860177B2 (en) 2015-03-08 2020-12-08 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11550471B2 (en) 2015-03-19 2023-01-10 Apple Inc. Touch input cursor manipulation
US10599331B2 (en) 2015-03-19 2020-03-24 Apple Inc. Touch input cursor manipulation
US10222980B2 (en) 2015-03-19 2019-03-05 Apple Inc. Touch input cursor manipulation
US11054990B2 (en) 2015-03-19 2021-07-06 Apple Inc. Touch input cursor manipulation
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10455146B2 (en) 2015-06-07 2019-10-22 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10841484B2 (en) 2015-06-07 2020-11-17 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10303354B2 (en) 2015-06-07 2019-05-28 Apple Inc. Devices and methods for navigating between user interfaces
US10705718B2 (en) 2015-06-07 2020-07-07 Apple Inc. Devices and methods for navigating between user interfaces
US11835985B2 (en) 2015-06-07 2023-12-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11681429B2 (en) 2015-06-07 2023-06-20 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11240424B2 (en) 2015-06-07 2022-02-01 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11231831B2 (en) 2015-06-07 2022-01-25 Apple Inc. Devices and methods for content preview based on touch input intensity
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10754542B2 (en) 2015-08-10 2020-08-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10884608B2 (en) 2015-08-10 2021-01-05 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10963158B2 (en) 2015-08-10 2021-03-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11327648B2 (en) 2015-08-10 2022-05-10 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10203868B2 (en) 2015-08-10 2019-02-12 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10162452B2 (en) 2015-08-10 2018-12-25 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10209884B2 (en) 2015-08-10 2019-02-19 Apple Inc. Devices, Methods, and Graphical User Interfaces for Manipulating User Interface Objects with Visual and/or Haptic Feedback
US11740785B2 (en) 2015-08-10 2023-08-29 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10698598B2 (en) 2015-08-10 2020-06-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11182017B2 (en) 2015-08-10 2021-11-23 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
JP5937773B1 (en) * 2016-03-09 2016-06-22 株式会社Cygames Program and mobile terminal
JP2017091494A (en) * 2016-03-09 2017-05-25 株式会社Cygames Program and portable terminal
JP2016146218A (en) * 2016-05-16 2016-08-12 シャープ株式会社 Display device, information processing apparatus, image processing apparatus, and image forming apparatus

Similar Documents

Publication Publication Date Title
JP2011197848A (en) Touch-panel input device
WO2011102406A1 (en) Touch-panel input device
JP5502584B2 (en) Digital camera
JP5702546B2 (en) Touch panel input device
JP4395408B2 (en) Input device with touch panel
JP5652652B2 (en) Display control apparatus and method
JP5172485B2 (en) Input device and control method of input device
EP2650164B1 (en) In-vehicle information system, in-vehicle apparatus and information terminal
US9158492B2 (en) Non-transitory computer-readable medium storing image processing program for N-in-1 printing, image processing apparatus, and image processing method for N-in-1 printing
JP2011227703A (en) Touch panel input device capable of two-point detection
WO2015001606A1 (en) Imaging system
JP6656393B2 (en) Operating authority transfer determination device and operating authority transfer determining method
JP4626860B2 (en) Operating device
US6992661B2 (en) Electronic device, digital still camera and display control method
JP5702540B2 (en) Touch panel input device
JP2011215539A (en) Digital camera
US10958826B2 (en) Electronic apparatus and control method for electronic apparatus
US10904442B2 (en) Image sensing apparatus with improved user operability when performing an enlarged display of a live view image and control method of image sensing apparatus
JP2013207608A (en) Character input device and character input program
JP7340150B2 (en) Operation image display device, operation image display system, and operation image display program
JP4645665B2 (en) Operating hand projection system and program for operating hand projection system
JP5848792B2 (en) Digital camera
US12137288B2 (en) Imaging device with blur indication
JP2018162023A (en) Operation device
JP2014191818A (en) Operation support system, operation support method and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131203

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140401