[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5477203B2 - Input device - Google Patents

Input device Download PDF

Info

Publication number
JP5477203B2
JP5477203B2 JP2010151092A JP2010151092A JP5477203B2 JP 5477203 B2 JP5477203 B2 JP 5477203B2 JP 2010151092 A JP2010151092 A JP 2010151092A JP 2010151092 A JP2010151092 A JP 2010151092A JP 5477203 B2 JP5477203 B2 JP 5477203B2
Authority
JP
Japan
Prior art keywords
input
contact
group
contact position
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010151092A
Other languages
Japanese (ja)
Other versions
JP2012014508A (en
Inventor
正樹 大槻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010151092A priority Critical patent/JP5477203B2/en
Publication of JP2012014508A publication Critical patent/JP2012014508A/en
Application granted granted Critical
Publication of JP5477203B2 publication Critical patent/JP5477203B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、入力装置に関するものである。   The present invention relates to an input device.

従来、タッチパネルに対する操作者の接触による入力操作により文字を入力する文字データ入力装置が存在する(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, there is a character data input device that inputs characters by an input operation by an operator's contact with a touch panel (see, for example, Patent Document 1).

特開2008−152441号公報JP 2008-152441 A

しかしながら、上述の文字データ入力装置においては、1つの文字を入力する際に少なくとも2回の入力操作を必要とするため、多くの文字を入力する場合には入力操作が煩雑になり、効率良く入力操作を行うことができなかった。   However, since the above-described character data input device requires at least two input operations when inputting one character, the input operation becomes complicated when inputting a large number of characters. The operation could not be performed.

本発明の目的は、入力対象の入力を行う際に効率良く入力操作を行うことができる入力装置を提供することである。   The objective of this invention is providing the input device which can perform input operation efficiently, when performing input of input object.

本発明の入力装置は、操作者による少なくとも第1の接触及び前記第1の接触に続く第2の接触の接触位置を同時に検出する接触検出部と、前記接触検出部により前記第1の接触の接触位置が検出された場合に、第1グループの入力候補を含む映像情報を生成し、前記接触検出部により前記第2の接触の接触位置が検出された場合に、前記第1グループの入力候補において前記第1の接触の接触位置により選択されている入力候補に従属する第2グループの入力候補を含む映像情報を生成する映像情報生成部とを備えることを特徴とする。   An input device according to the present invention includes a contact detection unit that simultaneously detects at least a first contact by an operator and a contact position of a second contact following the first contact, and the contact detection unit detects the first contact. When a contact position is detected, video information including input candidates of the first group is generated, and when the contact position of the second contact is detected by the contact detection unit, the input candidates of the first group And a video information generating unit that generates video information including a second group of input candidates subordinate to the input candidate selected by the contact position of the first contact.

また、本発明の入力装置は、第1接触位置と第2接触位置とを検出する検出部と、前記検出部により前記第1接触位置が検出された場合、第1入力候補を含む映像を表示部に表示させ、前記第1接触位置と前記第2接触位置とが前記検出部によって検出された場合、前記第1入力候補のうち、前記第1接触位置に対応する入力候補に従属する第2入力候補を含む映像を表示部に表示させる制御部とを備えることを特徴とする。 The input device of the present invention displays a video image including a first input candidate when the detection unit detects the first contact position and the second contact position, and when the detection unit detects the first contact position. And when the detection unit detects the first contact position and the second contact position, a second subordinate to the input candidate corresponding to the first contact position among the first input candidates. And a control unit that displays an image including input candidates on a display unit .

本発明によれば、入力対象の入力を行う際に効率良く入力操作を行うことができる。   According to the present invention, it is possible to efficiently perform an input operation when inputting an input target.

第1の実施の形態に係るPDAのシステム構成を示すブロック図である。It is a block diagram which shows the system configuration | structure of PDA which concerns on 1st Embodiment. 第1の実施の形態に係るPDAにおける文字入力処理を示すフローチャートである。It is a flowchart which shows the character input process in PDA which concerns on 1st Embodiment. 第1の実施の形態に係るLCD表示部における表示状態を示す図である。It is a figure which shows the display state in the LCD display part which concerns on 1st Embodiment. 第1の実施の形態に係るLCD表示部における表示状態を示す図である。It is a figure which shows the display state in the LCD display part which concerns on 1st Embodiment. 第1の実施の形態に係るLCD表示部における表示状態を示す図である。It is a figure which shows the display state in the LCD display part which concerns on 1st Embodiment. 第1の実施の形態に係るLCD表示部における表示状態を示す図である。It is a figure which shows the display state in the LCD display part which concerns on 1st Embodiment. 第1の実施の形態に係るLCD表示部における表示状態を示す図である。It is a figure which shows the display state in the LCD display part which concerns on 1st Embodiment. 第1の実施の形態に係るLCD表示部における表示状態を示す図である。It is a figure which shows the display state in the LCD display part which concerns on 1st Embodiment. 第1の実施の形態に係るLCD表示部における表示状態を示す図である。It is a figure which shows the display state in the LCD display part which concerns on 1st Embodiment. 第1の実施の形態に係るLCD表示部における表示状態を示す図である。It is a figure which shows the display state in the LCD display part which concerns on 1st Embodiment. 第2の実施の形態に係るHMDの外観を示す斜視図である。It is a perspective view which shows the external appearance of HMD which concerns on 2nd Embodiment. 第2の実施の形態に係るHMDのシステム構成を示すブロック図である。It is a block diagram which shows the system configuration | structure of HMD which concerns on 2nd Embodiment.

以下、図面を参照して、本発明の第1の実施の形態に係る入力装置についてPDA(Personal Data Assistant)を例に説明する。図1は、第1の実施の形態に係るPDAのシステム構成を示すブロック図である。図1に示すように、PDA2は、PDA2の各部を統括的に制御するコントローラ4を備えている。コントローラ4には、データ処理を行う際にワークエリアとして用いられるメモリ8、プログラム、映像情報、設定情報等を記憶するフラッシュメモリ10、LCD表示部6の駆動を行うLCDドライバ12、透明電極により構成されLCD表示部6に重ねて配置されてLCD表示部6に表示された情報に対する入力操作を検出するタッチパネル14、LCD表示部6を背面から照明するバックライト20を駆動するバックライトドライバ18、文字入力の確定やエラー等を報知するための音声を出力するスピーカ22、時間を計測する計測部(図示せず)及び図示しない操作部が接続されている。ここで、操作部は、PDA2の電源をオン/オフする電源スイッチ、メニューボタン、入力文字の種類を切替える切替ボタン等を含んでいる。また、タッチパネル14は、操作者による少なくとも2点の接触の接触位置を同時に検出することが可能に構成されている。   Hereinafter, a PDA (Personal Data Assistant) will be described as an example of an input device according to a first embodiment of the present invention with reference to the drawings. FIG. 1 is a block diagram showing a system configuration of the PDA according to the first embodiment. As shown in FIG. 1, the PDA 2 includes a controller 4 that comprehensively controls each part of the PDA 2. The controller 4 includes a memory 8 used as a work area when data processing is performed, a flash memory 10 that stores programs, video information, setting information, and the like, an LCD driver 12 that drives the LCD display unit 6, and transparent electrodes. The touch panel 14 detects an input operation on the information displayed on the LCD display unit 6 and is placed on the LCD display unit 6. The backlight driver 18 drives the backlight 20 that illuminates the LCD display unit 6 from the back. A speaker 22 that outputs sound for notifying input confirmation, an error, and the like, a measurement unit (not shown) for measuring time, and an operation unit (not shown) are connected. Here, the operation unit includes a power switch for turning on / off the power of the PDA 2, a menu button, a switching button for switching the type of input characters, and the like. Further, the touch panel 14 is configured to be able to simultaneously detect the contact positions of at least two points of contact by the operator.

次に、図2に示すフローチャートを参照して、本発明の第1の実施の形態に係るPDAにおける文字入力処理について説明する。先ず操作者が操作部の電源スイッチをオンにすると、コントローラ4が起動し、コントローラ4はLCD表示部6にメニュー画面の映像を表示する。この状態において、タッチパネル14において、メニュー画面に表示される「文字入力モードボタン」に対する操作者の接触が検出されると文字入力モードに移行する。   Next, character input processing in the PDA according to the first embodiment of the present invention will be described with reference to the flowchart shown in FIG. First, when the operator turns on the power switch of the operation unit, the controller 4 is activated, and the controller 4 displays an image of the menu screen on the LCD display unit 6. In this state, when the touch of the operator with respect to the “character input mode button” displayed on the menu screen is detected on the touch panel 14, the mode shifts to the character input mode.

文字入力モードにおいては、コントローラ4は、タッチパネル14により操作者による1点目の接触の接触位置が検出されたか否かを判定する(ステップS1)。ここで、例えば操作者の人差し指がタッチパネル14に接触すると、コントローラ4は、タッチパネル14により検出された1点目の接触の接触位置の情報を取得し、その位置に表示する第1グループの入力候補である文字の一覧を含む映像情報を生成する(ステップS2)。即ち、ひらがなの50音表における子音文字「あかさたなはまやらわ」を縦に並べて表示する文字の一覧を含む映像情報を生成し、図3に示すように文字一覧30をLCD表示部6に表示する(ステップS3)。なお、映像情報は、文字一覧30が1点目の接触の接触位置に対応した位置に配置されるように生成される。   In the character input mode, the controller 4 determines whether or not the touch position of the first contact by the operator has been detected by the touch panel 14 (step S1). Here, for example, when the operator's index finger touches the touch panel 14, the controller 4 acquires information on the contact position of the first contact detected by the touch panel 14 and displays the first group of input candidates displayed at that position. Video information including a list of characters is generated (step S2). In other words, video information including a list of characters for displaying the consonant character “Akasana Hamawara” in the hiragana 50 syllabary vertically is generated, and the character list 30 is displayed on the LCD display unit 6 as shown in FIG. (Step S3). The video information is generated so that the character list 30 is arranged at a position corresponding to the contact position of the first contact.

この状態において、タッチパネル14により1点目の接触の接触位置が文字一覧30の「さ」に移動したことが検出された場合には、文字一覧30の「さ」に対してカーソル32を表示する映像情報を生成し、入力対象として文字一覧30の「さ」が選択されている映像をLCD表示部6に表示する。   In this state, when it is detected by the touch panel 14 that the contact position of the first contact has moved to “sa” in the character list 30, the cursor 32 is displayed for “sa” in the character list 30. Video information is generated, and a video in which “sa” in the character list 30 is selected as an input target is displayed on the LCD display unit 6.

また、図4に示すように、操作者により1点目の接触の接触位置が文字一覧30の文字の並び方向に移動され、タッチパネル14により1点目の接触の接触位置が文字一覧30の「さ」から「た」に移動したことが検出された場合には、入力対象として選択されている文字を「さ」から「た」に変更した映像情報を生成し、入力対象として文字一覧30の「た」が選択されている映像をLCD表示部6に表示する。   Further, as shown in FIG. 4, the contact position of the first contact is moved by the operator in the character arrangement direction of the character list 30, and the touch position of the first contact is moved to “ When it is detected that the character has been moved from “sa” to “ta”, video information in which the character selected as the input target is changed from “sa” to “ta” is generated, and the character list 30 is selected as the input target. An image for which “TA” is selected is displayed on the LCD display unit 6.

次に、タッチパネル14により操作者による2点目の接触の接触位置が検出されたか否かを判定する(ステップS4)。例えば図5に示すように、LCD表示部6に対して操作者の中指が人差し指の右側の位置に接触すると、コントローラ4は、タッチパネル14により検出された2点目の接触の接触位置の情報を取得し(ステップS4、Yes)、その位置に表示する第2グループの入力候補である文字の一覧を含む映像情報を生成する(ステップS5)。即ち、入力対象として選択されている文字一覧30の「た」に従属する「た行」の母音文字「たちつてと」を、縦に並べて表示する文字の一覧を含む映像情報を生成し、図5に示すように文字一覧34をLCD表示部6に表示する(ステップS6)。なお、映像情報は、文字一覧34が2点目の接触の接触位置に対応した位置に配置されるように生成される。ここで、文字一覧30の入力候補及び文字一覧34の入力候補が指の関節の可動方向である縦方向に配列され、かつ入力候補の縦方向の配列の長さ(:〜約50mm)がPDA2に対する手首の位置が動かない状態で指の関節の動きだけで選択可能な範囲となっているので、操作者は、効率よく入力操作を行うことができる。また、文字一覧30の入力候補の配列の中心軸と文字一覧34の入力候補の配列の中心軸との距離が隣り合った指の関節の動く範囲で選択可能に、配列の中心軸の距離(:約10mm〜40mm)で文字一覧30及び文字一覧34が配置されているので、操作者は、人差し指で文字一覧30の入力候補に接触しながら、中指で文字一覧34の入力候補を同時に選択することができる。   Next, it is determined whether or not the touch position of the second contact by the operator has been detected by the touch panel 14 (step S4). For example, as shown in FIG. 5, when the operator's middle finger touches the LCD display unit 6 on the right side of the index finger, the controller 4 displays information on the contact position of the second contact detected by the touch panel 14. Obtained (step S4, Yes), and generates video information including a list of characters that are input candidates of the second group to be displayed at that position (step S5). That is, video information including a list of characters for displaying the vowel characters “Tatetsuto” of “Ta Line” subordinate to “Ta” of the character list 30 selected as an input target in a vertical arrangement is generated. As shown in FIG. 5, the character list 34 is displayed on the LCD display unit 6 (step S6). The video information is generated so that the character list 34 is arranged at a position corresponding to the contact position of the second contact. Here, the input candidates of the character list 30 and the input candidates of the character list 34 are arranged in the vertical direction, which is the movable direction of the finger joint, and the length of the input candidates in the vertical direction (: to about 50 mm) is PDA2. Since the range is selectable only by the movement of the finger joint in a state where the wrist position does not move, the operator can perform an input operation efficiently. In addition, the distance between the center axis of the input candidate array of the character list 30 and the center axis of the input candidate array of the character list 34 can be selected within the range of movement of adjacent finger joints ( The character list 30 and the character list 34 are arranged at about 10 mm to 40 mm), and the operator selects the input candidates of the character list 34 simultaneously with the middle finger while touching the input candidates of the character list 30 with the index finger. be able to.

この状態において、タッチパネル14により2点目の接触の接触位置が文字一覧34の「て」に移動したことが検出された場合には、文字一覧34の「て」に対してカーソル36を表示する映像情報を生成し、入力対象として文字一覧34の「て」が選択されている映像をLCD表示部6に表示する。   In this state, when it is detected by the touch panel 14 that the contact position of the second contact has moved to “te” in the character list 34, the cursor 36 is displayed for “te” in the character list 34. Video information is generated, and a video in which “te” in the character list 34 is selected as an input target is displayed on the LCD display unit 6.

また、図6に示すように、操作者により2点目の接触の接触位置が文字一覧34の文字の並び方向に移動され、タッチパネル14により2点目の接触の接触位置が文字一覧34の「て」から「と」に移動したことが検出された場合には、入力対象として選択されている文字を「て」から「と」に変更した映像情報を生成し、入力対象として文字の一覧34の「と」が選択されている映像をLCD表示部6に表示する。   Further, as shown in FIG. 6, the contact position of the second contact is moved by the operator in the character arrangement direction of the character list 34, and the touch position of the second contact is moved to “ When it is detected that the character has been moved from “t” to “to”, video information in which the character selected as the input target is changed from “te” to “to” is generated, and the character list 34 as the input target is generated. The image for which “to” is selected is displayed on the LCD display unit 6.

次に、コントローラ4は、タッチパネル14により1点目及び2点目の接触の接触位置が検出されなくなったか否かを判定する(ステップS7)。操作者の人差し指及び中指が共にLCD表示部6から離れた場合、即ちタッチパネル14により1点目及び2点目の接触が共に検出されなくなった場合には(ステップS7、Yes)、計測部により1点目及び2点目の接触が検出されなくなってからの時間を計測する(ステップS8)。そして、計測部により所定時間が計測された場合には(ステップS9)、1点目及び2点目の接触の接触位置により選択されていた文字を入力文字として確定する(ステップS10)。即ち、図6に示す場合には、文字一覧34において選択されている「と」が入力文字として確定され、確定された文字「と」の入力処理を行いLCD表示部6に表示する(ステップS11)。なお、入力文字が確定された際には、確定を報知するための音声をスピーカ22から出力する。   Next, the controller 4 determines whether or not the touch positions of the first and second contacts are no longer detected by the touch panel 14 (step S7). When both the index finger and the middle finger of the operator are separated from the LCD display unit 6, that is, when the first touch and the second touch are not detected by the touch panel 14 (Yes in step S7), 1 is measured by the measuring unit. The time after the contact of the second and second points is no longer detected is measured (step S8). When the predetermined time is measured by the measurement unit (step S9), the character selected by the contact position of the first and second points of contact is determined as the input character (step S10). That is, in the case shown in FIG. 6, “to” selected in the character list 34 is confirmed as an input character, input processing of the confirmed character “to” is performed and displayed on the LCD display unit 6 (step S11). ). When the input character is confirmed, a sound for notifying the confirmation is output from the speaker 22.

ステップS4において、コントローラ4がタッチパネル14により2点目の接触が検出されていないと判定した場合には(ステップS4、No)、タッチパネル14により1点目の接触が検出されなくなったか否かを判定する(ステップS12)。この状態において、操作者の人差し指がLCD表示部6から離れた場合には、コントローラ4は1点目の接触が検出されなくなったと判定し(ステップS12、Yes)、文字入力処理を中止する。一方、操作者の人差し指がLCD表示部6に接触している場合には(ステップS12、No)、ステップS4に戻り再度ステップS4の処理を行う。   In step S4, when the controller 4 determines that the second touch is not detected by the touch panel 14 (No in step S4), it is determined whether the first touch is no longer detected by the touch panel 14 or not. (Step S12). In this state, when the operator's index finger is separated from the LCD display unit 6, the controller 4 determines that the first contact is not detected (step S12, Yes), and stops the character input process. On the other hand, when the operator's index finger is in contact with the LCD display unit 6 (No in step S12), the process returns to step S4 and the process of step S4 is performed again.

本発明の第1の実施の形態に係る入力装置によれば、タッチパネルに対する操作者の複数の指による一度の入力操作により、直感的に入力文字の選択、入力文字の確定及び文字の入力処理を中止することができる。従って、入力対象の入力を行う際に効率良く入力操作を行うことができる。   According to the input device according to the first embodiment of the present invention, input character selection, input character determination, and character input processing are intuitively performed by a single input operation with a plurality of fingers of the operator on the touch panel. Can be canceled. Therefore, it is possible to efficiently perform an input operation when inputting an input target.

なお、第1の実施の形態のステップS7の処理において、コントローラ4がタッチパネル14により1点目または2点目の接触が検出されなくなったと判定した場合には、ステップS6において表示される映像を表示し続けてもよい。即ち、操作者の人差し指または中指がLCD表示部6から離れた場合でも、文字一覧30及び文字一覧34を含む映像をLCD表示部6に表示し続けるようにしてもよい。   In the process of step S7 of the first embodiment, when the controller 4 determines that the touch of the first point or the second point is not detected by the touch panel 14, the image displayed in step S6 is displayed. You may keep doing. That is, even when the operator's index finger or middle finger is separated from the LCD display unit 6, an image including the character list 30 and the character list 34 may be continuously displayed on the LCD display unit 6.

この場合において、一方の接触の接触位置が検出されなくなった状態において、更に他方の接触が検出されなくなった場合に、文字の入力処理を中止するようにしてもよい。これにより、操作者がLCD表示部6から人差し指、中指の順または逆の順に指を離すことで、文字の入力処理を中止することができる。   In this case, in a state where the contact position of one contact is no longer detected, the character input process may be stopped when the other contact is no longer detected. Thus, the character input process can be stopped by releasing the finger from the LCD display unit 6 in the order of the index finger and the middle finger.

また、第1の実施の形態において、操作者による切替ボタンの操作により入力文字の種類を「かな入力」から「カナ入力」、「アルファベット」、「数字」等の他の種類に切替えてもよい。例えば、入力文字の種類が「アルファベット」に切替えられアルファベットを入力する場合には、3〜4文字毎にグループ分けされたアルファベットの各グループの代表の文字を示す「adgjmptw」が、上述の文字一覧30として表示される。ここで、3〜4文字毎にグループ分けされたアルファベットは、「abc」、「def」、「ghi」、「jkl」、「mno」、「pqrs」、「tuv」、「wxyz」である。ここで、「adgjmptw」の「a」が入力対象として選択された場合には、「a」を代表の文字とするグループの文字を示す「abc」が、上述の文字一覧34として表示される。   In the first embodiment, the type of the input character may be switched from “Kana input” to “Kana input”, “Alphabet”, “Number”, etc., by operating the switch button by the operator. . For example, when the type of input character is switched to “alphabet” and the alphabet is input, “adgjmptw” indicating the representative character of each group of the alphabet grouped every 3 to 4 characters is displayed in the above character list. 30. Here, the alphabets grouped every 3 to 4 characters are “abc”, “def”, “ghi”, “jkl”, “mno”, “pqrs”, “tuv”, “wxyz”. Here, when “a” of “adgjmptw” is selected as an input target, “abc” indicating characters of a group whose representative character is “a” is displayed as the above-described character list 34.

また、第1の実施の形態において、タッチパネル14により3点目の接触の接触位置が検出された場合に入力文字の種類を切替えるようにしてもよい。例えば図6に示すように、操作者により文字一覧34の「と」が入力対象として選択されている映像がLCD表示部6に表示されている状態において、操作者の薬指がLCD表示部6に接触して、タッチパネル14により3点目の接触位置が検出された場合には、図7に示すように入力文字の種類を「かな入力」から「カナ入力」に切替える。   In the first embodiment, the type of input character may be switched when the touch position of the third contact is detected by the touch panel 14. For example, as shown in FIG. 6, the operator's ring finger is displayed on the LCD display unit 6 in a state where an image in which “to” of the character list 34 is selected as an input target by the operator is displayed on the LCD display unit 6. When the touch position is detected by the touch panel 14, the type of input character is switched from “kana input” to “kana input” as shown in FIG.

また、第1の実施の形態において、タッチパネル14により3点目の接触が検出された場合に入力文字を確定するようにしてもよい。例えば図7に示すように、操作者により入力対象として文字一覧34の「ト」が選択されている映像がLCD表示部6に表示されている状態において、操作者の薬指がLCD表示部6に接触しタッチパネル14により3点目の接触が検出された場合には、「ト」を入力文字として確定するようにしてもよい。   Further, in the first embodiment, the input character may be determined when the third touch is detected by the touch panel 14. For example, as shown in FIG. 7, the operator's ring finger is displayed on the LCD display unit 6 in a state where an image in which “G” in the character list 34 is selected as an input target by the operator is displayed on the LCD display unit 6. When the touch and the touch panel 14 detect the third contact, “G” may be determined as the input character.

また、第1の実施の形態において、タッチパネル14により3点目の接触が検出された場合に、入力対象として選択されている文字に関連する単語一覧を含む映像情報を生成してもよい。例えば図7に示すように、操作者により入力対象として文字一覧34の「ト」が選択されている映像がLCD表示部6に表示されている状態において、操作者の薬指がLCD表示部6に接触しタッチパネル14により3点目の接触が検出された場合には、「ト」に関連する単語一覧(第3の一覧)を含む映像情報を生成し、第3の一覧の映像をLCD表示部6に表示する。例えば「ト」に関連する単語として、「投影」、「都心」、「撮る」、「取る」等が第3の一覧に表示される。ここで、3点目の接触により表示される第3の一覧についても、第3の一覧が文字一覧34の入力候補の配列の中心軸と第3の一覧の配列の中心軸との距離が隣り合った指の関節の動く範囲で選択可能に、配列の中心軸の距離(:約15mm〜35mm)に配置されているので、操作者は、中指で文字一覧34の入力候補に接触しながら、あるいは、人差し指で文字一覧30の入力候補に接触しかつ中指で文字一覧34の入力候補に接触しながら、薬指で第3の一覧の入力候補を選択することができる。この状態において、操作者により3点目の接触の接触位置が第3の一覧の「投影」に移動され、操作者の人差し指、中指及び薬指が共にLCD表示部6から離れた場合には、タッチパネル14により1点目、2点目及び3点目の接触が検出されなくなるため、入力対象として選択されている第3の一覧の「投影」を入力文字として確定する。   In the first embodiment, when the third touch is detected by the touch panel 14, video information including a word list related to the character selected as the input target may be generated. For example, as shown in FIG. 7, the operator's ring finger is displayed on the LCD display unit 6 in a state where an image in which “G” in the character list 34 is selected as an input target by the operator is displayed on the LCD display unit 6. When touching and the touch of the third point is detected by the touch panel 14, video information including a word list (third list) related to “G” is generated, and the video of the third list is displayed on the LCD display unit. 6 is displayed. For example, “projection”, “city center”, “shoot”, “take”, and the like are displayed in the third list as words related to “G”. Here, for the third list displayed by the third contact, the distance between the central axis of the input candidate array of the character list 34 and the central axis of the third list array is adjacent to the third list. Since it is arranged at a distance (about 15 mm to 35 mm) of the central axis of the arrangement so that it can be selected within the range of movement of the finger joints, the operator can touch the input candidates of the character list 34 with the middle finger, Alternatively, the third list input candidate can be selected with the ring finger while the index finger touches the input candidate of the character list 30 and the middle finger contacts the input candidate of the character list 34. In this state, if the contact position of the third contact is moved to “projection” in the third list by the operator and the operator's index finger, middle finger, and ring finger are all separated from the LCD display unit 6, the touch panel 14, contact of the first point, the second point, and the third point is not detected. Therefore, “projection” in the third list selected as the input target is determined as the input character.

また、第1の実施の形態において、操作者が中指、人差し指の順でLCD表示部6を触れることにより入力対象の文字を選択してもよい。この場合には、操作者の中指がLCD表示部6に接触して、タッチパネル14により1点目の接触が検出された場合に、文字一覧30を含む映像情報を生成し、図8に示すように映像をLCD表示部6に表示する。ここで、映像情報は、文字一覧30が1点目の接触の接触位置である中指が接触した位置に配置されるように生成される。また、操作者により入力対象として文字一覧30の「た」が選択されている状態において、操作者の人差し指が中指の左側においてLCD表示部6に接触して、タッチパネル14により2点目の接触が検出された場合に、図9に示すように文字一覧34をLCD表示部6に表示する。ここで、映像情報は、文字一覧34が2点目の接触の接触位置に対応した位置に配置されるように生成される。   In the first embodiment, the operator may select the input target character by touching the LCD display unit 6 in the order of the middle finger and the index finger. In this case, when the operator's middle finger touches the LCD display unit 6 and the first touch is detected by the touch panel 14, video information including the character list 30 is generated, as shown in FIG. The video is displayed on the LCD display unit 6. Here, the video information is generated so that the character list 30 is arranged at the position where the middle finger, which is the contact position of the first contact, is in contact. In addition, in a state where “ta” in the character list 30 is selected as an input target by the operator, the operator's index finger contacts the LCD display unit 6 on the left side of the middle finger, and the touch panel 14 makes a second contact. If detected, a character list 34 is displayed on the LCD display unit 6 as shown in FIG. Here, the video information is generated so that the character list 34 is arranged at a position corresponding to the contact position of the second contact.

また、第1の実施の形態において、図8に示すように操作者により入力対象として文字一覧30の「た」が選択されている状態において、操作者の人差し指が中指の左側においてLCD表示部6に接触して、タッチパネル14により2点目の接触が検出された場合には、1点目の接触の接触位置に対応した位置に文字一覧34を、2点目の接触の接触位置に対応した位置に文字一覧30を配置した映像を生成してもよい。この場合には、図10に示すように1点目(中指)の接触の接触位置に対応した位置に文字一覧34を、2点目(人差し指)の接触の接触位置に対応した位置に文字一覧30を配置した映像をLCD表示部6に表示する。   In the first embodiment, as shown in FIG. 8, in the state where “ta” in the character list 30 is selected as an input target by the operator, the operator's index finger is displayed on the LCD display unit 6 on the left side of the middle finger. When the touch panel 14 detects a second contact, the character list 34 corresponds to the contact position of the first contact, and the character list 34 corresponds to the contact position of the second contact. You may produce | generate the image | video which has arrange | positioned the character list 30 in the position. In this case, as shown in FIG. 10, the character list 34 is placed at a position corresponding to the contact position of the first point (middle finger), and the character list is placed at a position corresponding to the contact position of the second point (index finger). The image on which 30 is arranged is displayed on the LCD display unit 6.

また、第1の実施の形態において、操作者の指がLCD表示部6に接触して、タッチパネル14により1点目の接触が検出された場合に、文字一覧30及び文字一覧34を含む映像情報を生成し、文字一覧30及び文字一覧34をLCD表示部6に表示してもよい。   Further, in the first embodiment, when the operator's finger touches the LCD display unit 6 and the first touch is detected by the touch panel 14, video information including the character list 30 and the character list 34 is included. And the character list 30 and the character list 34 may be displayed on the LCD display unit 6.

また、第1の実施の形態において、文字一覧30及び文字一覧34の文字は縦に並べて表示するように映像情報を生成しているが、横に並べて表示するように映像情報を生成してもよい。   In the first embodiment, the video information is generated so that the characters in the character list 30 and the character list 34 are displayed vertically. However, the video information may be generated so that the characters are displayed horizontally. Good.

また、第1の実施の形態において、3点目の接触により2点目の接触による入力候補に関連する映像情報が生成される形態では、操作者により入力対象として文字一覧34から文字が選択されている場合に、3点目の接触位置に対応した位置に文字一覧「投影」、「都心」、「撮る」「取る」を配置した映像を生成してもよい。   In the first embodiment, when the video information relating to the input candidate by the second contact is generated by the third contact, the operator selects a character from the character list 34 as the input target. In such a case, an image in which the character list “projection”, “city center”, “shoot”, and “take” is arranged at a position corresponding to the third contact position may be generated.

また、第1の実施の形態において、文字一覧30と文字一覧34との文字の並び方が同一となるように映像情報を生成しているが、異なるように映像情報を生成してもよい。具体的には、文字一覧30の文字が縦に並べて表示されるように映像情報を生成する場合には、文字一覧34の文字が横に並べて表示されるように映像情報を生成する。また、文字一覧30の文字が横に並べて表示されるように映像情報を生成する場合には、文字一覧34の文字が縦に並べて表示されるように映像情報を生成する。   Further, in the first embodiment, the video information is generated so that the character arrangement in the character list 30 and the character list 34 is the same, but the video information may be generated differently. Specifically, when generating the video information so that the characters in the character list 30 are displayed vertically, the video information is generated so that the characters in the character list 34 are displayed horizontally. Further, when generating the video information so that the characters of the character list 30 are displayed side by side, the video information is generated so that the characters of the character list 34 are displayed vertically.

ここで、文字一覧30において文字が横に並べられ、文字一覧34において文字が縦に並べられている状態において、操作者の薬指がLCD表示部6に接触して、タッチパネル14により3点目の接触が検出された場合には、文字一覧34の文字に関連する単語が縦に並べられた第3の一覧を含む映像情報を生成し、第3の一覧をLCD表示部6に表示する。ここで、映像情報は、第3の一覧が3点目の接触位置に対応した位置に配置されるように生成される。また、第3の一覧に示される各単語は、文字一覧34の入力候補の配列の中心軸と平行である第3の一覧の配置軸上に各単語の先頭文字が位置するように縦に並べられる。また、文字一覧34の中心軸と第3の一覧の配置軸との距離が隣り合った指の間接の動く範囲で選択可能に、文字一覧34の中心軸と第3の一覧の配置軸の距離(:15mm〜35mm)で文字一覧34及び第3の一覧が配置される。そのため、操作者は、中指で文字一覧34の入力候補に接触しながら、あるいは、人差し指で文字一覧30の入力候補に接触しかつ中指で文字一覧34の入力候補に接触しながら、薬指で第3の一覧の入力候補を選択することができる。   Here, in the state where the characters are arranged horizontally in the character list 30 and the characters are arranged vertically in the character list 34, the operator's ring finger contacts the LCD display unit 6, and the touch panel 14 makes a third point. When contact is detected, video information including a third list in which words related to characters in the character list 34 are vertically arranged is generated, and the third list is displayed on the LCD display unit 6. Here, the video information is generated so that the third list is arranged at a position corresponding to the third contact position. Further, the words shown in the third list are arranged vertically so that the first character of each word is positioned on the arrangement axis of the third list that is parallel to the central axis of the input candidate array of the character list 34. It is done. Further, the distance between the central axis of the character list 34 and the arrangement axis of the third list is selectable within the range of the indirect movement of the adjacent fingers so that the distance between the central axis of the character list 34 and the arrangement axis of the third list is selectable. The character list 34 and the third list are arranged at (: 15 mm to 35 mm). For this reason, the operator touches the input candidate of the character list 34 with the middle finger, or touches the input candidate of the character list 30 with the index finger and contacts the input candidate of the character list 34 with the middle finger. Can be selected.

また、第1の実施の形態において、PDA2は、映像を表示する表示部を備える外部装置(例えば、テレビ、PC等)に対して、映像情報を出力する映像情報出力部を備えてもよい。この場合には、コントローラ4は映像情報を生成すると、映像情報出力部により外部装置に対して映像情報を出力する。外部装置は、映像情報出力部から出力された映像情報を受信すると、受信した映像情報に基づく映像を表示部に表示する。即ち、外部装置の表示部には、上述のLCD表示部6に表示される文字の入力処理に関する映像が表示される。これにより、操作者が外部装置の表示部に表示されている映像を視認しながら、タッチパネル14を用いて上述のタッチパネル14に対する接触操作を行うことにより文字の入力処理を行うことができる。   In the first embodiment, the PDA 2 may include a video information output unit that outputs video information to an external device (for example, a television, a PC, or the like) that includes a display unit that displays video. In this case, when the controller 4 generates the video information, the video information output unit outputs the video information to the external device. When the external device receives the video information output from the video information output unit, the external device displays a video based on the received video information on the display unit. That is, an image related to the character input process displayed on the LCD display unit 6 is displayed on the display unit of the external device. Thereby, the operator can perform a character input process by performing the touch operation on the touch panel 14 using the touch panel 14 while visually recognizing the video displayed on the display unit of the external device.

また、第1の実施の形態において、表示される入力候補の配列の位置、間隔及び配列の幅は、操作者により設定が可能である。初期設定画面で操作者が入力候補表示枠の長さと枠同士の距離を任意の値に設定できるようにしてもよい。また、操作者の年齢、性別、利き腕等の情報に基づいて、間隔及び幅を設定してもよいし、タッチパネル14に操作者の手の大きさを認識できる認識手段を備え、認識結果から間隔及び幅を設定するよう構成してもよい。   In the first embodiment, the position, interval, and width of the array of input candidates to be displayed can be set by the operator. On the initial setting screen, the operator may be able to set the length of the input candidate display frame and the distance between the frames to arbitrary values. Further, the interval and width may be set based on information such as the operator's age, gender, dominant arm, etc., and the touch panel 14 is provided with a recognition means capable of recognizing the size of the operator's hand. And the width may be set.

また、第1の実施の形態においては、タッチパネル14に対する操作者の接触操作を行うことにより文字の入力処理を行っているが、文字に限定せず画像、音声、音楽等の入力処理を行うようにしてもよい。この場合には、メニュー画面に表示される「文字入力モードボタン」、「画像入力モードボタン」、「音声入力モードボタン」、「音楽入力モードボタン」等の中から、タッチパネル14に対する操作者の接触操作により入力モードが選択される。   In the first embodiment, character input processing is performed by performing an operator's contact operation on the touch panel 14, but input processing for images, voice, music, etc. is not limited to characters. It may be. In this case, the operator touches the touch panel 14 from the “character input mode button”, “image input mode button”, “voice input mode button”, “music input mode button”, etc. displayed on the menu screen. The input mode is selected by the operation.

画像入力モードにおいて画像の入力を行う場合には、撮影の日付けでグループ分けされた各グループの代表の画像をサムネイル表示した画像一覧が、第1グループの入力対象として表示される。また、画像一覧の中から入力対象の画像が選択された場合には、選択された画像を代表の画像とする第2グループの画像をサムネイル表示した画像一覧が、第2グループの入力対象として表示される。従って、操作者は文字入力の場合と同様の操作で画像入力を行うことができる。更に音声、音楽等についても同様の入力操作により入力を行うことができる。   When inputting an image in the image input mode, an image list in which representative images of each group divided by shooting date are displayed as thumbnails is displayed as an input target of the first group. When an input target image is selected from the image list, an image list in which thumbnail images of the second group of images selected from the selected image are displayed as input targets of the second group. Is done. Therefore, the operator can input an image by the same operation as that for character input. Further, voice, music, etc. can be input by the same input operation.

次に、図面を参照して本発明の第2の実施の形態に係る入力装置についてHMD(Head Mounted Display)を例に説明する。図11は、第2の実施の形態に係るHMDの外観を示す斜視図である。図11に示すように、HMD40は二つの音声出力部44、46を有し、これらは連結部48で結合されている。音声出力部44、46にはそれぞれスピーカ62、64(図12参照)が収納されている。音声出力部46の外側の略中央には図示しない回転軸を介して支持アーム50が取り付けられ、支持アーム50の先端部には使用者の片眼に映像を入力することによって、映像を使用者に提供する表示部52が取り付けられている。また、音声出力部44の外側には、表示部52に表示された情報に対する入力操作を検出するタッチパネル56が設けられている。また、音声出力部44の側面には、入力文字の種類を切替える切替ボタン58が設けられている。なお、タッチパネル56は、操作者による少なくとも2点の接触の接触位置を同時に検出することが可能に構成されている。   Next, an input device according to a second embodiment of the present invention will be described with reference to the drawings, taking an HMD (Head Mounted Display) as an example. FIG. 11 is a perspective view showing the appearance of the HMD according to the second embodiment. As shown in FIG. 11, the HMD 40 has two audio output portions 44 and 46, which are connected by a connecting portion 48. Speakers 62 and 64 (see FIG. 12) are accommodated in the audio output units 44 and 46, respectively. A support arm 50 is attached to a substantially center outside the audio output unit 46 via a rotating shaft (not shown), and an image is input to the user's one eye at the tip of the support arm 50 so that the user can view the image. A display unit 52 to be provided is attached. A touch panel 56 that detects an input operation for information displayed on the display unit 52 is provided outside the audio output unit 44. In addition, a switching button 58 for switching the type of input character is provided on the side surface of the voice output unit 44. The touch panel 56 is configured to be able to simultaneously detect the contact positions of at least two points of contact by the operator.

図12は、第2の実施の形態に係るHMD40のシステム構成を示すブロック図である。図12に示すように、HMD40はコントローラ60を備え、コントローラ60には、タッチパネル56、切替ボタン58、スピーカ62,64、LCD表示部66に表示する映像情報を一時的に記憶するメモリ68、フラッシュメモリ70、表示部52に設けられたLCD表示部66の駆動を行うLCDドライバ72、表示部52の内部に設けられたバックライト80の制御を行うバックライトドライバ82が接続されている。表示部52の内部においては、画像や映像等の映像情報を電気的に表示するLCD表示部66の背面にバックライト80が配置され、バックライト80から射出された照明光を用いてLCD表示部66を照明する。LCD表示部66に表示された映像はミラー80により反射された後、接眼レンズ82によりサイズが変更され操作者の眼に入力される。   FIG. 12 is a block diagram showing a system configuration of the HMD 40 according to the second embodiment. As shown in FIG. 12, the HMD 40 includes a controller 60. The controller 60 includes a touch panel 56, a switching button 58, speakers 62 and 64, a memory 68 for temporarily storing video information to be displayed on the LCD display unit 66, and a flash. An LCD driver 72 for driving an LCD display unit 66 provided in the memory 70 and the display unit 52 and a backlight driver 82 for controlling a backlight 80 provided in the display unit 52 are connected. Inside the display unit 52, a backlight 80 is disposed on the back surface of the LCD display unit 66 that electrically displays video information such as images and videos, and the LCD display unit uses illumination light emitted from the backlight 80. 66 is illuminated. The image displayed on the LCD display unit 66 is reflected by the mirror 80, and then the size is changed by the eyepiece 82 and input to the operator's eyes.

次に第2の実施の形態に係るHMD40の文字入力処理について説明する。操作者の頭部にHMD40が装着され図示しない電源スイッチをオンにするとコントローラ60が起動し、表示部52のLCD表示部66に表示した映像を使用者の片眼に入力することによって映像を使用者に提供する。この状態において、操作者が表示部52に表示されている映像を視認しながら、タッチパネル56に対する接触操作を行うことにより文字の入力処理を行う。即ち、タッチパネル56に対する接触操作を行うことにより、コントローラ60は、第1の実施の形態に係るPDA2の文字入力処理(図2参照)と同様の文字入力処理を行う。   Next, the character input process of the HMD 40 according to the second embodiment will be described. When the HMD 40 is mounted on the operator's head and a power switch (not shown) is turned on, the controller 60 is activated, and the image displayed on the LCD display unit 66 of the display unit 52 is used by inputting the image to one eye of the user. To provide In this state, the operator performs a touch operation on the touch panel 56 while visually recognizing the video displayed on the display unit 52, thereby performing a character input process. That is, by performing a touch operation on the touch panel 56, the controller 60 performs a character input process similar to the character input process (see FIG. 2) of the PDA 2 according to the first embodiment.

本発明の第2の実施の形態に係る入力装置によれば、タッチパネルに対する操作者の複数の指による一度の入力操作により、直感的に入力文字の選択、入力文字の確定及び文字の入力処理を中止することができる。従って、入力対象の入力を行う際に効率良く入力操作を行うことができる。   According to the input device according to the second embodiment of the present invention, input character selection, input character determination, and character input processing are intuitively performed by a single input operation with a plurality of fingers of the operator on the touch panel. Can be canceled. Therefore, it is possible to efficiently perform an input operation when inputting an input target.

2…PDA、4…コントローラ、6…LCD表示部、14…タッチパネル、22…スピーカ、30,34…文字一覧、40…HMD、52…表示部、56…タッチパネル。   2 ... PDA, 4 ... controller, 6 ... LCD display unit, 14 ... touch panel, 22 ... speaker, 30, 34 ... character list, 40 ... HMD, 52 ... display unit, 56 ... touch panel.

Claims (17)

操作者による少なくとも第1の接触及び前記第1の接触に続く第2の接触の接触位置を同時に検出する接触検出部と、
前記接触検出部により前記第1の接触の接触位置が検出された場合に、第1グループの入力候補を含む映像情報を生成し、前記接触検出部により前記第2の接触の接触位置が検出された場合に、前記第1グループの入力候補において前記第1の接触の接触位置により選択されている入力候補に従属する第2グループの入力候補を含む映像情報を生成する映像情報生成部と
を備えることを特徴とする入力装置。
A contact detection unit for simultaneously detecting at least a first contact by an operator and a contact position of a second contact following the first contact;
When the contact position of the first contact is detected by the contact detection unit, video information including input candidates of the first group is generated, and the contact position of the second contact is detected by the contact detection unit. A video information generation unit that generates video information including a second group of input candidates subordinate to the input candidate selected by the contact position of the first contact in the first group of input candidates. An input device characterized by that.
前記第2グループの入力候補は、前記第2の接触の接触位置により選択されることを特徴とする請求項1記載の入力装置。 The input device according to claim 1 , wherein input candidates of the second group are selected according to a contact position of the second contact. 前記映像情報生成部は、前記第1グループの入力候補の並び方向に前記第1の接触の接触位置が移動した場合には、前記第1グループの入力候補において選択される入力候補を変更した映像情報を生成し、前記第2グループの入力候補の並び方向に前記第2の接触の接触位置が移動した場合には、前記第2グループの入力候補において選択される入力候補を変更した映像情報を生成することを特徴とする請求項2記載の入力装置。 The video information generation unit changes the input candidate selected in the input candidate of the first group when the contact position of the first contact moves in the arrangement direction of the input candidate of the first group. Information is generated, and when the contact position of the second contact moves in the arrangement direction of the input candidates of the second group, video information obtained by changing the input candidates selected in the input candidates of the second group is displayed. The input device according to claim 2 , wherein the input device is generated. 前記第1グループの入力候補の並び方向と、前記第2グループの入力候補の並び方向とは、同一であることを特徴とする請求項3記載の入力装置。 The input device according to claim 3 , wherein an arrangement direction of the input candidates of the first group and an arrangement direction of the input candidates of the second group are the same. 前記映像情報生成部は、前記第1の接触の接触位置に対応した位置に前記第1グループの入力候補を配置し、前記第2の接触の接触位置に対応した位置に前記第2グループの入力候補を配置した映像情報を生成することを特徴とする請求項1〜請求項4の何れか一項に記載の入力装置。 The video information generation unit arranges the first group input candidates at a position corresponding to the contact position of the first contact, and inputs the second group at a position corresponding to the contact position of the second contact. 5. The input device according to claim 1 , wherein video information in which candidates are arranged is generated. 前記映像情報生成部は、前記第1グループの入力候補と前記第2グループの入力候補の相対的な配置が常に等しい映像情報を生成することを特徴とする請求項1〜請求項4の何れか一項に記載の入力装置。 The image information generating unit, one of claims 1 to 4, characterized in that the relative arrangement of the input candidate in the input candidate with the second group of the first group to generate an always equal image information The input device according to one item. 前記映像情報生成部は、前記接触検出部により前記第2の接触の接触位置が検出されなくなった場合にも、前記第2グループの入力候補を含む映像情報を生成することを特徴とする請求項1〜請求項6の何れか一項に記載の入力装置。 The video information generation unit generates video information including input candidates of the second group even when the contact position of the second contact is not detected by the contact detection unit. The input device according to any one of claims 1 to 6 . 前記接触検出部による、前記第1の接触の接触位置及び前記第2の接触の接触位置の検出されなくなってからの時間を計測する計測部を備え、
前記計測部により所定時間が計測されたときに、前記第1の接触の接触位置及び前記第2の接触の接触位置により選択されていた入力候補を入力対象として確定することを特徴とする請求項1〜請求項7の何れか一項に記載の入力装置。
A measuring unit for measuring a time after the contact position of the first contact and the contact position of the second contact are not detected by the contact detection unit;
The input candidate selected by the contact position of the first contact and the contact position of the second contact is determined as an input target when a predetermined time is measured by the measurement unit. The input device according to any one of claims 1 to 7 .
前記接触検出部により、前記第2の接触に続く第3の接触の接触位置が検出されたときに、前記第1の接触の接触位置及び前記第2の接触の接触位置により選択されていた入力候補が入力対象として確定されることを特徴とする請求項1〜請求項7の何れか一項に記載の入力装置。 The input selected by the contact position of the first contact and the contact position of the second contact when the contact position of the third contact following the second contact is detected by the contact detection unit. The input device according to claim 1, wherein a candidate is determined as an input target. 前記接触検出部により、前記第1の接触の接触位置を検出した後に、前記第2の接触の接触位置を検出する前に、前記第1の接触の接触位置が検出されなくなった場合には、入力対象の確定が行われないことを特徴とする請求項1〜請求項9の何れか一項に記載の入力装置。 If the contact position of the first contact is not detected before the contact position of the second contact is detected after the contact detection unit detects the contact position of the first contact, The input device according to any one of claims 1 to 9, wherein an input target is not confirmed. 入力検出部を更に備え、
前記入力検出部により入力が検出された場合に、前記第1グループの入力候補及び前記第2グループの入力候補の選択により入力される入力対象を、他の種類の入力対象に変更することを特徴とする請求項1〜請求項10の何れか一項に記載の入力装置。
An input detection unit;
When an input is detected by the input detection unit, the input target input by selecting the input candidate of the first group and the input candidate of the second group is changed to another type of input target. The input device according to any one of claims 1 to 10 .
前記接触検出部により、前記第2の接触に続く第3の接触の接触位置が検出されたときに、前記第1グループの入力候補及び前記第2グループの入力候補の選択により入力される入力対象を、他の種類の入力対象に変更することを特徴とする請求項1〜請求項8の何れか一項に記載の入力装置。 By the contact detection unit, when the contact position of the second third following the contact of contact is detected, input by selection of the input candidate in the input candidate及beauty before Symbol second group of said first group The input device according to claim 1, wherein the input target is changed to another type of input target. 前記映像情報生成部により生成された映像情報を表示する表示部を備えることを特徴とする請求項1〜請求項12の何れか一項に記載の入力装置。 The input device according to claim 1, further comprising a display unit that displays the video information generated by the video information generation unit. 前記第1グループの入力候補は文字の一覧であり、前記第2グループの入力候補は、前記第1グループの文字の一覧から前記第1の接触の接触位置により選択されている文字に従属する文字の一覧であることを特徴とする請求項1〜請求項13の何れか一項に記載の入力装置。 The input candidate of the first group is a list of characters, and the input candidate of the second group is a character subordinate to a character selected by the contact position of the first contact from the list of characters of the first group. The input device according to claim 1, wherein the input device is a list. 第1接触位置と第2接触位置とを検出する検出部と、A detection unit for detecting the first contact position and the second contact position;
前記検出部により前記第1接触位置が検出された場合、第1入力候補を含む映像を表示部に表示させ、前記第1接触位置と前記第2接触位置とが前記検出部によって検出された場合、前記第1入力候補のうち、前記第1接触位置に対応する入力候補に従属する第2入力候補を含む映像を表示部に表示させる制御部とWhen the first contact position is detected by the detection unit, an image including a first input candidate is displayed on the display unit, and the first contact position and the second contact position are detected by the detection unit. A control unit that causes the display unit to display a video including a second input candidate subordinate to the input candidate corresponding to the first contact position among the first input candidates;
を備えることを特徴とする入力装置。An input device comprising:
前記制御部は、前記第1接触位置に対応した位置に前記第1入力候補を含む映像を前記表示部に表示させ、前記第2接触位置に対応した位置に前記第2入力候補を含む前記映像を前記表示部に表示させることを特徴とする請求項15記載の入力装置。The control unit causes the display unit to display an image including the first input candidate at a position corresponding to the first contact position, and includes the second input candidate at a position corresponding to the second contact position. The input device according to claim 15, wherein: is displayed on the display unit. 前記制御部によって前記第1入力候補を含む映像と前記第2入力候補を含む映像とを表示する表示部を備えることを特徴とする請求項15または請求項16記載の入力装置。17. The input device according to claim 15, further comprising: a display unit configured to display a video including the first input candidate and a video including the second input candidate by the control unit.
JP2010151092A 2010-07-01 2010-07-01 Input device Expired - Fee Related JP5477203B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010151092A JP5477203B2 (en) 2010-07-01 2010-07-01 Input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010151092A JP5477203B2 (en) 2010-07-01 2010-07-01 Input device

Publications (2)

Publication Number Publication Date
JP2012014508A JP2012014508A (en) 2012-01-19
JP5477203B2 true JP5477203B2 (en) 2014-04-23

Family

ID=45600842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010151092A Expired - Fee Related JP5477203B2 (en) 2010-07-01 2010-07-01 Input device

Country Status (1)

Country Link
JP (1) JP5477203B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5630160B2 (en) * 2010-09-07 2014-11-26 ソニー株式会社 Information processing apparatus, information processing method, and computer program
JP5915282B2 (en) * 2012-03-14 2016-05-11 オムロン株式会社 Character input program and character input device
JP5994374B2 (en) * 2012-05-09 2016-09-21 富士ゼロックス株式会社 Character processing apparatus and program
JP5857011B2 (en) * 2013-08-23 2016-02-10 東芝テック株式会社 Order receiving apparatus and control program
JP6477800B2 (en) 2017-08-02 2019-03-06 三菱マテリアル株式会社 heatsink

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06202784A (en) * 1992-12-29 1994-07-22 Casio Comput Co Ltd Character inputting device
JP2008009856A (en) * 2006-06-30 2008-01-17 Victor Co Of Japan Ltd Input device

Also Published As

Publication number Publication date
JP2012014508A (en) 2012-01-19

Similar Documents

Publication Publication Date Title
US9830071B1 (en) Text-entry for a computing device
US10412334B2 (en) System with touch screen displays and head-mounted displays
KR101695174B1 (en) Ergonomic motion detection for receiving character input to electronic devices
US20130212515A1 (en) User interface for text input
US10514796B2 (en) Electronic apparatus
WO2013175819A1 (en) Video display device and video operation method
JP5477203B2 (en) Input device
JP2010145861A (en) Head mount display
JP2014052852A (en) Information processor
JP2009169456A (en) Electronic equipment, information input method and information input control program used for same electronic equipment, and portable terminal device
JP5556398B2 (en) Information processing apparatus, information processing method, and program
JP2014142882A (en) Line of sight input device
JP2011227854A (en) Information display device
JP2015035134A (en) Input device
JP2019175449A (en) Information processing apparatus, information processing system, movable body, information processing method, and program
US11360662B2 (en) Accommodative user interface for handheld electronic devices
US9671881B2 (en) Electronic device, operation control method and recording medium
US12032754B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP2009099057A (en) Mobile terminal and character input method
JP2012194626A (en) Display device
JP2021018551A (en) Information apparatus, automatic setting method, and automatic setting program
KR100667848B1 (en) Input device and method by detecting inclination
JP5713401B2 (en) User interface device for generating projected image signal for pointer projection, image projection method and program
JP2007122287A (en) Information processor, hierarchical information output method, and program
KR20120068259A (en) Method and apparatus for inpputing character using touch input

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140127

R150 Certificate of patent or registration of utility model

Ref document number: 5477203

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees