JP5062898B2 - User interface device - Google Patents
User interface device Download PDFInfo
- Publication number
- JP5062898B2 JP5062898B2 JP2008167796A JP2008167796A JP5062898B2 JP 5062898 B2 JP5062898 B2 JP 5062898B2 JP 2008167796 A JP2008167796 A JP 2008167796A JP 2008167796 A JP2008167796 A JP 2008167796A JP 5062898 B2 JP5062898 B2 JP 5062898B2
- Authority
- JP
- Japan
- Prior art keywords
- gui
- fingertip
- unit
- image
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Description
本発明は、コンピュータ装置等に対し、実行すべき機能をユーザが指定可能なユーザインタフェイス装置に関し、より特定的には、手の動きに応じて各機能を指先に割り当て、指先への各機能の割り当てを操作者が直感的に把握できるユーザインタフェイス装置に関するものである。 The present invention relates to a user interface device that allows a user to specify a function to be executed with respect to a computer device or the like, and more specifically, assigns each function to a fingertip according to the movement of the hand, and each function to the fingertip. It is related with the user interface apparatus which an operator can grasp | ascertain the allocation of this.
情報機器端末が多機能化するに従って、より使い勝手の良いユーザインタフェイスが求められている。使いやすいユーザインタフェイスの一例として、タッチパネルディスプレイがある。このタッチパネルディスプレイは、ディスプレイに表示されているGUI(Graphical User Interface)を押す操作をすることで、命令や情報を入力することができ、初心者にとっても直感的なユーザインタフェイス装置である。しかし、タッチパネルディスプレイでは、ユーザの指の接触位置を検知するタッチパネルと、ディスプレイが一体になっているため、ディスプレイが手元にないと操作を実行できないという課題があった。 As information equipment terminals become more multifunctional, user interfaces that are easier to use are required. An example of a user interface that is easy to use is a touch panel display. This touch panel display is an intuitive user interface device that can be used to input commands and information by pressing a GUI (Graphical User Interface) displayed on the display, and is intuitive for beginners. However, in the touch panel display, since the touch panel for detecting the contact position of the user's finger and the display are integrated, there is a problem that the operation cannot be executed unless the display is at hand.
この課題を解決するため、タッチパネルとディスプレイを分離し、タッチパネル上のユーザの手を、ディスプレイに表示されるGUIに重畳表示することで、ディスプレイから離れた位置からでも直感的な操作感を維持したユーザインタフェイス装置が開発されている(例えば、特許文献1を参照)。 In order to solve this problem, the touch panel and the display are separated, and the user's hand on the touch panel is superimposed on the GUI displayed on the display, thereby maintaining an intuitive operational feeling even from a position away from the display. User interface devices have been developed (see, for example, Patent Document 1).
特許文献1には、指先の位置を表す座標群それぞれに対し、GUI部品が一意に関連づけられた、GUI画像を作成するユーザインタフェイスシステムが開示されている。これにより、それぞれの指先に関連づけられた機能が明確になり、どのような機能が実現可能であるのかを視認可能にユーザに提示でき、より使い勝手の良いユーザインタフェイスシステムを提供することができる。
しかし、前記の構成では、GUI部品とそれぞれの指先が、一意に関連づけられているため、同一の場面で実行できる機能はその場面で使用できる指の本数に限定される。そのため、更に多くの機能が実現可能であることを視認可能に提示することができない。 However, in the above configuration, since the GUI component and each fingertip are uniquely associated, the functions that can be executed in the same scene are limited to the number of fingers that can be used in that scene. For this reason, it cannot be presented in a visible manner that more functions can be realized.
本発明は、前記従来の課題を解決するもので、使用できる指の本数に限定されずに、多数の機能が実現可能であることを視認可能に提示できるユーザインタフェイス装置を提供することを目的とする。 The present invention solves the above-described conventional problems, and an object thereof is to provide a user interface device capable of visually presenting that a large number of functions can be realized without being limited to the number of usable fingers. And
上記目的を達成するために、本発明のユーザインタフェイス装置は、機器を操作するためのユーザインタフェイス装置であって、操作者の手形状を取得する手形状取得部と、取得した手形状の指先位置を検出する指先位置検出部と、機器を操作するための機能に対して一意に割り当てられたGUI(Graphical User Interface)部品を表すGUI部品データを記憶するGUI部品データ記憶部と、手形状取得部が取得した手形状の各指先位置にGUI部品データ記憶部から読み出したGUI部品データを割り当てるGUI部品割り当て部と、GUI部品割り当て部が割り当てたGUI部品の画像と手形状の画像との合成画像を作成する重畳表示映像作成部と、重畳表示映像作成部が作成した合成画像を表示する表示部とを備え、表示部に表示される手形状の画像の手首から中指の指先に向う方向にほぼ等しい表示部の縦方向をY軸方向とし、Y軸方向に直交する表示部の横方向をX軸方向とすると、GUI部品割り当て部は、前記手形状の少なくとも1本の指に対して複数のGUI部品を指先位置からY軸方向に所定のオフセット値を持たせて割り当て、重畳表示映像作成部は、指先位置のX軸方向の動きに対してはGUI部品の画像を各指先位置に追従させ、指先位置のY軸方向の動きに対してはGUI部品の画像を動かさずに手形状の画像との合成画像を作成することを特徴とする。 In order to achieve the above object, a user interface device of the present invention is a user interface device for operating a device, and includes a hand shape acquisition unit that acquires the hand shape of an operator, and the acquired hand shape. A fingertip position detection unit for detecting a fingertip position; a GUI part data storage unit for storing GUI part data representing a GUI (Graphical User Interface) part uniquely assigned to a function for operating the device; and a hand shape A GUI component allocation unit that allocates GUI component data read from the GUI component data storage unit to each fingertip position of the hand shape acquired by the acquisition unit, and a combination of the GUI component image allocated by the GUI component allocation unit and the hand shape image A superimposed display video creation unit that creates an image and a display unit that displays a composite image created by the superimposed display video creation unit The provided, the longitudinal direction of substantially equal display unit in a direction toward the fingertips of the middle finger from the wrist of the image of the hand shape is displayed on the display unit and the Y-axis direction, X-axis lateral of the display unit that is orthogonal to the Y-axis direction If the direction, the GUI component allocation unit allocates a plurality of GUI components to the at least one finger of the hand shape with a predetermined offset value in the Y-axis direction from the fingertip position, and the superimposed display image creation unit The image of the GUI part follows the fingertip position for the movement of the fingertip position in the X-axis direction, and the image of the hand shape without moving the image of the GUI part for the movement of the fingertip position in the Y-axis direction. A composite image is created.
本発明のユーザインタフェイス装置によれば、使用できる指の本数に限定されずに、多数の機能が実現可能であることを視認可能に提示することができる。これにより、より使い勝手の良いユーザインタフェイス装置を提供することができる。 According to the user interface device of the present invention, it is possible to visually indicate that a large number of functions can be realized without being limited to the number of fingers that can be used. As a result, a user interface device that is easier to use can be provided.
以下、本発明の実施の形態にかかるユーザインタフェイス装置について図面を用いて説明する。
(実施の形態1)
図1は本実施の形態におけるユーザインタフェイス装置100の構成を説明するための概念図である。図1において、ユーザインタフェイス装置100は、接触位置検出部110、コンピュータ120、ディスプレイ130から構成される。
Hereinafter, a user interface device according to an embodiment of the present invention will be described with reference to the drawings.
(Embodiment 1)
FIG. 1 is a conceptual diagram for explaining a configuration of a
接触位置検出部110は、代表的には複数の接触点を検知することができるタッチパッドからなる。タッチパッドの検知方式には、静電容量方式、感圧方式、抵抗膜方式などが存在するが、どの方式を選択するかは問わない。また、接触位置検出部110は、上部または下部に設置された、単独または複数のカメラであってもよい。カメラの検知対象としては、可視光、赤外線、超音波などが存在するが、どの検知方式を選択するかは問わない。操作者は、接触位置検出部110上に自身の手111を置き、ユーザインタフェイス装置100の操作を行う。
The contact
コンピュータ120は、接触位置検出部110からの信号を入力するインタフェイスと、CPUまたはMPU、ROM、RAM、各モジュール間を結ぶバスと、映像出力インタフェイスからなる。コンピュータ120は、パーソナルコンピュータ(以下PC)でもよいし、専用機であってもよい。コンピュータ120は、接触位置検出部110において取得した接触位置情報122を入力とし、RAM121に記憶した手形状モデルを変形して操作者の手形状画像123を作成する。ここで、接触位置検出部110にカメラを用いた場合には、カメラで取得した画像を手形状画像123としてもよい。RAM121には、機器を操作するための機能に対して一意に割り当てられたGUI部品を表すGUI部品データが記憶されている。コンピュータ120は、手形状画像の各指に割り当てられる機能に対応するGUI部品データをRAM121から読み出し、操作者の手形状画像123の各指にGUI部品の画像を重畳させた合成画像131を作成し、ディスプレイ130に出力する。
The
ディスプレイ130は、コンピュータ120が生成した合成画像131を表示する装置である。ディスプレイの方式には液晶、ELなどが存在するが、どの方式を選択するかは問わない。操作者はディスプレイ130の合成画像131の映像を見ながら接触位置検出部110上の手111を動かすことで入力操作を行う。
The
次に、接触位置検出部110が複数の接触点を検知することができるタッチパッドである場合において、タッチパッドが出力するデータについて図2を用いて説明する。複数の点を検出するタッチパッドの方式は、主に2つの方式に大別される。第1の方式は、図2(a)に示すように、個別に接触の有無を検知する素子や電極が全面に配置され、指などの接触を領域201として判定するものであり、発光部となる液晶のセルと共にイメージセンサを並べたものがある。第2の方式は、図2(b)に示すように、縦および横方向の直線上に接触物の存在を検知する素子や電極が配置され、指などの接触領域を2つの方向の検知結果202の交わり203として検知する方式である。
Next, when the touch
次に、図3を用いて、接触位置検出部110が下部に設置された単独のカメラである場合における設置方法の一例を説明する。図3(a)は接触位置検出部110を操作面に垂直な面で切ったときの断面図を表しており、操作面301の下部に、発光部302およびカメラ303が設置されている。発光部302およびカメラ303が関わる波長帯は可視光でも良いが、外光の影響を最小限にするために近赤外線または遠赤外線とすることもできる。ユーザが操作面301の上部に手304を置くと、発光部302から出た光は手304で反射してカメラ303で撮像される。これにより、図3(b)のような手形状画像305を検出することができる。なお、手304に当たる光の照度がカメラで撮像するのに十分な場合には、発光部302は無くても構わない。また、発光部302およびカメラ303は、操作面301およびユーザの手304の上部にあって、上部より操作面301を撮像する構成であっても構わず、カメラも単独ではなく複数台であってもよい。
Next, an example of an installation method in the case where the contact
次に、図4を用いて、本実施の形態におけるコンピュータ120の動作フローを説明する。
まず、コンピュータ120は接触位置検出部110より接触位置座標を入力する(ステップS401)。次に、入力した指先座標に基づいてモード遷移を行う(ステップS402)。次に、ユーザの指先座標およびモードに基づいて、フリック(操作面上で指をはじく様な操作)、タップの操作が行われたか検出を行う(ステップS403)。次に、検出結果に基づいて描画情報の作成を行い、ディスプレイ130に出力する(ステップS404)。更に、ユーザが所望する機能の実行を行う(ステップS405)。以上の動作を、特定の時間(例えば、10ミリ秒)ごとに繰り返して行う。
Next, the operation flow of the
First, the
次に、図5を用いて接触位置検出部110が複数の接触点を検知することができるタッチパッドである場合における、ステップS401の詳細動作フローを説明する。
まず、コンピュータ120は、接触位置検出部110から接触領域のデータを入力する。次に、接触領域の面積が所定値より小さいものをノイズと見なしカットする(ステップS501)。残ったものを接触領域として認識する(ステップS502)。次に、認識した各接触領域について、重心位置を求める(ステップS503)。次に、各重心位置を横方向にソートする(ステップS504)。例えば、横方向にソートした重心位置の右から順に、認識した各接触領域について指先1・指先2・・・と名前付けを行う。次に、ソートされた重心位置を指先座標としてRAM121に格納する(ステップS505)。
Next, a detailed operation flow of step S401 when the contact
First, the
次に、図6を用いて、接触位置検出部110が上部または下部に設置された単独または複数のカメラである場合における、ステップS401の詳細動作フローを説明する。
まず、コンピュータ120は、カメラから撮像データを入力する。次に、所定の値を閾値として二値化処理を行う。次に、二値化画像の各領域について、面積が所定値より小さいものをノイズと見なしカットする(ステップS601)。残ったものを手の領域として認識する(ステップS602)。次に、認識された手の領域について画像認識により指先座標を特定する(ステップS603)。次に、各指先位置を横方向にソートする(ステップS604)。例えば、横方向にソートした指先位置の右から順に、認識した各指先位置について指先1・指先2・・・と名前付けを行う。次に、ソートされた指先位置を指先座標としてRAM121に格納する(ステップS605)。
Next, a detailed operation flow in step S401 when the contact
First, the
次に、図7を用いて、ステップS402の詳細動作フローを説明する。
まず、コンピュータ120は入力した指先座標に基づいて、指先ボタンモードに遷移するトリガーを検出したかどうかを判定する(ステップS701)。ここでのトリガーの選択は任意である。例えば、画面上に表示されたボタンに対応する位置がタップされた、あるいは定められたルールにのっとった軌跡を描くように操作面が指でなぞられた等をトリガーとして検出する。次に、トリガーが検出されたと判定された場合、指先ボタンモードに遷移する(ステップS702)。トリガーが検出されていない場合は、何もせずにステップS402の処理を終了する。
Next, the detailed operation flow of step S402 will be described with reference to FIG.
First, the
次に、図8を用いて、ステップS404の詳細動作フローを説明する。
まず、コンピュータ120は、指先ボタンモードに遷移した場合、GUI部品の情報をオフセット情報と共に読み出す(ステップS801)。このGUI部品の情報とオフセット情報の構成については後述する。次に、GUI部品に対応する指先座標を参照する(ステップS802)。次に、各指先座標に対し、ステップS801で読み込んだGUI部品のオフセット情報を加味した位置を計算し、その位置にGUI部品を描画する命令群を生成する(ステップS803)。ここでは、命令を描画キューにセットするだけで実際の描画は行わない。最後に、必要なGUI部品の描画処理が終わったかどうかをチェックする(ステップS804)。終わっていない場合には、ステップS801に戻り、残りのGUI部品の描画を行う。必要なGUI部品を手形状画像に重畳させた描画処理が終わった場合は、ステップS404の処理を終了する。
Next, the detailed operation flow of step S404 will be described with reference to FIG.
First, when the
次に、図9を用いて、ステップS801で読み出されるオフセット情報付きGUI部品データのフォーマットの一例を説明する。
図9の表の1行目は、GUI部品IDである。各部品に固有の値が割り当てられる。2行目は、GUI部品の種別を表す番号または文字列であり、例えばコマンドボタン、トグルスイッチ、チェックボックスなど表示形態の種類を表す値が割り当てられる。3行目は形状データであり、長方形などの大きさ、ポリゴンなどの形状を表す値が割り当てられる。4行目は色、テキスチャデータであり、GUI部品の表面に貼られるビットマップデータおよび塗りつぶしや枠線に用いられる色に関するデータである。5行目は、テキストデータであり、コマンドボタンやトグルスイッチ等の表面にラベルとして記される文字列が割り当てられる。6行目は、実行コマンドでありGUI部品が選択されたときに実行すべきコマンドのIDが割り当てられる。7行目は、対応する指であり、GUI部品が追従するべき指の識別(親指、人差し指など)が格納される。8行目は、指先座標からの縦方向(Y軸方向)オフセットであり、モード遷移時の指先座標から、GUI部品を表示するべき位置(典型的には中心位置)までのオフセット値である。
Next, an example of the format of the GUI component data with offset information read in step S801 will be described with reference to FIG.
The first row of the table in FIG. 9 is the GUI component ID. A unique value is assigned to each part. The second line is a number or character string that represents the type of GUI component, and is assigned a value that represents the type of display form, such as a command button, toggle switch, or check box. The third line is shape data, and a value representing a size such as a rectangle and a shape such as a polygon is assigned. The fourth line is color and texture data, which is bitmap data pasted on the surface of the GUI component and data related to colors used for painting and frame lines. The fifth line is text data, and a character string described as a label is assigned to the surface of a command button, toggle switch, or the like. The sixth line is an execution command, and an ID of a command to be executed when a GUI component is selected is assigned. The seventh line is a corresponding finger, and the identification (thumb, index finger, etc.) of the finger to be followed by the GUI component is stored. The eighth line is a vertical direction (Y-axis direction) offset from the fingertip coordinates, and is an offset value from the fingertip coordinates at the time of mode transition to the position (typically the center position) at which the GUI component is to be displayed.
例えば、対応する指が中指でありオフセット値が+10であるとする。モード遷移時の中指の座標が画面座標系で (x,y)=(30,80) であった場合、モード遷移時にGUI部品を表示するべき位置は、縦方向であるy座標にオフセット値を加えて、(30,90)となる。この場合、指先の位置の上部に該当するGUI部品が描画されることになる。 For example, it is assumed that the corresponding finger is a middle finger and the offset value is +10. When the coordinate of the middle finger at the time of the mode transition is (x, y) = (30, 80) in the screen coordinate system, the position where the GUI component is to be displayed at the time of the mode transition is set to the offset value in the vertical y coordinate. In addition, (30, 90) is obtained. In this case, the GUI component corresponding to the upper part of the fingertip position is drawn.
次に、手形状画像にGUI部品を重畳して合成画像を作成する処理が終わり、2回目以降にユーザが操作面上の手を動かした場合の処理について、図10のフローチャートを用いて説明する。図10は、2回目以降の処理であって、図8のステップS404のフローチャートに変えて行われる。なお、図8と同じ処理については同じステップ番号を付してその説明を省略する。図8と異なるところは、ステップS1001およびS1002の処理が追加されている点である。図8の1回目の描画処理で、ディスプレイ上には既に手形状画像にGUI部品を重畳した合成画像が表示されている。ここで、コンピュータ120は、RAM121に保存されている最新の指先座標のY座標と前回のY座標を比較して、所定値以上変化しているかを調べ、所定値以上変化していると判断すると(ステップS1001でYes)、ステップS1002に進み、指先座標を前回の指先座標にする。
Next, a process when the process of creating a composite image by superimposing a GUI part on a hand shape image is completed will be described with reference to the flowchart of FIG. . FIG. 10 shows the second and subsequent processing, which is performed in place of the flowchart of step S404 in FIG. Note that the same processes as those in FIG. 8 are denoted by the same step numbers and description thereof is omitted. The difference from FIG. 8 is that the processes of steps S1001 and S1002 are added. In the first drawing process of FIG. 8, a composite image in which a GUI part is superimposed on the hand shape image is already displayed on the display. Here, the
すなわち、ユーザが手をX軸方向に動かした場合には、最新の指先座標を用いてステップS801〜S804の処理が行われ、GUI部品が手形状画像の指先の動きに追従して動く。ユーザが指を曲げたり伸ばしたりすることで指先座標のY座標が変化した場合には、前回の指先座標でステップS801〜S804の描画処理が実行されるため、GUI部品は指先の動きに追従して動かない。 That is, when the user moves the hand in the X-axis direction, the processing of steps S801 to S804 is performed using the latest fingertip coordinates, and the GUI component moves following the movement of the fingertip of the hand shape image. When the Y-coordinate of the fingertip coordinate changes as the user bends or stretches the finger, the drawing process in steps S801 to S804 is executed with the previous fingertip coordinate, so the GUI component follows the movement of the fingertip. Does not move.
次に、図11、12を用いて、ステップS404で描画される画面の一例を説明する。
図11は、指先ボタンモード遷移時に十字カーソルキーを表示する例である。図11において、薬指の指先座標1102、中指の指先座標1103、人差し指の指先座標1104に対応する位置に、左キー1105、決定キー1106、右キー1107を描画する。これらのボタンには図9におけるオフセット値が設定されていない。一方、上キー1108は、中指の指先座標1103の上部に描画される。これは、上キー1108にあたるGUI部品にオフセット値が設定されているためである。同様に、下キー1109は、オフセット値に従って中指の指先座標1103の下部に描画される。この結果、中指には3つの機能が割り当てられたことになる。
Next, an example of the screen drawn in step S404 will be described with reference to FIGS.
FIG. 11 is an example in which a cross cursor key is displayed at the time of fingertip button mode transition. In FIG. 11, a left key 1105, a
ここで、ユーザが上キー1108を選択したい場合には、モード遷移時の位置よりも中指を伸ばして上方でタップすることにより上キー1108を選択することができる。指を伸ばすと指先座標が上方(Y軸正方向)にずれるが、指のY軸方向の動きに対しては割り当てられたGUI部品の位置は動かない。そのため、中指を伸ばして上方でタップすることにより上キー1108を選択することができる。 If the user wants to select the upper key 1108, the upper key 1108 can be selected by extending the middle finger and tapping upward from the position at the time of mode transition. When the finger is extended, the fingertip coordinates are shifted upward (Y-axis positive direction), but the position of the assigned GUI component does not move with respect to the movement of the finger in the Y-axis direction. Therefore, the upper key 1108 can be selected by extending the middle finger and tapping upward.
また、ユーザが下キー1109を選択したい場合には、モード遷移時の位置よりも中指を曲げて下方でタップすることにより下キー1109を選択することができる。指を曲げると指先座標が下方(Y軸正方向)にずれるが、上記同様に指のY軸方向の動きに対しては割り当てられたGUI部品の位置は動かない。そのため、中指を曲げて下方でタップすることにより下キー1109を選択することができる。 When the user wants to select the lower key 1109, the lower key 1109 can be selected by bending the middle finger and tapping downward from the position at the time of mode transition. When the finger is bent, the fingertip coordinates are shifted downward (Y-axis positive direction), but the position of the assigned GUI component does not move with respect to the movement of the finger in the Y-axis direction as described above. Therefore, the lower key 1109 can be selected by bending the middle finger and tapping downward.
Y軸方向は手首から中指の指先に向う方向にほぼ等しく、指を曲げたり伸ばしたりすることで上記の様に、所望のGUI部品を容易に選択することができる。 The Y-axis direction is substantially equal to the direction from the wrist toward the fingertip of the middle finger, and a desired GUI component can be easily selected as described above by bending or stretching the finger.
このように十字カーソルキーを表すGUI部品を各指先に割り当て、特に中指に3つのGUI部品を割り当てることによって、十字カーソルキーが示す各方向とボタンの位置が一致しているため、ユーザはより直感的な操作によってこれらのキーを選択することができる。 In this way, by assigning a GUI part representing the cross cursor key to each fingertip, and particularly by assigning three GUI parts to the middle finger, each direction indicated by the cross cursor key matches the position of the button. These keys can be selected by a typical operation.
図12は、モード遷移時の指先位置より手が右に移動した場合の表示画面の例である。各GUI部品には、表示される絶対座標ではなく指先からの縦方向(Y軸方向)のオフセット値が設定されているため、各GUI部品は横方向(X軸方向)の手の動きに追従して動く。これにより、モード遷移時からユーザの手が意図せぬ動きにより(例えば、振動環境下で手がぶれたなど)横方向(X軸方向)に動いても、ボタンが追従するので継続して操作を行うことができる。 FIG. 12 is an example of a display screen when the hand moves to the right from the fingertip position at the time of mode transition. Since each GUI component is set with an offset value in the vertical direction (Y-axis direction) from the fingertip, not in the absolute coordinates to be displayed, each GUI component follows the movement of the hand in the horizontal direction (X-axis direction). And move. As a result, even if the user's hand moves unintentionally from the time of mode transition (for example, when the hand shakes in a vibrating environment), the button will follow and the button will continue to operate. It can be performed.
次に、図13を用いて、本実施の形態で表示される画面の一例を説明する。
図13は、携帯電話などに搭載されているテンキーを各指に複数個ずつ割り当てた例である。このように、各指に複数個のボタンをオフセット値つきで割り当てることによって、指の本数以上の機能を実行できるようにすることができる。各指の機能の割り当ても、指を曲げる、伸ばすによって区分されるため、押し分けが容易であり、慣れればブラインド操作も可能となる。
Next, an example of a screen displayed in the present embodiment will be described with reference to FIG.
FIG. 13 shows an example in which a plurality of numeric keys mounted on a mobile phone or the like are assigned to each finger. In this way, by assigning a plurality of buttons with offset values to each finger, it is possible to execute functions that are more than the number of fingers. Since the assignment of the function of each finger is also divided by bending or extending the finger, it is easy to push the finger, and a blind operation is also possible when used.
次に、図14、15を用いて、ユーザインタフェイス装置が車内に設置される場所の一例を説明する。
図14は、センタコンソール上に設置された場合を示す。ディスプレイ1401に対しタッチパッド1402をセンタコンソールに設置することによって、遠くの画面を見ながら手元で操作をすることができる。図15は、タッチパッド1502をハンドル上に設置した場合を示す。ハンドル1503の中央部にタッチパッド1502を設置することにより、図14と同様に、遠くの画面を見ながら手元で操作をすることができる。いずれの場合も、図13のような表示を行うことによって、多数の機能をブラインド操作で起動することが可能となる。
Next, an example of a place where the user interface device is installed in the vehicle will be described with reference to FIGS.
FIG. 14 shows a case where it is installed on the center console. By installing the
本発明のユーザインタフェイス装置によれば、使用できる指の本数に限定されずに、多数の機能が実現可能であることを視認可能に提示することができるため、カーナビゲーション装置等の車載機器の入力装置等に利用することができる。 According to the user interface device of the present invention, it is possible to visually indicate that a large number of functions can be realized without being limited to the number of fingers that can be used. It can be used for input devices.
100 ユーザインタフェイス装置
110 接触位置検出部
111、304 手
120 コンピュータ
121 RAM
122 接触位置情報
123、305、1101、1211 手形状画像
130、1401、1501 ディスプレイ
100
122
Claims (1)
操作者の手形状を取得する手形状取得部と、
前記取得した手形状の指先位置を検出する指先位置検出部と、
前記機器を操作するための機能に対して一意に割り当てられたGUI(Graphical User Interface)部品を表すGUI部品データを記憶するGUI部品データ記憶部と、
前記手形状取得部が取得した手形状の各指先位置にGUI部品データ記憶部から読み出したGUI部品データを割り当てるGUI部品割り当て部と、
前記GUI部品割り当て部が割り当てたGUI部品の画像と手形状の画像との合成画像を作成する重畳表示映像作成部と、
前記重畳表示映像作成部が作成した合成画像を表示する表示部とを備え、
前記表示部に表示される手形状の画像の手首から中指の指先に向う方向にほぼ等しい前記表示部の縦方向をY軸方向とし、前記Y軸方向に直交する前記表示部の横方向をX軸方向とすると、
前記GUI部品割り当て部は、前記手形状の少なくとも1本の指に対して複数のGUI部品を前記指先位置からY軸方向に所定のオフセット値を持たせて割り当て、
前記重畳表示映像作成部は、前記指先位置のX軸方向の動きに対しては前記GUI部品の画像を各指先位置に追従させ、前記指先位置のY軸方向の動きに対しては前記GUI部品の画像を動かさずに手形状の画像との合成画像を作成することを特徴とする、ユーザインタフェイス装置。 A user interface device for operating a device,
A hand shape acquisition unit for acquiring the hand shape of the operator;
A fingertip position detector that detects the fingertip position of the acquired hand shape;
A GUI part data storage unit for storing GUI part data representing a GUI (Graphical User Interface) part uniquely assigned to the function for operating the device;
A GUI component allocation unit that allocates GUI component data read from the GUI component data storage unit to each fingertip position of the hand shape acquired by the hand shape acquisition unit;
A superimposed display video creation unit that creates a composite image of a GUI part image and a hand-shaped image assigned by the GUI part assignment unit;
A display unit for displaying the composite image created by the superimposed display video creation unit,
The vertical direction of the display unit, which is substantially equal to the direction from the wrist of the hand-shaped image displayed on the display unit toward the fingertip of the middle finger, is the Y-axis direction, and the horizontal direction of the display unit orthogonal to the Y-axis direction is X Axis direction
The GUI component allocating unit allocates a plurality of GUI components to at least one finger of the hand shape with a predetermined offset value in the Y-axis direction from the fingertip position,
The superimposed display video creation unit causes the image of the GUI component to follow each fingertip position with respect to the movement of the fingertip position in the X-axis direction, and the GUI component with respect to the movement of the fingertip position in the Y-axis direction. A user interface device, wherein a composite image with a hand-shaped image is created without moving the image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008167796A JP5062898B2 (en) | 2008-06-26 | 2008-06-26 | User interface device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008167796A JP5062898B2 (en) | 2008-06-26 | 2008-06-26 | User interface device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010009311A JP2010009311A (en) | 2010-01-14 |
JP5062898B2 true JP5062898B2 (en) | 2012-10-31 |
Family
ID=41589730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008167796A Expired - Fee Related JP5062898B2 (en) | 2008-06-26 | 2008-06-26 | User interface device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5062898B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5631700B2 (en) * | 2010-11-09 | 2014-11-26 | 株式会社竹中工務店 | Shadow image display system, shadow image display method, and shadow image display program |
JP6167932B2 (en) * | 2014-02-20 | 2017-07-26 | トヨタ自動車株式会社 | Input device and input acquisition method |
JP2015172799A (en) * | 2014-03-11 | 2015-10-01 | アルプス電気株式会社 | touch operation input device |
CN111104821A (en) * | 2018-10-25 | 2020-05-05 | 北京微播视界科技有限公司 | Image generation method and device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5764222A (en) * | 1996-05-28 | 1998-06-09 | International Business Machines Corporation | Virtual pointing device for touchscreens |
JP4071550B2 (en) * | 2002-06-05 | 2008-04-02 | 一好 小谷 | Virtual key arrangement method in virtual key one-handed input device |
EP1865404A4 (en) * | 2005-03-28 | 2012-09-05 | Panasonic Corp | User interface system |
-
2008
- 2008-06-26 JP JP2008167796A patent/JP5062898B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010009311A (en) | 2010-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11093086B2 (en) | Method and apparatus for data entry input | |
JP5179378B2 (en) | User interface device | |
US7810050B2 (en) | User interface system | |
CN108700957B (en) | Electronic system and method for text entry in a virtual environment | |
US9389779B2 (en) | Depth-based user interface gesture control | |
EP2480955B1 (en) | Remote control of computer devices | |
US10042438B2 (en) | Systems and methods for text entry | |
US20040021663A1 (en) | Information processing method for designating an arbitrary point within a three-dimensional space | |
EP2538305A2 (en) | System and method for close-range movement tracking | |
GB2470654A (en) | Data input on a virtual device using a set of objects. | |
US9354780B2 (en) | Gesture-based selection and movement of objects | |
JP2009042796A (en) | Gesture input device and method | |
JP2012027515A (en) | Input method and input device | |
US9760758B2 (en) | Determining which hand is being used to operate a device using a fingerprint sensor | |
US10656746B2 (en) | Information processing device, information processing method, and program | |
JP5062898B2 (en) | User interface device | |
US9189075B2 (en) | Portable computer having pointing functions and pointing system | |
US20150309601A1 (en) | Touch input system and input control method | |
US10175825B2 (en) | Information processing apparatus, information processing method, and program for determining contact on the basis of a change in color of an image | |
JP5027084B2 (en) | Input device and input method | |
KR20160115022A (en) | Non-contact mouse apparatus and digital application system adopting the apparatus | |
CA2855064A1 (en) | Touch input system and input control method | |
JP2012194729A (en) | Handwriting input device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110317 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20110826 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120502 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120621 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120802 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120806 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150817 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |