[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6033061B2 - Input device and program - Google Patents

Input device and program Download PDF

Info

Publication number
JP6033061B2
JP6033061B2 JP2012263580A JP2012263580A JP6033061B2 JP 6033061 B2 JP6033061 B2 JP 6033061B2 JP 2012263580 A JP2012263580 A JP 2012263580A JP 2012263580 A JP2012263580 A JP 2012263580A JP 6033061 B2 JP6033061 B2 JP 6033061B2
Authority
JP
Japan
Prior art keywords
finger
input device
information
operation mode
line segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012263580A
Other languages
Japanese (ja)
Other versions
JP2014109888A (en
Inventor
俊幸 萩谷
俊幸 萩谷
加藤 恒夫
恒夫 加藤
河口 信夫
信夫 河口
克彦 梶
克彦 梶
信吾 馬場
信吾 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
KDDI Corp
Tokai National Higher Education and Research System NUC
Original Assignee
Nagoya University NUC
KDDI Corp
Tokai National Higher Education and Research System NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC, KDDI Corp, Tokai National Higher Education and Research System NUC filed Critical Nagoya University NUC
Priority to JP2012263580A priority Critical patent/JP6033061B2/en
Publication of JP2014109888A publication Critical patent/JP2014109888A/en
Application granted granted Critical
Publication of JP6033061B2 publication Critical patent/JP6033061B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、タッチパネルに接触した指の情報を検出し、指の接触位置とは異なる位置にある領域を操作対象とする入力装置およびプログラム技術に関する。   The present invention relates to an input device and a program technique for detecting information on a finger touching a touch panel and operating an area at a position different from the finger contact position.

従来から、タッチパネルを備えた情報端末装置が知られている。タッチパネルでは、通常、ボタンなどのオブジェクトに対し、接触検知領域が設定されている。ユーザがこの接触検知領域に対して指を接触させることで、ボタン等が反応する。しかし、このような操作方法では、検知領域が指の下に来るため、タッチする際正確な位置が把握できない場合がある。また、遠くのオブジェクトを操作しにくい場合があるため、ジェスチャー操作による画面の拡大、縮小、スライドなど、画面自体を動かすという機能により、操作性改善が図られている。   Conventionally, an information terminal device provided with a touch panel is known. In the touch panel, a contact detection area is usually set for an object such as a button. When the user touches the contact detection area with a finger, the button or the like reacts. However, in such an operation method, since the detection area comes under the finger, there is a case where an accurate position cannot be grasped when touching. In addition, since it may be difficult to operate a distant object, operability is improved by a function of moving the screen itself, such as enlargement, reduction, and slide of the screen by gesture operation.

特許文献1では、複数の指の動作とジェスチャーを対応付けし、操作中に、操作中の軌跡から想定されるガイドを表示することで操作性が向上するユーザインタフェース装置が開示されている。特許文献2では、複数の指の動作だけでなく、タッチパネル上での手のひらや指の開く具合、接触位置を結んで形成される多角形の面積などから操作を切り替える入力装置が開示されている。特許文献3では、手の位置や形状を検出し、手の影に相当する仮想画像を表示し、その仮想手により操作をする装置が開示されている。   Patent Document 1 discloses a user interface device that improves the operability by associating a plurality of finger movements with gestures and displaying a guide assumed from a trajectory during the operation. Patent Document 2 discloses an input device that switches operations based not only on the movement of a plurality of fingers, but also on the touch panel, how the palm and fingers open, the area of a polygon formed by connecting contact positions, and the like. Patent Document 3 discloses an apparatus that detects the position and shape of a hand, displays a virtual image corresponding to the shadow of the hand, and operates with the virtual hand.

一方、非特許文献1は、タッチする指を区別し、区別した指によって異なる意味を持たせるFinger-Specific Interactionを提案している(第7章)。そこでは、大画面向けペイントツール、操作する指によりモードを切り替えるソフトウェアキーボード・音楽プレイヤ、CSCW向けフォトビューア、操作する指も利用するPIN個人認証を提案している(7.6節)。指の識別は、手の上部に設置した可視光カメラとカラーマーカを用いた画像認識に基づいている。また、上記、特許文献以外にも、ジェスチャーによる入力方法は多々提案されている。   On the other hand, Non-Patent Document 1 proposes Finger-Specific Interaction that distinguishes a finger to be touched and gives a different meaning depending on the distinguished finger (Chapter 7). It proposes a painting tool for large screens, a software keyboard / music player that switches modes by operating fingers, a photo viewer for CSCW, and PIN personal authentication that also uses operating fingers (Section 7.6). Finger identification is based on image recognition using a visible light camera and color markers placed on top of the hand. Besides the above-mentioned patent documents, many input methods using gestures have been proposed.

特開2011−070489号公報JP 2011-077049 A 特開2011−003074号公報JP 2011-003074 A 特開2012−022458号公報JP 2012-022458 A

筑波大学 鈴木優氏 学位論文「併行可能な動作に基づくインタラクション手法の研究」2011年3月Yutaka Suzuki, University of Tsukuba Bachelor thesis, "Study on Interaction Method Based on Parallel Actions" March 2011

しかしながら、特許文献1および2、並びに非特許文献1では、直接的に遠くにあるオブジェクトを操作することは考慮しておらず、あるジャスチャとコマンドを結びつけることにとどまっている。また、特許文献3では、手が画面から遠く離れている時は、手の影が遠い位置にできるため、手から遠い位置にあるオブジェクトの操作に有効であるが、手が画面に接近している場合は通常のタッチパネル操作と違いがない。   However, Patent Documents 1 and 2 and Non-Patent Document 1 do not consider directly operating an object that is far away, and only associate a certain gesture with a command. Further, in Patent Document 3, when the hand is far from the screen, the shadow of the hand can be made far, which is effective for the operation of an object far from the hand. If there is, there is no difference from normal touch panel operation.

本発明は、このような事情に鑑みてなされたものであり、タッチパネルを操作する際、手から遠く離れたオブジェクトの操作性を向上させることができる入力装置およびプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an input device and a program capable of improving the operability of an object far away from a hand when operating a touch panel. .

(1)上記の目的を達成するために、本発明は、以下のような手段を講じた。すなわち、本発明の入力装置は、タッチパネルに接触した指の情報を検出し、指の接触位置とは異なる位置にある領域を操作対象とする入力装置であって、前記検出した指の情報から特徴量を抽出する指情報特徴量抽出部と、前記抽出した特徴量から指示方向を推定する指示方向推定部と、指の接触位置とは異なる位置にある領域を操作対象とする操作制御部と、を備えることを特徴とする。   (1) In order to achieve the above object, the present invention takes the following measures. That is, the input device of the present invention is an input device that detects information on a finger that has touched the touch panel and operates an area at a position different from the finger contact position, and is characterized by the detected finger information. A finger information feature amount extraction unit that extracts an amount; an instruction direction estimation unit that estimates an instruction direction from the extracted feature amount; an operation control unit that operates an area at a position different from a finger contact position; It is characterized by providing.

このように、タッチパネルに接触した指の情報を検出し、検出した指の情報から特徴量を抽出し、抽出した特徴量から指示方向を推定し、指の接触位置とは異なる位置にある領域を操作対象とするので、タッチパネル上で指から離れた位置にある領域の操作性を向上させることが可能となる。   In this way, information on the finger touching the touch panel is detected, a feature amount is extracted from the detected finger information, an instruction direction is estimated from the extracted feature amount, and an area at a position different from the finger contact position is detected. Since it is set as the operation target, it is possible to improve the operability of the area located away from the finger on the touch panel.

(2)また、本発明の入力装置は、予め定められた複数の操作モードのうち、前記指の情報および前記推定された指示方向に対応する操作モードを判別する操作モード判別部を備え、前記操作制御部は、前記操作モードの判別結果に基づいて、指の接触位置とは異なる位置にある領域を操作対象とすることを特徴とする。   (2) Moreover, the input device of the present invention includes an operation mode determination unit that determines an operation mode corresponding to the information on the finger and the estimated instruction direction among a plurality of predetermined operation modes, The operation control unit is characterized in that, based on the determination result of the operation mode, a region at a position different from a finger contact position is set as an operation target.

このように、予め定められた複数の操作モードのうち、前記指の情報および前記推定された指示方向に対応する操作モードを判別する操作モード判別部を備え、前記操作制御部は、前記操作モードの判別結果に基づいて、指の接触位置とは異なる位置にある領域を操作対象とするので、タッチパネル上で指から離れた位置にある領域の操作性を向上させることが可能となる。   As described above, an operation mode determination unit that determines an operation mode corresponding to the finger information and the estimated instruction direction among a plurality of predetermined operation modes is provided, and the operation control unit includes the operation mode. Based on the determination result, an area at a position different from the contact position of the finger is set as an operation target, so that the operability of the area at a position away from the finger on the touch panel can be improved.

(3)また、本発明の入力装置は、前記指の情報および前記推定された指の向きと操作モードとを関連付けて記憶する操作モード記憶部を更に備えることを特徴とする。   (3) The input device of the present invention further includes an operation mode storage unit that stores the information on the finger and the estimated finger orientation and the operation mode in association with each other.

このように、指の情報および推定された指の向きと操作モードとを関連付けて記憶するので、処理速度の向上を図ることができ、その結果、タッチパネル上で指から離れた位置にある領域の操作性を向上させることが可能となる。   As described above, since the finger information and the estimated finger orientation and the operation mode are stored in association with each other, the processing speed can be improved, and as a result, the region in the position away from the finger on the touch panel can be improved. The operability can be improved.

(4)また、本発明の入力装置において、前記操作モードは、前記特徴量並びに検出された指の接触位置の数および推定された各指示方向に基づいて定められることを特徴とする。   (4) In the input device according to the present invention, the operation mode is determined based on the feature amount, the number of detected finger contact positions, and the estimated directions.

このように、操作モードは、特徴量並びに検出された指の接触位置の数および推定された各指示方向に基づいて定められるので、ユーザが複数の指を用いて操作した場合であっても、操作モードを容易に判別することが可能となる。   Thus, since the operation mode is determined based on the feature amount, the number of detected finger contact positions, and each estimated direction, even when the user operates using a plurality of fingers, It is possible to easily determine the operation mode.

(5)また、本発明の入力装置において、前記操作制御部は、検出された指の接触面積および推定された指示方向に基づいて線分を定め、前記線分の端点に対応する領域を操作対象とすることを特徴とする。   (5) In the input device of the present invention, the operation control unit determines a line segment based on the detected finger contact area and the estimated pointing direction, and operates a region corresponding to the end point of the line segment. It is a target.

このように、操作制御部は、検出された指の接触面積および推定された指示方向に基づいて線分を定め、線分の端点に対応する領域を操作対象とするので、操作対象とする領域を一意に特定することが可能となる。その結果、タッチパネル上で指から離れた位置にある領域の操作性を向上させることが可能となる。   As described above, the operation control unit determines a line segment based on the detected finger contact area and the estimated instruction direction, and sets an area corresponding to the end point of the line segment as an operation target. Can be uniquely identified. As a result, it is possible to improve the operability of the area located away from the finger on the touch panel.

(6)また、本発明の入力装置において、前記操作制御部は、前記操作モードおよび任意の操作に基づいて、前記指示方向に平行な線分を平行移動または回転移動させることを特徴とする。   (6) Further, in the input device according to the present invention, the operation control unit translates or rotates a line segment parallel to the indicated direction based on the operation mode and an arbitrary operation.

このように、操作制御部は、操作モードおよび任意の操作に基づいて、前記指示方向に平行な線分を平行移動または回転移動させるので、操作対象とする領域を特定することが可能となる。その結果、タッチパネル上で指から離れた位置にある領域の操作性を向上させることが可能となる。   As described above, the operation control unit translates or rotates the line segment parallel to the designated direction based on the operation mode and an arbitrary operation, so that it is possible to specify the region to be operated. As a result, it is possible to improve the operability of the area located away from the finger on the touch panel.

(7)また、本発明の入力装置において、前記操作制御部は、前記線分が通過する領域を操作対象とすることを特徴とする。   (7) Further, in the input device according to the present invention, the operation control unit sets a region through which the line segment passes as an operation target.

このように、操作制御部は、線分が通過する領域を操作対象とするので、操作対象とする領域を容易に特定することが可能となる。その結果、タッチパネル上で指から離れた位置にある領域の操作性を向上させることが可能となる。   As described above, the operation control unit sets the region through which the line segment passes as the operation target, and thus it is possible to easily identify the region as the operation target. As a result, it is possible to improve the operability of the area located away from the finger on the touch panel.

(8)また、本発明の入力装置において、前記指示方向推定部は、任意の複数の点から定まる線分に基づいて指示方向を推定することを特徴とする。   (8) In the input device of the present invention, the pointing direction estimation unit estimates the pointing direction based on line segments determined from a plurality of arbitrary points.

このように、指示方向推定部は、任意の複数の点から定まる線分に基づいて指示方向を推定するので、操作対象とする領域を容易に特定することが可能となる。その結果、タッチパネル上で指から離れた位置にある領域の操作性を向上させることが可能となる。   As described above, the pointing direction estimation unit estimates the pointing direction based on a line segment determined from a plurality of arbitrary points, and thus it is possible to easily specify the region to be operated. As a result, it is possible to improve the operability of the area located away from the finger on the touch panel.

(9)また、本発明の入力装置において、前記操作制御部は、圧力センサ、力覚センサまたは外部インタフェースから入力される情報および推定された指示方向に基づいて線分を定め、前記線分の端点に対応する領域を操作対象とすることを特徴とする。   (9) In the input device of the present invention, the operation control unit determines a line segment based on information input from a pressure sensor, a force sensor, or an external interface and an estimated instruction direction, and the line segment A region corresponding to the end point is an operation target.

このように、操作制御部は、圧力センサ、力覚センサまたは外部インタフェースから入力される情報および推定された指示方向に基づいて線分を定め、線分の端点に対応する領域を操作対象とするので、指の接触面積を検出しなくても、操作対象とする領域を容易に特定することが可能となる。その結果、タッチパネル上で指から離れた位置にある領域の操作性を向上させることが可能となる。   As described above, the operation control unit determines a line segment based on the information input from the pressure sensor, the force sensor, or the external interface and the estimated instruction direction, and sets the area corresponding to the end point of the line segment as the operation target. Therefore, it is possible to easily specify the region to be operated without detecting the finger contact area. As a result, it is possible to improve the operability of the area located away from the finger on the touch panel.

(10)また、本発明の入力装置において、前記タッチパネルは、ディスプレイ機能を備えることを特徴とする。   (10) In the input device according to the present invention, the touch panel has a display function.

このように、タッチパネルがディスプレイ機能を備えるため、画像を表示する機能を与えると共に、小型化を図ることが可能となり、本発明を携帯端末等に適用することが可能となる。   As described above, since the touch panel has a display function, it is possible to provide a function of displaying an image and to reduce the size, and thus the present invention can be applied to a portable terminal or the like.

(11)また、本発明のプログラムは、タッチパネルに接触した指の情報を検出し、指の接触位置とは異なる位置にある領域を操作対象とする入力装置のプログラムであって、前記検出した指の情報から特徴量を抽出する処理と、前記抽出した特徴量から指示方向を推定する処理と、予め定められた複数の操作モードのうち、前記指の情報および前記推定された指の向きに対応する操作モードを判別する処理と、前記操作モードの判別結果に基づいて、指の接触位置とは異なる位置にある領域を操作対象とする処理と、の一連の処理をコンピュータに実行させることを特徴とする。   (11) A program according to the present invention is a program for an input device that detects information on a finger that has touched the touch panel and operates an area at a position different from the contact position of the finger. A process for extracting a feature amount from the information, a process for estimating an instruction direction from the extracted feature amount, and corresponding to the finger information and the estimated finger orientation among a plurality of predetermined operation modes. A process for determining an operation mode to be performed, and a process for operating an area at a position different from a finger contact position based on the determination result of the operation mode, and causing the computer to execute a series of processes And

このように、タッチパネルに接触した指の情報を検出し、検出した指の情報から特徴量を抽出し、抽出した特徴量から指示方向を推定し、予め定められた複数の操作モードのうち、指の情報および推定された指の向きに対応する操作モードを判別し、操作モードの判別結果に基づいて、指の接触位置とは異なる位置にある領域を操作対象とするので、タッチパネル上で指から離れた位置にある領域の操作性を向上させることが可能となる。   As described above, information on the finger touching the touch panel is detected, a feature amount is extracted from the detected finger information, an instruction direction is estimated from the extracted feature amount, and a finger is selected from a plurality of predetermined operation modes. The operation mode corresponding to the information and the estimated finger orientation is determined, and based on the determination result of the operation mode, an area at a position different from the contact position of the finger is set as an operation target. It becomes possible to improve the operability of a region located at a distant position.

本発明によれば、タッチパネルに接触した指の情報を検出し、検出した指の情報から特徴量を抽出し、抽出した特徴量から指の向きを推定し、予め定められた複数の操作モードのうち、指の情報および推定された指示方向に対応する操作モードを判別し、操作モードの判別結果に基づいて、指の接触位置とは異なる位置にある領域を操作対象とするので、タッチパネル上で指から離れた位置にある領域の操作性を向上させることが可能となる。   According to the present invention, information on a finger touching the touch panel is detected, a feature amount is extracted from the detected finger information, a finger direction is estimated from the extracted feature amount, and a plurality of predetermined operation modes are determined. Among them, the operation mode corresponding to the finger information and the estimated instruction direction is determined, and based on the determination result of the operation mode, an area at a position different from the contact position of the finger is set as an operation target. It becomes possible to improve the operability of the region located away from the finger.

本実施形態に係る入力装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the input device which concerns on this embodiment. 指の検出角度および意図する指の向きを示す図である。It is a figure which shows the detection angle of a finger | toe, and the direction of the intended finger | toe. 第1の実施形態に係る入力装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the input device which concerns on 1st Embodiment. 操作モード判別の動作例を示すフローチャートである。It is a flowchart which shows the operation example of operation mode discrimination | determination. 操作モード1および2を示す図である。It is a figure which shows the operation modes 1 and 2. FIG. 操作方法2における長さの調整の一例を示す図である。It is a figure which shows an example of adjustment of the length in the operation method. 操作モード3を示す図である。It is a figure which shows the operation mode 3. FIG. 操作モード4および5を示す図である。It is a figure which shows the operation modes 4 and 5. 領域選択を示す図である。It is a figure which shows area | region selection. 3Dに適応する操作モードの一例を示す図である。It is a figure which shows an example of the operation mode which adapts to 3D. 2本の指の成す線分を延長した方向を示す方向とする例を示す図である。It is a figure which shows the example made into the direction which shows the direction which extended the line segment which two fingers comprise. スマートフォンにおける文字入力選択や候補文字選択へ応用した例を示す図である。It is a figure which shows the example applied to the character input selection and candidate character selection in a smart phone. 小型ディスプレイと大型ディスプレイを連携させた状態を示す図である。It is a figure which shows the state which made the small display and the large display cooperate. 本実施形態に係る入力装置を大型ディスプレイに適用した例を示す図である。It is a figure which shows the example which applied the input device which concerns on this embodiment to the large sized display. 本発明をゲームに適用した場合の表示例を示す図である。It is a figure which shows the example of a display at the time of applying this invention to a game. キーボードの画面表示例を示す図である。It is a figure which shows the example of a screen display of a keyboard.

本発明の実施形態に係る入力装置は、タッチパネルを操作する際に、手から遠く離れたオブジェクトの操作性向上のために、第一指の接触面を検出し、第一指の示す方向とその他の指のジェスチャー操作によりタッチパネルへの指の接触点から離れた位置でも操作可能な機能を有する。また、接触面の数や切り替え等で複数の操作が可能となる機能を有する。   When operating the touch panel, the input device according to the embodiment of the present invention detects the contact surface of the first finger to improve the operability of an object far away from the hand, and the direction indicated by the first finger and the other It has a function that can be operated even at a position away from the contact point of the finger to the touch panel by the gesture operation of the finger. In addition, it has a function that enables a plurality of operations by changing the number of contact surfaces and switching.

図1は、本実施形態に係る入力装置の概略構成を示すブロック図である。図1において、表示部1は、種々操作画面を表示する。表示部1の水平方向をX方向、垂直方向をY方向と記す。タッチパネル入力部3は、ユーザがタッチパネルにより入力を行う。ユーザがタッチした一点また複数の点のタッチ座標情報を取得する。指形状情報取得部5は、操作中の指の形状情報を取得する。取得方法は、例えば、FTIR(Frustrated Total Internal Reflection)による接触部の取得を挙げるが、手段は限らない。   FIG. 1 is a block diagram illustrating a schematic configuration of the input device according to the present embodiment. In FIG. 1, the display unit 1 displays various operation screens. The horizontal direction of the display unit 1 is referred to as the X direction, and the vertical direction is referred to as the Y direction. The touch panel input unit 3 is input by a user using a touch panel. Touch coordinate information of one point or a plurality of points touched by the user is acquired. The finger shape information acquisition unit 5 acquires the shape information of the finger being operated. The acquisition method includes, for example, acquisition of a contact portion by FTIR (Frustrated Total Internal Reflection), but means is not limited.

指情報特徴量抽出部7は、指形状情報取得部5から取得した指形状情報から、特徴量を抽出する。指方向推定部9は、抽出した特徴量から指の向きを推定する。この指方向推定部は、指示方向推定部を構成する。操作モード判別部11は、指情報特徴量抽出部7の情報から、操作モードを判別する。操作制御部13は、操作を制御する。特に、操作モードの判別結果に基づいて、指の接触位置とは異なる位置にある領域を操作対象とする。表示制御部15は、操作制御部13からの情報を表示部に反映させる。操作モード記憶部17は、指情報特徴量抽出部7の情報と操作モードの関係を記憶する。   The finger information feature amount extraction unit 7 extracts feature amounts from the finger shape information acquired from the finger shape information acquisition unit 5. The finger direction estimation unit 9 estimates the direction of the finger from the extracted feature amount. The finger direction estimation unit constitutes an instruction direction estimation unit. The operation mode determination unit 11 determines the operation mode from the information of the finger information feature amount extraction unit 7. The operation control unit 13 controls the operation. In particular, an area at a position different from the contact position of the finger is set as an operation target based on the determination result of the operation mode. The display control unit 15 reflects the information from the operation control unit 13 on the display unit. The operation mode storage unit 17 stores the relationship between the information of the finger information feature amount extraction unit 7 and the operation mode.

[第1の実施形態]
第1の実施形態では、指の形状情報が取得できる場合について説明する。第1の実施形態では、外部カメラとカラーマーカなしで指の識別を可能とするために、FTIRに基づく指の接触面の形状情報の検出が可能なタッチパネルを利用する。これにより、図2に示す接触面が示す楕円の長軸よりユーザの指の方向(指示方向)が判別可能になる。また、楕円の長軸とユーザの示す向きは必ずしも一致しないため、補正をかけてもよい。
[First Embodiment]
In the first embodiment, a case where finger shape information can be acquired will be described. In the first embodiment, a touch panel capable of detecting shape information of a finger contact surface based on FTIR is used in order to enable finger identification without an external camera and a color marker. Thereby, the direction of the user's finger (instruction direction) can be determined from the long axis of the ellipse indicated by the contact surface shown in FIG. Further, since the major axis of the ellipse does not necessarily match the orientation indicated by the user, correction may be applied.

図3は、第1の実施形態に係る入力装置の動作を示すフローチャートである。まず、タッチ入力の位置を取得する(ステップS1)。また、ユーザのタッチ入力時に、タッチした指の本数、各指のタッチ座標、指の形状情報の時系列情報を取得する(ステップS2)。次に、指情報特徴量を抽出する(ステップS3)。ここでは、指の形状情報より特徴量を抽出する。特徴量としては、それぞれの指の接触面積S、円周l、近似楕円の長軸・短軸長dmax,dmin、接触面積ΔS・円周の変化Δlなどである。   FIG. 3 is a flowchart illustrating the operation of the input device according to the first embodiment. First, the position of touch input is acquired (step S1). Further, at the time of user touch input, the time series information of the number of touched fingers, the touch coordinates of each finger, and finger shape information is acquired (step S2). Next, a finger information feature amount is extracted (step S3). Here, the feature amount is extracted from the finger shape information. The feature amounts include the contact area S of each finger, the circumference l, the major axis / minor axis lengths dmax and dmin of the approximate ellipse, the contact area ΔS, and the circumference change Δl.

次に、操作モード判別・制御を行なう(ステップS4)。タッチした指の接触点の数、各指のタッチ座標、各指の長軸のなす角、座標とそれらの距離などから操作モードを判別し、モードに応じた入力制御を行う。判別は、後述するフローチャートで示されるようにある条件に基づいてモードを切り替える手法のみならず、SVMやHMMなどのパターン認識を利用し、そのモデルはユーザによって切り替えたり、学習したものを用いてもよい。また指の特徴量、ジェスチャーなどを用いてユーザ識別を行い、ユーザごとに条件・モデルを切り替えても良い。   Next, operation mode discrimination / control is performed (step S4). The operation mode is discriminated from the number of touch points of the touched finger, the touch coordinates of each finger, the angle formed by the long axis of each finger, the coordinates and their distance, etc., and input control corresponding to the mode is performed. Discrimination is not only a method of switching modes based on certain conditions as shown in the flowchart described later, but also using pattern recognition such as SVM and HMM, and the model can be switched by the user or learned Good. In addition, user identification may be performed using a finger feature, a gesture, or the like, and the condition / model may be switched for each user.

次に、操作モードNの操作制御を行ない(ステップS5)、表示部1への操作結果を反映させる(ステップS6)。次に、操作を終了したかどうかを判断し(ステップS7)、操作を終了していない場合は、ステップS1へ遷移する。一方、ステップS7において、操作を終了した場合は、終了する。   Next, the operation control of the operation mode N is performed (step S5), and the operation result on the display unit 1 is reflected (step S6). Next, it is determined whether or not the operation has been completed (step S7). If the operation has not been completed, the process proceeds to step S1. On the other hand, when the operation is finished in step S7, the process is finished.

図4は、図3における操作モード判別の動作例を示すフローチャートである。まず、接触指の本数を検出する(ステップT1)。ここで、<接触点が1点である場合>、接触面積について、SとSαの大小を判定する(ステップT2)。S<Sαである場合は、通常のタッチ操作と判定する(ステップT3)。一方、S<Sαでない場合は、すなわち、第一指の示す方向のみで操作する場合は、操作モードを1とし(ステップT4)、指が示す方向にβ×Sピクセルだけ線分を伸長し、端点の位置を操作対象とする(ステップT5)。 FIG. 4 is a flowchart showing an operation example of the operation mode discrimination in FIG. First, the number of contact fingers is detected (step T1). Here, <when the contact point is one point>, the contact area determines the magnitude of S 1 and S alpha (step T2). When S 1 <S α, it is determined as a normal touch operation (step T3). On the other hand, when S 1 <S α is not satisfied, that is, when the operation is performed only in the direction indicated by the first finger, the operation mode is set to 1 (step T4), and the line segment is β 1 × S 1 pixel in the direction indicated by the finger. And the position of the end point is set as the operation target (step T5).

図5に示すように、指の示す方向に、指の指し示す方向に線分が伸び、その端点を操作対象となる機能を有する。他の線分長Lは、指の面積Sによる関数から定まるものとする。例えば、L=β×Sである。 As shown in FIG. 5, a line segment extends in the direction indicated by the finger in the direction indicated by the finger, and the end point has a function to be an operation target. Other line segment length L shall be determined from the function according to the area S 1 of the finger. For example, L = β 1 × S 1 .

次に、ステップT1において、<接触点が2点である場合>、各接触面が示す楕円の長軸の交点がなす角度について、θ>θαを判定する。θ>θαである場合は、操作モードを2とする(ステップT7)。操作モード2は、2本指間の距離による長さの変化である。第一指が示す方向にβ×d(2点間の距離)だけ線分を伸長し、端点を操作対象とする(ステップT8)。図5に示すように、第一の指と第二の指の距離dを変数とする関数より長さLが定まるものとする。変数は距離に加えて第一指および第二指の座標(xi,yi)を含んでもよい。例えば、L=β2×dである。図6に示すように、画面内だけでなく画面外のインタフェースの操作による決定してもよい。 Next, in step T1, <when there are two contact points>, θ 1 > θ α is determined for the angle formed by the intersection of the major axes of the ellipses indicated by the contact surfaces. If θ 1 > θ α , the operation mode is set to 2 (step T7). Operation mode 2 is a change in length depending on the distance between two fingers. The line segment is extended by β 2 × d (distance between two points) in the direction indicated by the first finger, and the end point is set as the operation target (step T8). As shown in FIG. 5, it is assumed that the length L is determined by a function having the distance d between the first finger and the second finger as a variable. The variable may include the coordinates (xi, yi) of the first and second fingers in addition to the distance. For example, L = β2 × d. As shown in FIG. 6, the determination may be made not only within the screen but also by operating an interface outside the screen.

ステップT6において、θ>θαでない場合は、操作モードを3とする(ステップT9)。操作モード3は、指をつまむようなジェスチャーをした場合である。各指が示す方向にβi×Siピクセルだけ線分を伸長し、端点を操作対象とする(ステップT10)。指をつまむようなジェスチャーの場合、図7に示すように、第一指、第二指の各々の示す方向に線分が伸び、端点を操作対象となる機能を有する。線分の長さは、各々の指の面積Siによる関数から定まるものとする。例えば、Li=βi×Siである。 In step T6, if θ 1 > θ α is not satisfied, the operation mode is set to 3 (step T9). The operation mode 3 is a case where a gesture of pinching a finger is performed. The line segment is extended by βi × Si pixels in the direction indicated by each finger, and the end point is set as the operation target (step T10). In the case of a gesture of pinching a finger, as shown in FIG. 7, the line segment extends in the direction indicated by each of the first finger and the second finger, and the end point is a function to be operated. The length of the line segment is determined from a function depending on the area Si of each finger. For example, Li = βi × Si.

ステップT1において、<接触点が3点である場合>は、各接触面が示す楕円の長軸の交点が成す角度について、θ>θαを判定する。θ>θαである場合、すなわち、図8の左側に示すように、操作モード2の始点をもう一本の指で操作する場合は、操作モードを4とする。操作モード2において、始点を第三指のスライド量だけ移動させる(ステップT13)。移動距離は、第三指の移動距離d3による関数から定まるものとする。 In step T1, <when there are three contact points>, θ 2 > θ α is determined for the angle formed by the intersection of the major axes of the ellipses indicated by the contact surfaces. When θ 2 > θ α, that is, when the start point of the operation mode 2 is operated with another finger as shown on the left side of FIG. In operation mode 2, the starting point is moved by the slide amount of the third finger (step T13). It is assumed that the movement distance is determined from a function based on the movement distance d3 of the third finger.

ステップT11において、θ>θαでない場合、すなわち、図8の右側に示すように、操作モード3の始点をもう一本の指で操作する場合は、操作モードを5とする(ステップT14)。操作モード3において、始点を第三指のスライド量だけ移動させる(ステップT15)。移動距離は第三指の移動距離d3による関数から定まるものとする。 In step T11, when θ 2 > θ α is not satisfied, that is, as shown on the right side of FIG. 8, when the start point of operation mode 3 is operated with another finger, the operation mode is set to 5 (step T14). . In operation mode 3, the starting point is moved by the slide amount of the third finger (step T15). It is assumed that the movement distance is determined from a function based on the movement distance d3 of the third finger.

ステップT1において、<接触点が4点以上(N本)である場合>や、<その他操作モード>では、例えば、図9に示すように、エリア選択として、操作モード1〜5において線分領域が通過した領域を選択する場合のモードである。   In step T1, <when the number of contact points is 4 or more (N)> or <other operation mode>, for example, as shown in FIG. This is a mode for selecting a region where has passed.

また、他の操作モードの例として、図10に示すように、画面の3D表示の操作において、上記操作モードに加え、奥行き方向に対しても操作をするモードがあげられる。   As another example of the operation mode, as shown in FIG. 10, in the operation of 3D display on the screen, in addition to the above-described operation mode, there is a mode in which the operation is performed in the depth direction.

機能の切り替えは他指操作または、装置本体に設けられた何らかのボタン操作で切り替えるものとする。   The function is switched by another finger operation or some button operation provided on the apparatus main body.

[第2の実施形態]
第2の実施形態では、指の形状情報が取得できない場合について説明する。第2の実施形態では、指の接触点の数とモードの対応付けを変更して定義する。例えば、操作モード1 (線分の伸縮)の定義変更である。指の向きを検出できない場合、図11に示すように、2本の指の成す線分を延長した方向を示す方向とする。線分長の変更はタッチ操作時の圧力またはその他外部操作で行う。
[Second Embodiment]
In the second embodiment, a case where finger shape information cannot be acquired will be described. In the second embodiment, the correspondence is defined by changing the correspondence between the number of finger contact points and the mode. For example, the definition of operation mode 1 (line segment expansion / contraction) is changed. When the direction of the finger cannot be detected, as shown in FIG. 11, the direction indicating the direction in which the line segment formed by the two fingers is extended is set. The line length is changed by the pressure at touch operation or other external operation.

また、操作モード2の定義変更である。2点をタッチして方向を確定,2点間距離で長さを変更する。   Also, the definition of the operation mode 2 is changed. Touch two points to determine the direction, and change the length by the distance between the two points.

(その他特徴量を用いた判別)
上記第1の実施形態または第2の実施形態の操作では、指の面積を使ったが、その他の特徴量を用いてもよい。特徴量としては、例えば、接触面積S、円周l、近似楕円の長軸・短軸長dmax、dmin、接触面積ΔS・円周の変化Δl、タッチ座標、これらの時系列データ、またはその他センサから得られる情報を用いてもよい。その他のセンサとしては、例えば、圧力センサ,力覚センサなどがある。
(Distinction using other features)
In the operation of the first embodiment or the second embodiment, the finger area is used, but other feature amounts may be used. As the feature amount, for example, the contact area S, the circumference l, the major axis / minor axis lengths dmax and dmin of the approximate ellipse, the contact area ΔS and the change Δl in the circumference, touch coordinates, time series data thereof, or other sensors May be used. Examples of other sensors include a pressure sensor and a force sensor.

本実施形態において、モードの分類は、上記条件に示した指の本数でなく、指の本数、指の角度、指間の距離から判別されるものでもよく、片手操作,両手操作による差異を含む分類でも構わない。   In the present embodiment, the mode classification may be determined from the number of fingers, the angle of the fingers, and the distance between the fingers, not the number of fingers shown in the above conditions, and includes differences due to one-handed operation or two-handed operation. Classification is also acceptable.

また、図11に示すように、大型ディスプレイの場合、複数のユーザが操作するケースがあり、上記のような特徴量等からユーザ数を判別し、それぞれのユーザの操作を適用してもよい。   In addition, as shown in FIG. 11, in the case of a large display, there are cases where a plurality of users operate, and the number of users may be determined from the above feature amount or the like, and the operation of each user may be applied.

(モードの切り替え)
上記実施例では、モード切替をするために特徴量を用いたが、デバイスのボタンまたは画面上の選択画面でモードを選択してもよい。
(Switching mode)
In the above embodiment, the feature amount is used to switch the mode. However, the mode may be selected using a device button or a selection screen on the screen.

(アプリケーション操作例)
図12は、スマートフォンにおける文字入力選択や候補文字選択へ応用した例を示す図である。通常、文字入力がアクティブになる位置は、その位置にタッチすることで選択される。この場合、わざわざその位置をタッチしなければいけない点や、アクティブになる位置が指の下のため細かい調整が難しい点など不便を要する。そこで、本発明を適用することによって、指を大きく動かすことなく、アクティブにする位置を設定できる。
(Application operation example)
FIG. 12 is a diagram illustrating an example of application to character input selection and candidate character selection in a smartphone. Normally, a position where character input becomes active is selected by touching that position. In this case, there are inconveniences such as having to touch the position on purpose and difficult to make fine adjustment because the active position is under the finger. Therefore, by applying the present invention, it is possible to set a position to be activated without largely moving a finger.

そして、アクティブにした位置で、描画ツール、画面の整理、まとめて選択して消去、整理、ドラック等の機能を発揮させることが可能となる。   Then, at the activated position, it becomes possible to perform functions such as drawing tools, screen arrangement, selection at once, deletion, arrangement, and dragging.

図13は、小型ディスプレイと大型ディスプレイを連携させた状態を示す図である。バーコードでディスプレイ端の位置関係をカメラ画像等から取得し、小型ディスプレイで操作モードに応じた操作が、大型ディスプレイの操作に反映されるという例である。この場合、通信部、位置推定部が必要となる。これを実施するためには既存技術を用いることが可能である。   FIG. 13 is a diagram illustrating a state in which a small display and a large display are linked. In this example, the positional relationship between the display edges is obtained from a camera image or the like using a barcode, and an operation corresponding to the operation mode is reflected on the operation of the large display on the small display. In this case, a communication unit and a position estimation unit are required. Existing techniques can be used to do this.

また、図14に示すように、大型ディスプレイ内のある領域を操作領域とし、この操作領域を用いて、操作の縮尺を変えて、大型ディスプレイの操作に反映する構成を採っても良い。   Further, as shown in FIG. 14, a configuration may be adopted in which a certain area in the large display is set as an operation area, and the scale of the operation is changed using this operation area and reflected in the operation of the large display.

図15は、本発明をゲームに適用した場合の表示例を示す図である。図15では、敵の撃墜型のゲームを示している。このように、ゲームの操作を行なう場合においても、本発明を適用することが可能である。   FIG. 15 shows a display example when the present invention is applied to a game. FIG. 15 shows an enemy shooting-down game. Thus, the present invention can be applied even when a game operation is performed.

図16は、キーボードの画面表示例を示す図である。図16に示すように、暗証番号などによるセキリュティへの応用が考えられる。暗証番号入力において、ユーザのタッチ位置と、指示位置、線分の通過位置、選択領域のいずれかを含むことが可能である。   FIG. 16 is a diagram illustrating a screen display example of the keyboard. As shown in FIG. 16, it can be applied to security by a password. In the input of the personal identification number, it is possible to include any one of the touch position of the user, the designated position, the passage position of the line segment, and the selection area.

以上説明したように、本実施形態によれば、タッチパネルに接触した指の情報を検出し、検出した指の情報から特徴量を抽出し、抽出した特徴量から指の向きを推定し、予め定められた複数の操作モードのうち、指の情報および推定された指の向きに対応する操作モードを判別し、操作モードの判別結果に基づいて、指の接触位置とは異なる位置にある領域を操作対象とするので、タッチパネル上で指から離れた位置にある領域の操作性を向上させることが可能となる。   As described above, according to the present embodiment, information on a finger touching the touch panel is detected, a feature amount is extracted from the detected finger information, a finger direction is estimated from the extracted feature amount, and predetermined. The operation mode corresponding to the finger information and the estimated finger orientation is determined from the plurality of operation modes, and an area at a position different from the finger contact position is operated based on the operation mode determination result. Since it is the target, it becomes possible to improve the operability of the region located away from the finger on the touch panel.

1 表示部
3 タッチパネル入力部
5 指形状情報取得部
7 指情報特徴量抽出部
9 指方向推定部
11 操作モード判別部
13 操作制御部
15 表示制御部
17 操作モード記憶部
DESCRIPTION OF SYMBOLS 1 Display part 3 Touch-panel input part 5 Finger shape information acquisition part 7 Finger information feature-value extraction part 9 Finger direction estimation part 11 Operation mode discrimination | determination part 13 Operation control part 15 Display control part 17 Operation mode memory | storage part

Claims (8)

タッチパネルに接触した指の情報を検出し、指の接触位置とは異なる位置にある領域を操作対象とする入力装置であって、
前記検出した指の情報から特徴量を抽出する指情報特徴量抽出部と、
前記抽出した特徴量から指示方向を推定する指示方向推定部と、
予め定められた複数の操作モードのうち、前記指の情報および前記推定された指示方向に対応する操作モードを判別する操作モード判別部と、
前記指の情報および前記推定された指示方向と操作モードとを関連付けて記憶する操作モード記憶部と、
前記特徴量と前記操作モードに対応して定められた関数から定まる線分の長さと、前記指示方向から特定される、指の接触位置とは異なる位置にある領域を操作対象とする操作制御部と、を備えることを特徴とする入力装置。
An input device that detects information of a finger that has touched the touch panel and targets a region at a position different from the contact position of the finger,
A finger information feature amount extraction unit that extracts a feature amount from the detected finger information;
An instruction direction estimating unit for estimating an instruction direction from the extracted feature amount;
An operation mode determination unit for determining an operation mode corresponding to the information on the finger and the estimated instruction direction among a plurality of predetermined operation modes;
An operation mode storage unit for storing the finger information and the estimated instruction direction and the operation mode in association with each other;
An operation control unit that operates on a region that is specified from the feature amount and a function determined in accordance with the operation mode, and a region that is specified from the pointing direction and is different from the contact position of the finger. And an input device.
前記操作モードは、前記特徴量並びに検出された指の接触位置の数および推定された各指示方向に基づいて定められることを特徴とする請求項1記載の入力装置。 The input device according to claim 1 , wherein the operation mode is determined based on the feature amount, the number of detected finger contact positions, and the estimated directions . 前記操作制御部は、検出された指の接触面積および推定された指示方向に基づいて線分を定め、前記線分の端点に対応する領域を操作対象とすることを特徴とする請求項記載の入力装置。 The operation control unit defines a line segment based on the contact area of a finger detected and estimated indicated direction, according to claim 1, characterized in that the operation target region corresponding to the end points of the line segment Input device. 前記操作制御部は、前記操作モードおよび任意の操作に基づいて、前記指示方向に平行な線分を平行移動または回転移動させることを特徴とする請求項記載の入力装置。 The operation control part, based on the operating mode and any operation input device according to claim 1, wherein the moving or rotating translating the parallel line segments in the designated direction. 前記操作制御部は、前記線分が通過する領域を操作対象とすることを特徴とする請求項記載の入力装置。 The input device according to claim 4 , wherein the operation control unit sets a region through which the line segment passes as an operation target. 前記指示方向推定部は、任意の複数の点から定まる線分に基づいて指示方向を推定することを特徴とする請求項1記載の入力装置。 The input device according to claim 1, wherein the pointing direction estimation unit estimates a pointing direction based on a line segment determined from a plurality of arbitrary points . 前記操作制御部は、圧力センサ、力覚センサまたは外部インタフェースから入力される情報および推定された指示方向に基づいて線分を定め、前記線分の端点に対応する領域を操作対象とすることを特徴とする請求項記載の入力装置。 The operation control unit determines a line segment based on information input from a pressure sensor, a force sensor, or an external interface and an estimated instruction direction, and sets a region corresponding to an end point of the line segment as an operation target. The input device according to claim 1, wherein: タッチパネルに接触した指の情報を検出し、指の接触位置とは異なる位置にある領域を操作対象とする入力装置のプログラムであって、A program for an input device that detects information on a finger touching a touch panel and operates an area at a position different from the contact position of the finger,
前記検出した指の情報から特徴量を抽出する処理と、A process of extracting feature amounts from the detected finger information;
前記抽出した特徴量から指示方向を推定する処理と、A process of estimating a pointing direction from the extracted feature amount;
予め定められた複数の操作モードのうち、前記指の情報および前記推定された指示方向に対応する操作モードを判別する処理と、A process of determining an operation mode corresponding to the information of the finger and the estimated instruction direction among a plurality of predetermined operation modes;
前記特徴量と前記操作モードに対応して定められた関数から定まる線分の長さと、前記指示方向から特定される、指の接触位置とは異なる位置にある領域を操作対象とする処理と、の一連の処理をコンピュータに実行させることを特徴とするプログラム。A process for operating an area at a position different from the contact position of the finger, which is specified from the length of a line segment determined from the function and a function determined corresponding to the operation mode, and the pointing direction; A program characterized by causing a computer to execute a series of processes.
JP2012263580A 2012-11-30 2012-11-30 Input device and program Active JP6033061B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012263580A JP6033061B2 (en) 2012-11-30 2012-11-30 Input device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012263580A JP6033061B2 (en) 2012-11-30 2012-11-30 Input device and program

Publications (2)

Publication Number Publication Date
JP2014109888A JP2014109888A (en) 2014-06-12
JP6033061B2 true JP6033061B2 (en) 2016-11-30

Family

ID=51030487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012263580A Active JP6033061B2 (en) 2012-11-30 2012-11-30 Input device and program

Country Status (1)

Country Link
JP (1) JP6033061B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6224543B2 (en) * 2014-07-29 2017-11-01 アルプス電気株式会社 Input device, finger determination method, and program
WO2016152388A1 (en) 2015-03-23 2016-09-29 株式会社村田製作所 Touch-type input device
KR101727203B1 (en) * 2016-03-02 2017-04-17 주식회사 마늘랩 Smart card and control method thereof
DE112017007545B4 (en) * 2017-06-20 2024-08-08 Mitsubishi Electric Corporation Touch input evaluation device, touch panel input device, touch input evaluation method and computer readable medium

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06301486A (en) * 1993-04-16 1994-10-28 Hitachi Ltd Pointing device and input-output unified information processor
JPH1124841A (en) * 1997-07-07 1999-01-29 Canon Inc Information processing device and method, and storage medium
WO2006020305A2 (en) * 2004-07-30 2006-02-23 Apple Computer, Inc. Gestures for touch sensitive input devices
US20070097096A1 (en) * 2006-03-25 2007-05-03 Outland Research, Llc Bimodal user interface paradigm for touch screen devices
JP4605279B2 (en) * 2008-09-12 2011-01-05 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2010102474A (en) * 2008-10-23 2010-05-06 Sony Ericsson Mobile Communications Ab Information display device, personal digital assistant, display control method, and display control program
JP5402322B2 (en) * 2009-07-02 2014-01-29 ソニー株式会社 Information processing apparatus and information processing method
JP5792424B2 (en) * 2009-07-03 2015-10-14 ソニー株式会社 MAP INFORMATION DISPLAY DEVICE, MAP INFORMATION DISPLAY METHOD, AND PROGRAM
JP5423593B2 (en) * 2010-06-23 2014-02-19 株式会社Jvcケンウッド Information processing device

Also Published As

Publication number Publication date
JP2014109888A (en) 2014-06-12

Similar Documents

Publication Publication Date Title
KR101872426B1 (en) Depth-based user interface gesture control
CN107077197B (en) 3D visualization map
JP5187280B2 (en) Operation control device and operation control method
EP2891950B1 (en) Human-to-computer natural three-dimensional hand gesture based navigation method
US20130057469A1 (en) Gesture recognition device, method, program, and computer-readable medium upon which program is stored
US20130044053A1 (en) Combining Explicit Select Gestures And Timeclick In A Non-Tactile Three Dimensional User Interface
US10921926B2 (en) Apparatus and method for recognizing proximity motion using sensors
KR20130105725A (en) Computer vision based two hand control of content
KR20120058996A (en) Apparatus and Method for Controlling Object
US8988380B2 (en) Display apparatus, display method, and display program
US9778780B2 (en) Method for providing user interface using multi-point touch and apparatus for same
JP5374564B2 (en) Drawing apparatus, drawing control method, and drawing control program
US11886643B2 (en) Information processing apparatus and information processing method
JP6033061B2 (en) Input device and program
WO2016018518A1 (en) Optical tracking of a user-guided object for mobile platform user input
US10331333B2 (en) Touch digital ruler
US20150253918A1 (en) 3D Multi-Touch
CN105488832B (en) Optical digital ruler
US20150268736A1 (en) Information processing method and electronic device
JP6418585B2 (en) Wearable device and operation method of wearable device
JP6579866B2 (en) Information processing apparatus, control method therefor, program, and storage medium
CN106575184B (en) Information processing apparatus, information processing method, and computer readable medium
CN105528059B (en) A kind of gesture operation in three-dimensional space method and system
WO2021161769A1 (en) Information processing device, information processing method, and program
KR101496017B1 (en) Touch screen controlling method in mobile device, and mobile device threof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161025

R150 Certificate of patent or registration of utility model

Ref document number: 6033061

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250