[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2024092095A - Operation Input System - Google Patents

Operation Input System Download PDF

Info

Publication number
JP2024092095A
JP2024092095A JP2022207777A JP2022207777A JP2024092095A JP 2024092095 A JP2024092095 A JP 2024092095A JP 2022207777 A JP2022207777 A JP 2022207777A JP 2022207777 A JP2022207777 A JP 2022207777A JP 2024092095 A JP2024092095 A JP 2024092095A
Authority
JP
Japan
Prior art keywords
finger
operation input
gesture
input system
thumb
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022207777A
Other languages
Japanese (ja)
Inventor
一貴 渡部
Kazutaka Watabe
智慎 三代川
Tomochika Miyokawa
勉 市川
Tsutomu Ichikawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Display Co Ltd
Original Assignee
LG Display Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Display Co Ltd filed Critical LG Display Co Ltd
Priority to JP2022207777A priority Critical patent/JP2024092095A/en
Publication of JP2024092095A publication Critical patent/JP2024092095A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To provide an operation input system allowing an operator to perform input operation accurately by a finger.SOLUTION: An operation input system according to the present invention includes: a first sensor device which has an annular base body being wearable to a first finger of an operator, and outputs a first signal according to a motion of the first finger; a second sensor device which has an annular base body being wearable to a second finger different from the first finger and outputs a second signal according to a motion of the second finger; and a control device which determines a relative finger motion of the first finger and the second finger on the basis of the first signal and the second signal.SELECTED DRAWING: Figure 1

Description

本発明は、操作入力システムに関する。 The present invention relates to an operation input system.

特許文献1には、感圧式タッチポインタと3軸ジャイロセンサを有し、操作者の1本の指に装着されるスマートインターフェースリングが開示されている。このスマートインターフェースリングは、3軸ジャイロセンサにおいて検出される指の角速度に基づいて指先の動作を捉え、アプリケーションの操作入力を可能とする。 Patent Document 1 discloses a smart interface ring that has a pressure-sensitive touch pointer and a three-axis gyro sensor and is worn on one of the operator's fingers. This smart interface ring captures the movement of the fingertip based on the angular velocity of the finger detected by the three-axis gyro sensor, enabling operation input for an application.

特開2018-21270号公報JP 2018-21270 A

特許文献1に記載のリングでは、所定の姿勢状態にある手の1本の指の角速度のみを検出して動作を判定する構成であるため、操作者の指動作を正確に判定できず、入力操作の精度が低くなる課題があった。 The ring described in Patent Document 1 is configured to detect only the angular velocity of one finger of a hand in a specified posture to determine the movement, so there is an issue that the finger movement of the operator cannot be accurately determined, resulting in low accuracy of input operations.

そこで、本発明は、上述した従来技術における問題に鑑み、操作者が指動作による入力操作を高精度で行える操作入力システムを提供することを目的とする。 Therefore, in consideration of the problems in the conventional technology described above, the present invention aims to provide an operation input system that allows an operator to perform input operations with finger movements with high accuracy.

本発明の一観点によれば、操作者の第1指に装着可能な環状の基体を有し、前記第1指の動きに応じた第1信号を出力する第1センサ装置と、前記第1指とは異なる第2指に装着可能な環状の基体を有し、前記第2指の動きに応じた第2信号を出力する第2センサ装置と、前記第1信号及び前記第2信号に基づいて、前記第1指及び前記第2指の相対的な指動作を判定する制御装置と、を備える操作入力システムが提供される。 According to one aspect of the present invention, there is provided an operation input system including a first sensor device having an annular base that can be attached to a first finger of an operator and that outputs a first signal corresponding to the movement of the first finger, a second sensor device having an annular base that can be attached to a second finger different from the first finger and that outputs a second signal corresponding to the movement of the second finger, and a control device that determines the relative finger movements of the first finger and the second finger based on the first signal and the second signal.

本発明の他の観点によれば、操作者の第1指に装着され、前記第1指の動きに応じた第1信号を検出する第1センサ装置と、前記第1指とは異なる第2指に装着され、前記第2指の動きに応じた第2信号を検出する第2センサ装置と、前記第1センサ装置及び前記第2センサ装置をそれぞれ制御する制御装置と、を備え、前記制御装置は、前記第1信号及び前記第2信号に基づいて、前記第1指及び前記第2指の相対的な指動作を検出し、前記指動作が予め定められた第1ジェスチャであると判定したことを条件として、前記第1ジェスチャに続いて行われる前記指動作が予め定められた第2ジェスチャであるか否かを判定し、前記指動作が前記第2ジェスチャであると判定した場合に、前記第2ジェスチャに対応するコマンドを出力する、操作入力システムが提供される。 According to another aspect of the present invention, there is provided an operation input system including a first sensor device attached to a first finger of an operator and detecting a first signal corresponding to a movement of the first finger, a second sensor device attached to a second finger different from the first finger and detecting a second signal corresponding to a movement of the second finger, and a control device that controls the first sensor device and the second sensor device, respectively. The control device detects the relative finger movements of the first finger and the second finger based on the first signal and the second signal, and, on condition that it has determined that the finger movement is a predetermined first gesture, determines whether the finger movement performed following the first gesture is a predetermined second gesture, and, if it has determined that the finger movement is the second gesture, outputs a command corresponding to the second gesture.

本発明によれば、操作者が指動作による入力操作を高精度で行える操作入力システムが提供される。 The present invention provides an operation input system that allows an operator to perform input operations with finger movements with high accuracy.

第1実施形態に係る操作入力システムを構成する装置のハードウェア構成の一例を示すブロック図である。1 is a block diagram showing an example of a hardware configuration of a device constituting an operation input system according to a first embodiment. 第1実施形態に係る第1センサ装置及び第2センサ装置の操作者の手への装着例を示す図である。3A to 3C are diagrams illustrating an example of how the first sensor device and the second sensor device according to the first embodiment are attached to the hands of an operator. 第1実施形態に係る第1センサ装置の内部構造の一例を示す断面図である。2 is a cross-sectional view showing an example of an internal structure of a first sensor device according to the first embodiment. FIG. 第1実施形態に係る第1センサ装置の内部構造の一例を示す断面図である。2 is a cross-sectional view showing an example of an internal structure of a first sensor device according to the first embodiment. FIG. 第1実施形態に係る制御装置の機能の一例を示す機能ブロック図である。FIG. 2 is a functional block diagram showing an example of functions of a control device according to the first embodiment. 第1実施形態に係る第1センサ装置において検出された親指の角速度の時間変化とピーク値の抽出期間を説明する図である。5A to 5C are diagrams illustrating a change over time in the angular velocity of the thumb detected by the first sensor device according to the first embodiment and an extraction period for a peak value. 第1実施形態に係る第1センサ装置において検出された親指の角速度の時間変化を示す図である。5 is a diagram showing a change over time in angular velocity of the thumb detected by the first sensor device according to the first embodiment. FIG. 第1実施形態に係る第2センサ装置において検出された人差し指の角速度の時間変化を示す図である。10 is a diagram showing a change over time in the angular velocity of the index finger detected by the second sensor device according to the first embodiment. FIG. 第1実施形態に係る制御装置において実行される処理及び実行時間を示すタイミングチャートである。4 is a timing chart showing processes and execution times executed in the control device according to the first embodiment. 第1実施形態に係る操作入力システムにおいて実行される処理の一例を示すフローチャートである。4 is a flowchart illustrating an example of a process executed in the operation input system according to the first embodiment. 第2実施形態に係る操作入力システムの全体構成の一例を示すブロック図である。FIG. 11 is a block diagram showing an example of an overall configuration of an operation input system according to a second embodiment. 第2実施形態に係る制御装置の機能の一例を示す機能ブロック図である。FIG. 11 is a functional block diagram showing an example of functions of a control device according to a second embodiment. 第2実施形態に係る操作入力システムにおける指の動作と指の状態遷移の関係を示す図である。13A and 13B are diagrams illustrating a relationship between finger motions and finger state transitions in the operation input system according to the second embodiment. 第2実施形態に係る操作入力システムにおいて各ジェスチャの判定で使用される親指の角速度のピーク値の組合せを示す図である。13 is a diagram showing a combination of peak values of angular velocity of the thumb used in determining each gesture in the operation input system according to the second embodiment. FIG. 第2実施形態に係る操作入力システムにおいて各ジェスチャの判定で使用される人差し指の角速度のピーク値の組合せを示す図である。13 is a diagram showing a combination of peak values of angular velocity of the index finger used in determining each gesture in the operation input system according to the second embodiment. FIG. 第2実施形態に係る操作入力システムにおいて検出される複数のジェスチャを説明する上面図である。13 is a top view illustrating a plurality of gestures detected in the operation input system according to the second embodiment. FIG. 図16に示すジェスチャを説明する側面図である。FIG. 17 is a side view illustrating the gesture shown in FIG. 16 . 図16に示すジェスチャを説明する側面図である。FIG. 17 is a side view illustrating the gesture shown in FIG. 16 . 第2実施形態に係る操作入力システムにおいて実行される処理の一例を示すフローチャートである。10 is a flowchart illustrating an example of a process executed in the operation input system according to the second embodiment. 第2実施形態に係る制御装置に表示される画面の一例を示す図である。FIG. 11 is a diagram showing an example of a screen displayed on a control device according to a second embodiment. 第3実施形態に係る操作入力システムを構成する装置のハードウェア構成の一例を示すブロック図である。FIG. 13 is a block diagram showing an example of a hardware configuration of a device constituting an operation input system according to a third embodiment. 第3実施形態に係るスマートグラスの一例を示す斜視図である。FIG. 11 is a perspective view showing an example of smart glasses according to a third embodiment.

以下、本発明に係る実施形態について図面を参照しつつ詳細に説明する。各図面を通じて共通する機能を有する要素には同一の符号を付し、重複する説明を省略又は簡略化することがある。 The following describes in detail an embodiment of the present invention with reference to the drawings. Elements having common functions throughout the drawings are given the same reference numerals, and duplicate descriptions may be omitted or simplified.

[第1実施形態]
図1は、本実施形態に係る操作入力システム1を構成する装置のハードウェア構成の一例を示すブロック図である。
[First embodiment]
FIG. 1 is a block diagram showing an example of a hardware configuration of devices constituting an operation input system 1 according to this embodiment.

図1に示すように、操作入力システム1は、第1センサ装置10、第2センサ装置20、及び制御装置30を備える。本実施形態において、第1センサ装置10及び第2センサ装置20は、ネットワークを介して制御装置30に接続されている。 As shown in FIG. 1, the operation input system 1 includes a first sensor device 10, a second sensor device 20, and a control device 30. In this embodiment, the first sensor device 10 and the second sensor device 20 are connected to the control device 30 via a network.

第1センサ装置10は、操作者の第1指に装着可能な環状の基体を有し、第1指の動きに応じた第1信号を出力する。本実施形態の第1センサ装置10は、第1指の角速度(以下、「第1角速度」と呼ぶ。)の検出データを、第1指の動きに応じた第1信号として出力する。具体的には、第1センサ装置10は、第1角速度の検出データを無線通信によって制御装置30に送信する。 The first sensor device 10 has a ring-shaped base that can be attached to the first finger of an operator, and outputs a first signal corresponding to the movement of the first finger. In this embodiment, the first sensor device 10 outputs detection data of the angular velocity of the first finger (hereinafter referred to as the "first angular velocity") as a first signal corresponding to the movement of the first finger. Specifically, the first sensor device 10 transmits the detection data of the first angular velocity to the control device 30 by wireless communication.

図1に示すように、第1センサ装置10は、MCU(Micro Controller Unit)101、センサモジュール102、フィードバックモジュール103、無線通信装置104、及びバッテリ105を備えている。第1センサ装置10の各部は、図示しない回路基板上において配線により接続されている。 As shown in FIG. 1, the first sensor device 10 includes an MCU (Micro Controller Unit) 101, a sensor module 102, a feedback module 103, a wireless communication device 104, and a battery 105. Each part of the first sensor device 10 is connected by wiring on a circuit board (not shown).

MCU101は、CPU(Central Processing Unit)に加えてRAM(Random Access Memory)、ROM(Read Only Memory)、I/Oデバイス等を一つの集積回路に纏めた、組み込み用のマイクロプロセッサである。MCU101は、主として電子機器の制御に用いられている。 MCU101 is an embedded microprocessor that integrates a CPU (Central Processing Unit), RAM (Random Access Memory), ROM (Read Only Memory), I/O devices, etc. into a single integrated circuit. MCU101 is primarily used to control electronic devices.

センサモジュール102は、角速度を検出するジャイロセンサを有する。本実施形態のジャイロセンサは、互いに直交するX軸、Y軸、Z軸の周りの角速度をそれぞれ検出する3軸ジャイロセンサである。なお、センサモジュール102は、ジャイロセンサの他に、加速度センサ、磁気センサ等のセンサを更に備えてもよい。加速度センサを用いる場合には、検出された加速度の値から重力の成分を除いて実際の加速度を算出する。 The sensor module 102 has a gyro sensor that detects angular velocity. The gyro sensor of this embodiment is a three-axis gyro sensor that detects angular velocity around the mutually orthogonal X-axis, Y-axis, and Z-axis. In addition to the gyro sensor, the sensor module 102 may further include sensors such as an acceleration sensor and a magnetic sensor. When an acceleration sensor is used, the actual acceleration is calculated by removing the gravity component from the detected acceleration value.

センサモジュール102は、検出した角速度に比例する電圧をMCU101に印加する。MCU101は、センサモジュール102から印加された電圧をデジタルデータにA/D変換する。そして、MCU101は、後述する無線通信装置104を介して、角速度の検出データを制御装置30に送信する。 The sensor module 102 applies a voltage proportional to the detected angular velocity to the MCU 101. The MCU 101 A/D converts the voltage applied from the sensor module 102 into digital data. The MCU 101 then transmits the detected angular velocity data to the control device 30 via the wireless communication device 104, which will be described later.

フィードバックモジュール103は、制御装置30から受信した制御情報に基づいて、第1センサ装置10を親指に装着している操作者に対して通知を行う。フィードバックモジュール103の詳細については後述する。 The feedback module 103 notifies the operator who is wearing the first sensor device 10 on his or her thumb based on the control information received from the control device 30. Details of the feedback module 103 will be described later.

無線通信装置104は、Bluetooth、イーサネット(登録商標)、Wi-Fi(登録商標)、4G又は5G等の規格に基づく通信インターフェースであり、他の装置との無線通信を行うためのモジュールである。無線通信装置104は、第1角速度の検出データを無線通信によって制御装置30に送信する。 The wireless communication device 104 is a communication interface based on a standard such as Bluetooth, Ethernet (registered trademark), Wi-Fi (registered trademark), 4G, or 5G, and is a module for performing wireless communication with other devices. The wireless communication device 104 transmits the detection data of the first angular velocity to the control device 30 by wireless communication.

バッテリ105は、MCU101、センサモジュール102、フィードバックモジュール103、無線通信装置104の各々に駆動用の電力を供給する装置である。 The battery 105 is a device that supplies power to each of the MCU 101, the sensor module 102, the feedback module 103, and the wireless communication device 104.

第2センサ装置20は、操作者の第1指とは異なる第2指に装着可能な環状の基体を有し、第2指の動きに応じた第2信号を出力する。本実施形態の第2センサ装置20は、第2指の角速度(以下、「第2角速度」と呼ぶ。)の検出データを、第2指の動きに応じた第2信号として出力する。具体的には、第2センサ装置20は、第2角速度の検出データを無線通信により制御装置30に送信する。 The second sensor device 20 has a ring-shaped base that can be attached to a second finger different from the operator's first finger, and outputs a second signal corresponding to the movement of the second finger. The second sensor device 20 of this embodiment outputs detection data of the angular velocity of the second finger (hereinafter referred to as the "second angular velocity") as a second signal corresponding to the movement of the second finger. Specifically, the second sensor device 20 transmits the detection data of the second angular velocity to the control device 30 via wireless communication.

また、本実施形態では、第1指は親指とする。第2指は、第1指と隣接する指であると好適であるため、人差し指とする。また、第1センサ装置10及び第2センサ装置20における設定情報は、装着対象の親指及び人差し指に合せて設定されているものとする In this embodiment, the first finger is the thumb. The second finger is preferably the finger adjacent to the first finger, and is therefore the index finger. The setting information in the first sensor device 10 and the second sensor device 20 is set to match the thumb and index finger of the person wearing the sensor device.

図1に示すように、第2センサ装置20は、MCU201、センサモジュール202、フィードバックモジュール203、無線通信装置204、及びバッテリ205を備える。第2センサ装置20のハードウェア構成は、第1センサ装置10のハードウェア構成と同様であるため、各装置の説明は省略する。 As shown in FIG. 1, the second sensor device 20 includes an MCU 201, a sensor module 202, a feedback module 203, a wireless communication device 204, and a battery 205. The hardware configuration of the second sensor device 20 is similar to that of the first sensor device 10, so a description of each device will be omitted.

制御装置30は、演算、制御及び記憶を行うコンピュータ装置である。制御装置30としては、パーソナルコンピュータ、ラップトップコンピュータ、タブレット端末、スマートフォン等が挙げられる。制御装置30は、第1角速度及び第2角速度に基づいて、第1指及び第2指の相対的な指動作を判定する。 The control device 30 is a computer device that performs calculations, control, and storage. Examples of the control device 30 include a personal computer, a laptop computer, a tablet terminal, a smartphone, etc. The control device 30 determines the relative finger movements of the first finger and the second finger based on the first angular velocity and the second angular velocity.

図1に示すように、制御装置30は、プロセッサ301、RAM302、ROM303、ストレージ304、通信I/F(Interface)305、表示装置306、入力装置307を備える。各装置は、バス、配線、駆動装置等を介して相互に接続される。 As shown in FIG. 1, the control device 30 includes a processor 301, a RAM 302, a ROM 303, a storage 304, a communication I/F (Interface) 305, a display device 306, and an input device 307. Each device is connected to each other via a bus, wiring, a drive device, etc.

プロセッサ301は、ROM303、ストレージ304等に記憶されたプログラムに従って所定の演算を行い、制御装置30の各部、第1センサ装置10及び第2センサ装置20を制御する機能を有する。プロセッサ301としては、CPU、GPU(Graphics Processing ユニット)、FPGA(Field Programmable Gate Array)DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)等が用いられる。 The processor 301 performs predetermined calculations according to programs stored in the ROM 303, the storage 304, etc., and has the function of controlling each part of the control device 30, the first sensor device 10, and the second sensor device 20. As the processor 301, a CPU, a GPU (Graphics Processing Unit), an FPGA (Field Programmable Gate Array), a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), etc. may be used.

RAM302は、揮発性記憶媒体から構成され、プロセッサ301の動作に必要な一時的なメモリ領域を提供する記憶装置である。RAM302は、例えば、D-RAM(Dynamic RAM)であってもよい。 RAM 302 is a storage device that is composed of a volatile storage medium and provides temporary memory space necessary for the operation of processor 301. RAM 302 may be, for example, a D-RAM (Dynamic RAM).

ROM303は、不揮発性記憶媒体から構成され、制御装置30の動作に用いられるプログラム等の必要な情報を記憶する。ROM303は、例えば、P-ROM(Programmable ROM)であってもよい。 ROM 303 is composed of a non-volatile storage medium and stores necessary information such as programs used in the operation of control device 30. ROM 303 may be, for example, a programmable ROM (P-ROM).

ストレージ304は、不揮発性記憶媒体から構成され、制御装置30における処理データや制御装置30の動作用プログラム等を記憶する記憶装置である。ストレージ304は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)により構成される。 Storage 304 is a storage device that is composed of a non-volatile storage medium and stores data processed by control device 30 and programs for operating control device 30. Storage 304 is composed of, for example, a hard disk drive (HDD) or a solid state drive (SSD).

プロセッサ301は、ROM303、ストレージ304等に記憶されたプログラムをRAM302にロードして実行する。 The processor 301 loads programs stored in the ROM 303, storage 304, etc. into the RAM 302 and executes them.

通信I/F305は、Bluetooth、イーサネット(登録商標)、Wi-Fi(登録商標)、4G又は5G等の規格に基づく通信インターフェースであり、第1センサ装置10及び第2センサ装置20との無線通信を行うためのモジュールである。 The communication I/F 305 is a communication interface based on standards such as Bluetooth, Ethernet (registered trademark), Wi-Fi (registered trademark), 4G or 5G, and is a module for wireless communication with the first sensor device 10 and the second sensor device 20.

表示装置306は、動画、静止画、文字等を表示する。表示装置306としては、液晶ディスプレイ、OLED(Organic Light Emitting Diode)ディスプレイ等が用いられる。表示装置306に表示される操作入力画面には、ウィンドウ、アイコン、ボタン等のグラフィックが含まれる。操作者は、操作入力画面の中で目的の動作を表すグラフィックスを、ポインティングデバイスを用いた操作入力手段、あるいは第1センサ装置10及び第2センサ装置20を用いた操作入力手段等により選択する。 The display device 306 displays moving images, still images, characters, etc. As the display device 306, a liquid crystal display, an OLED (Organic Light Emitting Diode) display, etc. are used. The operation input screen displayed on the display device 306 includes graphics such as windows, icons, buttons, etc. The operator selects a graphic representing a desired operation on the operation input screen by an operation input means using a pointing device, or an operation input means using the first sensor device 10 and the second sensor device 20, etc.

入力装置307は、キーボード、ポインティングデバイス等であって、操作者が制御装置30を操作するために用いられる。ポインティングデバイスとしては、マウス、トラックボール、タッチパネル、ペンタブレット等が挙げられる。表示装置306及び入力装置307は、タッチパネルとして一体に形成されていてもよい。 The input device 307 is a keyboard, a pointing device, etc., and is used by the operator to operate the control device 30. Examples of pointing devices include a mouse, a trackball, a touch panel, a pen tablet, etc. The display device 306 and the input device 307 may be integrally formed as a touch panel.

なお、図1に示されているハードウェア構成は一例であり、これら以外の装置が追加されていてもよく、一部の装置が設けられていなくてもよい。また、一部の装置が同様の機能を有する別の装置に置換されていてもよい。また、第1実施形態の一部の機能がネットワークを介して他の装置により提供されてもよく、第1実施形態の機能が複数の装置に分散されて実現されてもよい。図示されているハードウェア構成は適宜変更可能である。 The hardware configuration shown in FIG. 1 is an example, and other devices may be added, or some devices may not be provided. Some devices may be replaced with other devices having similar functions. Some functions of the first embodiment may be provided by other devices via a network, or the functions of the first embodiment may be distributed and realized among multiple devices. The illustrated hardware configuration can be modified as appropriate.

図2は、本実施形態に係る第1センサ装置10及び第2センサ装置20の操作者の指への装着例を示す図である。図2において、第1センサ装置10は、操作者の親指F1の基節骨の根本側に装着されている。第2センサ装置20は、操作者の人差し指F2の基節骨の根本側に装着されている。 Figure 2 is a diagram showing an example of how the first sensor device 10 and the second sensor device 20 according to this embodiment are attached to the fingers of an operator. In Figure 2, the first sensor device 10 is attached to the base side of the proximal phalanx of the operator's thumb F1. The second sensor device 20 is attached to the base side of the proximal phalanx of the operator's index finger F2.

また、第2センサ装置20におけるXYZ座標系では、X軸は操作者の人差し指F2の幅方向に、Y軸は人差し指F2の基節骨が延びる方向に、Z軸は人差し指F2の厚み方向に設定されている。X軸、Y軸、及びZ軸は互いに直交している。なお、第2センサ装置20と同様に、第1センサ装置10におけるXYZ座標系では、X軸は操作者の親指F1の幅方向に、Y軸は親指F1の基節骨が延びる方向に、Z軸は親指F1の厚み方向に設定されるものとする。 In the XYZ coordinate system of the second sensor device 20, the X axis is set in the width direction of the operator's index finger F2, the Y axis is set in the extension direction of the proximal phalanx of the index finger F2, and the Z axis is set in the thickness direction of the index finger F2. The X, Y, and Z axes are mutually perpendicular. Note that, similar to the second sensor device 20, in the XYZ coordinate system of the first sensor device 10, the X axis is set in the width direction of the operator's thumb F1, the Y axis is set in the extension direction of the proximal phalanx of the thumb F1, and the Z axis is set in the thickness direction of the thumb F1.

図3及び図4は、本実施形態に係る第1センサ装置10の内部構造の一例を示す断面図である。なお、第2センサ装置20の内部構造は、第1センサ装置10の内部構造と同様であるため、以下では第1センサ装置10を代表例として説明する。 Figures 3 and 4 are cross-sectional views showing an example of the internal structure of the first sensor device 10 according to this embodiment. Note that the internal structure of the second sensor device 20 is similar to the internal structure of the first sensor device 10, so the first sensor device 10 will be described below as a representative example.

図3では、第1センサ装置10におけるフィードバックモジュール103として締め付け機構103Aが用いられる例が示されている。締め付け機構103Aは、制御装置30からの制御情報に基づいて膨張又は収縮する。締め付け機構103Aとしては、例えば、印加された電圧に応じて膨張又は収縮可能なエアバッグや誘電部材(例えば豊田合成株式会社製の次世代ゴム素材e-Rubber)等が挙げられる。締め付け機構103Aが膨張すると、操作者の指に向けて突起状に変形し、操作者の指に対して押圧力が加わる。これにより、制御装置30は、操作者からの操作入力に対するフィードバックをフィードバックモジュール103に実行させる。フィードバックは、操作者の入力操作が受け付けられ、かつ、所定のコマンドが実行されたことを操作者に対して通知するために行われる。 In FIG. 3, an example is shown in which a tightening mechanism 103A is used as the feedback module 103 in the first sensor device 10. The tightening mechanism 103A expands or contracts based on control information from the control device 30. Examples of the tightening mechanism 103A include an airbag or a dielectric member (e.g., e-Rubber, a next-generation rubber material manufactured by Toyoda Gosei Co., Ltd.) that can expand or contract depending on an applied voltage. When the tightening mechanism 103A expands, it deforms into a protrusion toward the operator's finger, and a pressing force is applied to the operator's finger. As a result, the control device 30 causes the feedback module 103 to execute feedback on the operation input from the operator. The feedback is performed to notify the operator that the input operation by the operator has been accepted and a specific command has been executed.

図3において、締め付け機構103Aは、基体11と同様に、リング状に形成されているが、締め付け機構103Aの形状はこれに限定されない。締め付け機構103Aは、例えばシート状に形成されてもよい。また、締め付け機構103Aの数は、1つであるが、これに限定されない。 In FIG. 3, the tightening mechanism 103A is formed in a ring shape, similar to the base 11, but the shape of the tightening mechanism 103A is not limited to this. The tightening mechanism 103A may be formed in a sheet shape, for example. Also, the number of tightening mechanisms 103A is one, but is not limited to this.

締め付け機構103Aが複数設けられる場合には、装置内で膨張又は収縮可能な場所が複数存在することなる。このため、第1センサ装置10の中で膨張又は収縮の対象とする締め付け機構103Aを時間に応じて切り換えることにより、右回り、左回り等でのフィードバックも可能となる。すなわち、フィードバック方法のバリエーションを更に増やすことが可能となる。 When multiple tightening mechanisms 103A are provided, there will be multiple locations within the device that can expand or contract. Therefore, by switching the tightening mechanism 103A to be expanded or contracted within the first sensor device 10 according to time, feedback in a clockwise or counterclockwise direction, etc., is also possible. In other words, it is possible to further increase the variety of feedback methods.

また、第1センサ装置10は、3つのセンサモジュール102を備えている。3つのセンサモジュール102は、断面視で、基体11の周上に略等間隔に配されている。ジャイロセンサ等のセンサは、装着位置によって検出される角速度の値の変化が異なる。このため、3つのセンサモジュール102を互いに離間して設けることにより、異なる位置で角速度を検出できる。その結果、制御装置30は、親指F1での第1センサ装置10の装着状態を複数の角速度に基づいて高精度で判定することができる。これは、第2センサ装置20の場合も同様である。 The first sensor device 10 also includes three sensor modules 102. The three sensor modules 102 are arranged at approximately equal intervals around the circumference of the base body 11 in a cross-sectional view. Sensors such as gyro sensors detect different changes in the value of angular velocity depending on the mounting position. For this reason, by providing the three sensor modules 102 at a distance from each other, angular velocity can be detected at different positions. As a result, the control device 30 can determine the mounting state of the first sensor device 10 on the thumb F1 with high accuracy based on the multiple angular velocities. The same is true for the second sensor device 20.

一方、図4では、第1センサ装置10におけるフィードバックモジュール103として3つの振動機構103Bが用いられる例が示されている。センサモジュール102の数は、図3の場合と同様に3つである。 On the other hand, FIG. 4 shows an example in which three vibration mechanisms 103B are used as the feedback module 103 in the first sensor device 10. The number of sensor modules 102 is three, the same as in FIG. 3.

振動機構103Bは、制御装置30からの制御情報に基づいて振動する。振動機構103Bは、例えば印加された電圧に応じて膨張又は収縮可能な圧電素子(ピエゾ素子)や、振動可能な振動モータ等の電磁駆動部により構成される。ピエゾ素子は、水晶や石英などの誘電体で起こる圧電効果と逆圧電効果を利用して、微小動作制御や検知などをする受動素子である。動作にギアやモータなどを必要としないシンプルな構造であるため、他の微小動作機構素子と比較して小型の素子である。 The vibration mechanism 103B vibrates based on control information from the control device 30. The vibration mechanism 103B is composed of, for example, a piezoelectric element (piezo element) that can expand or contract depending on an applied voltage, and an electromagnetic drive unit such as a vibration motor that can vibrate. A piezo element is a passive element that performs micro-motion control and detection by utilizing the piezoelectric effect and inverse piezoelectric effect that occur in dielectric materials such as crystal or quartz. It has a simple structure that does not require gears or motors for operation, and is therefore a smaller element than other micro-motion mechanism elements.

また、振動機構103Bは、センサモジュール102に隣接して設けなくてもよく、複数のセンサモジュール102の間に設けられてもよい。振動機構103Bが振動すると、操作者の指に対して振動が伝わる。これにより、制御装置30は、操作者からの操作入力に対するフィードバックをフィードバックモジュール103に実行させる。 The vibration mechanism 103B does not have to be provided adjacent to the sensor module 102, and may be provided between multiple sensor modules 102. When the vibration mechanism 103B vibrates, the vibration is transmitted to the operator's finger. As a result, the control device 30 causes the feedback module 103 to perform feedback on the operation input from the operator.

図4において振動機構103Bの数は、センサモジュール102の数と同じであるが、振動機構103Bの数はこれに限定されない。各モジュールでの振動の大きさや振動の周期等を変更してもよい。 In FIG. 4, the number of vibration mechanisms 103B is the same as the number of sensor modules 102, but the number of vibration mechanisms 103B is not limited to this. The magnitude and period of vibration in each module may be changed.

振動機構103Bが複数設けられる場合には、装置内で振動可能な場所が複数存在することなる。第1センサ装置10の中で振動させる振動機構103Bを時間に応じて切り換えることにより、右回り、左回り等でのフィードバックも可能となる。すなわち、フィードバック方法のバリエーションを更に増やすことが可能となる。 When multiple vibration mechanisms 103B are provided, there will be multiple locations within the device that can vibrate. By switching the vibration mechanism 103B that vibrates within the first sensor device 10 according to time, feedback in a clockwise or counterclockwise direction, etc., is also possible. In other words, it is possible to further increase the variety of feedback methods.

図5は、本実施形態に係る制御装置30の機能の一例を示す機能ブロック図である。制御装置30は、キャリブレーション部30A、角速度算出部30B、ピーク値抽出部30C、コマンド発行部30D、フィードバック制御部30E、表示制御部30F、及び入力部30Gを備える。 Figure 5 is a functional block diagram showing an example of the functions of the control device 30 according to this embodiment. The control device 30 includes a calibration unit 30A, an angular velocity calculation unit 30B, a peak value extraction unit 30C, a command issuing unit 30D, a feedback control unit 30E, a display control unit 30F, and an input unit 30G.

キャリブレーション部30Aは、第1センサ装置10及び第2センサ装置20が操作者の指に装着されて初回起動される時に、センサモジュール102、202において検出された角速度の検出データに対してキャリブレーションを実行する。キャリブレーション部30Aは、キャリブレーションにより算出された角速度の補正値(オフセット値)を角速度算出部30Bに出力する。 When the first sensor device 10 and the second sensor device 20 are attached to the operator's finger and activated for the first time, the calibration unit 30A performs calibration on the detection data of the angular velocity detected by the sensor modules 102 and 202. The calibration unit 30A outputs the correction value (offset value) of the angular velocity calculated by the calibration to the angular velocity calculation unit 30B.

角速度算出部30Bは、第1センサ装置10及び第2センサ装置20から無線通信によって取得した角速度の検出データとキャリブレーション部30Aで算出された補正値とに基づいて、操作者の親指F1及び人差し指F2の角速度を算出する。角速度算出部30Bは、算出した角速度をピーク値抽出部30Cに出力する。角速度算出部30Bにおける角速度の算出処理は、第1センサ装置10及び第2センサ装置20から角速度の検出データが受信されるたびに繰り返し実行される。 The angular velocity calculation unit 30B calculates the angular velocity of the operator's thumb F1 and index finger F2 based on the angular velocity detection data acquired by wireless communication from the first sensor device 10 and the second sensor device 20 and the correction value calculated by the calibration unit 30A. The angular velocity calculation unit 30B outputs the calculated angular velocity to the peak value extraction unit 30C. The angular velocity calculation process in the angular velocity calculation unit 30B is repeatedly executed each time angular velocity detection data is received from the first sensor device 10 and the second sensor device 20.

ピーク値抽出部30Cは、所定の抽出期間内における角速度の中からピーク値を抽出する。ピーク値抽出部30Cは、抽出したピーク値をコマンド発行部30Dへ出力する。 The peak value extraction unit 30C extracts peak values from the angular velocities within a predetermined extraction period. The peak value extraction unit 30C outputs the extracted peak values to the command issuing unit 30D.

図6は、本実施形態に係る第1センサ装置10において検出された角速度の時間変化とピーク値の抽出期間の一例を示す図である。図6では、破線で示されるように、角速度のプラス側の閾値THpは+20rad/秒、マイナス側の閾値THmは-20rad/秒に設定されている。閾値THp、THmの絶対値は等しい。また、抽出期間Tは、2本の指におけるX軸、Y軸及びZ軸周りの角速度の少なくとも1つが所定の閾値以上となった時刻t1から一定時間が経過した時刻t2までとしている。ただし、閾値THp、THmの値や抽出期間Tの設定方法はこれに限られない。 Figure 6 is a diagram showing an example of the time change in angular velocity detected by the first sensor device 10 according to this embodiment and the extraction period of the peak value. In Figure 6, as shown by the dashed lines, the positive threshold value THp of the angular velocity is set to +20 rad/sec, and the negative threshold value THm is set to -20 rad/sec. The absolute values of the threshold values THp and THm are equal. The extraction period T is set to time t2, when a certain amount of time has elapsed from time t1 when at least one of the angular velocities around the X-axis, Y-axis, and Z-axis of two fingers becomes equal to or exceeds a predetermined threshold value. However, the values of the threshold values THp and THm and the method of setting the extraction period T are not limited to this.

コマンド発行部30Dは、抽出期間内において抽出されたピーク値に基づいて操作者の2本の指の相対的な指動作を判定し、当該指動作に予め関連付けられているコマンドを出力する。コマンド発行部30Dは、少なくとも2種類の指動作を検出するものとする。コマンド発行部30Dがコマンドを出力すると、操作入力システム1を構成する機器のいずれかにおいてコマンドに対応する処理が実行される。 The command issuing unit 30D determines the relative finger movement of the operator's two fingers based on the peak values extracted within the extraction period, and outputs a command that is pre-associated with the finger movement. The command issuing unit 30D detects at least two types of finger movements. When the command issuing unit 30D outputs a command, a process corresponding to the command is executed in one of the devices that make up the operation input system 1.

フィードバック制御部30Eは、第1センサ装置10のMCU101及び第2センサ装置20のMCU201に対して制御情報を送信し、フィードバックモジュール103、203において所定のフィードバック処理を実行させる。 The feedback control unit 30E transmits control information to the MCU 101 of the first sensor device 10 and the MCU 201 of the second sensor device 20, and causes the feedback modules 103 and 203 to execute a predetermined feedback process.

表示制御部30Fは、入力部30Gで受け付けた入力装置307による入力操作や、第1センサ装置10及び第2センサ装置20による入力操作に基づいて、表示装置306に表示される操作入力画面の表示制御を行う。 The display control unit 30F controls the display of the operation input screen displayed on the display device 306 based on the input operation by the input device 307 received by the input unit 30G and the input operation by the first sensor device 10 and the second sensor device 20.

入力部30Gは、操作者や管理者等のユーザが制御装置30を操作するために入力装置307を用いて入力した情報を受け付ける。 The input unit 30G accepts information input by a user, such as an operator or administrator, using the input device 307 to operate the control device 30.

図7は、本実施形態に係る第1センサ装置10において検出された親指F1の角速度の時間変化を示す図である。一方、図8は、本実施形態に係る第2センサ装置20において検出された人差し指F2の角速度の時間変化を示す図である。図7及び図8では、時刻t1~t2の抽出期間A、時刻t3~t4の抽出期間B、時刻t5~t6の抽出期間Cが示されている。 Figure 7 is a diagram showing the change over time in the angular velocity of the thumb F1 detected by the first sensor device 10 according to this embodiment. Meanwhile, Figure 8 is a diagram showing the change over time in the angular velocity of the index finger F2 detected by the second sensor device 20 according to this embodiment. Figures 7 and 8 show an extraction period A from time t1 to t2, an extraction period B from time t3 to t4, and an extraction period C from time t5 to t6.

また、図7における親指F1の角速度に関する閾値THp、THmは、図8における人差しF2の角速度に関する閾値THp、THmと異なっている。このように、閾値THp、THmは、指ごとに最適な値に設定されると好適である。制御装置30は、抽出期間A、B、Cにおける2つの指のX軸、Y軸、Z軸周りの角速度のピーク値及び閾値THp、THmに基づいて、抽出期間A、B、Cの各々における親指F1と人差し指F2による相対的な指動作を判定する。 The threshold values THp and THm for the angular velocity of the thumb F1 in FIG. 7 are different from the threshold values THp and THm for the angular velocity of the index finger F2 in FIG. 8. In this way, it is preferable to set the threshold values THp and THm to optimal values for each finger. The control device 30 determines the relative finger movements of the thumb F1 and index finger F2 in each of the extraction periods A, B, and C based on the peak values of the angular velocities of the two fingers around the X-axis, Y-axis, and Z-axis in the extraction periods A, B, and C and the threshold values THp and THm.

図7に示すように、抽出期間Aでは、親指F1のX軸周りの角速度X_1はプラス側で変位し、プラス側でのピーク値はプラス側の閾値THpよりも大きい。また、親指F1のY軸周りの角速度Y_1はマイナス側で変位し、マイナス側でのピーク値はマイナス側の閾値THmよりも大きい。親指F1のZ軸周りの角速度Z_1はプラス側で変位し、プラス側でのピーク値は閾値THpよりも小さい。 As shown in FIG. 7, in extraction period A, the angular velocity X_1 of the thumb F1 around the X-axis is displaced on the positive side, and the peak value on the positive side is greater than the positive threshold value THp. Also, the angular velocity Y_1 of the thumb F1 around the Y-axis is displaced on the negative side, and the peak value on the negative side is greater than the negative threshold value THm. The angular velocity Z_1 of the thumb F1 around the Z-axis is displaced on the positive side, and the peak value on the positive side is smaller than the threshold value THp.

また、図8に示すように、抽出期間Aでは、人差し指F2のX軸周りの角速度X_2はマイナス側で変位し、マイナス側でのピーク値は閾値THpよりも大きい。また、人差し指F2のY軸周りの角速度Y_2はプラス側で変位し、プラス側でのピーク値は閾値THpよりも大きい。人差し指F2のZ軸周りの角速度Z_2はプラス及びマイナス側で変位し、プラス側でのピーク値は閾値THpよりも小さく、マイナス側でのピーク値は閾値THmよりも大きい。 As shown in FIG. 8, in extraction period A, the angular velocity X_2 of the index finger F2 around the X axis is displaced on the negative side, and the peak value on the negative side is greater than the threshold value THp. The angular velocity Y_2 of the index finger F2 around the Y axis is displaced on the positive side, and the peak value on the positive side is greater than the threshold value THp. The angular velocity Z_2 of the index finger F2 around the Z axis is displaced on both the positive and negative sides, and the peak value on the positive side is less than the threshold value THp, and the peak value on the negative side is greater than the threshold value THm.

図7及び図8における角速度の変化を抽出期間Aについて分析すると、親指F1がX軸を中心に+Xの方向へ大きく動いたことが分かる。また、抽出期間Aでは、人差し指F2がY軸を中心に+Yの方向へ大きく動いたことが分かる。この結果、抽出期間Aでは親指F1を人差し指F2よりも上方に振り上げる指動作が検出される。 When analyzing the change in angular velocity in Figures 7 and 8 for extraction period A, it can be seen that the thumb F1 moves significantly in the +X direction around the X axis. It can also be seen that in extraction period A, the index finger F2 moves significantly in the +Y direction around the Y axis. As a result, a finger motion in which the thumb F1 is raised above the index finger F2 is detected in extraction period A.

図7に示すように、抽出期間Bでは、親指F1のX軸周りの角速度X_1はマイナス側で変位し、マイナス側でのピーク値は閾値THmよりも小さい。また、親指F1のY軸周りの角速度Y_1はプラス側で変位し、プラス側でのピーク値は閾値THpよりも小さい。親指F1のZ軸周りの角速度Z_1はマイナス側で変位し、マイナス側でのピーク値は閾値THmよりも大きい。 As shown in FIG. 7, in extraction period B, the angular velocity X_1 of the thumb F1 around the X-axis is displaced on the negative side, and the peak value on the negative side is smaller than the threshold value THm. Also, the angular velocity Y_1 of the thumb F1 around the Y-axis is displaced on the positive side, and the peak value on the positive side is smaller than the threshold value THp. The angular velocity Z_1 of the thumb F1 around the Z-axis is displaced on the negative side, and the peak value on the negative side is larger than the threshold value THm.

また、図8に示すように、抽出期間Bでは、人差し指F2のX軸周りの角速度X_2はマイナス側で変位し、マイナス側でのピーク値は閾値THmよりも大きい。また、人差し指F2のY軸周りの角速度Y_2はマイナス側で変位し、マイナス側でのピーク値は閾値THmよりも小さい。人差し指F2のZ軸周りの角速度Z_2はプラス側で変位し、プラス側でのピーク値は閾値THpよりも小さい。 As shown in FIG. 8, in extraction period B, the angular velocity X_2 of the index finger F2 around the X axis is displaced on the negative side, and the peak value on the negative side is greater than the threshold value THm. The angular velocity Y_2 of the index finger F2 around the Y axis is displaced on the negative side, and the peak value on the negative side is smaller than the threshold value THm. The angular velocity Z_2 of the index finger F2 around the Z axis is displaced on the positive side, and the peak value on the positive side is smaller than the threshold value THp.

図7及び図8における角速度の変化を抽出期間Bについて分析すると、親指F1がX軸を中心に―Xの方向へ大きく動いたことが分かる。また、抽出期間Bでは、人差し指F2がY軸を中心に―Yの方向へ大きく動いたことが分かる。この結果、抽出期間Bでは親指F1を人差し指F2に接触させる指動作が検出される。 Analyzing the change in angular velocity in Figures 7 and 8 for extraction period B shows that the thumb F1 moves significantly in the -X direction around the X axis. It can also be seen that in extraction period B, the index finger F2 moves significantly in the -Y direction around the Y axis. As a result, a finger movement in which the thumb F1 touches the index finger F2 is detected in extraction period B.

図7に示すように、抽出期間Cでは、親指F1のX軸周りの角速度X_1はプラス側で変位し、プラス側でのピーク値は閾値THpよりも小さい。また、親指F1のY軸周りの角速度Y_1はプラス側で変位し、プラス側でのピーク値は閾値THpよりも大きい。親指F1のZ軸周りの角速度Z_1はマイナス側で変位し、マイナス側でのピーク値は閾値THmよりも大きい。 As shown in FIG. 7, in extraction period C, the angular velocity X_1 of the thumb F1 around the X-axis is displaced on the positive side, and the peak value on the positive side is smaller than the threshold value THp. Also, the angular velocity Y_1 of the thumb F1 around the Y-axis is displaced on the positive side, and the peak value on the positive side is larger than the threshold value THp. The angular velocity Z_1 of the thumb F1 around the Z-axis is displaced on the negative side, and the peak value on the negative side is larger than the threshold value THm.

また、図8に示すように、抽出期間Cにおいて、人差し指F2のX軸周りの角速度X_2はマイナス側で変位し、マイナス側でのピーク値は閾値THmよりも小さい。また、人差し指F2のY軸周りの角速度Y_2はプラス側で変位し、プラス側でのピーク値は閾値THpよりも大きい。人差し指F2のZ軸周りの角速度Z_2はマイナス側で変位し、マイナス側でのピーク値は閾値THmよりも大きい。 As shown in FIG. 8, in extraction period C, the angular velocity X_2 of the index finger F2 around the X axis is displaced on the negative side, and the peak value on the negative side is smaller than the threshold value THm. The angular velocity Y_2 of the index finger F2 around the Y axis is displaced on the positive side, and the peak value on the positive side is larger than the threshold value THp. The angular velocity Z_2 of the index finger F2 around the Z axis is displaced on the negative side, and the peak value on the negative side is larger than the threshold value THm.

図7及び図8における角速度の変化を抽出期間Cについて分析すると、親指F1がY軸を中心に+Yの方向へ大きく動いたことが分かる。また、抽出期間Cでは、人差し指F2がX軸を中心に―Xの方向へ、Y軸を中心に+Yの方向へそれぞれ大きく動いたことが分かる。この結果、抽出期間Cでは親指F1が人差し指F2と接触している状態を維持しつつ、親指F1を人差し指F2の側面に沿って右方にスライドする指動作が検出される。 Analyzing the change in angular velocity in Figures 7 and 8 for extraction period C shows that the thumb F1 moves significantly in the +Y direction around the Y axis. It is also clear that in extraction period C, the index finger F2 moves significantly in the -X direction around the X axis and in the +Y direction around the Y axis. As a result, in extraction period C, a finger motion is detected in which the thumb F1 maintains contact with the index finger F2 while sliding to the right along the side of the index finger F2.

図9は、本実施形態に係る制御装置30において実行される処理及び実行時間を示すタイミングチャートである。ここでは、図7及び図8において示した抽出期間A、B、Cと、コマンド発行処理、フィードバック先の決定処理、フィードバックモジュールに対する駆動制御処理、操作入力画面の表示制御処理との対応関係が示されている。 Figure 9 is a timing chart showing the processes and execution times executed by the control device 30 according to this embodiment. Here, the correspondence between the extraction periods A, B, and C shown in Figures 7 and 8 and the command issuing process, feedback destination determination process, drive control process for the feedback module, and display control process for the operation input screen is shown.

コマンド発行部30Dにおける最初のコマンド発行処理は、時刻t1~t2の抽出期間Aに実行されている。次に、フィードバック制御部30Eにおけるフィードバック先の決定処理が、時刻t2~t21の期間において実行されている。そして、フィードバック制御部30Eにおけるフィードバックモジュール103、203の駆動制御処理と表示制御部30Fにおける画面の表示処理は、時刻t21~t22の期間において同期して実行されている。 The first command issuance process in the command issuing unit 30D is executed during extraction period A from time t1 to t2. Next, the feedback destination determination process in the feedback control unit 30E is executed during the period from time t2 to t21. The drive control process of the feedback modules 103, 203 in the feedback control unit 30E and the screen display process in the display control unit 30F are executed synchronously during the period from time t21 to t22.

また、コマンド発行部30Dにおける2番目のコマンド発行処理は、時刻t3~t4の抽出期間Bに実行されている。次に、フィードバック制御部30Eにおけるフィードバック先の決定処理が、時刻t4~t41の期間において実行されている。そして、フィードバック制御部30Eにおけるフィードバックモジュール103、203の駆動制御処理と表示制御部30Fにおける画面の表示処理は、時刻t41~t42の期間において同期して実行されている。 The second command issuing process in the command issuing unit 30D is executed during extraction period B from time t3 to t4. Next, the feedback destination determination process in the feedback control unit 30E is executed during the period from time t4 to t41. The drive control process of the feedback modules 103, 203 in the feedback control unit 30E and the screen display process in the display control unit 30F are executed synchronously during the period from time t41 to t42.

そして、コマンド発行部30Dにおける3番目のコマンド発行処理は、時刻t5~t6の抽出期間Cに実行されている。次に、フィードバック制御部30Eにおけるフィードバック先の決定処理が、時刻t6~t61の期間において実行されている。そして、フィードバック制御部30Eにおけるフィードバックモジュール103、203の駆動制御処理と表示制御部30Fにおける画面の表示処理は、時刻t61~t62の期間において同期して実行されている。 The third command issuance process in the command issuing unit 30D is executed during extraction period C from time t5 to t6. Next, the feedback destination determination process in the feedback control unit 30E is executed during the period from time t6 to t61. The drive control process of the feedback modules 103, 203 in the feedback control unit 30E and the screen display process in the display control unit 30F are executed synchronously during the period from time t61 to t62.

図10は、本実施形態に係る制御装置30において実行される処理の一例を示すフローチャートである。この処理は、例えば、操作入力画面が表示されている間に繰り返し実行される。 Figure 10 is a flowchart showing an example of a process executed by the control device 30 according to this embodiment. This process is executed repeatedly, for example, while the operation input screen is displayed.

先ず、制御装置30は、無線通信によって第1センサ装置10及び第2センサ装置20から角速度の検出データを取得する(ステップS101)。 First, the control device 30 acquires angular velocity detection data from the first sensor device 10 and the second sensor device 20 via wireless communication (step S101).

次に、制御装置30は、第1センサ装置10及び第2センサ装置20の初回起動時であるか否かを判定する(ステップS102)。ここで、制御装置30が、初回起動時であると判定する(ステップS102:YES)と、処理はステップS103へ移行する。これに対し、制御装置30が、初回起動時ではないと判定すると(ステップS102:NO)、処理はステップS105へ移行する。 Next, the control device 30 determines whether or not the first sensor device 10 and the second sensor device 20 are being started for the first time (step S102). If the control device 30 determines that the first sensor device 10 and the second sensor device 20 are being started for the first time (step S102: YES), the process proceeds to step S103. On the other hand, if the control device 30 determines that the first sensor device 10 and the second sensor device 20 are not being started for the first time (step S102: NO), the process proceeds to step S105.

ステップS103において、制御装置30は、第1センサ装置10及び第2センサ装置20から取得された角速度の検出データに基づいてキャリブレーションを実行し、角速度の補正値を算出する。その後、処理はステップS104へ移行する。 In step S103, the control device 30 performs calibration based on the angular velocity detection data acquired from the first sensor device 10 and the second sensor device 20, and calculates a correction value for the angular velocity. After that, the process proceeds to step S104.

ステップS104において、制御装置30は、角速度の検出データに基づいてセンサの装着状態を判定する。その後、処理はステップS105へ移行する。 In step S104, the control device 30 determines the mounting state of the sensor based on the angular velocity detection data. Then, the process proceeds to step S105.

図3に示すように、第1センサ装置10は、複数のセンサモジュール102を備えている。このため、制御装置30は、複数のセンサモジュール102において検出された複数の検出データに基づいて親指F1における第1センサ装置10の装着状態を判定できる。 As shown in FIG. 3, the first sensor device 10 includes multiple sensor modules 102. Therefore, the control device 30 can determine the attachment state of the first sensor device 10 on the thumb F1 based on multiple detection data detected by the multiple sensor modules 102.

同様に、第2センサ装置20は、複数のセンサモジュール202を備えている。制御装置30は、複数のセンサモジュール202において検出された複数の検出データに基づいて人差し指F2における第2センサ装置20の装着状態を判定できる Similarly, the second sensor device 20 includes multiple sensor modules 202. The control device 30 can determine the attachment state of the second sensor device 20 on the index finger F2 based on multiple detection data detected by the multiple sensor modules 202.

ステップS105において、制御装置30は、角速度の検出データと角速度の補正値に基づいて、親指F1及び人差し指F2の角速度をそれぞれ算出する。親指F1及び人差し指F2の角速度は、X軸、Y軸、Z軸の3軸について算出される。 In step S105, the control device 30 calculates the angular velocities of the thumb F1 and index finger F2, respectively, based on the angular velocity detection data and the angular velocity correction value. The angular velocities of the thumb F1 and index finger F2 are calculated for three axes: the X-axis, the Y-axis, and the Z-axis.

次に、制御装置30は、算出された複数の角速度の絶対値のいずれかが、所定の閾値以上であるか否かを判定する(ステップS106)。 Next, the control device 30 determines whether any of the absolute values of the calculated angular velocities is equal to or greater than a predetermined threshold value (step S106).

ここで、制御装置30が、いずれかの角速度の絶対値が所定の閾値以上であると判定すると(ステップS106:YES)、処理はステップS107へ移行する。これに対し、制御装置30が、すべての角速度の絶対値が所定の閾値未満であると判定すると(ステップS107:NO)、処理はステップS101へ戻る。 If the control device 30 determines that the absolute value of any of the angular velocities is equal to or greater than the predetermined threshold (step S106: YES), the process proceeds to step S107. On the other hand, if the control device 30 determines that the absolute values of all of the angular velocities are less than the predetermined threshold (step S107: NO), the process returns to step S101.

ステップS107において、制御装置30は、角速度の抽出期間を決定し、抽出期間内の角速度の中からピーク値を抽出する。ピーク値はX軸、Y軸、Z軸の3軸についてそれぞれ抽出される。なお、抽出期間内において角速度が変動すると、同じ方向においてピーク値が複数抽出され得る。このような場合には、制御装置30は、例えば、記憶領域に保持しているピーク値を逐次更新する。 In step S107, the control device 30 determines an extraction period for the angular velocity and extracts peak values from the angular velocity within the extraction period. Peak values are extracted for each of the three axes, the X-axis, the Y-axis, and the Z-axis. If the angular velocity fluctuates within the extraction period, multiple peak values may be extracted in the same direction. In such a case, the control device 30, for example, sequentially updates the peak values stored in the memory area.

次に、制御装置30は、抽出期間内において抽出された2本の指における角速度のピーク値の組合せに基づいて、2本の指による相対的な指動作を判定する(ステップS108)。指動作の判定は、親指F1の第1角速度(第1信号)又は人差し指F2の第2角速度(第2信号)が所定の閾値を超えた場合に開始されているため、計算負荷が抑制される。 Next, the control device 30 determines the relative finger motion of the two fingers based on the combination of the peak values of the angular velocities of the two fingers extracted within the extraction period (step S108). The finger motion determination is started when the first angular velocity (first signal) of the thumb F1 or the second angular velocity (second signal) of the index finger F2 exceeds a predetermined threshold, so the calculation load is reduced.

ステップS108では、例えば、親指F1と人差し指F2が離間する指動作、親指F1と人差し指F2とを接触させる指動作、親指F1と人差し指F2とが接触している状態で親指F1が人差し指F2に沿って上下、左右、前後に移動する指動作等が判定される。 In step S108, for example, finger movements are determined, such as the thumb F1 and index finger F2 moving apart, the thumb F1 and index finger F2 coming into contact with each other, and the thumb F1 moving up and down, left and right, or back and forth along the index finger F2 while the thumb F1 and index finger F2 are in contact with each other.

次に、制御装置30は、2本の指による相対的な動作に対応するコマンドを判定すると、そのコマンドを出力する(ステップS109)。これにより、制御装置30は、コマンドで指定された処理を実行する。コマンドとしては、操作入力画面におけるカーソルやポインタの位置を上下左右に移動させるコマンド、直前に行われた操作入力を解除するコマンド、操作入力を決定するコマンド等が挙げられる。 Next, when the control device 30 determines the command corresponding to the relative movement of the two fingers, it outputs the command (step S109). As a result, the control device 30 executes the process specified by the command. Examples of commands include a command to move the position of the cursor or pointer on the operation input screen up, down, left, or right, a command to cancel the operation input performed immediately before, a command to confirm the operation input, etc.

次に、制御装置30は、発行したコマンドの実行に伴い、フィードバック先を決定する(ステップS110)。本実施形態では、第1センサ装置10、第2センサ装置20、表示装置106がフィードバック先となり得る。 Next, the control device 30 determines the feedback destination in conjunction with the execution of the issued command (step S110). In this embodiment, the first sensor device 10, the second sensor device 20, and the display device 106 can be the feedback destinations.

次に、制御装置30は、決定されたフィードバック先であるフィードバックモジュール103、203に対して制御情報を送信し、フィードバックモジュール103、203を駆動させる(ステップS111)。 Next, the control device 30 transmits control information to the feedback modules 103 and 203 that are the determined feedback destinations, and drives the feedback modules 103 and 203 (step S111).

次に、制御装置30は、表示装置106に表示されている操作入力画面を更新する(ステップS112)。例えば、制御装置30は、操作入力画面上におけるポインタの座標を変更する、あるいは、選択したメニューの表示状態を変更する。このように、制御装置30は、フィードバックモジュールへの通知と同期してGUI(表示装置)へ通知を行う。その後、処理は終了する。 Next, the control device 30 updates the operation input screen displayed on the display device 106 (step S112). For example, the control device 30 changes the coordinates of the pointer on the operation input screen, or changes the display state of the selected menu. In this way, the control device 30 notifies the GUI (display device) in synchronization with the notification to the feedback module. Then, the process ends.

そして、制御装置30は、操作入力画面において操作者より操作入力の終了が指示されたか否かを判定する(ステップS113)。ここで、制御装置30は、操作入力の終了が指示されたと判定した場合(ステップS113:YES)には、処理は終了する。これに対し、制御装置30は、操作入力の終了が指示されていないと判定した場合(ステップS113:NO)には、処理はステップS101へ戻る。 Then, the control device 30 determines whether or not the operator has instructed the operation input to end on the operation input screen (step S113). Here, if the control device 30 determines that the operator has instructed the operation input to end (step S113: YES), the process ends. On the other hand, if the control device 30 determines that the operator has not instructed the operation input to end (step S113: NO), the process returns to step S101.

従来、マウス操作の代わりとなる入力手段として、ジェスチャやコントローラを使用した入力手段、視線による入力手段、音声による入力手段などが知られている。しかし、ジェスチャやコントローラを使用した入力手段では操作入力の動作が大きくなり、他者に操作状態を知られてしまう。また、視線による入力手段では視線位置が変動するため、安定した操作が困難である。そして、音声による入力手段では他人に操作を指示する声が聞かれてしまう。これらの問題に鑑み、他者へ認識されにくく、かつ、操作性に優れたポインティングデバイスが求められていた。 Conventionally, input means using gestures or controllers, input means based on gaze, and input means based on voice are known as input means that can replace mouse operation. However, with input means using gestures or controllers, the operation input motions are large, and the operation status can be seen by others. Also, with input means based on gaze, the gaze position fluctuates, making stable operation difficult. And with input means based on voice, the voice giving instructions on operation can be heard by others. In view of these problems, there has been a demand for a pointing device that is difficult for others to recognize and has excellent operability.

これに対し、本実施形態に係る操作入力システム1によれば、親指(第1指)F1と人差し指(第2指)F2のそれぞれに、ジャイロセンサを搭載したリング状デバイスである第1センサ装置10及び第2センサ装置20を装着する。そして、第1センサ装置10及び第2センサ装置20は、2本の指における角速度を無線通信により制御装置30へ送信する。制御装置30では、親指F1と人差し指F2における角速度を使用して2本の指による相対的な指動作を検出する。 In contrast, according to the operation input system 1 of this embodiment, a first sensor device 10 and a second sensor device 20, which are ring-shaped devices equipped with a gyro sensor, are attached to the thumb (first finger) F1 and the index finger (second finger) F2, respectively. The first sensor device 10 and the second sensor device 20 then transmit the angular velocities of the two fingers to the control device 30 via wireless communication. The control device 30 detects the relative finger movements of the two fingers using the angular velocities of the thumb F1 and the index finger F2.

これにより、指動作に対応するコマンドを判定・出力し、操作入力を自由かつ高精度に行うことができる。また、親指F1と人差し指F2を動かすだけで操作入力を行える構成のため、操作者が操作入力を行っていることを他者に知られにくくでき、情報セキュリティの向上やプライバシー保護の観点からも有益である。 This allows commands corresponding to finger movements to be determined and output, allowing operation input to be performed freely and with high accuracy. In addition, because operation input can be performed simply by moving the thumb F1 and index finger F2, it is difficult for others to know that the operator is performing operation input, which is also beneficial from the standpoint of improving information security and protecting privacy.

また、1本の指だけにリング状デバイスが装着されていた従来型のシステムでは、指で特定の位置を指示するために腕の方向も変える必要があった。これに対し、本実施形態に係る操作入力システム1によれば、ジャイロセンサを搭載したリング状デバイスを親指F1と人差し指F2にそれぞれ装着することにより、2本の指による相対的な動作を判定する構成である。このため、任意の腕の向きにおいてポインティングが可能となる。 Furthermore, in conventional systems where a ring-shaped device was worn on only one finger, it was necessary to change the direction of the arm in order to point to a specific position with a finger. In contrast, the operation input system 1 according to this embodiment is configured to determine the relative movement of the two fingers by wearing ring-shaped devices equipped with gyro sensors on the thumb F1 and index finger F2, respectively. This makes it possible to point with the arm in any orientation.

また、従来型のリング状デバイスにおいて、動作検出用のジャイロセンサが搭載されているものが知られている。しかし、ジャイロセンサの搭載位置により検出できる情報が変化するため、リング状デバイスは常に一定方向への装着が必要であった。これに対し、本実施形態の操作入力システム1によれば、リング状デバイス(第1センサ装置10及び第2センサ装置20)がリング内において異なる位置に複数のセンサモジュールを搭載している。複数のセンサモジュールからの複数の検出データに基づいてリング状デバイスの装着状態を判定できるため、各指において任意の位置にリング状デバイスを装着可能である。 In addition, some conventional ring-shaped devices are known to be equipped with a gyro sensor for detecting motion. However, the information that can be detected varies depending on the mounting position of the gyro sensor, so the ring-shaped device always needs to be worn in a fixed direction. In contrast, according to the operation input system 1 of this embodiment, the ring-shaped device (first sensor device 10 and second sensor device 20) is equipped with multiple sensor modules at different positions within the ring. Since the mounting state of the ring-shaped device can be determined based on multiple detection data from multiple sensor modules, the ring-shaped device can be worn in any position on each finger.

[第2実施形態]
以下、第2実施形態に係る操作入力システム2について説明する。以下では主として第1実施形態との相違点について説明するものとし、共通部分については説明を省略又は簡略化する。
[Second embodiment]
The operation input system 2 according to the second embodiment will be described below. The differences from the first embodiment will be mainly described below, and descriptions of common parts will be omitted or simplified.

図11は、本実施形態に係る操作入力システム2のハードウェア構成の一例を示すブロック図である。操作入力システム2のハードウェア構成は、第1実施形態に係る操作入力システム1のハードウェア構成と共通している。 FIG. 11 is a block diagram showing an example of the hardware configuration of the operation input system 2 according to this embodiment. The hardware configuration of the operation input system 2 is common to the hardware configuration of the operation input system 1 according to the first embodiment.

図12は、本実施形態に係る制御装置30の機能の一例を示す機能ブロック図である。本実施形態の制御装置30は、第1実施形態の場合と異なり、ジェスチャ検出部30Hを更に備える。 Figure 12 is a functional block diagram showing an example of the functions of the control device 30 according to this embodiment. Unlike the first embodiment, the control device 30 of this embodiment further includes a gesture detection unit 30H.

ジェスチャ検出部30Hは、親指F1と人差し指F2の角速度に基づいて親指F1と人差し指F2による任意の指動作の中から、特定の指動作を検出する。本実施形態では、ジェスチャ検出部30Hが任意の指動作の中から検出対象とする特定の指動作を「ジェスチャ」と呼ぶ。なお、ジェスチャは、単一の指動作のみに限られない。一定時間内において連続的に行われる複数の指動作を一つのジェスチャとして定義する場合もあり得る。そして、複数ジェスチャと各ジェスチャに対して発行されるコマンドの対応関係が予め定義されているものとする。本実施形態のコマンド発行部30Dは、ジェスチャ検出部30Hにより検出された特定のジェスチャに対応するコマンドを出力する。 The gesture detection unit 30H detects a specific finger motion from among arbitrary finger motions made by the thumb F1 and index finger F2 based on the angular velocity of the thumb F1 and index finger F2. In this embodiment, the specific finger motion that the gesture detection unit 30H detects from among arbitrary finger motions is called a "gesture." Note that gestures are not limited to single finger motions. There may also be cases where multiple finger motions performed consecutively within a certain period of time are defined as one gesture. It is assumed that the correspondence between the multiple gestures and the commands issued for each gesture is defined in advance. The command issuing unit 30D of this embodiment outputs a command corresponding to the specific gesture detected by the gesture detection unit 30H.

図13は、本実施形態に係る操作入力システム2における指の動作と指の状態遷移の関係を示す図である。ここでは、指の動作として、“親指振り上げ”、“親指振り下し”、“親指押し下げ”、“静止”、“移動”が示されている。また、指の状態としては、“初期(ST0)”、“左(ST1)”、“右(ST2)”、“前(ST3)”、“後(ST4)”、“下(ST5)”、“リリース(ST6)”、“接触(ST7)”が示されている。 Figure 13 is a diagram showing the relationship between finger motions and finger state transitions in the operation input system 2 according to this embodiment. Here, "thumb up", "thumb down", "thumb down", "stationary", and "moving" are shown as finger motions. Also, "initial (ST0)", "left (ST1)", "right (ST2)", "front (ST3)", "back (ST4)", "down (ST5)", "release (ST6)", and "contact (ST7)" are shown as finger states.

“初期(ST0)”は、操作者が手を軽く握り、人差し指F2の第一関節と第二関節の中間位置に親指F1を乗せた状態である。以下では、“初期(ST0)”を初期状態ST0という。 "Initial state (ST0)" is a state in which the operator lightly closes his or her hand and places the thumb F1 midway between the first and second joints of the index finger F2. Hereinafter, "initial state (ST0)" will be referred to as the initial state ST0.

“左(ST1)”は、初期状態ST0にある親指F1と人差し指F2を接触させながら、親指F1の先端部を人差し指F2の側面に沿って左方向に移動した状態である。以下では、“左(ST1)”を状態ST1という。 "Left (ST1)" is the state in which the thumb F1 and index finger F2 are in contact with each other in the initial state ST0, and the tip of the thumb F1 is moved leftward along the side of the index finger F2. Hereinafter, "left (ST1)" will be referred to as state ST1.

“右(ST2)”は、初期状態ST0にある親指F1と人差し指F2を接触させながら、親指F1の先端部を人差し指F2の側面に沿って右方向に移動した状態である。以下では、“右(ST2)”を状態ST2という。 "Right (ST2)" is the state in which the thumb F1 and index finger F2 are in contact with each other in the initial state ST0, and the tip of the thumb F1 is moved to the right along the side of the index finger F2. Hereinafter, "right (ST2)" is referred to as state ST2.

“前(ST3)”は、初期状態ST0にある親指F1と人差し指F2を接触させながら、親指F1の先端部を人差し指F2の基節部の外側方向に突き出した状態である。以下では、“前(ST3)”を状態ST3という。 "Forward (ST3)" is a state in which the thumb F1 and index finger F2 are in contact with each other in the initial state ST0, while the tip of the thumb F1 is protruding outward from the proximal joint of the index finger F2. Hereinafter, "forward (ST3)" will be referred to as state ST3.

“後(ST4)”は、初期状態ST0にある親指F1と人差し指F2を接触させながら、親指F1の先端部を人差し指F2の基節部の側面まで移動した状態である。以下では、“後(ST4)”を状態ST4という。 "Back (ST4)" is the state in which the thumb F1 and index finger F2 are in contact with each other in the initial state ST0, and the tip of the thumb F1 is moved to the side of the proximal joint of the index finger F2. Hereinafter, "back (ST4)" will be referred to as state ST4.

“下(ST5)”は、初期状態ST0にある親指F1と人差し指F2を接触させながら、親指F1の先端部を人差し指F2の下方位置まで押し下げた状態である。以下では、“下(ST5)”を状態ST5という。状態ST5において、親指F1は人差し指F2と中指F3の間に位置する。 "Down (ST5)" is a state in which the thumb F1 and index finger F2 are in contact with each other in the initial state ST0, and the tip of the thumb F1 is pressed down to a position below the index finger F2. Hereinafter, "down (ST5)" is referred to as state ST5. In state ST5, the thumb F1 is located between the index finger F2 and the middle finger F3.

“リリース(ST6)”は、接触していた親指F1と人差し指F2を離間し、そのまま一定時間維持したときの状態である。以下では、“リリース(ST6)”をリリース状態ST6という。 "Release (ST6)" is the state when the thumb F1 and index finger F2, which had been in contact, are separated and maintained in this state for a certain period of time. Hereinafter, "release (ST6)" will be referred to as the release state ST6.

“接触(ST7)”は、リリース状態ST6であった親指F1と人差し指F2とを接触させた状態である。以下では、“接触(ST7)”を状態ST7という。状態ST7は、リリース状態ST6から初期状態ST0に変化するときの中間状態である。 "Contact (ST7)" is a state in which the thumb F1 and index finger F2, which were in the released state ST6, are brought into contact with each other. In the following, "Contact (ST7)" will be referred to as state ST7. State ST7 is an intermediate state when changing from the released state ST6 to the initial state ST0.

制御装置30(ジェスチャ検出部30H)は、角速度の変化に基づいて、親指F1と人差し指F2の状態を判定している。制御装置30は、状態がリリース状態ST6から接触状態ST7に遷移し、接触状態ST7が一定時間継続したときに、現在の状態が初期状態ST0であると判定する。 The control device 30 (gesture detection unit 30H) determines the state of the thumb F1 and index finger F2 based on the change in angular velocity. When the state transitions from the release state ST6 to the contact state ST7 and the contact state ST7 continues for a certain period of time, the control device 30 determines that the current state is the initial state ST0.

また、本実施形態では、以下のように第1ジェスチャ及び第2ジェスチャを定義する。
(1)第1ジェスチャ
第1ジェスチャは、親指F1及び人差し指F2を、状態ST0~ST5の何れかの状態から状態ST6及び状態ST7を経て初期状態ST0にする動作である。換言すると、第1ジェスチャは、親指F1を振り上げ、かつ、親指F2を振り下す動作である。
(2)第2ジェスチャ
第2ジェスチャは、以下の(A)及び(B)の2種類の動作である。
(A)親指F1及び人差し指F2を、初期状態ST0を起点として状態ST1~ST5の何れかの状態にする動作。
(B)第1ジェスチャである動作(ST0→ST6→ST7→ST0)の直後の一定時間内に同様の動作(ST0→ST6→ST7→ST0)を行う一連の動作。
(B)の動作自体は、第1ジェスチャと同じ動作であるが、(B)の動作が第1ジェスチャの直後かつ一定期間内に行われる場合には、第2ジェスチャとして扱われる。換言すると、(B)の動作は、複数の動作を纏めた、ダブルタップのジェスチャである。
In addition, in this embodiment, the first gesture and the second gesture are defined as follows.
(1) First Gesture The first gesture is a motion of moving the thumb F1 and index finger F2 from any one of states ST0 to ST5 to the initial state ST0 via states ST6 and ST7. In other words, the first gesture is a motion of lifting the thumb F1 and lowering the thumb F2.
(2) Second Gesture The second gesture is one of the following two types of actions (A) and (B).
(A) An action of putting the thumb F1 and index finger F2 into one of states ST1 to ST5, starting from the initial state ST0.
(B) A series of actions in which a similar action (ST0→ST6→ST7→ST0) is performed within a certain period of time immediately following the action (ST0→ST6→ST7→ST0) that is the first gesture.
The action (B) itself is the same as the first gesture, but if the action (B) is performed immediately after and within a certain period of time after the first gesture, it is treated as the second gesture. In other words, the action (B) is a double-tap gesture that combines multiple actions.

第1ジェスチャ及び第2ジェスチャは、操作者の平常時の指動作と異なるように定義されるものとする。これにより、任意の指動作の中から、第1ジェスチャ及び第2ジェスチャを容易に検出できる。また、第1ジェスチャは、第2ジェスチャとは異なった特徴的な指動作とすると好適である。これにより、制御装置30は、第1ジェスチャと第2ジェスチャを容易に識別できる。本実施形態では、第1ジェスチャは親指の大きな上下運動であり、第2ジェスチャは人差し指による平面内における親指の前後左右の運動または同平面を基準とする小さな下方運動である。 The first gesture and the second gesture are defined to be different from the operator's normal finger movements. This allows the first gesture and the second gesture to be easily detected from any finger movements. In addition, it is preferable that the first gesture is a characteristic finger movement different from the second gesture. This allows the control device 30 to easily distinguish between the first gesture and the second gesture. In this embodiment, the first gesture is a large up and down movement of the thumb, and the second gesture is a front-back and left-right movement of the index finger within a plane or a small downward movement based on the same plane.

図14は、本実施形態に係る操作入力システム2において各ジェスチャの判定で使用される親指F1の角速度のピーク値の組合せを示す図である。図中の丸印(“〇”)は、+X、-X、+Y、-Y、+Z、-Zの6つの方向のうち、所定の閾値以上の角速度のピーク値(以下、「ピーク角速度」と呼ぶ。)が検出される方向を示している。丸印が記載されているピーク角速度の方向の組合せは、各ジェスチャの特徴を示す。なお、丸印が無い場合も、角速度は微小に変化しているものとする。 Figure 14 is a diagram showing combinations of peak values of angular velocity of the thumb F1 used in determining each gesture in the operation input system 2 according to this embodiment. The circles ("◯") in the figure indicate the direction, out of the six directions +X, -X, +Y, -Y, +Z, and -Z, in which a peak value of angular velocity equal to or greater than a predetermined threshold value (hereinafter referred to as "peak angular velocity") is detected. The combination of directions of peak angular velocity marked with a circle indicates the characteristics of each gesture. Note that even when there is no circle, it is assumed that the angular velocity is changing very slightly.

先ず、第2ジェスチャ時における親指F1の角速度の変化について説明する。親指F1を右に移動する第2ジェスチャ時は、親指F1の角速度は+X、+Y、-Zの3方向で大きく変化する。親指F1を右に移動する第2ジェスチャは、親指F1のピーク角速度が、+X、+Y、-Zの3方向の組合せで検出されることを特徴とする。 First, we will explain the change in angular velocity of the thumb F1 during the second gesture. During the second gesture of moving the thumb F1 to the right, the angular velocity of the thumb F1 changes significantly in the three directions of +X, +Y, and -Z. The second gesture of moving the thumb F1 to the right is characterized in that the peak angular velocity of the thumb F1 is detected in a combination of the three directions of +X, +Y, and -Z.

同様に、親指F1を左に移動する第2ジェスチャ時は、親指F1の角速度は-Y、+Zの2方向で大きく変化する。親指F1を左に移動する第2ジェスチャは、親指F1のピーク角速度が、-Y、+Zの2方向の組合せで検出されることを特徴とする。 Similarly, during the second gesture of moving the thumb F1 to the left, the angular velocity of the thumb F1 changes significantly in two directions, -Y and +Z. The second gesture of moving the thumb F1 to the left is characterized in that the peak angular velocity of the thumb F1 is detected in a combination of two directions, -Y and +Z.

親指F1を前方に移動する第2ジェスチャ時は、親指F1の角速度は+X、+Y、-Y、+Z、-Zの5方向で大きく変化する。親指F1を前方に移動する第2ジェスチャは、親指F1のピーク角速度が、+X、+Y、-Y、+Z、-Zの5方向の組合せで検出されることを特徴とする。 When the second gesture involves moving the thumb F1 forward, the angular velocity of the thumb F1 changes significantly in five directions: +X, +Y, -Y, +Z, and -Z. The second gesture involves moving the thumb F1 forward, and is characterized in that the peak angular velocity of the thumb F1 is detected in a combination of the five directions: +X, +Y, -Y, +Z, and -Z.

親指F1を後方に移動する第2ジェスチャ時は、親指F1の角速度は+X、-X、+Y、-Y、-Zの5方向で大きく変化する。親指F1を後方に移動する第2ジェスチャは、親指F1のピーク角速度が、+X、-X、+Y、-Y、-Zの5方向の組合せで検出されることを特徴とする。 When the second gesture involves moving the thumb F1 backward, the angular velocity of the thumb F1 changes significantly in five directions: +X, -X, +Y, -Y, and -Z. The second gesture involves moving the thumb F1 backward, and is characterized in that the peak angular velocity of the thumb F1 is detected in a combination of the five directions: +X, -X, +Y, -Y, and -Z.

親指F1をタップする第2ジェスチャ時は、親指F1の角速度は+X、-X、+Yの3方向で大きく変化する。親指F1をタップする第2ジェスチャは、親指F1のピーク角速度が、+X、-X、+Yの3方向の組合せで検出されることを特徴とする。 When the second gesture involves tapping the thumb F1, the angular velocity of the thumb F1 changes significantly in the three directions of +X, -X, and +Y. The second gesture involves tapping the thumb F1, and is characterized in that the peak angular velocity of the thumb F1 is detected in a combination of the three directions of +X, -X, and +Y.

親指F1を押し下げる第2ジェスチャ時は、親指F1の角速度は-X、-Zの2方向で大きく変化する。親指F1を押し下げる第2ジェスチャは、親指F1のピーク角速度が、-X、-Zの2方向の組合せで検出されることを特徴とする。 When the second gesture involves pushing down the thumb F1, the angular velocity of the thumb F1 changes significantly in the two directions, -X and -Z. The second gesture involves pushing down the thumb F1, and is characterized in that the peak angular velocity of the thumb F1 is detected in a combination of the two directions, -X and -Z.

続いて、第1ジェスチャ時における親指F1の角速度の変化について説明する。上述したように、第1ジェスチャは、親指F1及び人差し指F2を、状態ST0~ST5の何れかの状態から状態ST6及び状態ST7を経て初期状態ST0にする一連の動作である。このため、図14では、リリース状態ST6にする動作時と初期状態ST0にする動作時の親指F1におけるピーク角速度の検出有無を分けて示している。 Next, the change in angular velocity of the thumb F1 during the first gesture will be described. As described above, the first gesture is a series of actions that move the thumb F1 and index finger F2 from one of states ST0 to ST5 to the initial state ST0 via states ST6 and ST7. For this reason, FIG. 14 separately shows whether or not a peak angular velocity is detected in the thumb F1 during the action to move to the released state ST6 and the action to move to the initial state ST0.

親指F1及び人差し指F2をリリース状態ST6にする動作時において、親指F1の角速度は+X、+Y、+Z、-Zの4方向で大きく変化する。このため、リリース状態ST6にする動作は、親指F1のピーク角速度が、+X、+Y、+Z、-Zの4方向の組合せで検出されることを特徴とする。 When the thumb F1 and index finger F2 are put into the release state ST6, the angular velocity of the thumb F1 changes significantly in the four directions, +X, +Y, +Z, and -Z. Therefore, the action of putting the thumb F1 into the release state ST6 is characterized in that the peak angular velocity of the thumb F1 is detected in a combination of the four directions, +X, +Y, +Z, and -Z.

また、親指F1及び人差し指F2をリリース状態ST6から初期状態ST0にする動作時において、親指F1の角速度は+X、+Yの2方向で大きく変化する。親指F1及び人差し指F2をリリース状態ST6から初期状態ST0にする動作は、親指F1のピーク角速度が、+X、+Yの2方向の組合せで検出されることを特徴とする。 In addition, when the thumb F1 and index finger F2 are moved from the released state ST6 to the initial state ST0, the angular velocity of the thumb F1 changes significantly in two directions, +X and +Y. The movement of the thumb F1 and index finger F2 from the released state ST6 to the initial state ST0 is characterized in that the peak angular velocity of the thumb F1 is detected in a combination of two directions, +X and +Y.

図15は、本実施形態に係る操作入力システム2において各ジェスチャの判定で使用される人差し指F2のピーク角速度の組合せを示す図である。図中の丸印(“〇”)は、図14と同様である。 Figure 15 is a diagram showing combinations of peak angular velocities of the index finger F2 used to determine each gesture in the operation input system 2 according to this embodiment. The circles ("◯") in the figure are the same as those in Figure 14.

先ず、第2ジェスチャ時における人差し指F2の角速度の変化について説明する。親指F1を右に移動する第2ジェスチャ時は、人差し指F2の角速度は-X、-Zの2方向で大きく変化する。親指F1を右に移動する第2ジェスチャは、人差し指F2のピーク角速度が、-X、-Zの2方向の組合せで検出されることを特徴とする。 First, we will explain the change in angular velocity of the index finger F2 during the second gesture. During the second gesture of moving the thumb F1 to the right, the angular velocity of the index finger F2 changes significantly in two directions, -X and -Z. The second gesture of moving the thumb F1 to the right is characterized in that the peak angular velocity of the index finger F2 is detected in a combination of two directions, -X and -Z.

親指F1を左に移動する第2ジェスチャ時は、人差し指F2のピーク角速度はいずれの方向においても検出はされない。ただし、人差し指F2の角速度は、いずれの方向においても微小に変化している。親指F1を左に移動する第2ジェスチャでは、人差し指F2のピーク角速度の組合せが検出されないため、ジェスチャ判定に使用される特徴はない。 During the second gesture of moving the thumb F1 to the left, the peak angular velocity of the index finger F2 is not detected in either direction. However, the angular velocity of the index finger F2 changes slightly in both directions. During the second gesture of moving the thumb F1 to the left, no combination of peak angular velocities of the index finger F2 is detected, so there is no feature that is used for gesture determination.

親指F1を前方に移動する第2ジェスチャ時は、人差し指F2の角速度は人差し指F2の角速度は-X、-Y、-Zの3方向で大きく変化する。親指F1を前方に移動する第2ジェスチャは、人差し指F2のピーク角速度が、-X、-Y、-Zの3方向の組合せで検出されることを特徴とする。 During the second gesture of moving the thumb F1 forward, the angular velocity of the index finger F2 changes significantly in the three directions of -X, -Y, and -Z. The second gesture of moving the thumb F1 forward is characterized in that the peak angular velocity of the index finger F2 is detected in a combination of the three directions of -X, -Y, and -Z.

親指F1を後方に移動する第2ジェスチャ時は、人差し指F2の角速度は、+X、+Yの2方向で大きく変化する。親指F1を後方に移動する第2ジェスチャは、人差し指F2のピーク角速度が、+X、+Yの2方向の組合せで検出されることを特徴とする。 When the second gesture involves moving the thumb F1 backward, the angular velocity of the index finger F2 changes significantly in the two directions, +X and +Y. The second gesture involves moving the thumb F1 backward, and is characterized in that the peak angular velocity of the index finger F2 is detected in a combination of the two directions, +X and +Y.

親指F1をタップする第2ジェスチャ時は、人差し指F2のピーク角速度はいずれの方向においても検出はされない。ただし、人差し指F2の角速度は、いずれの方向においても微小に変化している。親指F1をタップする第2ジェスチャでは、人差し指F2のピーク角速度の組合せが検出されないため、ジェスチャ判定に使用される特徴はない。 During the second gesture of tapping the thumb F1, the peak angular velocity of the index finger F2 is not detected in either direction. However, the angular velocity of the index finger F2 changes slightly in both directions. During the second gesture of tapping the thumb F1, no combination of peak angular velocities of the index finger F2 is detected, and therefore no feature is used for gesture determination.

親指F1を押し下げる第2ジェスチャ時は、人差し指F2の角速度は+X、+Yの2方向で大きく変化する。親指F1を押し下げる第2ジェスチャは、人差し指F2のピーク角速度が、+X、+Yの2方向の組合せで検出されることを特徴とする。 When the second gesture involves pushing down the thumb F1, the angular velocity of the index finger F2 changes significantly in the two directions, +X and +Y. The second gesture involves pushing down the thumb F1, and is characterized in that the peak angular velocity of the index finger F2 is detected in a combination of the two directions, +X and +Y.

続いて、第1ジェスチャ時における人差し指F2の角速度の変化について説明する。図15では、図14と同様に、リリース状態ST6にする動作時と初期状態ST0にする動作時のピーク角速度の検出有無を分けて示している。 Next, we will explain the change in angular velocity of the index finger F2 during the first gesture. In FIG. 15, similar to FIG. 14, the presence or absence of detection of peak angular velocity during the action to set the release state ST6 and the action to set the initial state ST0 are shown separately.

リリース状態ST6にする動作時において、人差し指F2のピーク角速度はいずれの方向においても検出されない。ただし、人差し指F2の角速度は、いずれの方向においても微小に変化している。親指F1及び人差し指F2をリリース状態ST6にする第1ジェスチャの前半動作では、人差し指F2のピーク角速度の組合せは検出されないため、ジェスチャ判定に使用される特徴はない。 During the action of putting the thumb F1 and index finger F2 into the released state ST6, the peak angular velocity of the index finger F2 is not detected in either direction. However, the angular velocity of the index finger F2 changes slightly in either direction. In the first half of the action of the first gesture of putting the thumb F1 and index finger F2 into the released state ST6, the combination of peak angular velocities of the index finger F2 is not detected, so there is no feature that is used for gesture determination.

リリース状態ST6から初期状態ST0にする動作時において、人差し指F2の角速度はいずれの方向においても検出されない。ただし、人差し指F2の角速度は、いずれの方向においても微小に変化している。リリース状態ST6から初期状態ST0にする第1ジェスチャの後半動作では、人差し指F2のピーク角速度の組合せが検出されないため、ジェスチャ判定に使用される特徴はない。 When moving from the released state ST6 to the initial state ST0, the angular velocity of the index finger F2 is not detected in any direction. However, the angular velocity of the index finger F2 changes slightly in any direction. In the latter half of the first gesture, moving from the released state ST6 to the initial state ST0, the combination of peak angular velocities of the index finger F2 is not detected, so there is no feature that is used for gesture determination.

図16は、本実施形態に係る操作入力システム2において検出される複数のジェスチャの関係を説明する図である。図16では、上述した状態ST0~ST6、ST8に対応する8種類のジェスチャG0~G6、G8が示されている。図中の矢印の方向は、あるジェスチャから他のジェスチャへ移行する方向を示している。また、図17は、ジェスチャG5を説明する側面図である。図18は、ジェスチャG6を説明する側面図である。 Figure 16 is a diagram illustrating the relationship between multiple gestures detected in the operation input system 2 according to this embodiment. Eight types of gestures G0 to G6, G8 corresponding to the above-mentioned states ST0 to ST6, ST8 are shown in Figure 16. The direction of the arrow in the figure indicates the direction of transition from one gesture to another. Also, Figure 17 is a side view illustrating gesture G5. Figure 18 is a side view illustrating gesture G6.

ジェスチャG0は、親指F1と人差し指F2が離間している状態ST6から、親指F1を人差し指F2の中節骨の側面に接触させた状態ST7とし、その後に一定時間維持した初期状態ST0とする第1ジェスチャである。 Gesture G0 is a first gesture that changes from a state ST6 in which the thumb F1 and index finger F2 are separated to a state ST7 in which the thumb F1 is in contact with the side of the middle phalanx of the index finger F2, and then to the initial state ST0, which is maintained for a certain period of time.

ジェスチャG1は、親指F1と人差し指F2が初期状態ST0にあるときに、親指F1と人差し指F2の接触を維持しながら、親指F1の先端部を人差し指F2の側面に沿って左方向に移動させた状態とする第2ジェスチャである。親指F1と人差し指F2の状態は、ジェスチャG1によって初期状態ST0から状態ST1へ変更される。 Gesture G1 is a second gesture in which, when the thumb F1 and index finger F2 are in the initial state ST0, the tip of the thumb F1 is moved leftward along the side of the index finger F2 while maintaining contact between the thumb F1 and index finger F2. The state of the thumb F1 and index finger F2 is changed from the initial state ST0 to state ST1 by gesture G1.

ジェスチャG2は、親指F1と人差し指F2が初期状態ST0にあるときに、親指F1と人差し指F2を接触させながら、親指F1の先端部を人差し指F2の側面に沿って右方向に移動させた状態で一定時間維持する第2ジェスチャである。親指F1と人差し指F2の状態は、ジェスチャG2によって初期状態ST0から状態ST2へ変更される。 Gesture G2 is a second gesture in which, when the thumb F1 and index finger F2 are in the initial state ST0, the thumb F1 and index finger F2 are brought into contact with each other and the tip of the thumb F1 is moved to the right along the side of the index finger F2 for a certain period of time. The state of the thumb F1 and index finger F2 is changed from the initial state ST0 to state ST2 by gesture G2.

ジェスチャG3は、親指F1と人差し指F2が初期状態ST0にあるときに、親指F1と人差し指F2を接触させながら、親指F1の先端部を人差し指F2の背部よりも外側方向に突き出す第2ジェスチャである。親指F1と人差し指F2の状態は、ジェスチャG3によって初期状態ST0から状態ST3へ変更される。 Gesture G3 is a second gesture in which, when the thumb F1 and index finger F2 are in the initial state ST0, the thumb F1 and index finger F2 are in contact with each other and the tip of the thumb F1 is pushed outward beyond the back of the index finger F2. The state of the thumb F1 and index finger F2 is changed from the initial state ST0 to state ST3 by gesture G3.

ジェスチャG4は、親指F1と人差し指F2が初期状態ST0にあるときに、親指F1と人差し指F2を接触させながら縮めて、親指F1の先端部を人差し指F2の側面まで移動する第2ジェスチャである。親指F1と人差し指F2の状態は、ジェスチャG4によって初期状態ST0から状態ST4へ変更される。 Gesture G4 is a second gesture in which, when the thumb F1 and index finger F2 are in the initial state ST0, the thumb F1 and index finger F2 are brought into contact and contracted, and the tip of the thumb F1 is moved to the side of the index finger F2. The state of the thumb F1 and index finger F2 is changed from the initial state ST0 to state ST4 by gesture G4.

ジェスチャG5は、親指F1と人差し指F2が初期状態ST0にあるときに、親指F1と人差し指F2を接触させながら、親指F1の先端部を押し下げて、図17に示すように人差し指F2と中指F3に接触させる第2ジェスチャである。親指F1と人差し指F2の状態は、ジェスチャG5によって初期状態ST0から状態ST5へ変更される。 Gesture G5 is a second gesture in which, while the thumb F1 and index finger F2 are in contact with each other when they are in the initial state ST0, the tip of the thumb F1 is pressed down to contact the index finger F2 and middle finger F3 as shown in FIG. 17. The state of the thumb F1 and index finger F2 is changed from the initial state ST0 to state ST5 by gesture G5.

ジェスチャG6は、図18に示すように、任意の状態から親指F1と人差し指F2を離間し、その状態で一定時間維持する第2ジェスチャである。例えば、親指F1と人差し指F2の状態は、ジェスチャG6によって初期状態ST0、状態ST1~ST5のいずれかからリリース状態ST6へ変更される。 Gesture G6 is a second gesture in which the thumb F1 and index finger F2 are separated from an arbitrary state and maintained in that state for a certain period of time, as shown in FIG. 18. For example, the state of the thumb F1 and index finger F2 is changed by gesture G6 from the initial state ST0 or any of states ST1 to ST5 to the released state ST6.

ジェスチャG8は、親指F1と人差し指F2が初期状態ST0にあるときに、親指F1と人差し指F2を一旦離間した後に、所定の制限時間のうちに親指F1で人差し指F2の側面を所定回数(例えば2回)だけタップする第2ジェスチャである。 Gesture G8 is a second gesture in which, when the thumb F1 and index finger F2 are in the initial state ST0, the thumb F1 and index finger F2 are temporarily separated, and then the thumb F1 taps the side of the index finger F2 a predetermined number of times (e.g., twice) within a predetermined time limit.

ジェスチャG1~G5、G8は、第2ジェスチャであり、操作入力に関する6種類のコマンドに予め関連付けられている。ジェスチャG1~G4は、操作入力画面上においてカーソル等を左方向、右方向、上方向、下方向にそれぞれ移動させるコマンドに対応する。ジェスチャG5は、操作入力画面において直前に行われた操作入力を解除するコマンドに対応する。ジェスチャG8は、操作入力画面において選択した項目あるいは入力した情報を確定するコマンドに対応する。 Gestures G1 to G5 and G8 are second gestures and are pre-associated with six types of commands related to operation input. Gestures G1 to G4 correspond to commands for moving the cursor or the like to the left, right, up, and down, respectively, on the operation input screen. Gesture G5 corresponds to a command for canceling the operation input performed immediately before on the operation input screen. Gesture G8 corresponds to a command for confirming the item selected or the information entered on the operation input screen.

図19は、本実施形態に係る操作入力システム2において実行される処理の一例を示すフローチャートである。図19の処理は、ステップS101~S108、S110~S113については、図10のフローチャートと共通する。このため、以下では図10と相違するステップについて詳細に説明する。 Figure 19 is a flowchart showing an example of processing executed in the operation input system 2 according to this embodiment. The processing in Figure 19 shares steps S101 to S108 and S110 to S113 with the flowchart in Figure 10. Therefore, steps that differ from Figure 10 will be described in detail below.

ステップS108において、制御装置30は、抽出期間内において抽出された角速度のピーク値の組合せに基づいて、2本の指による相対的な指動作を判定する。指動作の判定は、親指F1の第1角速度(第1信号)又は人差し指F2の第2角速度(第2信号)が所定の閾値以上である場合(ステップS106:YES)に開始されるため、計算負荷が抑制される。 In step S108, the control device 30 determines the relative finger motion of the two fingers based on the combination of peak values of the angular velocities extracted within the extraction period. The finger motion determination is started when the first angular velocity (first signal) of the thumb F1 or the second angular velocity (second signal) of the index finger F2 is equal to or greater than a predetermined threshold (step S106: YES), thereby reducing the calculation load.

ステップS108の後、処理はステップS201へ移行する。ステップS201において、制御装置30は、2本の指による指動作が第1ジェスチャに該当するか否かを判定する。 After step S108, the process proceeds to step S201. In step S201, the control device 30 determines whether the finger movement using two fingers corresponds to the first gesture.

ここで、制御装置30が、指動作は第1ジェスチャに該当する、すなわち、指動作はジェスチャG0であると判定すると(ステップS201:YES)、制御装置30は、記憶領域に記憶されている第1ジェスチャの検出フラグをONに更新し(ステップS202)、処理はステップS101へ戻る。 Here, if the control device 30 determines that the finger movement corresponds to the first gesture, i.e., that the finger movement is gesture G0 (step S201: YES), the control device 30 updates the detection flag for the first gesture stored in the memory area to ON (step S202), and the process returns to step S101.

検出フラグは、第1ジェスチャが検出されたか否かを示すフラグである。検出フラグは、例えば操作入力のコマンドが発行された際にOFFに初期化され得る。なお、操作入力システム1において第1ジェスチャの検出状態を管理する方法は、検出フラグを用いる方法に限られない。 The detection flag is a flag that indicates whether or not the first gesture has been detected. The detection flag can be initialized to OFF, for example, when an operation input command is issued. Note that the method of managing the detection state of the first gesture in the operation input system 1 is not limited to the method of using the detection flag.

これに対し、制御装置30が、指動作は第1ジェスチャに該当しないと判定すると(ステップS201:NO)、処理はステップS203へ移行する。 In contrast, if the control device 30 determines that the finger movement does not correspond to the first gesture (step S201: NO), the process proceeds to step S203.

ステップS203において、制御装置30は、指動作が第2ジェスチャである否かを判定する。ここで、制御装置30が、指動作は第2ジェスチャであると判定すると(ステップS203:YES)、処理はステップS204へ移行する。 In step S203, the control device 30 determines whether the finger motion is the second gesture. If the control device 30 determines that the finger motion is the second gesture (step S203: YES), the process proceeds to step S204.

これに対し、制御装置30が、指動作は第2ジェスチャではないと判定すると(ステップS203:NO)、処理はステップS101へ戻る。 In contrast, if the control device 30 determines that the finger movement is not the second gesture (step S203: NO), the process returns to step S101.

ステップS204において、制御装置30は、第1ジェスチャの検出フラグがONであるか否かを判定する。すなわち、制御装置30は、第2ジェスチャの前に、第1ジェスチャが検出されていたか否かを判定する。ここで、制御装置30が、第1ジェスチャの検出フラグがONであると判定すると(ステップS204:YES)、処理はステップS205へ移行する。 In step S204, the control device 30 determines whether the detection flag for the first gesture is ON. That is, the control device 30 determines whether the first gesture was detected before the second gesture. Here, if the control device 30 determines that the detection flag for the first gesture is ON (step S204: YES), the process proceeds to step S205.

これに対し、制御装置30が、第1ジェスチャの検出フラグがONではないと判定すると(ステップS204:NO)、処理はステップS101へ戻る。すなわち、制御装置30は、第1ジェスチャが検出されるよりも前に第2ジェスチャが行われたと判定すると、第2ジェスチャによる操作入力は受け付けない。 In contrast, if the control device 30 determines that the detection flag for the first gesture is not ON (step S204: NO), the process returns to step S101. In other words, if the control device 30 determines that the second gesture was performed before the first gesture was detected, the control device 30 does not accept the operation input by the second gesture.

ステップS205において、制御装置30は、第2ジェスチャに対応するコマンドを出力する。詳述すると、制御装置30は、第1ジェスチャに続いて第2ジェスチャが行われたと判定すると、第2ジェスチャを操作入力として受け付け、第2ジェスチャに対応するコマンドを出力する。その後、処理はステップS110へ移行する。ステップS110~ステップS113の処理は、図10の場合と同様である。 In step S205, the control device 30 outputs a command corresponding to the second gesture. More specifically, when the control device 30 determines that the second gesture has been performed following the first gesture, it accepts the second gesture as an operation input and outputs a command corresponding to the second gesture. Then, the process proceeds to step S110. The processes in steps S110 to S113 are the same as those in FIG. 10.

上述した図7の場合、抽出期間Aの開始時刻t1から抽出期間Bの終了時刻t4までの指動作が第1ジェスチャに相当する。また、第1ジェスチャに続く、抽出期間Cにおける指動作が第2ジェスチャに相当する。第1ジェスチャにおいては、親指F1のX軸周りの角速度X_1についてプラス側とその後のマイナス側への大きな振幅の対が生じており、抽出期間Aにおける親指F1の振り上げの指動作と抽出期間Bにおける親指F1の振り下しの指動作の判定は容易である。また、抽出期間Aにおける指動作と抽出期間Bにおける指動作の組合せが第1ジェスチャであることも、容易に判定できる。 In the case of FIG. 7 described above, the finger movement from the start time t1 of the extraction period A to the end time t4 of the extraction period B corresponds to the first gesture. Furthermore, the finger movement in the extraction period C following the first gesture corresponds to the second gesture. In the first gesture, a pair of large amplitudes on the positive side and then on the negative side occurs for the angular velocity X_1 of the thumb F1 about the X axis, and it is easy to determine whether the finger movement is a lifting of the thumb F1 in the extraction period A or a downing of the thumb F1 in the extraction period B. Furthermore, it is also easy to determine that the combination of the finger movement in the extraction period A and the finger movement in the extraction period B is the first gesture.

例えば、図7においては親指F1のX軸周りの角速度X_1についてプラス側に閾値THp、マイナス側に閾値THmが設定されている。ここで、制御装置30(ジェスチャ検出部30H)は、角速度X_1について、X_1≧THpとなる期間を“1”、THm<X_1<THpとなる期間を“0”、X_1≦THmとなる期間を“-1”として区分する。この場合、制御装置30は、時刻t1~t6の期間においては“0”→“1”→“0”→“-1”→“0”の角速度の変化パターンを容易に検出できる。そして、制御装置30は、角速度X_1と同様の方法で、角速度の変化パターンの検出処理を他の角速度Y_1、Z_1、X_2、Y_2、Z_2について実行する。これにより、制御装置30は、少ない計算負荷により、第1ジェスチャに続いて行われた第2ジェスチャを検出できる。 For example, in FIG. 7, a threshold value THp is set on the positive side and a threshold value THm is set on the negative side for the angular velocity X_1 of the thumb F1 around the X axis. Here, the control device 30 (gesture detection unit 30H) classifies the period when X_1≧THp for the angular velocity X_1 as "1", the period when THm<X_1<THp is "0", and the period when X_1≦THm is "-1". In this case, the control device 30 can easily detect the change pattern of the angular velocity of "0" → "1" → "0" → "-1" → "0" during the period from time t1 to t6. Then, the control device 30 executes the detection process of the change pattern of the angular velocity for the other angular velocities Y_1, Z_1, X_2, Y_2, and Z_2 in the same manner as for the angular velocity X_1. This allows the control device 30 to detect the second gesture performed following the first gesture with a small calculation load.

図20は、本実施形態に係る表示装置306に表示される操作入力画面の一例を示す図である。図20では、操作入力画面上に複数のメニューが表示されており、その中からメニューM1が選択された状態が示されている。また、操作入力画面の右上の領域には、カーソルの位置を移動するための十字キーKが表示されている。十字キーKの周囲には、複数のインジケータが設けられている。操作者の指動作によって上下左右のいずれかへカーソルの位置を移動させるコマンドが発行されると、コマンドに対応する方向のインジケータが点灯する。図20では、下方向へカーソルの位置を移動させるコマンドが発行されたことに伴い、十字キーKの下側のインジケータが点灯している。 Figure 20 is a diagram showing an example of an operation input screen displayed on the display device 306 according to this embodiment. In Figure 20, multiple menus are displayed on the operation input screen, and menu M1 is shown as being selected from among them. Also, a cross key K for moving the cursor position is displayed in the upper right area of the operation input screen. Multiple indicators are provided around the cross key K. When a command to move the cursor position up, down, left, or right is issued by the operator's finger movement, the indicator for the direction corresponding to the command lights up. In Figure 20, the indicator below the cross key K is lit up in response to the command being issued to move the cursor position downward.

指のジェスチャに基づく従来型の操作入力システムでは、あるジェスチャと次のジェスチャとの境界をうまく検出できない場合があった。このため、2つのジェスチャが1つのジェスチャとして捉えられる、あるいは、操作者の平常時における指の動作が何かのジェスチャとして捉えられてしまい、誤検出の可能性があった。 Conventional operation input systems based on finger gestures sometimes had trouble detecting the boundary between one gesture and the next. This could result in two gestures being captured as one, or the operator's normal finger movements being captured as a gesture, resulting in false detection.

例えば、指を水平方向に動かすジェスチャにおいて途中で指がほぼ静止した後に更に同一方向に動かした場合には、水平移動のジェスチャが1回検出される場合と、続けて2回繰り返されたと判定される場合があり得る。また、操作者が移動途中で間違いに気付いて、逆方向に移動させるとどちらか一方のみが有効となる、あるいは、両方が有効になる場合があり得る。このように、操作者が行ったジェスチャが本人の意図とは異なるジェスチャとして検出される可能性があった。 For example, if a gesture of moving a finger horizontally involves the finger coming to a near standstill midway and then moving further in the same direction, the horizontal movement gesture may be detected once, or it may be determined that it was repeated twice in succession. Also, if the operator realizes their mistake midway through the movement and moves in the opposite direction, only one of the movements may be valid, or both may be valid. In this way, there is a possibility that a gesture made by the operator may be detected as a gesture different from the operator's intention.

また、従来型の操作入力システムでは、掌や腕が所定の姿勢(例えば掌を地面と平行にした姿勢)でないと、指によるジェスチャが正常に検出できないという制約があった。これらの問題に対応させようとする場合には、複数の種類のセンサを用いて非常に複雑な計算が必要になる。 Furthermore, conventional operation input systems have the limitation that finger gestures cannot be detected correctly unless the palm or arm is in a specific position (for example, the palm is parallel to the ground). Addressing these issues requires the use of multiple types of sensors and extremely complex calculations.

これに対し、本実施形態に係る操作入力システム2では、操作者は親指F1と人差し指F2を用いて最初に第1ジェスチャを行い、第1ジェスチャに続いて第2ジェスチャを行う。制御装置30は、第1ジェスチャとそれに続く第2ジェスチャの組合せを検出すると、第2ジェスチャに予め対応付けられているコマンドを出力する。 In contrast, in the operation input system 2 according to this embodiment, the operator first performs a first gesture using the thumb F1 and index finger F2, and then performs a second gesture following the first gesture. When the control device 30 detects a combination of the first gesture and the subsequent second gesture, it outputs a command that is pre-associated with the second gesture.

したがって、本実施形態に係る操作入力システム2は、ジェスチャの検出・判定の精度が高く、かつ、計算負荷が少ないという利点がある。さらに、操作入力システム2は、第1ジェスチャ時の姿勢を基準として第2ジェスチャを検出する構成であるため、操作者は任意の静止した姿勢においてジェスチャ入力が可能であり、操作時における自由度が高くなる。 Therefore, the operation input system 2 according to this embodiment has the advantage of having high accuracy in detecting and determining gestures and low computational load. Furthermore, since the operation input system 2 is configured to detect the second gesture based on the posture during the first gesture, the operator can input gestures in any stationary posture, which increases the degree of freedom during operation.

[第3実施形態]
以下、第3実施形態に係る操作入力システム3について説明する。以下では主として第1実施形態及び第2実施形態との相違点について説明するものとし、共通部分については説明を省略又は簡略化する。
[Third embodiment]
Hereinafter, an operation input system 3 according to the third embodiment will be described. The following mainly describes the differences from the first and second embodiments, and descriptions of common parts will be omitted or simplified.

図21は、本実施形態に係る操作入力システム3を構成する装置のハードウェア構成の一例を示すブロック図である。図21に示すように、スマートグラス40は、MCU401、無線通信装置402、バッテリ403、及び表示装置404を備える。本実施形態に係る操作入力システム3は、スマートグラス40を更に備える点で第1実施形態及び第2実施形態と異なる。 FIG. 21 is a block diagram showing an example of the hardware configuration of the devices constituting the operation input system 3 according to this embodiment. As shown in FIG. 21, the smart glasses 40 include an MCU 401, a wireless communication device 402, a battery 403, and a display device 404. The operation input system 3 according to this embodiment differs from the first and second embodiments in that it further includes smart glasses 40.

スマートグラス40は、操作者が眼鏡として装着可能なウェアラブルディスプレイである。スマートグラス40は、例えばAR(Augmented Reality)機能、カメラ機能、Bluetooth・Wi-Fi接続機能、マイク機能等を有する。 The smart glasses 40 are a wearable display that can be worn by the operator as glasses. The smart glasses 40 have, for example, an AR (Augmented Reality) function, a camera function, a Bluetooth/Wi-Fi connection function, a microphone function, etc.

図22は、本実施形態に係るスマートグラス40の一例を示す斜視図である。ここでは、スマートグラス40が、眼鏡フレーム41と、画面を眼鏡フレーム41に嵌め込まれたレンズ42に投影する表示装置(表示部)404とを含むことが示されている。表示装置404には、図20で示したような、制御装置30から出力された操作入力画面が投影される。 Figure 22 is a perspective view showing an example of smart glasses 40 according to this embodiment. Here, it is shown that the smart glasses 40 include a spectacle frame 41 and a display device (display unit) 404 that projects a screen onto lenses 42 fitted into the spectacle frame 41. An operation input screen output from the control device 30, such as that shown in Figure 20, is projected onto the display device 404.

本実施形態に係るスマートグラス40は、例えば以下のような方法で制御装置30により制御される。制御装置30は、画像・映像表示のみを行うモードにおいては、OSやアプリケーションによってジェスチャによる操作入力は無効としておく。また、制御装置30は、実行モードを操作者による入力が必要なモードに切り換えた場合、OSやアプリケーションによってジェスチャによる操作入力を有効にする。 The smart glasses 40 according to this embodiment are controlled by the control device 30, for example, in the following manner. In a mode in which only images and videos are displayed, the control device 30 disables operation input by gestures through the OS or an application. In addition, when the control device 30 switches the execution mode to a mode in which input by an operator is required, the control device 30 enables operation input by gestures through the OS or an application.

これにより、以降に行われた第1ジェスチャとそれに続く第2ジェスチャの組合せが検出され、ジェスチャによる操作入力が可能となる。例えば、図20に示すような操作入力画面に従って操作者による操作入力が行われる。その後、実行モードが画像・映像表示のみを行うモードに切り換えられた場合は、OSやアプリケーションによってジェスチャによる操作入力は再び無効とする。 This allows a combination of the first gesture and the subsequent second gesture to be detected, making it possible to input operations using gestures. For example, the operator inputs operations using an operation input screen such as that shown in FIG. 20. If the execution mode is then switched to a mode that only displays images and videos, the OS or application will again disable operation inputs using gestures.

本実施形態に係る操作入力システム3によれば、操作者が親指F1及び人差し指F2にリング状デバイスを装着し、所定のジェスチャを行うことで操作入力を行う。スマートグラス40には、操作入力画面が表示される。そして、操作入力画面は操作者の指ジェスチャによる操作入力に応じてリアルタイムで更新される。 According to the operation input system 3 of this embodiment, an operator wears a ring-shaped device on the thumb F1 and index finger F2 and performs a predetermined gesture to perform operation input. An operation input screen is displayed on the smart glasses 40. The operation input screen is updated in real time according to operation input by the operator's finger gestures.

例えば、制御装置30がスマートフォンである場合、操作者はスマートフォンに表示されている画面ではなく、スマートグラス40に表示されている画面を見ながら所望の操作入力を行える。このため、操作者は第1センサ装置10と第2センサ装置20によるジェスチャに基づいて行った操作入力の内容をスマートグラス40により確認できるため、効率的な操作入力が可能となる。 For example, if the control device 30 is a smartphone, the operator can perform the desired operation input while looking at the screen displayed on the smart glasses 40, not the screen displayed on the smartphone. Therefore, the operator can check the contents of the operation input performed based on the gestures of the first sensor device 10 and the second sensor device 20 through the smart glasses 40, enabling efficient operation input.

[変形実施形態]
本発明は、上述した実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において適宜変更が可能である。
[Modified embodiment]
The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the spirit of the present invention.

例えば、第1センサ装置10及び第2センサ装置20は、ジャイロセンサに加えて、加速度センサや磁気センサ等のセンサを更に備える慣性計測ユニットをセンサモジュールとして有してもよい。また、第1センサ装置10及び第2センサ装置20は、センサモジュールとして、ジャイロセンサの代わりに、加速度センサ等の他のセンサを用いてもよい。 For example, the first sensor device 10 and the second sensor device 20 may have an inertial measurement unit as a sensor module that further includes sensors such as an acceleration sensor and a magnetic sensor in addition to a gyro sensor. Also, the first sensor device 10 and the second sensor device 20 may use other sensors such as an acceleration sensor instead of a gyro sensor as a sensor module.

また、抽出期間における角速度のピーク値の代わりに、所定期間における角速度の積算値を用いてもよい。積算値の変化パターンを識別することにより、どのような指動作が行われたのかを特定することができる。これは、第1センサ装置10及び第2センサ装置20が角速度の代わりに加速度を検出する構成の場合も同様である。 In addition, instead of the peak value of the angular velocity in the extraction period, the integrated value of the angular velocity in a predetermined period may be used. By identifying the change pattern of the integrated value, it is possible to identify what kind of finger movement was performed. This also applies to the case where the first sensor device 10 and the second sensor device 20 are configured to detect acceleration instead of angular velocity.

また、第1センサ装置10及び第2センサ装置20における設定情報は、装着対象の指に合せて設定されている。このため、第1センサ装置10及び第2センサ装置20のそれぞれの基体11の外周には、装着される指及び装着方向を示す文字または図形が表されていると好適である。これにより、操作者は第1センサ装置10及び第2センサ装置20の外周の文字または図形を参照することで、第1センサ装置10及び第2センサ装置20を各指に最適な状態で装着できるため、指動作の検出の精度を更に向上できる。 The setting information for the first sensor device 10 and the second sensor device 20 is set to match the finger on which they are to be worn. For this reason, it is preferable that the outer periphery of the base 11 of each of the first sensor device 10 and the second sensor device 20 has characters or figures indicating the finger on which they are to be worn and the direction in which they are to be worn. This allows the operator to wear the first sensor device 10 and the second sensor device 20 in an optimal state on each finger by referring to the characters or figures on the outer periphery of the first sensor device 10 and the second sensor device 20, thereby further improving the accuracy of finger movement detection.

また、上述した実施形態では、第1センサ装置10及び第2センサ装置20において検出された第1角速度及び第2角速度と、所定の閾値との関係に基づいて指動作を判定していた。しかし、指動作を判定する方法はこれに限られない。例えば、制御装置は、第1角速度(第1信号)及び第2角速度(第2信号)に対応する指動作を学習した学習モデルに、検出された第1信号及び第2信号を入力することによって指動作を判定する構成としてもよい。指動作の判定に学習モデルに用いる場合には、計算負荷を更に抑制できる効果を奏する。 In the above-described embodiment, the finger movement was determined based on the relationship between the first and second angular velocities detected by the first and second sensor devices 10 and 20 and a predetermined threshold value. However, the method of determining the finger movement is not limited to this. For example, the control device may be configured to determine the finger movement by inputting the detected first and second signals to a learning model that has learned finger movements corresponding to the first angular velocity (first signal) and the second angular velocity (second signal). When the learning model is used to determine the finger movement, there is an effect of further reducing the calculation load.

上述した実施形態では、操作者が第1ジェスチャを行ってから第2ジェスチャを完了するまでの期間において、手の姿勢がほぼ維持されていることを前提として説明した。しかし、操作者の手の姿勢が第1ジェスチャ時と第2ジェスチャ時とで大きく異なる場合には、ジェスチャ検出の精度が低下する、あるいは計算負荷が高くなる可能性がある。そこで、制御装置30は、第1角速度(第1信号)及び第2角速度(第2信号)に基づいて操作者の第1指及び第2指以外の手の姿勢を推定する構成を更に備えると好適である。具体的には、手のひらや甲の方向を推定する。手の姿勢を正確に推定することにより、第1ジェスチャ及び第2ジェスチャの検出の精度を高めることができる。 In the above-described embodiment, the description is based on the premise that the posture of the hand is almost maintained during the period from when the operator makes the first gesture to when the operator completes the second gesture. However, if the posture of the operator's hand is significantly different between when the operator makes the first gesture and when the operator makes the second gesture, the accuracy of gesture detection may decrease or the calculation load may increase. Therefore, it is preferable that the control device 30 further includes a configuration for estimating the posture of the operator's hand other than the first finger and the second finger based on the first angular velocity (first signal) and the second angular velocity (second signal). Specifically, the direction of the palm and the back of the hand is estimated. By accurately estimating the posture of the hand, the accuracy of detection of the first gesture and the second gesture can be improved.

また、制御装置30は、第1ジェスチャの検出後における手の姿勢の変化が所定範囲内にあることを条件として第2ジェスチャを判定してもよい。これにより、ジェスチャ検出の精度の低下を抑制できる。また、制御装置30における計算負荷を少なくできる効果を奏する。更に、制御装置30は、推定された第2ジェスチャ時における手の姿勢が、第1ジェスチャ時における手の姿勢と大きく異なると判定した場合には、その旨を操作者にフィードバックできると好適である。 The control device 30 may also determine the second gesture on the condition that the change in hand posture after the detection of the first gesture is within a predetermined range. This can suppress a decrease in the accuracy of gesture detection. It also has the effect of reducing the calculation load on the control device 30. Furthermore, if the control device 30 determines that the estimated hand posture during the second gesture is significantly different from the hand posture during the first gesture, it is preferable that the control device 30 can provide feedback to that effect to the operator.

上述した実施形態では、抽出期間における角速度のピーク値と共通の閾値に基づいて第1ジェスチャ及び第2ジェスチャを検出していた。しかし、第1ジェスチャの検出に用いられる閾値は、第2ジェスチャの検出に用いられる閾値と異なる値に設定されてもよい。例えば、第2ジェスチャを検出するときの閾値の絶対値は、第1ジェスチャを検出するときの閾値の絶対値よりも小さくしてもよい。この場合、第2ジェスチャにおける親指F1及び人差し指F2の角速度の絶対値は、第1ジェスチャにおける各指の角速度の絶対値よりも小さくなる。また、第2ジェスチャの検出時の感度は、第1ジェスチャの検出時よりも高くなるため、操作者は第1ジェスチャの検出後において第1ジェスチャ時よりも小さい動作で第2ジェスチャを行うことが可能となる。 In the above-described embodiment, the first gesture and the second gesture are detected based on the peak value of the angular velocity in the extraction period and a common threshold value. However, the threshold value used to detect the first gesture may be set to a value different from the threshold value used to detect the second gesture. For example, the absolute value of the threshold value when detecting the second gesture may be smaller than the absolute value of the threshold value when detecting the first gesture. In this case, the absolute value of the angular velocity of the thumb F1 and the index finger F2 in the second gesture is smaller than the absolute value of the angular velocity of each finger in the first gesture. In addition, since the sensitivity when detecting the second gesture is higher than when detecting the first gesture, the operator can perform the second gesture after detecting the first gesture with a smaller movement than when performing the first gesture.

1、2、3・・・操作入力システム
10・・・第1センサ装置
20・・・第2センサ装置
30・・・制御装置
30A・・・キャリブレーション部
30B・・・角速度算出部
30C・・・ピーク値抽出部
30D・・・コマンド発行部
30E・・・フィードバック制御部
30F・・・表示制御部
30G・・・入力部
30H・・・ジェスチャ検出部
40・・・スマートグラス
101・・・MCU
102・・・センサモジュール
103・・・無線通信装置
104・・・フィードバックモジュール
105A・・・締め付け機構
105B・・・振動機構
105・・・バッテリ
201・・・MCU
202・・・センサモジュール
203・・・無線通信装置
204・・・フィードバックモジュール
205・・・バッテリ
301・・・プロセッサ
302・・・RAM
303・・・ROM
304・・・ストレージ
305・・・通信I/F
306・・・表示装置
307・・・入力装置
401・・・MCU
402・・・無線通信装置
403・・・表示装置
404・・・バッテリ
Reference Signs List 1, 2, 3... Operation input system 10... First sensor device 20... Second sensor device 30... Control device 30A... Calibration unit 30B... Angular velocity calculation unit 30C... Peak value extraction unit 30D... Command issuing unit 30E... Feedback control unit 30F... Display control unit 30G... Input unit 30H... Gesture detection unit 40... Smart glasses 101... MCU
102: Sensor module 103: Wireless communication device 104: Feedback module 105A: Tightening mechanism 105B: Vibration mechanism 105: Battery 201: MCU
202: Sensor module 203: Wireless communication device 204: Feedback module 205: Battery 301: Processor 302: RAM
303...ROM
304: Storage 305: Communication I/F
306: Display device 307: Input device 401: MCU
402: Wireless communication device 403: Display device 404: Battery

Claims (33)

操作者の第1指に装着可能な環状の基体を有し、前記第1指の動きに応じた第1信号を出力する第1センサ装置と、
前記第1指とは異なる第2指に装着可能な環状の基体を有し、前記第2指の動きに応じた第2信号を出力する第2センサ装置と、
前記第1信号及び前記第2信号に基づいて、前記第1指及び前記第2指の相対的な指動作を判定する制御装置と、
を備える操作入力システム。
a first sensor device having an annular base body that can be worn on a first finger of an operator and that outputs a first signal corresponding to a movement of the first finger;
a second sensor device having an annular base body that can be worn on a second finger different from the first finger and that outputs a second signal corresponding to a movement of the second finger;
a control device that determines a relative finger motion of the first finger and the second finger based on the first signal and the second signal;
An operation input system comprising:
前記第1センサ装置は、前記第1信号を無線通信によって前記制御装置に送信する第1無線通信装置を含み、
前記第2センサ装置は、前記第2信号を無線通信によって前記制御装置に送信する第2無線通信装置を含む、
請求項1に記載の操作入力システム。
the first sensor device includes a first wireless communication device configured to wirelessly transmit the first signal to the control device;
the second sensor device includes a second wireless communication device that transmits the second signal to the control device by wireless communication;
The operation input system according to claim 1 .
前記第1センサ装置及び前記第2センサ装置のそれぞれは、ジャイロセンサ、加速度センサ、磁気センサの少なくとも1つ含む、
請求項1に記載の操作入力システム。
Each of the first sensor device and the second sensor device includes at least one of a gyro sensor, an acceleration sensor, and a magnetic sensor.
The operation input system according to claim 1 .
前記第1センサ装置及び前記第2センサ装置のそれぞれは、複数のセンサモジュールを含む、
請求項3に記載の操作入力システム。
Each of the first sensor device and the second sensor device includes a plurality of sensor modules.
The operation input system according to claim 3 .
複数の前記センサモジュールは、前記基体の周上に略等間隔に配されている、
請求項4に記載の操作入力システム。
The plurality of sensor modules are arranged at substantially equal intervals on the circumference of the base body.
The operation input system according to claim 4 .
前記基体の外周には、装着される指及び装着方向を示す文字または図形が表されている、
請求項1に記載の操作入力システム。
The outer periphery of the base body is provided with letters or figures indicating the finger on which the device is to be worn and the direction in which the device is to be worn.
The operation input system according to claim 1 .
前記制御装置は、前記第1信号及び前記第2信号に基づいて、前記第1センサ装置及び前記第2センサ装置の装着状態を判定する、
請求項1に記載の操作入力システム。
the control device determines the mounting states of the first sensor device and the second sensor device based on the first signal and the second signal.
The operation input system according to claim 1 .
前記制御装置は、前記第1センサ装置及び前記第2センサ装置の起動時に、前記第1信号及び前記第2信号のキャリブレーションを実行する、
請求項1に記載の操作入力システム。
the control device performs calibration of the first signal and the second signal at the start-up of the first sensor device and the second sensor device.
The operation input system according to claim 1 .
前記第1センサ装置及び前記第2センサ装置の各々は、前記操作者への通知動作を行うフィードバックモジュールを含む、
請求項1に記載の操作入力システム。
Each of the first sensor device and the second sensor device includes a feedback module that performs a notification operation to the operator.
The operation input system according to claim 1 .
前記フィードバックモジュールは、前記第1指又は前記第2指を締め付ける締め付け機構を有する、
請求項9に記載の操作入力システム。
The feedback module has a clamping mechanism for clamping the first finger or the second finger.
The operation input system according to claim 9 .
前記締め付け機構は、膨張又は収縮可能なエアバッグを有する、
請求項10に記載の操作入力システム。
The tightening mechanism includes an inflatable or deflated air bag.
The operation input system according to claim 10.
前記締め付け機構は、膨張又は収縮可能な誘電部材を有する、
請求項10に記載の操作入力システム。
The fastening mechanism includes an expandable or contractible dielectric member.
The operation input system according to claim 10.
前記フィードバックモジュールは、前記第1指又は前記第2指に振動を与える振動機構を有する、
請求項9に記載の操作入力システム。
The feedback module has a vibration mechanism that applies vibration to the first finger or the second finger.
The operation input system according to claim 9 .
前記振動機構は、膨張又は収縮可能な圧電素子を有する、
請求項13に記載の操作入力システム。
The vibration mechanism has a piezoelectric element that can expand or contract.
The operation input system according to claim 13.
前記振動機構は、振動可能な電磁駆動部を有する、
請求項13に記載の操作入力システム。
The vibration mechanism has an electromagnetic drive unit capable of vibrating.
The operation input system according to claim 13.
操作者の第1指に装着され、前記第1指の動きに応じた第1信号を検出する第1センサ装置と、
前記第1指とは異なる第2指に装着され、前記第2指の動きに応じた第2信号を検出する第2センサ装置と、
前記第1センサ装置及び前記第2センサ装置をそれぞれ制御する制御装置と、
を備え、
前記制御装置は、
前記第1信号及び前記第2信号に基づいて、前記第1指及び前記第2指の相対的な指動作を検出し、
前記指動作が予め定められた第1ジェスチャであると判定したことを条件として、前記第1ジェスチャに続いて行われる前記指動作が予め定められた第2ジェスチャであるか否かを判定し、
前記指動作が前記第2ジェスチャであると判定した場合に、前記第2ジェスチャに対応するコマンドを出力する、
操作入力システム。
a first sensor device that is attached to a first finger of an operator and detects a first signal corresponding to a movement of the first finger;
a second sensor device attached to a second finger different from the first finger and configured to detect a second signal corresponding to a movement of the second finger;
A control device that controls each of the first sensor device and the second sensor device;
Equipped with
The control device includes:
Detecting a relative finger motion of the first finger and the second finger based on the first signal and the second signal;
on a condition that the finger motion is determined to be a predetermined first gesture, determining whether or not the finger motion performed following the first gesture is a predetermined second gesture;
When the finger motion is determined to be the second gesture, a command corresponding to the second gesture is output.
Operation input system.
前記制御装置は、前記第1信号又は前記第2信号が閾値を超えた場合に前記指動作の判定を開始する、
請求項16に記載の操作入力システム。
the control device starts determining the finger motion when the first signal or the second signal exceeds a threshold.
The operation input system according to claim 16.
前記第1ジェスチャの判定における前記閾値は、前記第2ジェスチャの判定における前記閾値よりも大きい、
請求項17に記載の操作入力システム。
The threshold value for determining the first gesture is greater than the threshold value for determining the second gesture.
The operation input system according to claim 17.
前記制御装置は、前記第1信号及び前記第2信号に基づいて前記操作者の前記第1指及び前記第2指以外の手の姿勢を推定する、
請求項16に記載の操作入力システム。
the control device estimates a posture of a hand of the operator other than the first finger and the second finger based on the first signal and the second signal.
The operation input system according to claim 16.
前記制御装置は、前記第1ジェスチャの検出後における前記手の姿勢の変化が所定範囲内にあることを条件として前記第2ジェスチャを判定する、
請求項19に記載の操作入力システム。
the control device determines the second gesture on the condition that a change in the posture of the hand after the detection of the first gesture is within a predetermined range.
The operation input system according to claim 19.
前記制御装置は、前記第1信号及び前記第2信号に対応する前記指動作を学習した学習モデルに、検出された前記第1信号及び前記第2信号を入力することによって前記指動作を判定する、
請求項16に記載の操作入力システム。
the control device determines the finger motion by inputting the detected first signal and the second signal into a learning model that has learned the finger motion corresponding to the first signal and the second signal.
The operation input system according to claim 16.
前記第1指は親指、前記第2指は人差し指であり、
前記第1ジェスチャは、前記親指及び前記人差し指を離間してから、前記親指を前記人差し指の側面に接触させる動作である、
請求項16に記載の操作入力システム。
The first finger is a thumb and the second finger is an index finger,
The first gesture is an action of moving the thumb and the index finger apart and then touching the thumb to a side surface of the index finger.
The operation input system according to claim 16.
前記第2ジェスチャは、前記親指及び前記人差し指を接触させながら、前記親指を前記人差し指の前記側面に沿って左方向、右方向、前方向、及び後方向にそれぞれ移動する動作である、
請求項22に記載の操作入力システム。
The second gesture is an action of moving the thumb leftward, rightward, forward, and backward along the side surface of the index finger while the thumb and the index finger are in contact with each other.
The operation input system according to claim 22.
前記第2ジェスチャは、前記親指及び前記人差し指を接触させながら、前記親指を押し下げて前記親指を前記人差し指及び中指に接触させる動作である、
請求項22に記載の操作入力システム。
The second gesture is an action of touching the thumb and the index finger, pressing down the thumb, and touching the thumb to the index finger and the middle finger.
The operation input system according to claim 22.
前記第2ジェスチャは、接触している前記親指及び前記人差し指を前記離間する動作である、
請求項22に記載の操作入力システム。
the second gesture is an action of moving the thumb and the index finger apart from each other;
The operation input system according to claim 22.
前記第2ジェスチャは、前記親指の振り上げ及び振り下しを所定回数連続して行った後に、前記親指を前記人差し指に接触させる動作である、
請求項22に記載の操作入力システム。
The second gesture is an action of touching the thumb to the index finger after continuously shaking the thumb up and down a predetermined number of times.
The operation input system according to claim 22.
前記制御装置は、前記第2ジェスチャに対応して、操作入力画面に表示されているポインタ又はカーソルの位置を左方向、右方向、上方向、及び下方向のいずれかに移動する前記コマンドを出力する、
請求項22に記載の操作入力システム。
the control device outputs the command to move a position of a pointer or a cursor displayed on an operation input screen to any one of a leftward direction, a rightward direction, an upward direction, and a downward direction in response to the second gesture.
The operation input system according to claim 22.
前記制御装置は、前記第2ジェスチャに対応して、操作入力画面において直前に行われた操作入力を取り消す前記コマンドを出力する、
請求項22に記載の操作入力システム。
the control device outputs, in response to the second gesture, the command for canceling an operation input performed immediately before on an operation input screen.
The operation input system according to claim 22.
前記制御装置は、前記第2ジェスチャに対応して、前記第1ジェスチャの検出状態を示すフラグをリセットする前記コマンドを出力する、
請求項22に記載の操作入力システム。
the control device outputs, in response to the second gesture, the command to reset a flag indicating a detection state of the first gesture.
The operation input system according to claim 22.
前記制御装置は、前記第2ジェスチャに対応して、操作入力画面において直前に行われた操作入力を決定する前記コマンドを出力する、
請求項22に記載の操作入力システム。
the control device outputs, in response to the second gesture, the command for determining a previously performed operation input on an operation input screen.
The operation input system according to claim 22.
前記第1センサ装置は、前記第1信号を無線通信によって前記制御装置に送信する第1無線通信装置を含み、
前記第2センサ装置は、前記第2信号を無線通信によって前記制御装置に送信する第2無線通信装置を含む、
請求項22に記載の操作入力システム。
the first sensor device includes a first wireless communication device configured to wirelessly transmit the first signal to the control device;
the second sensor device includes a second wireless communication device that transmits the second signal to the control device by wireless communication;
The operation input system according to claim 22.
前記第1センサ装置及び前記第2センサ装置のそれぞれは、ジャイロセンサ、加速度センサ、磁気センサの少なくとも1つ含む、
請求項22に記載の操作入力システム。
Each of the first sensor device and the second sensor device includes at least one of a gyro sensor, an acceleration sensor, and a magnetic sensor.
The operation input system according to claim 22.
眼鏡フレームと、前記制御装置から出力された操作入力画面を前記眼鏡フレームに嵌め込まれたレンズに投影する表示部とを含むウェアラブルディスプレイ、
を更に備える請求項22に記載の操作入力システム。
a wearable display including a spectacle frame and a display unit that projects an operation input screen output from the control device onto lenses fitted in the spectacle frame;
The operation input system according to claim 22, further comprising:
JP2022207777A 2022-12-26 2022-12-26 Operation Input System Pending JP2024092095A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022207777A JP2024092095A (en) 2022-12-26 2022-12-26 Operation Input System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022207777A JP2024092095A (en) 2022-12-26 2022-12-26 Operation Input System

Publications (1)

Publication Number Publication Date
JP2024092095A true JP2024092095A (en) 2024-07-08

Family

ID=91802491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022207777A Pending JP2024092095A (en) 2022-12-26 2022-12-26 Operation Input System

Country Status (1)

Country Link
JP (1) JP2024092095A (en)

Similar Documents

Publication Publication Date Title
US10564730B2 (en) Non-collocated haptic cues in immersive environments
US9983676B2 (en) Simulation of tangible user interface interactions and gestures using array of haptic cells
JP2024105230A (en) Finger-mounted device including sensor and tactile sensation
EP3093734B1 (en) Systems and methods for distributing haptic effects to users interacting with user interfaces
JP2018173983A (en) Haptic sensation as function of eye gaze
US10777729B2 (en) Electronic device and control method thereof
EP3293621A2 (en) Compensated haptic rendering for flexible electronic devices
US10509489B2 (en) Systems and related methods for facilitating pen input in a virtual reality environment
US10540023B2 (en) User interface devices for virtual reality system
EP3096206A1 (en) Haptic effects based on predicted contact
US20200379598A1 (en) Apparatus capable of sensing touch and sensing touch pressure, and control method therefor
JP6483556B2 (en) Operation recognition device, operation recognition method and program
KR20140078180A (en) Touch sensitive device and controlling method for providing mini-map of tactile user interface
JP2008203911A (en) Pointing device and computer
Ketabdar et al. Pingu: A new miniature wearable device for ubiquitous computing environments
JP2023129717A (en) Head-mounted information processing apparatus and control method thereof
JP2015176176A (en) Information input-output device and information input-output method
JP2024092095A (en) Operation Input System
KR20150093270A (en) Motion interface device
CN116724284A (en) Method and device for processing user input of multiple devices
US20200387246A1 (en) Systems and methods for particle jamming haptic feedback
JP2003067107A (en) Tactile sense presenting device
US20120182231A1 (en) Virtual Multi-Touch Control Apparatus and Method Thereof
WO2024070266A1 (en) Finger-mounted controller
CN118778804A (en) Haptic feedback system and method without hand restraint

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240123

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240719

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240806