JP2012163611A - Processor, processing method, and program - Google Patents
Processor, processing method, and program Download PDFInfo
- Publication number
- JP2012163611A JP2012163611A JP2011021771A JP2011021771A JP2012163611A JP 2012163611 A JP2012163611 A JP 2012163611A JP 2011021771 A JP2011021771 A JP 2011021771A JP 2011021771 A JP2011021771 A JP 2011021771A JP 2012163611 A JP2012163611 A JP 2012163611A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- display
- user
- predetermined operation
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、処理装置、処理方法およびプログラムに関し、特には、使用者の動きに応じて自装置を制御する処理装置、処理方法およびプログラムに関する。 The present invention relates to a processing device, a processing method, and a program, and more particularly, to a processing device, a processing method, and a program for controlling the device according to a user's movement.
特許文献1には、端末に接触することなくユーザが操作を行うことが可能な携帯端末が記載されている。特許文献1に記載の携帯端末は、表示画面と、ユーザの指の動きを非接触で検出する検出部と、を備えている。検出部としてはユーザの指を撮像するカメラが用いられる。 Patent Document 1 describes a portable terminal that can be operated by a user without touching the terminal. The portable terminal described in Patent Literature 1 includes a display screen and a detection unit that detects the movement of the user's finger in a non-contact manner. A camera that captures an image of the user's finger is used as the detection unit.
特許文献1に記載の携帯端末は、カメラにて撮像された画像を用いて画像内の指の表示画面に対する移動方向を判断し、その移動方向に表示画面をスクロールする処理を行う。よって、ユーザは携帯端末に接触することなく携帯端末を操作することが可能となる。 The portable terminal described in Patent Literature 1 determines a moving direction of a finger in an image with respect to a display screen using an image captured by a camera, and performs a process of scrolling the display screen in the moving direction. Therefore, the user can operate the mobile terminal without touching the mobile terminal.
特許文献1に記載の携帯端末において、ユーザが携帯端末に接触することなく携帯端末を操作するには、カメラにて撮像された画像を用いて表示画面に対する指の移動方向を判断するような複雑な処理を行う必要がある。 In the mobile terminal described in Patent Document 1, in order for the user to operate the mobile terminal without touching the mobile terminal, it is complicated to determine the moving direction of the finger relative to the display screen using an image captured by the camera. It is necessary to perform a correct process.
よって、携帯端末などの処理装置では、複雑な処理を行うことなく、ユーザが処理装置を非接触で操作することが困難であったという問題があった。 Therefore, a processing device such as a portable terminal has a problem that it is difficult for a user to operate the processing device in a non-contact manner without performing complicated processing.
本発明の目的は、複雑な処理を行うことなく、ユーザが非接触で処理装置を操作することが可能な処理装置、処理方法およびプログラムを提供することにある。 An object of the present invention is to provide a processing device, a processing method, and a program that allow a user to operate the processing device in a non-contact manner without performing complicated processing.
本発明の処理装置は、所定動作を実行する実行手段と、対象物を非接触で検出する1以上の検出手段と、前記検出手段の検出結果の組合せに基づいて前記所定動作を制御する制御手段と、を含む。 The processing apparatus of the present invention includes an execution unit that executes a predetermined operation, one or more detection units that detect an object in a non-contact manner, and a control unit that controls the predetermined operation based on a combination of detection results of the detection unit. And including.
本発明の処理方法は、所定動作を実行する実行手段を備える処理装置における処理方法であって、対象物を非接触で検出する検出ステップと、前記検出ステップにて検出される検出結果の組合せに基づいて前記所定動作を制御する制御ステップと、を含む。 The processing method of the present invention is a processing method in a processing device including execution means for executing a predetermined operation, and includes a combination of a detection step for detecting an object in a non-contact manner and a detection result detected in the detection step. And a control step for controlling the predetermined operation based on the control step.
本発明のプログラムは、所定動作を実行する実行手段を備える処理装置内のコンピュータに、対象物を非接触で検出する検出手順と、前記検出手順にて検出される検出結果の組合せに基づいて前記所定動作を制御する制御手順と、を実行させる。 The program of the present invention is based on a combination of a detection procedure for detecting a target object in a non-contact manner and a detection result detected by the detection procedure in a computer in a processing apparatus having execution means for executing a predetermined operation. And a control procedure for controlling a predetermined operation.
本発明によれば、複雑な処理を行うことなく、ユーザが処理装置を非接触で操作することが可能になる。 According to the present invention, the user can operate the processing device in a non-contact manner without performing complicated processing.
以下、本発明の各実施形態について図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、第1実施形態における携帯装置の構成例を示すブロック図である。 FIG. 1 is a block diagram illustrating a configuration example of a mobile device according to the first embodiment.
携帯装置11は、例えば、携帯電話機にて実現される処理装置である。携帯装置11は、実行部11Aと、非接触検出部11Bと、制御部11Cと、を備える。制御部11Cは、CPU(Central Processing Unit)12と、メモリ部13と、を備える。
The
実行部11Aは、一般的に実行手段と呼ぶことができる。
実行部11Aは、携帯装置11の動作のうち所定動作(本実施形態では表示動作)を実行する。実行部11Aは、入力制御部14と、操作キー15と、表示制御部18と、ディスプレイ19と、通信処理部20と、無線部21と、バス22と、を備える。
The
操作キー15は、携帯装置11の使用者にて操作される装置である。
The
入力制御部14は、操作キー15を用いて使用者から入力された指示を受け付ける。
The
無線部21は、外部の通信装置と無線を使用して通信を行う。
The
通信処理部20は、無線部21が通信を行うためのデータに所定の処理を施す。
The
ディスプレイ19は、一般的に表示手段と呼ぶことができる。
ディスプレイ19は、所定動作として表示動作を実行する表示装置である。ディスプレイ19は、携帯装置11の前面に配置され、例えば液晶パネルや有機EL(Electro Luminescence)デバイスにて実現される。
The
表示制御部18は、CPU12の指示に従って、ディスプレイ19に表示される画像を制御する。例えば、表示制御部18は、CPU12の指示に従って、ディスプレイ19の表示状態を切り換える。また、表示制御部18は、CPU12の指示に従って、ディスプレイ19の表示をスクロール、拡大または縮小する。
The
非接触検出部11Bは、一般的に検出手段と呼ぶことができる。
非接触検出部11Bは、携帯装置11の使用者の一部である検出対象物を非接触で検出する。非接触検出部11Bは、検出対象物を非接触で検出して検出結果を出力する。
The
本実施形態では、非接触検出部11Bは、携帯装置11から検出対象物までの距離に応じて信号レベルが変化する検出信号を、検出結果として制御部11Cに出力する。非接触検出部11Bは、センサ制御部16と、近接センサ171〜173と、を備える。
In the present embodiment, the
近接センサ171〜173は、一般的に複数の検出手段と呼ぶことができる。 Proximity sensors 171-173 can generally be referred to as a plurality of detection means.
近接センサ171〜173のそれぞれは、検出対象物として使用者の顔を非接触で検出し、検出信号をセンサ制御部16に出力する。
Each of the
本実施形態では、近接センサ171〜173として、静電容量型の近接センサである静電容量センサが用いられる。近接センサ171〜173のそれぞれは、近接センサ自身と使用者の顔との間の相対的な距離の変化を非接触で検出する。よって、近接センサ171〜173は、使用者の顔との間の距離が近いほど、大きな検出値(信号レベル)の検出信号を出力する。
In this embodiment, as the
近接センサ171〜173は、例えば、JIS規格の近接スイッチにて実現される。JIS規格の近接スイッチとは、低開閉装置および処理装置、第5部制御回路機器および開閉素子、第2節近接スイッチ(JIS C 8201−5−2)に準拠する近接スイッチのことである。このJIS規格の近接スイッチは、国際規格IEC60947−5−2の非接触式位置検出用スイッチに準拠して企画されたものである。なお、近接センサ171〜173は、JIS規格の近接スイッチに限定されるものではなく、検出対象物を非接触で検出するものであればよい。
The
また、本実施形態では、近接センサ171〜173は、全ての近接センサ171〜173が1つの直線上に並ぶことの無いように配置されることが望ましい。
In the present embodiment, it is desirable that the
図2は、携帯装置11に設けられた近接センサ171〜173の配置例を示す図である。
FIG. 2 is a diagram illustrating an arrangement example of the
近接センサ171〜173は、携帯装置11の前面に設けられたディスプレイ19の外周部分に配置される。
The
近接センサ171は、ディスプレイ19の上側部分の中央に配置される。近接センサ172は、ディスプレイ19の左側部分の中央付近に配置される。近接センサ173は、ディスプレイ19の右側部分における近接センサ172と同じ高さの場所に配置される。
The
携帯装置11の使用者は、操作キー15を操作しつつ、ディスプレイ19に表示される情報を視認する。
The user of the
図1に戻り、センサ制御部16は、近接センサ171〜173のそれぞれに検出の実行または停止の指示を行う。また、センサ制御部16は、所定周期ごとに近接センサ171〜173からそれぞれの検出結果を受け付ける。センサ制御部16は、近接センサ171〜173から各検出信号を受け付けると、その各検出信号をCPU12に出力する。なお、センサ制御部16は、検出信号のレベルが所定の出力閾値を超えた場合に、その検出信号をCPU12に出力してもよい。
Returning to FIG. 1, the
制御部11Cは、一般的に制御手段と呼ぶことができる。
制御部11Cは、非接触検出部11Bの異なるタイミングでの検出結果の組合せに基づいてディスプレイ19の表示動作を制御する。制御部11Cは、非接触検出部11Bの異なるタイミングでの検出結果の組合せに基づいて、例えばディスプレイ19の表示を切り換える。
11 C of control parts control the display operation of the
具体的には、制御部11Cは、検出信号のレベルに応じて検出対象物が携帯装置11に近づいたか離れたかを判断する。この場合、制御部11Cは、非接触検出部11Bから検出信号を受け付けると、その検出信号のレベルが、直前に受け付けた検出信号のレベルに対して所定の信号閾値よりも大きい場合に検出対象物が近づいたと判断する。一方、検出信号のレベルが、直前に受け付けた検出信号のレベルに対して所定の信号閾値よりも小さい場合に制御部11Cは検出対象物が離れたと判断する。
Specifically, the
そして制御部11Cは、例えば、検出対象物が近づいた場合にはディスプレイ19の表示の切換えの実行を実行部11Aに指示し、検出対象物が離れた場合には表示の切換えをキャンセルする。
Then, for example, the
また、制御部11Cは、検出信号のレベルが、第1検出閾値を超えてから第1検出閾値よりも所定変動量だけ小さい第2検出閾値よりも小さくなるという動作を示す検出結果を非接触検出部11Bから所定時間内に所定回数受け付けた場合に、ディスプレイ19の表示をスクロールする速度を速くしてもよい。このため、使用者が、顔を携帯装置11に近づけた後に遠ざける動きを所定回数繰り返すと、ディスプレイ19に表示された表示画像のスクロールが速くなる。この場合、第1検出閾値と第2検出閾値と所定変動量とは、メモリ部13に予め記憶されている。
In addition, the
本実施形態では、制御部11Cは、近接センサ171〜173から出力される検出信号のパターンの組合せに基づいて、ディスプレイ19に表示される表示画像に表示処理を行う。例えば、制御部11Cは、近接センサ171〜173から出力される検出信号の組合せに基づいて、ディスプレイ19の表示画像を上下または左右にスクロールする表示処理や、表示画像を拡大または縮小する表示処理を行う。
In the present embodiment, the
メモリ部13には、複数の表示処理ごとに、その表示処理を識別するための識別情報と、近接センサ171〜173から出力される各検出信号のパターンの組合せを特定する特定情報と、が互いに対応付けて記憶されている。特定情報は使用者の顔の動きを特定するたに用いられる。例えば、メモリ部13には、表示画像を拡大する表示処理を示す識別情報と、使用者がディスプレイ19に顔を近づける動きを近接センサ171〜173で検出したときの各検出信号のパターンを示す特定情報と、が記憶されている。
The
また、メモリ部13は、CPU12にて実行される制御用のプログラムを格納する。また、メモリ部13は、CPU12が演算処理などを実行する際に一時的に必要となるデータを格納する。なお、メモリ部13は、コンピュータ読み取り可能な記録媒体である。
The
CPU12は、メモリ部13と入力制御部14とセンサ制御部16と表示制御部18と通信処理部20とのそれぞれを、バス22を介して制御する中央処理装置である。
The
本実施形態では、CPU12は、メモリ部13内の特定情報にて特定される各検出信号のパターンの組合せに基づいてディスプレイ19をスクロール、拡大または縮小する。
In the present embodiment, the
CPU12は、センサ制御部16から受け付けた各検出信号と、メモリ部13内の特定情報に示された各検出信号のパターンとを照合して、ディスプレイ19に対する使用者の顔の動きを特定する。例えば、CPU12は、センサ制御部16から受け付けた各検出信号と、メモリ部13内の特定情報に示された各検出信号のパターンとの相関を示す相関度を特定情報ごとに算出し、相関度が所定の相関閾値を超えると、その特定情報に対応付けられた識別情報を特定する。CPU12は、その識別情報にて識別された表示処理を実行する。
The
なお、CPU12は、メモリ部13に格納されたプログラムに従って、実行部11Aと、非接触検出部11Bと、の各々を制御するコンピュータである。
The
次に、携帯装置11の動作について説明する。
Next, the operation of the
図3は、使用者31がディスプレイ19を正面に見ながら、携帯装置11に対して使用者31の顔を右から左方向に移動させる様子を示す図である。
FIG. 3 is a diagram illustrating a state in which the
図4は、図3に示したように使用者31の顔が移動したときに近接センサ171〜173から出力される各検出信号の変化を示す図である。図4aには、近接センサ171から出力される検出信号の変化が示されている。図4bには、近接センサ172から出力される検出信号の変化が示されている。図4cには、近接センサ173から出力される検出信号の変化が示されている。
FIG. 4 is a diagram showing changes in the detection signals output from the
使用者31の顔が携帯端末11の右寄りにあるときは、使用者31の顔との距離が最も近い近接センサ173から出力される検出信号の検出値が最も大きくなる。
When the face of the
使用者31の顔が左方向へ移動し、携帯装置11の中央正面に使用者31の顔が移動すると、近接センサ173から出力される検出値が減少し、使用者31の顔との距離が最も近い近接センサ171から出力される検出値が最も大きくなる。つまり、近接センサ173が検出信号を出力し、その後、近接センサ172が検出信号を出力する。
When the face of the
さらに使用者31の顔が左方向へ移動し、携帯装置11の左寄りに使用者31の顔が移動すると、使用者31の顔との距離が最も近い近接センサ172から出力される検出値が最も大きくなり、使用者31の顔との距離が最も遠い近接センサ173から出力される検出値が、近接センサ171〜173のうち最も小さな値となる。つまり、近接センサ172が検出信号を出力した後、近接センサ172が検出信号を出力する。
When the face of the
図4では、ディスプレイ19に対して使用者31の顔が右から左方向に移動した場合の各検出信号の変化を時系列で示したが、使用者31の顔が左から右方向に移動した場合の各検出信号は、図4に示したパターンと逆のパターンを示す。つまり、近接センサ171〜173から出力される検出信号のそれぞれは、近接センサ172、近接センサ171、近接センサ173の順に検出値が最大となる。
In FIG. 4, the change of each detection signal when the face of the
図5は、使用者31がディスプレイ19を正面に見ながら、携帯装置11に対して使用者31の顔を下から上方向に移動させる様子を示す図である。
FIG. 5 is a diagram illustrating a state in which the
図6は、図5に示したように使用者31の顔が移動したときに近接センサ171〜173から出力される各検出信号の変化を示す図である。図6aには、近接センサ171から出力される検出信号の変化が示されている。図6bには、近接センサ172から出力される検出信号の変化が示される。図6cには、近接センサ173から出力される検出信号の変化が示されている。
FIG. 6 is a diagram showing changes in the detection signals output from the
使用者31の顔が、携帯端末11の下寄りにあるときは、使用者31の顔との距離が最も近い近接センサ172および173から出力されるそれぞれの検出信号の検出値が最も大きくなる。
When the face of the
使用者31の顔が上方向へ移動し、携帯装置11の上部正面に使用者31の顔が移動すると、近接センサ172および173出力されるそれぞれの検出値が減少し、使用者31の顔との距離が最も近い近接センサ171から出力される検出値は最も大きくなる。つまり、近接センサ172および173がそれぞれ検出信号を出力し、その後、近接センサ171が検出信号を出力する。
When the face of the
図6では、ディスプレイ19に対して使用者31の顔が下から上方向に移動した場合の各検出信号の変化を時系列で示したが、使用者31の顔が上から下方向に移動した場合の各検出信号は、図6に示したパターンとは逆のパターンを示す。つまり、使用者31の顔が上にあるときは、近接センサ171から出力される検出値が最も大きくなり、使用者31の顔が上から下方向に移動するにつれて、近接センサ172および173から出力されるそれぞれの検出値が互いに等しく増加する。
In FIG. 6, the change of each detection signal when the face of the
図7は、使用者31がディスプレイ19を正面に見ながら、携帯装置11に対して使用者31の顔を近づける様子を示す図である。
FIG. 7 is a diagram illustrating a state in which the
図8は、図7に示したように使用者31の顔が近づいたときに近接センサ171〜173から出力される各検出信号の変化を示す図である。図8には、近接センサ171〜173の中央において使用者31の顔が近づいたときの各検出信号の変化が示されている。図8aには、近接センサ171から出力される検出信号の変化が示されている。図8bには、近接センサ172から出力される検出信号の変化が示されている。図8cには、近接センサ173から出力される検出信号の変化が示されている。
FIG. 8 is a diagram illustrating changes in detection signals output from the
使用者31の顔が、携帯端末11に近づくにつれて、近接センサ171乃至173から出力される検出信号の検出値は大きくなる。つまり、近接センサ171乃至173は同じタイミングで検出信号を出力する。その後、近接センサ171乃至173は同じタイミングで検出信号を提示する。
As the face of the
図8では、携帯装置11に対して使用者31の顔を近づけた場合の検出信号の変化を時系列で示したが、使用者31の顔を遠ざけた場合の検出信号は、図8に示したパターンと逆のパターンを示す。すなわち、使用者31の顔と携帯装置11との距離が大きくなるほど、近接センサ171〜173のそれぞれから出力される検出値は小さくなる。
In FIG. 8, the change of the detection signal when the face of the
図4〜図8に示したように、ディスプレイ19に対して上下方向、左右方向、遠近方向の各移動方向に使用者31の顔が動くと、移動方向ごとに近接センサ171〜173から出力される各検出信号の検出値が特定のパターンで変化する。
As shown in FIGS. 4 to 8, when the face of the
このため、携帯装置11では、移動方向ごとに各検出信号のパターンを示す特定情報をメモリ部13に予め記憶しておき、CPU12が、近接センサ171〜173から出力される各検出信号と、メモリ部13内の特定情報に示された各検出信号のパターンとを用いて、使用者の顔の移動方向を特定する。
For this reason, in the
例えば、メモリ部13には、各検出信号のレベルが、所定期間内に特定閾値を超える近接センサ171乃至173の順番を示す特定情報を記憶しておく。CPU12は、近接センサ171〜173から出力された各検出信号のレベルが特定閾値を超えた順番に基づいて、ディスプレイ19に対する使用者の顔の移動方向を特定する。つまり、CPU12は、近接センサ171〜173が使用者の顔を順番に検出すると、近接センサ171〜173が使用者の顔を検出した順番に応じてディスプレイ19の表示動作を制御する。
For example, the
なお、本実施形態では、近接センサ171〜173が、検出対象物として使用者の顔を非接触で検出する例について説明したが、検出対象物は使用者の顔に限定されるものではない。例えば、近接センサ171〜173にて使用者の手が非接触で検出されてもよい。
In the present embodiment, the
検出対象物として使用者の手を検出する場合には、表示画面に対する手の移動方向ごとに検出値の時系列の変化を示す検出信号のパターンを特定する特定情報をメモリ部13に記憶しておき、CPU12が、メモリ部13内の特定情報と、近接センサ171〜173から出力された各検出信号とを用いて、携帯装置11に対する手の移動方向を特定する。CPU12は、使用者の手の移動方向を特定すると、その移動方向に応じて表示画像の表示領域を設定する。
When detecting the user's hand as a detection target, the
例えば、CPU12は、ディスプレイ19に対する手の移動方向に応じて、表示画像を右回転または左回転する表示処理、または、表示画像を斜め方向にスクロールする表示処理を実行する。あるいは、CPU12は、使用者の手が左右に動いたときの各検出信号のパターンを所定回数だけ繰り返し近接センサ171〜173から受け付けると、ディスプレイ19に表示された機能を実行する。また、CPU12は、使用者の手が上下に動いたときの各検出信号のパターンを近接センサ171〜173から所定回数だけ繰り返し受け付けると、ディスプレイ19に表示された機能の実行をキャンセルする。
For example, the
図9は、携帯装置11の処理方法の処理手順例を示すフローチャートである。
FIG. 9 is a flowchart illustrating a processing procedure example of the processing method of the
図9では、メモリ部13には、検出対象物がディスプレイ19に対し右方向に移動する動きを特定する特定情報と、検出対象物がディスプレイ19に対し左方向に移動する動きを特定する特定情報と、検出対象物がディスプレイ19に対し上方向に移動する動きを特定する特定情報と、検出対象物がディスプレイ19に対し下方向に移動する動きを特定する特定情報と、検出対象物がディスプレイ19に対し近づく方向に移動する動きを特定する特定情報と、検出対象物がディスプレイ19に対し遠ざかる方向に移動する動きを特定する特定情報とのそれぞれが、互いに異なる表示処理を示す識別情報に対応付けられて記憶されている。
In FIG. 9, in the
また、図9では、使用者にて携帯端末11に電源電力が供給され、ディスプレイ19には地図や写真などの画像が表示されている。使用者はディスプレイ19に表示された画像を閲覧している。
In FIG. 9, the power is supplied to the
まず、携帯装置11では、近接センサ171〜173が、携帯装置11の前面の検出対象物を非接触で検出する(ステップS901)。携帯装置11は、近接センサ171〜173から出力された各検出信号のパターンをメモリ部13に記録する(ステップS902)。
First, in the
その後、CPU12は、メモリ部13に記録された各検出信号のパターンと、メモリ部13内の特定情報に示される各検出信号のパターンとを特定情報ごとに分析して、メモリ部13に記憶された各検出信号のパターンに該当する特定情報が存在するか否かを判断する(ステップS903)。
Thereafter, the
CPU12は、検出対象物が右方向に移動する動きを特定する特定情報を特定する(ステップS904)と、その特定情報に対応付けられた識別情報にて識別される表示処理として、ディスプレイ19の表示画像を右方向にスクロールする表示処理を実行する(ステップS905)。
When the
CPU12は、検出対象物が左方向に移動する動きを特定する特定情報を特定する(ステップS906)と、その特定情報に対応付けられた識別情報にて識別された表示処理として、ディスプレイ19の表示画像を左方向にスクロールする表示処理を実行する(ステップS907)。
CPU12 specifies the specific information which specifies the movement to which a detection target object moves to the left direction (step S906), As a display process identified by the identification information matched with the specific information, display of the
また、CPU12は、検出対象物が上方向に移動する動きを特定する特定情報を特定する(ステップS908)と、その特定情報に対応付けられた識別情報にて識別された表示処理として、ディスプレイ19の表示画像を上方向にスクロールする表示処理を実行する(ステップS909)。
Further, when the
その後、CPU12は、検出対象物が下方向に移動する動きを特定する特定情報を特定する(ステップS910)と、その特定情報に対応付けられた識別情報にて識別された表示処理として、ディスプレイ19の表示画像を下方向にスクロールする表示処理を実行する(ステップS911)。
Thereafter, when the
また、CPU12は、検出対象物が接近する動きを特定する特定情報を特定する(ステップS912)と、その特定情報に対応付けられた識別情報にて識別された表示処理として、ディスプレイ19の表示画像を拡大する表示処理を実行する(ステップS913)。
Further, when the
さらに、CPU12は、検出対象物が遠ざかる動きを特定する特定情報を特定する(ステップS914)と、その特定情報に対応付けられた識別情報にて識別された表示処理として、ディスプレイ19の表示画像を縮小する表示処理を実行する(ステップS915)。
Further, when the
そして、携帯端末11は、メモリ部13に記録された各検出信号に該当する特定情報が存在しない場合にはステップS901に戻り、ステップS901乃至S915の処理を繰り返し行う。
And when the specific information applicable to each detection signal recorded on the
第1実施形態によれば、非接触検出部11Bは、検出対象物として使用者の顔を非接触で検出する。非接触検出部11Bは静電容量センサで構成される。
According to 1st Embodiment, the
このため、携帯装置11は、カメラにて撮像された画像に基づいて画像内の使用者の顔を検出するという複雑な処理を行うことなく、使用者の顔を非接触で検出することが可能となる。
For this reason, the
さらに第1実施形態では、実行部11Aが、所定動作として表示動作を実行するディスプレイ19を有し、制御部11Cは、非接触検出部11Bの異なるタイミングでの検出結果である検出信号のパターンの組合せに基づいてディスプレイ19の表示動作を制御する。例えば、制御部11Cは、ディスプレイ19の表示動作として、ディスプレイ19の表示のスクロールと拡大または縮小とを行う。
Further, in the first embodiment, the
このため、携帯装置11は、互いに異なるタイミングでの検出信号のパターンの組合せごとにディスプレイ19の表示動作を特定し、その特定した表示動作を実行する。よって、携帯装置11では、複雑な処理を行うことなく、ユーザが携帯装置11を非接触で操作することが可能となる。
For this reason, the
また、携帯装置11は、検出信号のレベルに応じて検出対象物が近づいたか離れたかを判断するだけでなく、検出信号のパターンの組合せを使用して検出対象物の反復動作も特定できるので、3つ以上の互いに異なるディスプレイ19の表示動作を制御することも可能となる。このため、携帯装置11は、検出信号のパターンの組合せの数に応じて、実行可能な表示動作の数を増やすことが可能となる。
In addition, the
また、第1実施形態では、非接触検出部11Bには3個の近接センサ171〜173が設けられ、近接センサ171〜173のそれぞれは、使用者の顔を非接触で検出する。制御部11Cは、近接センサ171〜173から出力される各検出信号のパターンの組合せに基づいてディスプレイ19の表示をスクロール、拡大または縮小する。
In the first embodiment, the
携帯装置11は、3個の近接センサ171〜173を用いて、ディスプレイ19に対する使用者の顔の上下方向および左右方向の動きも特定する。このため、使用者の顔の上下方向の動きに応じてディスプレイ19を上下方向にスクロールすることが可能となり、使用者は、ディスプレイ19に表示される画像を、使用者の顔の動きに合わせて操作することが可能となる。
The
なお、第1実施形態では、携帯装置11が3個の近接センサ171〜173を用いて携帯装置11の動作を実行する例について説明したが、携帯装置11には2個の近接センサが用いられてもよく、あるいは、4個以上の近接センサが用いられてもよい。携帯装置11では、近接センサの数を増やして、検出対象物の特定可能な移動方向の数を増やすことも可能である。一般に、1個の近接センサでは遠近方向の動きが検出され、2個の近接センサで1方向の動きの変化、3個の近接センサで2方向の動きの変化、4個の近接センサでは3方向の動きの変化が検出される。
In the first embodiment, the example in which the
図10は、第2実施形態における携帯装置31の構成例を示すブロック図である。図10では、携帯装置11と同じ構成のものに同一符号が付されている。
FIG. 10 is a block diagram illustrating a configuration example of the
携帯装置31は、非接触検出部31B以外は基本的に携帯装置11と同じ構成である。
The
非接触検出部31Bは、第1実施形態の非接触検出部11Bに対応する。
The
非接触検出部31Bは、検出対象物を非接触で検出する。非接触検出部31Bは、検出対象物を非接触で検出している間、携帯装置31から検出対象物までの距離を示す検出信号を検出結果として出力する。非接触検出部31Bは、センサ制御部16と、近接センサ371〜373と、を備える。
The
近接センサ371〜373としては、赤外線センサが用いられる。赤外線センサは、赤外線反射型の近接センサである。近接センサ371〜373は、例えば、パルス光を出射し、パルス光を出射してから検出対象物で反射されたパルス光を受信するまでの時間を計測し、その計測された時間を用いて近接センサから検出対象物までの距離を求める。近接センサ371〜373は、その求めた距離を示す検出信号を出力する。
An infrared sensor is used as the
制御部31Cは、第1実施形態の制御部11Cに対応する。
The
制御部31Cは、近接センサ371〜373から出力される検出信号のパターンの組合せに基づいてディスプレイ19の表示動作を制御する。
The
例えば、制御部31Cは、近接センサ371〜373から出力される各検出信号のパターンの組合せに基づいて、使用者の顔が左右方向に移動した場合にはディスプレイ19に表示されたページの変更を行い、使用者の顔が上下方向に移動した場合には表示画像をスクロールする。表示画像をスクロールする場合には、制御部31Cは、検出信号の単位時間あたりの変化量ごとにスクロールする速度を変えてもよい。
For example, the
また、制御部31Cは、各検出信号のパターンの組合せに基づいて、使用者の顔が近づく場合にはディスプレイ19に表示された機能の実行の指示を行い、使用者の顔が遠ざかる場合にはディスプレイ19に表示された機能のキャンセルを行う。
Further, the
第2実施形態によれば、携帯装置31は、赤外線センサにて実現される非接触検出部31Bを有する。制御部31Cは、近接センサ371〜373から出力される検出信号のパターンの組合せに基づいてディスプレイ19の表示動作を制御する。
According to 2nd Embodiment, the
このため、非接触検出部31Bは、静電容量型の非接触検出部11Bよりも精度良く、携帯装置31から検出対象物までの距離を測定することができる。よって、携帯装置31は、ディスプレイ19に対する検出対象物の移動方向を正確に特定でき、使用者の動きに応じて精度良くディスプレイ19の表示動作を制御することが可能となる。
For this reason, the
なお、第2実施形態では、携帯装置31が3個の近接センサ371〜373を用いて携帯装置31の動作を制御する例について説明したが、携帯装置31には2個の近接センサが用いられてもよく、あるいは、4個以上の近接センサが用いられてもよい。携帯装置31では、赤外線反射型の近接センサの数を増やして、検出対象物の特定可能な移動方向の数を増やすことも可能である。一般に、1個の近接センサでは1方向の動きの変化が検出され、2個の近接センサで2方向の動きの変化、3個の近接センサで3方向の動きが検出され、4個の近接センサでは3個の近接センサに比べて3方向の動きの変化がより精度良く検出される。
In the second embodiment, the example in which the
なお、各実施形態では、非接触検出部として近接センサが用いられる例について説明したが、検出対象物を撮像するカメラが用いられてもよい。この場合、カメラにて撮像された画像に基づいて画像内の検出対象物が特定され、その検出対象物の動きが検出される。あるいは、非接触検出部として電波を発信する発信器とその電波を受信する受信器とを備える検出システムが用いられてもよい。この場合、発信器を使用者の指に装着し、受信器を携帯装置に備え、発振器と受信器とを使用して携帯装置から使用者の指までの距離が計測され、その距離に応じて使用者の動きが検出される。 In each embodiment, an example in which a proximity sensor is used as the non-contact detection unit has been described. However, a camera that images a detection target may be used. In this case, the detection target in the image is specified based on the image captured by the camera, and the movement of the detection target is detected. Alternatively, a detection system including a transmitter that transmits radio waves and a receiver that receives the radio waves may be used as the non-contact detection unit. In this case, the transmitter is attached to the user's finger, the receiver is provided in the portable device, and the distance from the portable device to the user's finger is measured using the oscillator and the receiver, and according to the distance. User movement is detected.
以上説明した各実施形態において、図示した構成は単なる一例であって、本発明はその構成に限定されるものではない。
(付記1)所定動作を実行する実行手段を備える処理装置における処理方法であって、対象物を非接触で検出する検出ステップと、前記検出ステップにて検出される検出結果の組合せに基づいて前記所定動作を制御する制御ステップと、を含む処理方法。
(付記2)前記実行手段は、前記所定動作として表示動作を実行する表示手段を含み、前記制御ステップでは、前記検出結果の異なるタイミングでの組合せに基づいて前記表示手段の表示を切り換える、付記1に記載の処理方法。
In each embodiment described above, the illustrated configuration is merely an example, and the present invention is not limited to the configuration.
(Additional remark 1) It is a processing method in a processing apparatus provided with the execution means which performs predetermined operation | movement, Comprising: Based on the combination of the detection step which detects a target object non-contact, and the detection result detected in the said detection step, And a control step for controlling a predetermined operation.
(Supplementary note 2) The execution means includes display means for executing a display operation as the predetermined action, and in the control step, the display of the display means is switched based on combinations of the detection results at different timings. The processing method as described in.
11、31 携帯装置
11B 実行部
11B、31B 非接触検出部
11C、31C 制御部
12 CPU
13 メモリ部
14 入力制御部
15 操作キー
16 センサ制御部
171〜173、371〜373 近接センサ
18 表示制御部
19 ディスプレイ
20 通信処理部
21 無線部
22 バス
11, 31
DESCRIPTION OF
Claims (10)
対象物を非接触で検出する1以上の検出手段と、
前記検出手段の検出結果の組合せに基づいて前記所定動作を制御する制御手段と、を含む処理装置。 Execution means for executing a predetermined operation;
One or more detection means for detecting an object in a non-contact manner;
Control means for controlling the predetermined operation based on a combination of detection results of the detection means.
前記実行手段は、前記所定動作として表示動作を実行する表示手段を含み、
前記制御手段は、前記検出手段の異なるタイミングでの検出結果の組合せに基づいて前記表示手段の表示を切り換える、処理装置。 The processing apparatus according to claim 1,
The execution means includes display means for executing a display operation as the predetermined operation,
The processing unit, wherein the control unit switches display of the display unit based on a combination of detection results at different timings of the detection unit.
前記実行手段は、前記所定動作として表示動作を実行する表示手段を含み、
前記制御手段は、前記検出手段の異なるタイミングでの検出結果の組合せに基づいて前記表示手段の表示をスクロールする、処理装置。 The processing apparatus according to claim 1,
The execution means includes display means for executing a display operation as the predetermined operation,
The processing device, wherein the control means scrolls the display of the display means based on a combination of detection results at different timings of the detection means.
前記制御手段は、前記検出手段の異なるタイミングでの検出結果の組合せに基づいて前記表示手段の表示を拡大または縮小する、処理装置。 The processing apparatus according to claim 3, wherein
The processing device, wherein the control means enlarges or reduces the display of the display means based on a combination of detection results at different timings of the detection means.
前記制御手段は、前記検出手段の異なるタイミングでの検出結果の組合せに基づいて前記対象物が自装置に近づいたか離れたかを判断し、前記対象物が近づいた場合には前記所定動作の実行を前記実行手段に指示し、前記対象物が離れた場合には前記所定動作の実行をキャンセルする、処理装置。 In the processing apparatus of any one of Claim 1 to 4,
The control means determines whether the object has approached or separated from its own device based on a combination of detection results at different timings of the detection means, and executes the predetermined operation when the object has approached. A processing apparatus that instructs the execution means and cancels the execution of the predetermined operation when the object leaves.
前記検出手段は、静電容量センサまたは赤外線センサである、処理装置。 In the processing apparatus of any one of Claim 1 to 5,
The processing device, wherein the detection means is a capacitance sensor or an infrared sensor.
前記検出手段は複数あり、
前記制御手段は、前記複数の検出手段の検出結果の組合せに基づいて前記所定動作を制御する、処理装置。 In the processing apparatus of any one of Claim 1 to 6,
There are a plurality of the detection means,
The processing unit, wherein the control unit controls the predetermined operation based on a combination of detection results of the plurality of detection units.
前記制御手段は、前記複数の検出手段が順番に前記対象物を検出すると、前記順番に応じて前記所定動作を制御する、処理装置。 The processing apparatus according to claim 7, wherein
The said control means is a processing apparatus which controls the said predetermined operation | movement according to the said order, if the said several detection means detects the said target object in order.
対象物を非接触で検出する検出ステップと、
前記検出ステップにて検出される検出結果の組合せに基づいて前記所定動作を制御する制御ステップと、を含む処理方法。 A processing method in a processing device comprising execution means for executing a predetermined operation,
A detection step for detecting the object in a non-contact manner;
A control step of controlling the predetermined operation based on a combination of detection results detected in the detection step.
対象物を非接触で検出する検出手順と、
前記検出手順にて検出される検出結果の組合せに基づいて前記所定動作を制御する制御手順と、を実行させるためのプログラム。 In a computer in a processing apparatus having execution means for executing a predetermined operation,
A detection procedure for detecting an object without contact;
A control procedure for controlling the predetermined operation based on a combination of detection results detected by the detection procedure.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011021771A JP2012163611A (en) | 2011-02-03 | 2011-02-03 | Processor, processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011021771A JP2012163611A (en) | 2011-02-03 | 2011-02-03 | Processor, processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012163611A true JP2012163611A (en) | 2012-08-30 |
Family
ID=46843087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011021771A Pending JP2012163611A (en) | 2011-02-03 | 2011-02-03 | Processor, processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012163611A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015069628A (en) * | 2013-10-01 | 2015-04-13 | シャープ株式会社 | Information processing device |
JP2015106909A (en) * | 2013-12-03 | 2015-06-08 | カシオ計算機株式会社 | Imaging apparatus, imaging method and program |
WO2016098519A1 (en) * | 2014-12-17 | 2016-06-23 | コニカミノルタ株式会社 | Electronic instrument, method of controlling electronic instrument, and control program for same |
JP2018049659A (en) * | 2017-11-28 | 2018-03-29 | シャープ株式会社 | Information processing device, method, and computer program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09114430A (en) * | 1995-10-16 | 1997-05-02 | Hitachi Ltd | Information processor |
JPH10260666A (en) * | 1997-03-17 | 1998-09-29 | Casio Comput Co Ltd | Display controller and recording medium recorded with display control program |
JP2001282229A (en) * | 2000-03-29 | 2001-10-12 | Hitachi Ltd | Image display system |
JP2005049656A (en) * | 2003-07-29 | 2005-02-24 | Nec Plasma Display Corp | Display system and position conjecture system |
JP2007193292A (en) * | 2005-12-19 | 2007-08-02 | Ricoh Co Ltd | Content display system and information display device |
JP2009260907A (en) * | 2008-03-18 | 2009-11-05 | Nec Corp | Portable terminal apparatus, terminal operation method, program, and recording medium |
JP2010128685A (en) * | 2008-11-26 | 2010-06-10 | Fujitsu Ten Ltd | Electronic equipment |
-
2011
- 2011-02-03 JP JP2011021771A patent/JP2012163611A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09114430A (en) * | 1995-10-16 | 1997-05-02 | Hitachi Ltd | Information processor |
JPH10260666A (en) * | 1997-03-17 | 1998-09-29 | Casio Comput Co Ltd | Display controller and recording medium recorded with display control program |
JP2001282229A (en) * | 2000-03-29 | 2001-10-12 | Hitachi Ltd | Image display system |
JP2005049656A (en) * | 2003-07-29 | 2005-02-24 | Nec Plasma Display Corp | Display system and position conjecture system |
JP2007193292A (en) * | 2005-12-19 | 2007-08-02 | Ricoh Co Ltd | Content display system and information display device |
JP2009260907A (en) * | 2008-03-18 | 2009-11-05 | Nec Corp | Portable terminal apparatus, terminal operation method, program, and recording medium |
JP2010128685A (en) * | 2008-11-26 | 2010-06-10 | Fujitsu Ten Ltd | Electronic equipment |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015069628A (en) * | 2013-10-01 | 2015-04-13 | シャープ株式会社 | Information processing device |
JP2015106909A (en) * | 2013-12-03 | 2015-06-08 | カシオ計算機株式会社 | Imaging apparatus, imaging method and program |
WO2016098519A1 (en) * | 2014-12-17 | 2016-06-23 | コニカミノルタ株式会社 | Electronic instrument, method of controlling electronic instrument, and control program for same |
JPWO2016098519A1 (en) * | 2014-12-17 | 2017-09-28 | コニカミノルタ株式会社 | Electronic device, method for controlling electronic device, and control program therefor |
US10310624B2 (en) | 2014-12-17 | 2019-06-04 | Konica Minolta, Inc. | Electronic apparatus, method for controlling electronic apparatus, and control program for the same |
JP2018049659A (en) * | 2017-11-28 | 2018-03-29 | シャープ株式会社 | Information processing device, method, and computer program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10282067B2 (en) | Method and apparatus of controlling an interface based on touch operations | |
JP6333568B2 (en) | Proximity motion recognition device using sensor and method using the device | |
Kratz et al. | HoverFlow: expanding the design space of around-device interaction | |
US20110148774A1 (en) | Handling Tactile Inputs | |
KR101194883B1 (en) | system for controling non-contact screen and method for controling non-contact screen in the system | |
WO2013183722A1 (en) | Electronic device and controlling method and program therefor | |
JP2009116583A (en) | Input controller and input control method | |
JPWO2014024366A1 (en) | Portable electronic devices | |
JP6144501B2 (en) | Display device and display method | |
JP2019062464A (en) | Electronic apparatus | |
JP2014203417A (en) | Control device, operation control method and operation control program | |
WO2015189710A2 (en) | Apparatus and method for disambiguating information input to a portable electronic device | |
JP2012163611A (en) | Processor, processing method, and program | |
KR20180088831A (en) | Touch panel, touch panel command input method, and display system | |
JP6186488B1 (en) | Electronic device, control method and program | |
JP2012234317A (en) | Display device, control method for display device and program | |
JP2014182429A (en) | Information processor, information processing method and information processing program | |
US10768801B2 (en) | Electronic device and method for displaying contents | |
JP2014149589A (en) | Input operation apparatus, display apparatus, and command selection method | |
TWI576700B (en) | Input device for controlling multiple computers and the controlling method thereof | |
KR20160015146A (en) | Wearalble device and operating method for the same | |
JP2012198780A (en) | Information processing apparatus and information processing method, recording medium, and program | |
JP2015069540A (en) | Information instrument terminal and data storage method of information instrument terminal | |
KR102125100B1 (en) | Method for controlling wearable device and apparatus thereof | |
JP6315443B2 (en) | Input device, input detection method for multi-touch operation, and input detection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131227 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20140515 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140723 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140729 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140909 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150202 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150310 |