JP2016103102A - Portable terminal and control method therefor - Google Patents
Portable terminal and control method therefor Download PDFInfo
- Publication number
- JP2016103102A JP2016103102A JP2014240331A JP2014240331A JP2016103102A JP 2016103102 A JP2016103102 A JP 2016103102A JP 2014240331 A JP2014240331 A JP 2014240331A JP 2014240331 A JP2014240331 A JP 2014240331A JP 2016103102 A JP2016103102 A JP 2016103102A
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight position
- sight
- display
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Telephone Function (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本出願は、携帯端末及び制御方法に関する。 The present application relates to a mobile terminal and a control method.
従来、タッチスクリーンを備える電子機器では、タッチスクリーン上に表示されるインタフェースに対し、利用者が入力を誤ってしまう場合がある。このような問題に対して、タッチスクリーンに対して実際に感知されたタッチ入力点の位置の調整を行うことにより、データ入力の正確さを向上させる技術が知られている(特許文献1参照)。 Conventionally, in an electronic device including a touch screen, a user may make an input error with respect to an interface displayed on the touch screen. In order to solve such a problem, a technique for improving the accuracy of data input by adjusting the position of a touch input point actually sensed with respect to the touch screen is known (see Patent Document 1). .
上記特許文献1に開示の技術は、利用者の入力に関する特定の傾向に応じて、タッチ入力点の位置を調整するものであるので、誤入力が特定の傾向によらないものである場合、特に振動に起因する場合にはタッチ入力点の位置の調整が難しいという問題がある。
Since the technique disclosed in
上記のことから、利用者の誤入力をできるだけ防止することができる携帯端末及び制御方法を提供する必要がある。 From the above, it is necessary to provide a portable terminal and a control method that can prevent a user's erroneous input as much as possible.
1つの態様に係る携帯端末は、入力操作をするための複数のオブジェクトを主面に表示する表示部と、移動を検出する移動検出部と、画像を取得する画像取得部と、前記画像取得部により取得された画像に基づいて、前記複数のオブジェクトのいずれかに対応する利用者の視線位置を検出する視線位置検出部と、前記複数のオブジェクトのうち、前記視線位置検出部により検出される第1の視線位置に表示されているオブジェクトを対象オブジェクトとして確定し、前記表示部の主面に対して水平方向の移動が前記移動検出部により検出された場合には、当該水平方向の移動検出後に前記視線位置検出部により検出される視線位置を第2の視線位置として確定し、前記第1の視線位置と前記第2の視線位置との間の距離が閾値の範囲内にある場合には、前記対象オブジェクトの表示位置を前記第2の視線位置に基づいて変更する制御部とを有する。 A mobile terminal according to one aspect includes a display unit that displays a plurality of objects for performing an input operation on a main surface, a movement detection unit that detects movement, an image acquisition unit that acquires an image, and the image acquisition unit And a line-of-sight position detection unit that detects a line-of-sight position of a user corresponding to one of the plurality of objects, and a line-of-sight position detection unit that is detected by the line-of-sight position detection unit among the plurality of objects. When an object displayed at one line-of-sight position is determined as a target object and a movement in the horizontal direction with respect to the main surface of the display unit is detected by the movement detection unit, after the movement in the horizontal direction is detected The line-of-sight position detected by the line-of-sight position detection unit is determined as the second line-of-sight position, and the distance between the first line-of-sight position and the second line-of-sight position is within a threshold range. Expediently, a control unit for changing the basis of the display position of the target object in the second line-of-sight position.
1つの態様に係る制御方法は、入力操作をするための複数のオブジェクトを主面に表示する表示部と、移動を検出する移動検出部と、画像を取得する画像取得部と、前記画像取得部により取得された画像に基づいて、前記複数のオブジェクトのいずれかに対応する利用者の視線位置を検出する視線位置検出部とを有する携帯端末に実行させる制御方法であって、前記複数のオブジェクトのうち、前記視線位置検出部により検出される第1の視線位置に表示されているオブジェクトを対象オブジェクトとして確定するステップと、前記表示部の主面に対して水平方向の移動が前記移動検出部により検出された場合には、当該水平方向の振動検出後に前記視線位置検出部により検出される視線位置を第2の視線位置として確定するステップと、前記第1の視線位置と前記第2の視線位置との間の距離が閾値以上である場合には、前記対象オブジェクトの表示位置を前記第2の視線位置に基づいて変更するステップとを含む。 A control method according to one aspect includes a display unit that displays a plurality of objects for performing an input operation on a main surface, a movement detection unit that detects movement, an image acquisition unit that acquires an image, and the image acquisition unit. And a gaze position detection unit that detects a gaze position of a user corresponding to any of the plurality of objects based on the image acquired by Among them, the step of determining the object displayed at the first line-of-sight position detected by the line-of-sight position detection unit as a target object, and the movement in the horizontal direction with respect to the main surface of the display unit are performed by the movement detection unit If detected, the step of determining the line-of-sight position detected by the line-of-sight position detecting unit as the second line-of-sight position after detecting the vibration in the horizontal direction; If the distance between the first viewpoint position and the second line-of-sight position is equal to or higher than the threshold, and a step of changing on the basis of the display position of the target object in the second line-of-sight position.
本出願に係る携帯端末及び制御方法を実施するための複数の実施形態を、図面を参照しつつ詳細に説明する。以下では、携帯端末の一例として、スマートフォンを取り上げて説明する。 A plurality of embodiments for carrying out a portable terminal and a control method according to the present application will be described in detail with reference to the drawings. Hereinafter, a smartphone will be described as an example of the mobile terminal.
(実施形態1)
図1を参照しつつ、実施形態1に係るスマートフォン1の機能構成の一例を説明する。図1は、実施形態1に係るスマートフォンの機能構成を示すブロック図である。以下の説明においては、同様の構成要素に同一の符号を付すことがある。さらに、重複する説明は省略することがある。
(Embodiment 1)
An example of a functional configuration of the
図1に示すように、スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12と、赤外線照射部13と、コネクタ14と、加速度センサ15と、方位センサ16とを備える。
As shown in FIG. 1, the
タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2A及びタッチスクリーン2Bは、例えば、重ねて配置されてもよいし、並べて配置されてもよいし、離して配置されてもよい。ディスプレイ2Aとタッチスクリーン2Bとが重ねて配置される場合、例えば、ディスプレイ2Aの1ないし複数の辺がタッチスクリーン2Bのいずれの辺とも沿っていなくてもよい。タッチスクリーンディスプレイ2は、表示部の一例である。
The
ディスプレイ2Aは、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro−Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro−Luminescence Display)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号、及び図形等を表示する。ディスプレイ2Aが表示する文字、画像、記号、及び図形等を含む画面には、ロック画面と呼ばれる画面、ホーム画面と呼ばれる画面、アプリケーションの実行中に表示されるアプリケーション画面が含まれる。ホーム画面は、デスクトップ、待受画面、アイドル画面、標準画面、アプリ一覧画面又はランチャー画面と呼ばれることもある。ディスプレイ2Aは、複数のオブジェクトを表示する。オブジェクトには、アプリケーション等のユーザーインターフェースオブジェクト(アイコン)やソフトキー等、入力操作の対象となるオブジェクトが含まれる。
The
タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等(以下、単に「指」という)がタッチスクリーン2B(タッチスクリーンディスプレイ2)に接触したときのタッチスクリーン2B上の位置(以下、接触位置と表記する)を検出することができる。タッチスクリーン2Bは、タッチスクリーン2Bに対する指の接触を、接触位置とともにコントローラ10に通知する。タッチスクリーン2Bは、接触位置検出部の一例である。
The
タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下の説明では、説明を簡単にするため、利用者はスマートフォン1を操作するために指を用いてタッチスクリーン2Bに接触するものと想定する。
The detection method of the
コントローラ10(スマートフォン1)は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された位置の変化、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいて、ジェスチャの種別を判別する。ジェスチャは、指を用いて、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対して行われる操作である。コントローラ10(スマートフォン1)が、タッチスクリーン2Bを介して判別するジェスチャには、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトが含まれるが、これらに限定されない。
The controller 10 (smart phone 1) has at least one of the contact detected by the
ボタン3は、利用者からの操作入力を受け付ける。ボタン3の数は、単数であっても、複数であってもよい。
The
照度センサ4は、照度を検出する。照度は、照度センサ4の測定面の単位面積に入射する光束の値である。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。
The
近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、ディスプレイ2Aが顔に近づけられたことを検出する。照度センサ4及び近接センサ5は、1つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。
The
通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる無線通信規格には、例えば、2G、3G、4G等のセルラーフォンの通信規格と、近距離無線の通信規格がある。セルラーフォンの通信規格としては、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。近距離無線の通信規格としては、例えば、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等がある。WPANの通信規格には、例えば、ZigBee(登録商標)がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。
The
レシーバ7は、音出力部である。レシーバ7は、コントローラ10から送信される音信号を音として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。マイク8は、音入力部である。マイク8は、利用者の音声等を音信号へ変換してコントローラ10へ送信する。
The receiver 7 is a sound output unit. The receiver 7 outputs the sound signal transmitted from the
ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
The storage 9 stores programs and data. The storage 9 is also used as a work area for temporarily storing the processing result of the
ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラム(図示略)とが含まれる。フォアグランドで実行されるアプリケーションは、例えば、ディスプレイ2Aに画面が表示される。制御プログラムには、例えば、OSが含まれる。アプリケーション及び基本プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
The programs stored in the storage 9 include an application executed in the foreground or the background, and a control program (not shown) that supports the operation of the application. An application executed in the foreground displays a screen on the
ストレージ9は、視線位置検出プログラム9A、表示位置調整プログラム9B、電話アプリケーション9C、設定データ9Zなどを記憶する。
The storage 9 stores a line-of-sight position detection program 9A, a display
視線位置検出プログラム9Aは、タッチスクリーンディスプレイ2に対する利用者の視線位置を検出するための機能を提供する。なお、視線位置は、利用者の眼球内にある瞳孔の中心位置を起点として直線的に延伸する視線がタッチスクリーンディスプレイ2と交差するときのタッチスクリーンディスプレイ2上の位置に該当する。
The line-of-sight position detection program 9A provides a function for detecting the line-of-sight position of the user with respect to the
視線位置検出プログラム9Aは、例えば、利用者の画像に対して角膜反射法に基づくアルゴリズムを適用することにより、上記視線位置を検出する。具体的には、視線位置検出プログラム9Aは、利用者の画像を取得する際に、赤外線照射部13から赤外線を照射させる。視線位置検出プログラム9Aは、取得した利用者の画像から、瞳孔の位置と赤外線の角膜反射の位置をそれぞれ特定する。視線位置検出プログラム9Aは、瞳孔の位置と赤外線の角膜反射の位置の位置関係に基づいて、利用者の視線の方向を特定する。視線位置検出プログラム9Aは、瞳孔の位置が角膜反射の位置よりも目尻側にあれば、視線の方向は目尻側であると判定し、瞳孔の位置が角膜反射の位置よりも目頭側にあれば、視線の方向は目頭側であると判定する。視線位置検出プログラム9Aは、例えば、虹彩の大きさに基づいて、利用者の眼球とタッチスクリーンディスプレイ2との距離を算出する。視線位置検出プログラム9Aは、利用者の視線の方向と、利用者の眼球とタッチスクリーンディスプレイ2との距離とに基づいて、利用者の眼球内にある瞳孔の中心位置から、瞳孔を起点とする視線がタッチスクリーンディスプレイ2と交差するときのタッチスクリーンディスプレイ2上の位置である視線位置を検出する。
The line-of-sight position detection program 9A detects the line-of-sight position, for example, by applying an algorithm based on the corneal reflection method to the user's image. Specifically, the line-of-sight position detection program 9 </ b> A irradiates infrared rays from the
上記の例では、視線位置検出プログラム9Aが、角膜反射法を利用した処理を実行することにより、利用者の視線位置を検出する場合を説明したが、この例には限られない。例えば、視線位置検出プログラム9Aが、利用者の画像について画像認識処理を実行することにより、上記視線位置を検出するようにしてもよい。例えば、視線位置検出プログラム9Aは、利用者の画像から、利用者の眼球を含む所定の領域を抽出し、目頭と虹彩との位置関係に基づいて視線方向を特定し、特定した視線方向と、利用者の眼球からタッチスクリーンディスプレイ2までの距離とに基づいて上記視線位置を検出する。あるいは、視線位置検出プログラム9Aは、利用者がタッチスクリーンディスプレイ2上の表示領域各所を閲覧しているときの複数の眼球の画像を参照画像としてそれぞれ蓄積しておき、参照画像と、判定対象として取得される利用者の眼球の画像とを照合することにより、上記視線位置を検出する。視線位置検出プログラム9Aは、視線位置検出部の一例である。
In the above example, the case has been described in which the line-of-sight position detection program 9A detects the line-of-sight position of the user by executing processing using the cornea reflection method, but the present invention is not limited to this example. For example, the line-of-sight position detection program 9A may detect the line-of-sight position by executing an image recognition process on the user's image. For example, the line-of-sight position detection program 9A extracts a predetermined region including the user's eyeball from the user's image, specifies the line-of-sight direction based on the positional relationship between the eye and the iris, The line-of-sight position is detected based on the distance from the user's eyeball to the
表示位置調整プログラム9Bは、タッチスクリーンディスプレイ2に表示されるオブジェクトの表示位置を、上記視線位置検出プログラム9Aにより検出される視線位置に基づいて変更するための機能を提供する。具体的には、表示位置調整プログラム9Bは、次の各処理を実行する。すなわち、表示位置調整プログラム9Bは、タッチスクリーンディスプレイ2に表示される複数のオブジェクトのうち、視線位置検出プログラム9Aにより検出される第1の視線位置に表示されているオブジェクトを対象オブジェクトとして確定する。表示位置調整プログラム9Bは、タッチスクリーンディスプレイ2の主面に対して水平方向の移動が加速度センサ15により検出された場合には、当該水平方向の移動検出後に視線位置検出プログラム9Aにより検出される視線位置を第2の視線位置として確定する。表示位置調整プログラム9Bは、第1の視線位置と第2の視線位置との間の距離が閾値以上である場合には、対象オブジェクトの表示位置を第2の視線位置に基づいて変更する。
The display
表示位置調整プログラム9Bは、加速度センサ15により検出される移動の加速度が閾値以上である場合に、対象オブジェクトの表示位置を第2の視線位置に基づいて変更するための機能をさらに提供してもよい。
The display
電話アプリケーション9Cは、無線通信による通話のための通話機能を提供する。電話アプリケーション9Cにより提供される機能には、通話を実行するための画面をタッチスクリーンディスプレイ2に表示する機能が含まれる。
The
設定データ9Zは、制御プログラム、視線位置検出プログラム9A及び表示位置調整プログラム9Bによる機能に基づいて実行される処理に用いられる各種データを含んで構成される。設定データ9Zは、例えば、利用者の眼球に関する各種データを含んでよい。設定データ9Zは、例えば、第1の視線位置と前記第2の視線位置との間の距離を判定するための閾値の情報、移動の加速度を判定するための閾値などを含んでよい。
The setting
コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−Chip)、MCU(Micro Control Unit)、FPGA(Field−Programmable Gate Array)、およびコプロセッサを含むが、これらに限定されない。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。コントローラ10は、制御部の一例である。
The
具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2A、通信ユニット6、マイク8、スピーカ11、及び赤外線照射部13を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、マイク8、カメラ12、加速度センサ15、及び方位センサ16を含むが、これらに限定されない。
Specifically, the
コントローラ10は、視線位置検出プログラム9Aを実行することにより、上記視線位置を検出する処理を実行する。コントローラ10は、表示位置調整プログラム9Bを実行することにより、次の処理を実行する。すなわち、コントローラ10は、タッチスクリーンディスプレイ2に表示される複数のオブジェクトのうち、第1の視線位置に表示されているオブジェクトを対象オブジェクトとして確定する。コントローラ10は、タッチスクリーンディスプレイ2の主面に対して水平方向の移動が加速度センサ15により検出された場合には、当該水平方向の移動検出後に検出される視線位置を第2の視線位置として確定する。コントローラ10は、第1の視線位置と第2の視線位置との間の距離が閾値以上である場合には、対象オブジェクトの表示位置を第2の視線位置に基づいて変更する。
The
以下、図2〜図6を用いて、実施形態1に係るスマートフォン1により実行される処理の例を説明する。図2〜図6は、実施形態1に係るスマートフォン1により実行される処理の例を説明するための図である。
Hereinafter, the example of the process performed by the
図2〜図6に示す処理は、スマートフォン1の水平方向への移動の前後で、利用者からタッチスクリーンディスプレイ2に対して向けられる視線方向に変更がないという状況下で実行される。図2〜図6に示す処理は、利用者の視線方向の延長線上にあるオブジェクトがタッチスクリーンディスプレイ2上に表示されている表示位置を、スマートフォン1の水平方向への移動の前後で利用者の視線方向から外れないように調整する処理の実現を目的とする。
The processing illustrated in FIGS. 2 to 6 is executed in a situation where there is no change in the line-of-sight direction directed from the user to the
図2に示すように、スマートフォン1は、視線位置の検出を実行し、第1の視線位置VP1を検出する。そして、スマートフォン1は、第1の視線位置VP1に表示されているオブジェクトT1を対象オブジェクトとして確定する(ステップS11)。
As illustrated in FIG. 2, the
続いて、スマートフォン1は、タッチスクリーンディスプレイ2の主面に対して水平方向d1への移動を検出した場合には、水平方向の移動検出後に検出する視線位置VP2を第2の視線位置として確定する(ステップS12a)。続いて、スマートフォン1は、第1の視線位置VP1と第2の視線位置VP2との距離が閾値以上である場合には、対象オブジェクトであるオブジェクトT1の表示位置を、第2の視線位置VP2に基づいて変更する(ステップS12a)。
Subsequently, when the
図3には、図2に示すステップS11〜ステップS12aに対応する視線位置の変化を示す。利用者からタッチスクリーンディスプレイ2に対して向けられる視線方向に変更がない状態で、スマートフォン1が水平方向d1へ移動された場合、利用者の視線方向に変更がなくても、スマートフォン1により検出される視線位置は移動の前後で変化する。すなわち、図3に示すように、例えば、移動距離Lの分だけ第1の視線位置VP1が移動することになる。その結果、図3に示すように、スマートフォン1により検出される視線位置は、第2の視線位置VP2となる。よって、スマートフォン1は、第2の視線位置VP2に基づいてオブジェクトT1の表示位置を変更することにより、利用者の視線方向から外さないように、オブジェクトの表示位置を調整する処理を実現する。
FIG. 3 shows changes in the line-of-sight position corresponding to steps S11 to S12a shown in FIG. When the
上述の通り、スマートフォン1は、利用者からタッチスクリーンディスプレイ2に対して向けられる視線方向に変更がないという状況下でスマートフォン1の移動が行われることにより、タッチスクリーンディスプレイ2上で検出される視線位置に変更が生じた場合(第1の視線位置VP1と第2の視線位置VP2との距離が閾値以上である場合)には、対象オブジェクトの表示位置を、スマートフォン1の水平方向への移動の前後で利用者の視線方向から外れないように調整する。これとは反対に、スマートフォン1の移動による対象オブジェクトの移動に伴って、例えば、利用者の視線方向が対象オブジェクトを追従する方向に移動するなど、利用者の視線方向に移動が発生した場合(第1の視線位置VP1と第2の視線位置VP2との距離が閾値未満である場合)には、対象オブジェクトの表示位置の調整を行わない。このようにして、スマートフォン1は、対象オブジェクトの表示位置を、スマートフォン1の水平方向への移動の前後で利用者の視線方向から外れないように調整するという目的を担保する。
As described above, the
例えば、乗り物に乗車中、あるいは工事現場など、スマートフォンに対して振動が作用しやすい環境下では、スマートフォン1の操作中に利用者の意図しない移動がスマートフォン1に発生することが予想される。このような状況に対して、スマートフォン1は、対象オブジェクトの表示位置を変更することにより、スマートフォン1の移動による対象オブジェクトの移動を相殺する。このため、スマートフォン1は、対象オブジェクト(ソフトウェアキーなど)に対する利用者の誤入力を低減できる。また、利用者は、スマートフォン1に移動が発生する度に、対象オブジェクト(ソフトウェアキーなど)へ視線を追従させることが不要なので、眼の疲労を軽減させる効果も考えられる。
For example, in an environment in which vibration is likely to act on a smartphone, such as while riding on a vehicle or a construction site, it is expected that a movement unintended by the user will occur in the
上記ステップS11〜ステップS12aと同様にして、スマートフォン1は、タッチスクリーンディスプレイ2の主面に対して水平方向d2への移動を検出した場合には、水平方向の移動検出後に検出する視線位置VP3を第2の視線位置として確定する(ステップS11〜ステップS12b)。続いて、スマートフォン1は、第1の視線位置VP1と第2の視線位置VP3との距離が閾値以上である場合には、対象オブジェクトであるオブジェクトT1の表示位置を、第2の視線位置VP3に基づいて変更する(ステップS12b)。
Similarly to step S11 to step S12a, when the
図4は、図2に示す例とは異なる方向にスマートフォン1が移動した場合の処理の例を示す。図4に示すように、スマートフォン1は、視線位置の検出を実行し、第1の視線位置VP4を検出する。そして、スマートフォン1は、第1の視線位置VP4に表示されているオブジェクトT1を対象オブジェクトとして確定する(ステップS21)。
FIG. 4 shows an example of processing when the
続いて、スマートフォン1は、タッチスクリーンディスプレイ2の主面に対して水平方向d3への移動を検出した場合には、水平方向の移動検出後に検出する視線位置VP5を第2の視線位置として確定する(ステップS22a)。続いて、スマートフォン1は、第1の視線位置VP4と第2の視線位置VP5との距離が閾値以上である場合には、対象オブジェクトであるオブジェクトT1の表示位置を、第2の視線位置VP5に基づいて変更する(ステップS22a)。
Subsequently, when the
上記ステップS21〜ステップS22aと同様にして、スマートフォン1は、タッチスクリーンディスプレイ2の主面に対して水平方向d4への移動を検出した場合には、水平方向の移動検出後に検出する視線位置VP6を第2の視線位置として確定する(ステップS21〜ステップS22b)。続いて、スマートフォン1は、第1の視線位置VP4と第2の視線位置VP6との距離が閾値以上である場合には、対象オブジェクトであるオブジェクトT1の表示位置を、第2の視線位置VP6に基づいて変更する(ステップS22b)。
Similarly to step S21 to step S22a described above, when the
図5及び図6は、オブジェクトをより具体的にした処理の例を示す。図5及び図6は、タッチスクリーンディスプレイ2に電話アプリケーションの画面50が表示される例を示す。画面50には、利用者が入力操作するためのオブジェクトとして複数のキーが表示される。図5及び図6に示す処理を実現するために、画面50に含まれる複数のオブジェクトの中から、対象オブジェクトとなるオブジェクトの複製を生成して画面50上に表示させる処理を実現するための機能がスマートフォン1に予め実装されていてよい。図5及び図6に示す例に限られず、画面50に含まれる複数のオブジェクトの中から、対象オブジェクト(例えば、キーの1つ)を実際に分離して画面50上に表示させる処理を実現するための機能がスマートフォン1に予め実装されていてよい。
5 and 6 show an example of processing that makes an object more specific. 5 and 6 show an example in which a
図5に示すように、スマートフォン1は、視線位置の検出を実行し、第1の視線位置VP7を検出する。そして、スマートフォン1は、第1の視線位置VP7に表示されているオブジェクトT2を対象オブジェクトとして確定する(ステップS31)。
As illustrated in FIG. 5, the
続いて、スマートフォン1は、タッチスクリーンディスプレイ2の主面に対して水平方向d1への移動を検出した場合には、水平方向の移動検出後に検出する視線位置VP8を第2の視線位置として確定する(ステップS32)。続いて、スマートフォン1は、対象オブジェクトであるオブジェクトT2の表示位置を、第2の視線位置VP8に基づいて変更する(ステップS32)。
Subsequently, when the
一方、図6に示すように、スマートフォン1は、水平方向への移動を検出する前に、視線位置の検出を実行し、その結果、第1の視線位置VP7を検出する。そして、スマートフォン1は、第1の視線位置VP7に表示されているオブジェクトT2を対象オブジェクトとして確定する(ステップS41)。
On the other hand, as illustrated in FIG. 6, the
続いて、スマートフォン1は、タッチスクリーンディスプレイ2の主面に対して水平方向d2への移動を検出した場合には、水平方向の移動検出後に検出する視線位置VP9を第2の視線位置として確定する(ステップS42)。続いて、スマートフォン1は、対象オブジェクトであるオブジェクトT2の表示位置を、第2の視線位置VP9に基づいて変更する(ステップS42)。
Subsequently, when the
スマートフォン1は、例えば、図5に示すように、第1の視線位置VP7と第2の視線位置VP8との距離が閾値以上である場合には、画面50に表示される数字「3」のキー(オブジェクト)の表示位置を、スマートフォン1の水平方向への移動の前後で利用者の視線方向から外れないように調整する。図5及び図6に示す例では、対象オブジェクトとなるオブジェクトの複製が画面50上に表示される場合を示すが、この例に限られず、例えば、画面50に含まれる複数のオブジェクトの中から、対象オブジェクトとなる1部のオブジェクトが実際に分離されて画面50上に表示されるようにしてもよい。
For example, as illustrated in FIG. 5, when the distance between the first line-of-sight position VP <b> 7 and the second line-of-sight position VP <b> 8 is equal to or greater than the threshold value, the
図7を参照しつつ、実施形態1に係るスマートフォン1による処理の流れを説明する。図7は、実施形態1に係るスマートフォン1による処理の流れを示すフローチャートである。図7に示す処理は、コントローラ10が、ストレージ9に記憶されている視線位置検出プログラム9A、及び表示位置調整プログラム9Bなどを実行することにより実現される。
The flow of processing by the
スピーカ11は、音出力部である。スピーカ11は、コントローラ10から送信される音信号を音として出力する。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。
The
カメラ12は、撮影した画像を電気信号へ変換する。カメラ12は、ディスプレイ2Aに面している物体を撮影するインカメラである。カメラ12は、例えば、タッチスクリーンディスプレイ2に視線を向ける利用者の眼球の画像を撮影する。カメラ12は、インカメラ及びアウトカメラを切り換えて利用可能なカメラユニットとしてスマートフォン1に実装されてもよい。カメラ12は、画像取得部の一例である。赤外線照射部13は、カメラ12により実行される撮影に同期して、赤外線を照射する。
The
コネクタ14は、他の装置が接続される端子である。コネクタ14は、USB(Universal Serial Bus)、HDMI(登録商標)(High−Definition Multimedia Interface)、ライトピーク(サンダーボルト(登録商標))、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用の端子でもよい。コネクタ14に接続される装置は、例えば、外部ストレージ、スピーカ、及び通信装置を含むが、これらに限定されない。
The
加速度センサ15は、スマートフォン1に作用する加速度の方向及び大きさを検出する。加速度センサ15は、例えば、加速度の方向に基づき、タッチスクリーンディスプレイ2の主面(画像表示面)に対して水平方向の移動を検出する。加速度センサ15は、移動検出部の一例である。方位センサ16は、例えば、地磁気の向きを検出し、地磁気の向きに基づいて、スマートフォン1の向き(方位)を検出する。
The acceleration sensor 15 detects the direction and magnitude of acceleration acting on the
スマートフォン1は、上記の各機能部の他、GPS受信機、及びバイブレータを備えてもよい。GPS受信機は、GPS衛星からの所定の周波数帯の電波信号を受信し、受信した電波信号の復調処理を行って、処理後の信号をコントローラ10に送出する。バイブレータは、スマートフォン1の一部又は全体を振動させる。バイブレータは、振動を発生させるために、例えば、圧電素子、又は偏心モータなどを有する。図1には示していないが、バッテリなど、スマートフォン1の機能を維持するために当然に用いられる機能部はスマートフォン1に実装される。
The
図7及び図8を参照しつつ、実施形態1に係るスマートフォン1による処理の流れを説明する。図7及び図8は、実施形態1に係るスマートフォン1による処理の流れを示すフローチャートである。図7及び図8に示す処理は、コントローラ10が、ストレージ9に記憶されている視線位置検出プログラム9A、及び表示位置調整プログラム9Bなどを実行することにより実現される。
The flow of processing by the
図7に示すように、コントローラ10は、検出した第1の視線位置に基づいて、対象オブジェクトとして確定する(ステップS101)。
As illustrated in FIG. 7, the
続いて、コントローラ10は、表示部(タッチスクリーンディスプレイ2)の主面に対して水平方向の移動が検出されたかを判定する(ステップS102)。
Subsequently, the
コントローラ10は、判定の結果、表示部の主面に対して水平方向への移動が検出されない場合には(ステップS102,No)、ステップS102の判定を繰り返す。
As a result of the determination, when the movement in the horizontal direction with respect to the main surface of the display unit is not detected (No at Step S102), the
一方、コントローラ10は、判定の結果、表示部の主面に対して水平方向への移動が検出された場合には(ステップS102,Yes)、当該水平方向の移動検出後に検出された視線位置を第2の視線位置として確定する(ステップS103)。
On the other hand, when the movement in the horizontal direction is detected with respect to the main surface of the display unit as a result of the determination (step S102, Yes), the
続いて、コントローラ10は、上記第1の視線位置と上記第2の視線位置との間の距離が閾値以上であるかを判定する(ステップS104)。
Subsequently, the
コントローラ10は、判定の結果、上記第1の視線位置と上記第2の視線位置との間の距離が閾値以上である場合には(ステップS104,Yes)、対象オブジェクトの表示位置を上記第2の視線位置に基づいて変更し(ステップS105)、図7に示す処理を終了する。
As a result of the determination, when the distance between the first line-of-sight position and the second line-of-sight position is equal to or greater than the threshold value (step S104, Yes), the
一方、コントローラ10は、判定の結果、上記第1の視線位置と上記第2の視線位置との間の距離が閾値以上ではない場合には(ステップS104,No)、図7に示す処理を終了する。
On the other hand, as a result of the determination, when the distance between the first line-of-sight position and the second line-of-sight position is not equal to or greater than the threshold (No in step S104), the
図7に示す処理において、スマートフォン1は、検出される移動の加速度が閾値以上である場合に、対象オブジェクトの表示位置を変更してもよい。以下、図8を用いて、この場合のスマートフォン1による処理の流れを説明する。図8に示す処理は、ステップS203の処理手順が、図7に示す処理とは異なる。
In the process illustrated in FIG. 7, the
図8に示すように、コントローラ10は、検出した第1の視線位置に基づいて、対象オブジェクトとして確定する(ステップS201)。
As shown in FIG. 8, the
続いて、コントローラ10は、表示部(タッチスクリーンディスプレイ2)の主面に対して水平方向の移動が検出されたかを判定する(ステップS202)。
Subsequently, the
コントローラ10は、判定の結果、表示部の主面に対して水平方向の移動が検出されない場合には(ステップS202,No)、ステップS202の判定を繰り返す。
As a result of the determination, when the horizontal movement with respect to the main surface of the display unit is not detected (No at Step S202), the
一方、コントローラ10は、判定の結果、表示部の主面に対して水平方向への移動が検出された場合には(ステップS202,Yes)、当該水平方向への移動の加速度が閾値以上であるかを判定する(ステップS203)。 On the other hand, as a result of the determination, when the movement in the horizontal direction is detected with respect to the main surface of the display unit (step S202, Yes), the acceleration of the movement in the horizontal direction is equal to or greater than the threshold value. Is determined (step S203).
コントローラ10は、判定の結果、当該水平方向への移動の加速度が閾値以上である場合には(ステップS203,Yes)、当該水平方向の移動検出後に検出された視線位置を第2の視線位置として確定する(ステップS204)。
When the acceleration of the movement in the horizontal direction is equal to or greater than the threshold value as a result of the determination (step S203, Yes), the
続いて、コントローラ10は、上記第1の視線位置と上記第2の視線位置との間の距離が閾値以上であるかを判定する(ステップS205)。
Subsequently, the
コントローラ10は、判定の結果、上記第1の視線位置と上記第2の視線位置との間の距離が閾値以上である場合には(ステップS205,Yes)、対象オブジェクトの表示位置を上記第2の視線位置に基づいて変更し(ステップS206)、図8に示す処理を終了する。
As a result of the determination, when the distance between the first line-of-sight position and the second line-of-sight position is equal to or greater than the threshold (Yes in step S205), the
一方、コントローラ10は、判定の結果、上記第1の視線位置と上記第2の視線位置との間の距離が閾値以上ではない場合には(ステップS205,No)、図7に示す処理を終了する。
On the other hand, if the determination result shows that the distance between the first line-of-sight position and the second line-of-sight position is not greater than or equal to the threshold (No at step S205), the
上記ステップS203において、コントローラ10は、判定の結果、当該水平方向への移動の加速度が閾値以上ではない場合には(ステップS203,No)、図7に示す処理を終了する。
In step S203, if the result of determination is that the acceleration of movement in the horizontal direction is not greater than or equal to the threshold value (step S203, No), the
図8に示す処理において、移動の加速度が閾値以上であるかを判定することにより、利用者の意図した移動であるかどうかを判定することできる。 In the process shown in FIG. 8, it is possible to determine whether the movement is intended by the user by determining whether the acceleration of movement is equal to or greater than a threshold value.
(実施形態2)
上記の実施形態1において、タッチスクリーンディスプレイ2に表示される対象オブジェクト以外のオブジェクトの表示位置を、対象オブジェクトの表示位置の変更に伴って調整してもよい。以下、図9及び図10を用いて、この場合のスマートフォン1による処理の例について説明する。図9及び図10は、実施形態2に係るスマートフォン1により実行される処理の例を説明するための図である。図9及び図10に示す例では、画面50に含まれる複数のキー(オブジェクト)のうち、対象オブジェクトが数字「3」のキーに該当し、数字「3」以外の残りの各キーが対象オブジェクト以外のオブジェクトに該当する。
(Embodiment 2)
In the first embodiment, the display position of an object other than the target object displayed on the
図9は、対象オブジェクトの表示位置の変更と同時に、対象オブジェクト以外のオブジェクトの表示位置を変更する場合の処理の例を示す。 FIG. 9 shows an example of processing when the display position of an object other than the target object is changed simultaneously with the change of the display position of the target object.
図9に示すように、スマートフォン1は、視線位置の検出を実行し、第1の視線位置VP7を検出する。そして、スマートフォン1は、第1の視線位置VP7に表示されているオブジェクトT2を対象オブジェクトとして確定する(ステップS51)。
As illustrated in FIG. 9, the
続いて、スマートフォン1は、タッチスクリーンディスプレイ2の主面に対して水平方向d1への移動を検出した場合には、水平方向の移動検出後に検出する視線位置VP8を第2の視線位置として確定する(ステップS52)。続いて、スマートフォン1は、第1の視線位置VP7と第2の視線位置VP8との距離が閾値以上である場合には、対象オブジェクトであるオブジェクトT2の表示位置を、第2の視線位置VP8に基づいて変更する(ステップS52)。対象オブジェクトT2の表示位置を変更する場合、スマートフォン1は、対象オブジェクトT2以外のオブジェクトT3(残りの各キー)の表示位置を、表示位置変更前の対象オブジェクトT2との位置関係が維持されるように変更する(ステップS52)。
Subsequently, when the
スマートフォン1は、対象オブジェクト以外のオブジェクトの表示位置を変更するので、例えば、キー操作のように、複数のオブジェクトを経由する一連の操作が滞りなく行われるように担保できる。
Since the
図10は、表示位置変更後の対象オブジェクトに対する所定の操作の検出を契機として、対象オブジェクト以外のオブジェクトの表示位置を変更する場合の処理の例を示す。図10に示す処理を実現するために、画面50に含まれる複数のオブジェクトの中から、対象オブジェクトの複製を画面50から分離されたように表示させる処理、及び対象オブジェクトの複製に対する操作を受付可能な状態とする処理を実現させるための機能がスマートフォン1に予め実装されていてよい。
FIG. 10 shows an example of processing when the display position of an object other than the target object is changed, triggered by detection of a predetermined operation on the target object after the display position is changed. In order to realize the processing shown in FIG. 10, it is possible to accept processing for displaying a copy of the target object as separated from the
図10に示すように、スマートフォン1は、視線位置の検出を実行し、第1の視線位置VP7を検出する。そして、スマートフォン1は、第1の視線位置VP7に表示されているオブジェクトT2を対象オブジェクトとして確定する(ステップS61)。
As illustrated in FIG. 10, the
続いて、スマートフォン1は、タッチスクリーンディスプレイ2の主面に対して水平方向d1への移動を検出した場合には、水平方向の移動検出後に検出する視線位置VP8を第2の視線位置として確定する(ステップS62)。続いて、スマートフォン1は、第1の視線位置VP7と第2の視線位置VP8との距離が閾値以上である場合には、対象オブジェクトであるオブジェクトT2の表示位置を、第2の視線位置VP8に基づいて変更する(ステップS62)。
Subsequently, when the
続いて、スマートフォン1は、表示位置変更後の対象オブジェクトT2に対する所定の操作を検出した場合には、当該操作を契機として、対象オブジェクトT2以外のオブジェクトT3(残りの各キー)の表示位置を、表示位置変更前の対象オブジェクトT2との位置関係が維持されるように変更する(ステップS63〜ステップS64)。
Subsequently, when the
スマートフォン1は、図10に示すように、対象オブジェクト以外のオブジェクトの表示位置を変更するので、対象オブジェクトに対する誤入力を防止しつつ、例えば、キー操作のように、対象オブジェクトに対する操作後に複数のオブジェクトを経由する一連の操作が滞りなく行われるように担保できる。
As shown in FIG. 10, the
図10に示す例において、スマートフォン1は、対象オブジェクトであるオブジェクトT2の表示位置の変更が完了されるまでの間、対象オブジェクト以外のオブジェクトに対する操作が無効となるように制御してもよい。図10に示す例では、対象オブジェクトとなるオブジェクトの複製が画面50上に表示される場合を示すが、この例に限られず、例えば、画面50に含まれる複数のオブジェクトの中から、対象オブジェクトとなる1部のオブジェクトが実際に分離されて画面50上に表示されるようにしてもよい。
In the example illustrated in FIG. 10, the
(その他の実施形態)
上記の実施形態1及び実施形態2では、スマートフォン1の移動の前後において、利用者の視線方向が移動しないこと(すなわち眼の動きが固定されていること)を前提とする処理について説明してきた。この処理を実行するモードは、比較的周期が短く、振幅が小さい振動(すなわち人の目が追従できないような振動)の環境下で使用されることが多い。一方、比較的振幅が大きい振動の環境下では、対象オブジェクトがタッチスクリーンディスプレイ2の範囲から外れてしまう可能性が高くなる。また、比較的周期が長い振動の環境下では、スマートフォン1(の対象オブジェクト)の移動に追従して、利用者の視線方向も移動できるようになる。このように比較的振幅が大きい環境下、または、比較的周期が長い振動の環境下においては、対象オブジェクトの位置を第2の視線位置に追従させる処理を実行するモードにすればよい。
(Other embodiments)
In the first embodiment and the second embodiment described above, the processing based on the assumption that the user's line-of-sight direction does not move (that is, the movement of the eye is fixed) before and after the movement of the
図11は、上述したその他の実施形態の処理を説明するための図である。例えば、図11に示すように、スマートフォン1がタッチスクリーンディスプレイ2の主面に対して水平方向d1へ移動する前後で、第1の視線位置VP1と第2の視線位置VP10との距離に閾値以上の開きがある場合、スマートフォン1は、第2の視線位置VP10に追従させて対象オブジェクトT1の表示位置を変更する(ステップS71〜ステップS72a)。ここで、第2の視線位置VP10は、タッチスクリーンディスプレイ2の左方向(d1と同一の方向)へ移動した利用者の視線方向に対応する。同様に、スマートフォン1がタッチスクリーンディスプレイ2の主面に対して水平方向d2へ移動する前後で、第1の視線位置VP1と第2の視線位置VP11との距離に閾値以上の開きがある場合、スマートフォン1は、第2の視線位置VP11に追従させて対象オブジェクトT1の表示位置を変更する(ステップS71〜ステップS72b)。ここで、第2の視線位置VP10は、タッチスクリーンディスプレイ2の下方向(d2に対して垂直下向きの方向)へ移動した利用者の視線方向に対応する。なお、図11に示す処理の流れは、第2の視線位置に追従させて対象オブジェクトの表示位置を変更する点以外は、上記図7及び上記図8に示す処理の流れと同様である。このように、本出願に係るスマートフォン1は、利用者の視線方向が移動しない場合の処理(図7及び図8)と、利用者の視線方向が移動する場合の処理と(図11)とを、スマートフォン1に作用する振動の状態に応じて選択して使用することができる。
FIG. 11 is a diagram for explaining the processing of the other embodiment described above. For example, as shown in FIG. 11, the distance between the first line-of-sight position VP1 and the second line-of-sight position VP10 is greater than or equal to the threshold before and after the
上記の実施形態では、添付の請求項に係る装置の例として、スマートフォン1について説明したが、添付の請求項に係る装置は、スマートフォン1に限定されない。添付の請求項に係る装置は、タッチスクリーンを有する電子機器であれば、スマートフォン以外の装置であってもよい。
In said embodiment, although the
添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記の実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成により具現化されるべきである。 The characterizing embodiments have been described in order to fully and clearly disclose the technology according to the appended claims. However, the appended claims should not be limited to the above-described embodiments, but all modifications and alternatives that can be created by those skilled in the art within the scope of the basic matters shown in this specification. Should be embodied by a possible configuration.
1 スマートフォン
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 視線位置検出プログラム
9B 表示位置調整プログラム
9C 電話アプリケーション
9Z 設定データ
10 コントローラ
11 スピーカ
12 カメラ
13 赤外線照射部
14 コネクタ
15 加速度センサ
16 方位センサ
DESCRIPTION OF
Claims (5)
移動を検出する移動検出部と、
画像を取得する画像取得部と、
前記画像取得部により取得された画像に基づいて、前記複数のオブジェクトのいずれかに対応する利用者の視線位置を検出する視線位置検出部と、
前記複数のオブジェクトのうち、前記視線位置検出部により検出される第1の視線位置に表示されているオブジェクトを対象オブジェクトとして確定し、
前記表示部の主面に対して水平方向の移動が前記移動検出部により検出された場合には、当該水平方向の移動検出後に前記視線位置検出部により検出される視線位置を第2の視線位置として確定し、
前記第1の視線位置と前記第2の視線位置との間の距離が閾値以上である場合には、前記対象オブジェクトの表示位置を前記第2の視線位置に基づいて変更する制御部と
を有する携帯端末。 A display unit that displays a plurality of objects for input operation on the main surface;
A movement detector for detecting movement;
An image acquisition unit for acquiring images;
A line-of-sight position detection unit that detects a line-of-sight position of a user corresponding to any of the plurality of objects based on the image acquired by the image acquisition unit;
Of the plurality of objects, the object displayed at the first line-of-sight position detected by the line-of-sight position detection unit is determined as a target object,
When a movement in the horizontal direction with respect to the main surface of the display unit is detected by the movement detection unit, the line-of-sight position detected by the line-of-sight position detection unit after the movement in the horizontal direction is detected is a second line-of-sight position. As
A control unit that changes a display position of the target object based on the second line-of-sight position when a distance between the first line-of-sight position and the second line-of-sight position is equal to or greater than a threshold value. Mobile device.
移動を検出する移動検出部と、
画像を取得する画像取得部と、
前記画像取得部により取得された画像に基づいて、前記複数のオブジェクトのいずれかに対応する利用者の視線位置を検出する視線位置検出部とを有する携帯端末に実行させる制御方法であって、
前記複数のオブジェクトのうち、前記視線位置検出部により検出される第1の視線位置に表示されているオブジェクトを対象オブジェクトとして確定するステップと、
前記表示部の主面に対して水平方向の移動が前記移動検出部により検出された場合には、当該水平方向の振動検出後に前記視線位置検出部により検出される視線位置を第2の視線位置として確定するステップと、
前記第1の視線位置と前記第2の視線位置との間の距離が閾値以上である場合には、前記対象オブジェクトの表示位置を前記第2の視線位置に基づいて変更するステップと
を含む制御方法。 A display unit that displays a plurality of objects for input operation on the main surface;
A movement detector for detecting movement;
An image acquisition unit for acquiring images;
A control method to be executed by a mobile terminal having a gaze position detection unit that detects a gaze position of a user corresponding to any of the plurality of objects based on an image acquired by the image acquisition unit,
Determining an object displayed at a first line-of-sight position detected by the line-of-sight position detection unit among the plurality of objects as a target object;
When movement in the horizontal direction with respect to the main surface of the display unit is detected by the movement detection unit, the line-of-sight position detected by the line-of-sight position detection unit after the detection of vibration in the horizontal direction is the second line-of-sight position. Step to confirm as
A step of changing a display position of the target object based on the second line-of-sight position when a distance between the first line-of-sight position and the second line-of-sight position is equal to or greater than a threshold value. Method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014240331A JP6416598B2 (en) | 2014-11-27 | 2014-11-27 | Portable terminal and control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014240331A JP6416598B2 (en) | 2014-11-27 | 2014-11-27 | Portable terminal and control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016103102A true JP2016103102A (en) | 2016-06-02 |
JP6416598B2 JP6416598B2 (en) | 2018-10-31 |
Family
ID=56088976
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014240331A Active JP6416598B2 (en) | 2014-11-27 | 2014-11-27 | Portable terminal and control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6416598B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3882744A1 (en) | 2020-03-19 | 2021-09-22 | Mazda Motor Corporation | State estimation device |
EP3882745A1 (en) | 2020-03-19 | 2021-09-22 | Mazda Motor Corporation | State estimation device |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008129775A (en) * | 2006-11-20 | 2008-06-05 | Ntt Docomo Inc | Display control unit, display device and display control method |
JP2011257502A (en) * | 2010-06-07 | 2011-12-22 | Sony Corp | Image stabilizer, image stabilization method, and program |
JP2012022632A (en) * | 2010-07-16 | 2012-02-02 | Canon Inc | Information processing apparatus and control method thereof |
JP2014010227A (en) * | 2012-06-28 | 2014-01-20 | Nec Saitama Ltd | Portable electronic apparatus, control method therefor and program |
JP2014063208A (en) * | 2012-09-19 | 2014-04-10 | Mega Chips Corp | Portable terminal device, program, and camera-shake correction method |
JP2014082648A (en) * | 2012-10-17 | 2014-05-08 | Casio Comput Co Ltd | Electronic apparatus, image correction method, and program |
WO2014181403A1 (en) * | 2013-05-08 | 2014-11-13 | 富士通株式会社 | Input device and input program |
-
2014
- 2014-11-27 JP JP2014240331A patent/JP6416598B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008129775A (en) * | 2006-11-20 | 2008-06-05 | Ntt Docomo Inc | Display control unit, display device and display control method |
JP2011257502A (en) * | 2010-06-07 | 2011-12-22 | Sony Corp | Image stabilizer, image stabilization method, and program |
JP2012022632A (en) * | 2010-07-16 | 2012-02-02 | Canon Inc | Information processing apparatus and control method thereof |
JP2014010227A (en) * | 2012-06-28 | 2014-01-20 | Nec Saitama Ltd | Portable electronic apparatus, control method therefor and program |
JP2014063208A (en) * | 2012-09-19 | 2014-04-10 | Mega Chips Corp | Portable terminal device, program, and camera-shake correction method |
JP2014082648A (en) * | 2012-10-17 | 2014-05-08 | Casio Comput Co Ltd | Electronic apparatus, image correction method, and program |
WO2014181403A1 (en) * | 2013-05-08 | 2014-11-13 | 富士通株式会社 | Input device and input program |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3882744A1 (en) | 2020-03-19 | 2021-09-22 | Mazda Motor Corporation | State estimation device |
EP3882745A1 (en) | 2020-03-19 | 2021-09-22 | Mazda Motor Corporation | State estimation device |
CN113495624A (en) * | 2020-03-19 | 2021-10-12 | 马自达汽车株式会社 | State estimation device |
US11809621B2 (en) | 2020-03-19 | 2023-11-07 | Mazda Motor Corporation | State estimation device, method and computer program therefor |
CN113495624B (en) * | 2020-03-19 | 2024-05-31 | 马自达汽车株式会社 | State estimation device |
US12093445B2 (en) | 2020-03-19 | 2024-09-17 | Mazda Motor Corporation | State estimation device, method and computer program therefor |
Also Published As
Publication number | Publication date |
---|---|
JP6416598B2 (en) | 2018-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6549693B2 (en) | Wearable device, control method and control program | |
JP6140217B2 (en) | Electronic device, control method, and control program | |
JP6215128B2 (en) | Portable electronic device, control method and control program | |
JP6416598B2 (en) | Portable terminal and control method | |
JP2017195444A (en) | Portable electronic device, security control method, and security control program | |
US10051189B2 (en) | Electronic device, control method, and control program | |
JP6247203B2 (en) | Portable electronic device and control method | |
JP6373722B2 (en) | Portable terminal and control method | |
JP2016048830A (en) | Portable electronic apparatus, control method and control program | |
JP6396202B2 (en) | Electronic device and display control method | |
JP2016136351A (en) | Electronic apparatus and control method | |
JP6261546B2 (en) | Portable device, control method and control program | |
JP6062484B2 (en) | Electronic device, control method, and control program | |
JP6560410B2 (en) | Mobile terminal and control method | |
JP6399944B2 (en) | Electronic device, control method, and control program | |
JP6495149B2 (en) | Electronic device, control method, and control program | |
JP2019032846A (en) | Electronic apparatus and display control method | |
JP6152334B2 (en) | Electronic device, control method, and control program | |
US10447640B2 (en) | Communication device, control method, and control program | |
JP2017021468A (en) | Electronic apparatus, image processing method, and image processing program | |
JP6464046B2 (en) | Electronic device, control method, and control program | |
JP2016103105A (en) | Portable terminal and control method therefor | |
JP6661452B2 (en) | Portable device, control method and control program | |
JP5763117B2 (en) | Portable electronic device, control method and control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170725 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180306 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180426 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180918 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181004 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6416598 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |