[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2016103102A - Portable terminal and control method therefor - Google Patents

Portable terminal and control method therefor Download PDF

Info

Publication number
JP2016103102A
JP2016103102A JP2014240331A JP2014240331A JP2016103102A JP 2016103102 A JP2016103102 A JP 2016103102A JP 2014240331 A JP2014240331 A JP 2014240331A JP 2014240331 A JP2014240331 A JP 2014240331A JP 2016103102 A JP2016103102 A JP 2016103102A
Authority
JP
Japan
Prior art keywords
line
sight position
sight
display
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014240331A
Other languages
Japanese (ja)
Other versions
JP6416598B2 (en
Inventor
田中 浩貴
Hirotaka Tanaka
浩貴 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2014240331A priority Critical patent/JP6416598B2/en
Publication of JP2016103102A publication Critical patent/JP2016103102A/en
Application granted granted Critical
Publication of JP6416598B2 publication Critical patent/JP6416598B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To minimize erroneous input by users.SOLUTION: In one embodiment, a portable terminal includes a controller configured to: determine, from a plurality of objects, an object displayed at a first line-of-sight position detected by a line-of-sight detection unit as a target object; determine, when a horizontal movement on a principal surface of a display unit is detected by a movement detection unit, a line-of-sight position detected by the line-of-sight detection unit after the detection of the horizontal movement as a second line-of-sight position; and change a display position of the target object on the basis of the second line-of-sight position when a distance between the first line-of-sight position and the second line-of-sight position is equal to or larger than a threshold.SELECTED DRAWING: Figure 1

Description

本出願は、携帯端末及び制御方法に関する。   The present application relates to a mobile terminal and a control method.

従来、タッチスクリーンを備える電子機器では、タッチスクリーン上に表示されるインタフェースに対し、利用者が入力を誤ってしまう場合がある。このような問題に対して、タッチスクリーンに対して実際に感知されたタッチ入力点の位置の調整を行うことにより、データ入力の正確さを向上させる技術が知られている(特許文献1参照)。   Conventionally, in an electronic device including a touch screen, a user may make an input error with respect to an interface displayed on the touch screen. In order to solve such a problem, a technique for improving the accuracy of data input by adjusting the position of a touch input point actually sensed with respect to the touch screen is known (see Patent Document 1). .

特開平10−91318号公報Japanese Patent Laid-Open No. 10-91318

上記特許文献1に開示の技術は、利用者の入力に関する特定の傾向に応じて、タッチ入力点の位置を調整するものであるので、誤入力が特定の傾向によらないものである場合、特に振動に起因する場合にはタッチ入力点の位置の調整が難しいという問題がある。   Since the technique disclosed in Patent Literature 1 adjusts the position of the touch input point according to a specific tendency related to user input, particularly when an erroneous input is not based on a specific tendency. When it is caused by vibration, there is a problem that it is difficult to adjust the position of the touch input point.

上記のことから、利用者の誤入力をできるだけ防止することができる携帯端末及び制御方法を提供する必要がある。   From the above, it is necessary to provide a portable terminal and a control method that can prevent a user's erroneous input as much as possible.

1つの態様に係る携帯端末は、入力操作をするための複数のオブジェクトを主面に表示する表示部と、移動を検出する移動検出部と、画像を取得する画像取得部と、前記画像取得部により取得された画像に基づいて、前記複数のオブジェクトのいずれかに対応する利用者の視線位置を検出する視線位置検出部と、前記複数のオブジェクトのうち、前記視線位置検出部により検出される第1の視線位置に表示されているオブジェクトを対象オブジェクトとして確定し、前記表示部の主面に対して水平方向の移動が前記移動検出部により検出された場合には、当該水平方向の移動検出後に前記視線位置検出部により検出される視線位置を第2の視線位置として確定し、前記第1の視線位置と前記第2の視線位置との間の距離が閾値の範囲内にある場合には、前記対象オブジェクトの表示位置を前記第2の視線位置に基づいて変更する制御部とを有する。   A mobile terminal according to one aspect includes a display unit that displays a plurality of objects for performing an input operation on a main surface, a movement detection unit that detects movement, an image acquisition unit that acquires an image, and the image acquisition unit And a line-of-sight position detection unit that detects a line-of-sight position of a user corresponding to one of the plurality of objects, and a line-of-sight position detection unit that is detected by the line-of-sight position detection unit among the plurality of objects. When an object displayed at one line-of-sight position is determined as a target object and a movement in the horizontal direction with respect to the main surface of the display unit is detected by the movement detection unit, after the movement in the horizontal direction is detected The line-of-sight position detected by the line-of-sight position detection unit is determined as the second line-of-sight position, and the distance between the first line-of-sight position and the second line-of-sight position is within a threshold range. Expediently, a control unit for changing the basis of the display position of the target object in the second line-of-sight position.

1つの態様に係る制御方法は、入力操作をするための複数のオブジェクトを主面に表示する表示部と、移動を検出する移動検出部と、画像を取得する画像取得部と、前記画像取得部により取得された画像に基づいて、前記複数のオブジェクトのいずれかに対応する利用者の視線位置を検出する視線位置検出部とを有する携帯端末に実行させる制御方法であって、前記複数のオブジェクトのうち、前記視線位置検出部により検出される第1の視線位置に表示されているオブジェクトを対象オブジェクトとして確定するステップと、前記表示部の主面に対して水平方向の移動が前記移動検出部により検出された場合には、当該水平方向の振動検出後に前記視線位置検出部により検出される視線位置を第2の視線位置として確定するステップと、前記第1の視線位置と前記第2の視線位置との間の距離が閾値以上である場合には、前記対象オブジェクトの表示位置を前記第2の視線位置に基づいて変更するステップとを含む。   A control method according to one aspect includes a display unit that displays a plurality of objects for performing an input operation on a main surface, a movement detection unit that detects movement, an image acquisition unit that acquires an image, and the image acquisition unit. And a gaze position detection unit that detects a gaze position of a user corresponding to any of the plurality of objects based on the image acquired by Among them, the step of determining the object displayed at the first line-of-sight position detected by the line-of-sight position detection unit as a target object, and the movement in the horizontal direction with respect to the main surface of the display unit are performed by the movement detection unit If detected, the step of determining the line-of-sight position detected by the line-of-sight position detecting unit as the second line-of-sight position after detecting the vibration in the horizontal direction; If the distance between the first viewpoint position and the second line-of-sight position is equal to or higher than the threshold, and a step of changing on the basis of the display position of the target object in the second line-of-sight position.

図1は、実施形態1に係るスマートフォンの機能構成を示すブロック図である。FIG. 1 is a block diagram illustrating a functional configuration of the smartphone according to the first embodiment. 図2は、実施形態1に係るスマートフォン1により実行される処理の例を説明するための図である。FIG. 2 is a diagram for explaining an example of processing executed by the smartphone 1 according to the first embodiment. 図3は、実施形態1に係るスマートフォン1により実行される処理の例を説明するための図である。FIG. 3 is a diagram for explaining an example of processing executed by the smartphone 1 according to the first embodiment. 図4は、実施形態1に係るスマートフォン1により実行される処理の例を説明するための図である。FIG. 4 is a diagram for explaining an example of processing executed by the smartphone 1 according to the first embodiment. 図5は、実施形態1に係るスマートフォン1により実行される処理の例を説明するための図である。FIG. 5 is a diagram for explaining an example of processing executed by the smartphone 1 according to the first embodiment. 図6は、実施形態1に係るスマートフォン1により実行される処理の例を説明するための図である。FIG. 6 is a diagram for explaining an example of processing executed by the smartphone 1 according to the first embodiment. 図7は、実施形態1に係るスマートフォン1による処理の流れを示すフローチャートである。FIG. 7 is a flowchart illustrating a process flow by the smartphone 1 according to the first embodiment. 図8は、実施形態1に係るスマートフォン1による処理の流れを示すフローチャートである。FIG. 8 is a flowchart showing a flow of processing by the smartphone 1 according to the first embodiment. 図9は、実施形態2に係るスマートフォン1により実行される処理の例を説明するための図である。FIG. 9 is a diagram for explaining an example of processing executed by the smartphone 1 according to the second embodiment. 図10は、実施形態2に係るスマートフォン1により実行される処理の例を説明するための図である。FIG. 10 is a diagram for explaining an example of processing executed by the smartphone 1 according to the second embodiment. 図11は、その他の実施形態の処理を説明するための図である。FIG. 11 is a diagram for explaining processing of another embodiment.

本出願に係る携帯端末及び制御方法を実施するための複数の実施形態を、図面を参照しつつ詳細に説明する。以下では、携帯端末の一例として、スマートフォンを取り上げて説明する。   A plurality of embodiments for carrying out a portable terminal and a control method according to the present application will be described in detail with reference to the drawings. Hereinafter, a smartphone will be described as an example of the mobile terminal.

(実施形態1)
図1を参照しつつ、実施形態1に係るスマートフォン1の機能構成の一例を説明する。図1は、実施形態1に係るスマートフォンの機能構成を示すブロック図である。以下の説明においては、同様の構成要素に同一の符号を付すことがある。さらに、重複する説明は省略することがある。
(Embodiment 1)
An example of a functional configuration of the smartphone 1 according to the first embodiment will be described with reference to FIG. FIG. 1 is a block diagram illustrating a functional configuration of the smartphone according to the first embodiment. In the following description, the same code | symbol may be attached | subjected to the same component. Furthermore, duplicate descriptions may be omitted.

図1に示すように、スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12と、赤外線照射部13と、コネクタ14と、加速度センサ15と、方位センサ16とを備える。   As shown in FIG. 1, the smartphone 1 includes a touch screen display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a receiver 7, a microphone 8, a storage 9, and a controller 10. A speaker 11, a camera 12, an infrared irradiation unit 13, a connector 14, an acceleration sensor 15, and an orientation sensor 16.

タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2A及びタッチスクリーン2Bは、例えば、重ねて配置されてもよいし、並べて配置されてもよいし、離して配置されてもよい。ディスプレイ2Aとタッチスクリーン2Bとが重ねて配置される場合、例えば、ディスプレイ2Aの1ないし複数の辺がタッチスクリーン2Bのいずれの辺とも沿っていなくてもよい。タッチスクリーンディスプレイ2は、表示部の一例である。   The touch screen display 2 includes a display 2A and a touch screen 2B. The display 2 </ b> A and the touch screen 2 </ b> B may be arranged, for example, may be arranged side by side, or may be arranged apart from each other. When the display 2A and the touch screen 2B are arranged so as to overlap each other, for example, one or more sides of the display 2A may not be along any side of the touch screen 2B. The touch screen display 2 is an example of a display unit.

ディスプレイ2Aは、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro−Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro−Luminescence Display)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号、及び図形等を表示する。ディスプレイ2Aが表示する文字、画像、記号、及び図形等を含む画面には、ロック画面と呼ばれる画面、ホーム画面と呼ばれる画面、アプリケーションの実行中に表示されるアプリケーション画面が含まれる。ホーム画面は、デスクトップ、待受画面、アイドル画面、標準画面、アプリ一覧画面又はランチャー画面と呼ばれることもある。ディスプレイ2Aは、複数のオブジェクトを表示する。オブジェクトには、アプリケーション等のユーザーインターフェースオブジェクト(アイコン)やソフトキー等、入力操作の対象となるオブジェクトが含まれる。   The display 2A includes a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), or an inorganic EL display (IELD: Inorganic Electro-Luminescence Display). The display 2A displays characters, images, symbols, graphics, and the like. The screen including characters, images, symbols, graphics, and the like displayed on the display 2A includes a screen called a lock screen, a screen called a home screen, and an application screen displayed during execution of the application. The home screen may be called a desktop, a standby screen, an idle screen, a standard screen, an application list screen, or a launcher screen. The display 2A displays a plurality of objects. Objects include user interface objects (icons) such as applications and objects to be input, such as soft keys.

タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等(以下、単に「指」という)がタッチスクリーン2B(タッチスクリーンディスプレイ2)に接触したときのタッチスクリーン2B上の位置(以下、接触位置と表記する)を検出することができる。タッチスクリーン2Bは、タッチスクリーン2Bに対する指の接触を、接触位置とともにコントローラ10に通知する。タッチスクリーン2Bは、接触位置検出部の一例である。   The touch screen 2B detects contact of a finger, a pen, a stylus pen, or the like with respect to the touch screen 2B. The touch screen 2B is a position (hereinafter referred to as a contact position) on the touch screen 2B when a plurality of fingers, a pen, a stylus pen or the like (hereinafter simply referred to as “finger”) contacts the touch screen 2B (touch screen display 2). Can be detected. The touch screen 2B notifies the controller 10 of the contact of the finger with the touch screen 2B together with the contact position. The touch screen 2B is an example of a contact position detection unit.

タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下の説明では、説明を簡単にするため、利用者はスマートフォン1を操作するために指を用いてタッチスクリーン2Bに接触するものと想定する。   The detection method of the touch screen 2B may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method. In the following description, in order to simplify the description, it is assumed that the user uses the finger to touch the touch screen 2B in order to operate the smartphone 1.

コントローラ10(スマートフォン1)は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された位置の変化、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいて、ジェスチャの種別を判別する。ジェスチャは、指を用いて、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対して行われる操作である。コントローラ10(スマートフォン1)が、タッチスクリーン2Bを介して判別するジェスチャには、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトが含まれるが、これらに限定されない。   The controller 10 (smart phone 1) has at least one of the contact detected by the touch screen 2B, the position at which the contact is detected, the change in the position at which the contact is detected, the interval at which the contact is detected, and the number of times the contact is detected. The type of gesture is determined based on the one. The gesture is an operation performed on the touch screen 2B (touch screen display 2) using a finger. The gestures that the controller 10 (smart phone 1) determines via the touch screen 2B include, for example, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out. However, it is not limited to these.

ボタン3は、利用者からの操作入力を受け付ける。ボタン3の数は、単数であっても、複数であってもよい。   The button 3 receives an operation input from the user. The number of buttons 3 may be singular or plural.

照度センサ4は、照度を検出する。照度は、照度センサ4の測定面の単位面積に入射する光束の値である。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。   The illuminance sensor 4 detects illuminance. The illuminance is the value of the light beam incident on the unit area of the measurement surface of the illuminance sensor 4. The illuminance sensor 4 is used for adjusting the luminance of the display 2A, for example.

近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、ディスプレイ2Aが顔に近づけられたことを検出する。照度センサ4及び近接センサ5は、1つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。   The proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects the presence of an object based on a change in a magnetic field or a change in a feedback time of an ultrasonic reflected wave. For example, the proximity sensor 5 detects that the display 2A is brought close to the face. The illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor. The illuminance sensor 4 may be used as a proximity sensor.

通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる無線通信規格には、例えば、2G、3G、4G等のセルラーフォンの通信規格と、近距離無線の通信規格がある。セルラーフォンの通信規格としては、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。近距離無線の通信規格としては、例えば、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等がある。WPANの通信規格には、例えば、ZigBee(登録商標)がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。   The communication unit 6 communicates wirelessly. The wireless communication standards supported by the communication unit 6 include, for example, cellular phone communication standards such as 2G, 3G, and 4G, and short-range wireless communication standards. Cellular phone communication standards include, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), WiMAX (Worldwide PDA), WiMAX (Worldwide Interoperability Pc) ) (Global System for Mobile Communications), PHS (Personal Handy-phone System), and the like. Examples of short-range wireless communication standards include IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Field Communication), and WPAN (Wireless Personal Area Network). As a communication standard of WPAN, for example, there is ZigBee (registered trademark). The communication unit 6 may support one or more of the communication standards described above.

レシーバ7は、音出力部である。レシーバ7は、コントローラ10から送信される音信号を音として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。マイク8は、音入力部である。マイク8は、利用者の音声等を音信号へ変換してコントローラ10へ送信する。   The receiver 7 is a sound output unit. The receiver 7 outputs the sound signal transmitted from the controller 10 as sound. The receiver 7 is used, for example, to output the other party's voice during a call. The microphone 8 is a sound input unit. The microphone 8 converts the user's voice or the like into a sound signal and transmits the sound signal to the controller 10.

ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。   The storage 9 stores programs and data. The storage 9 is also used as a work area for temporarily storing the processing result of the controller 10. The storage 9 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium. The storage 9 may include a plurality of types of storage media. The storage 9 may include a combination of a storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader. The storage 9 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).

ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラム(図示略)とが含まれる。フォアグランドで実行されるアプリケーションは、例えば、ディスプレイ2Aに画面が表示される。制御プログラムには、例えば、OSが含まれる。アプリケーション及び基本プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。   The programs stored in the storage 9 include an application executed in the foreground or the background, and a control program (not shown) that supports the operation of the application. An application executed in the foreground displays a screen on the display 2A, for example. The control program includes an OS, for example. The application and the basic program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.

ストレージ9は、視線位置検出プログラム9A、表示位置調整プログラム9B、電話アプリケーション9C、設定データ9Zなどを記憶する。   The storage 9 stores a line-of-sight position detection program 9A, a display position adjustment program 9B, a telephone application 9C, setting data 9Z, and the like.

視線位置検出プログラム9Aは、タッチスクリーンディスプレイ2に対する利用者の視線位置を検出するための機能を提供する。なお、視線位置は、利用者の眼球内にある瞳孔の中心位置を起点として直線的に延伸する視線がタッチスクリーンディスプレイ2と交差するときのタッチスクリーンディスプレイ2上の位置に該当する。   The line-of-sight position detection program 9A provides a function for detecting the line-of-sight position of the user with respect to the touch screen display 2. The line-of-sight position corresponds to a position on the touch screen display 2 when a line of sight extending linearly starting from the center position of the pupil in the user's eyeball intersects the touch screen display 2.

視線位置検出プログラム9Aは、例えば、利用者の画像に対して角膜反射法に基づくアルゴリズムを適用することにより、上記視線位置を検出する。具体的には、視線位置検出プログラム9Aは、利用者の画像を取得する際に、赤外線照射部13から赤外線を照射させる。視線位置検出プログラム9Aは、取得した利用者の画像から、瞳孔の位置と赤外線の角膜反射の位置をそれぞれ特定する。視線位置検出プログラム9Aは、瞳孔の位置と赤外線の角膜反射の位置の位置関係に基づいて、利用者の視線の方向を特定する。視線位置検出プログラム9Aは、瞳孔の位置が角膜反射の位置よりも目尻側にあれば、視線の方向は目尻側であると判定し、瞳孔の位置が角膜反射の位置よりも目頭側にあれば、視線の方向は目頭側であると判定する。視線位置検出プログラム9Aは、例えば、虹彩の大きさに基づいて、利用者の眼球とタッチスクリーンディスプレイ2との距離を算出する。視線位置検出プログラム9Aは、利用者の視線の方向と、利用者の眼球とタッチスクリーンディスプレイ2との距離とに基づいて、利用者の眼球内にある瞳孔の中心位置から、瞳孔を起点とする視線がタッチスクリーンディスプレイ2と交差するときのタッチスクリーンディスプレイ2上の位置である視線位置を検出する。   The line-of-sight position detection program 9A detects the line-of-sight position, for example, by applying an algorithm based on the corneal reflection method to the user's image. Specifically, the line-of-sight position detection program 9 </ b> A irradiates infrared rays from the infrared irradiation unit 13 when acquiring a user image. The line-of-sight position detection program 9 </ b> A specifies the position of the pupil and the position of infrared corneal reflection from the acquired user image. The line-of-sight position detection program 9A specifies the direction of the line of sight of the user based on the positional relationship between the position of the pupil and the position of infrared corneal reflection. The line-of-sight position detection program 9A determines that the direction of the line of sight is closer to the corner of the eye if the position of the pupil is closer to the corner of the eye than the position of corneal reflection, and if the position of the pupil is closer to the front of the eye than the position of corneal reflection. The direction of the line of sight is determined to be the eye side. The line-of-sight position detection program 9A calculates the distance between the user's eyeball and the touch screen display 2 based on the size of the iris, for example. The gaze position detection program 9A starts from the pupil from the center position of the pupil in the user's eyeball based on the direction of the user's gaze and the distance between the user's eyeball and the touch screen display 2. A visual line position that is a position on the touch screen display 2 when the visual line intersects the touch screen display 2 is detected.

上記の例では、視線位置検出プログラム9Aが、角膜反射法を利用した処理を実行することにより、利用者の視線位置を検出する場合を説明したが、この例には限られない。例えば、視線位置検出プログラム9Aが、利用者の画像について画像認識処理を実行することにより、上記視線位置を検出するようにしてもよい。例えば、視線位置検出プログラム9Aは、利用者の画像から、利用者の眼球を含む所定の領域を抽出し、目頭と虹彩との位置関係に基づいて視線方向を特定し、特定した視線方向と、利用者の眼球からタッチスクリーンディスプレイ2までの距離とに基づいて上記視線位置を検出する。あるいは、視線位置検出プログラム9Aは、利用者がタッチスクリーンディスプレイ2上の表示領域各所を閲覧しているときの複数の眼球の画像を参照画像としてそれぞれ蓄積しておき、参照画像と、判定対象として取得される利用者の眼球の画像とを照合することにより、上記視線位置を検出する。視線位置検出プログラム9Aは、視線位置検出部の一例である。   In the above example, the case has been described in which the line-of-sight position detection program 9A detects the line-of-sight position of the user by executing processing using the cornea reflection method, but the present invention is not limited to this example. For example, the line-of-sight position detection program 9A may detect the line-of-sight position by executing an image recognition process on the user's image. For example, the line-of-sight position detection program 9A extracts a predetermined region including the user's eyeball from the user's image, specifies the line-of-sight direction based on the positional relationship between the eye and the iris, The line-of-sight position is detected based on the distance from the user's eyeball to the touch screen display 2. Alternatively, the line-of-sight position detection program 9A accumulates a plurality of eyeball images as a reference image when the user is browsing various display areas on the touch screen display 2, and the reference image and the determination target are stored. The line-of-sight position is detected by collating the acquired image of the user's eyeball. The line-of-sight position detection program 9A is an example of a line-of-sight position detection unit.

表示位置調整プログラム9Bは、タッチスクリーンディスプレイ2に表示されるオブジェクトの表示位置を、上記視線位置検出プログラム9Aにより検出される視線位置に基づいて変更するための機能を提供する。具体的には、表示位置調整プログラム9Bは、次の各処理を実行する。すなわち、表示位置調整プログラム9Bは、タッチスクリーンディスプレイ2に表示される複数のオブジェクトのうち、視線位置検出プログラム9Aにより検出される第1の視線位置に表示されているオブジェクトを対象オブジェクトとして確定する。表示位置調整プログラム9Bは、タッチスクリーンディスプレイ2の主面に対して水平方向の移動が加速度センサ15により検出された場合には、当該水平方向の移動検出後に視線位置検出プログラム9Aにより検出される視線位置を第2の視線位置として確定する。表示位置調整プログラム9Bは、第1の視線位置と第2の視線位置との間の距離が閾値以上である場合には、対象オブジェクトの表示位置を第2の視線位置に基づいて変更する。   The display position adjustment program 9B provides a function for changing the display position of the object displayed on the touch screen display 2 based on the line-of-sight position detected by the line-of-sight position detection program 9A. Specifically, the display position adjustment program 9B executes the following processes. That is, the display position adjustment program 9B determines the object displayed at the first line-of-sight position detected by the line-of-sight position detection program 9A among the plurality of objects displayed on the touch screen display 2 as the target object. When the acceleration sensor 15 detects a horizontal movement with respect to the main surface of the touch screen display 2, the display position adjustment program 9B detects the line of sight detected by the line-of-sight position detection program 9A after detecting the movement in the horizontal direction. The position is determined as the second line-of-sight position. The display position adjustment program 9B changes the display position of the target object based on the second line-of-sight position when the distance between the first line-of-sight position and the second line-of-sight position is equal to or greater than the threshold value.

表示位置調整プログラム9Bは、加速度センサ15により検出される移動の加速度が閾値以上である場合に、対象オブジェクトの表示位置を第2の視線位置に基づいて変更するための機能をさらに提供してもよい。   The display position adjustment program 9B may further provide a function for changing the display position of the target object based on the second line-of-sight position when the acceleration of movement detected by the acceleration sensor 15 is equal to or greater than the threshold value. Good.

電話アプリケーション9Cは、無線通信による通話のための通話機能を提供する。電話アプリケーション9Cにより提供される機能には、通話を実行するための画面をタッチスクリーンディスプレイ2に表示する機能が含まれる。   The telephone application 9C provides a telephone call function for a telephone call by wireless communication. The functions provided by the telephone application 9C include a function for displaying a screen for executing a call on the touch screen display 2.

設定データ9Zは、制御プログラム、視線位置検出プログラム9A及び表示位置調整プログラム9Bによる機能に基づいて実行される処理に用いられる各種データを含んで構成される。設定データ9Zは、例えば、利用者の眼球に関する各種データを含んでよい。設定データ9Zは、例えば、第1の視線位置と前記第2の視線位置との間の距離を判定するための閾値の情報、移動の加速度を判定するための閾値などを含んでよい。   The setting data 9Z includes various data used for processing executed based on the functions of the control program, the line-of-sight position detection program 9A, and the display position adjustment program 9B. The setting data 9Z may include, for example, various data related to the user's eyeball. The setting data 9Z may include, for example, threshold information for determining the distance between the first line-of-sight position and the second line-of-sight position, a threshold for determining movement acceleration, and the like.

コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−Chip)、MCU(Micro Control Unit)、FPGA(Field−Programmable Gate Array)、およびコプロセッサを含むが、これらに限定されない。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。コントローラ10は、制御部の一例である。   The controller 10 is an arithmetic processing device. The arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-Chip), an MCU (Micro Control Unit), an FPGA (Field-Programmable Gate Array), and a coprocessor. It is not limited. The controller 10 controls various operations of the smartphone 1 to realize various functions. The controller 10 is an example of a control unit.

具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2A、通信ユニット6、マイク8、スピーカ11、及び赤外線照射部13を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、マイク8、カメラ12、加速度センサ15、及び方位センサ16を含むが、これらに限定されない。   Specifically, the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary. And the controller 10 controls a function part according to data and a command, and implement | achieves various functions by it. The functional unit includes, for example, the display 2A, the communication unit 6, the microphone 8, the speaker 11, and the infrared irradiation unit 13, but is not limited thereto. The controller 10 may change the control according to the detection result of the detection unit. Examples of the detection unit include, but are not limited to, the touch screen 2B, the button 3, the illuminance sensor 4, the proximity sensor 5, the microphone 8, the camera 12, the acceleration sensor 15, and the azimuth sensor 16.

コントローラ10は、視線位置検出プログラム9Aを実行することにより、上記視線位置を検出する処理を実行する。コントローラ10は、表示位置調整プログラム9Bを実行することにより、次の処理を実行する。すなわち、コントローラ10は、タッチスクリーンディスプレイ2に表示される複数のオブジェクトのうち、第1の視線位置に表示されているオブジェクトを対象オブジェクトとして確定する。コントローラ10は、タッチスクリーンディスプレイ2の主面に対して水平方向の移動が加速度センサ15により検出された場合には、当該水平方向の移動検出後に検出される視線位置を第2の視線位置として確定する。コントローラ10は、第1の視線位置と第2の視線位置との間の距離が閾値以上である場合には、対象オブジェクトの表示位置を第2の視線位置に基づいて変更する。   The controller 10 executes the process of detecting the line-of-sight position by executing the line-of-sight position detection program 9A. The controller 10 executes the following process by executing the display position adjustment program 9B. That is, the controller 10 determines the object displayed at the first line-of-sight position among the plurality of objects displayed on the touch screen display 2 as the target object. When a movement in the horizontal direction with respect to the main surface of the touch screen display 2 is detected by the acceleration sensor 15, the controller 10 determines the line-of-sight position detected after detection of the movement in the horizontal direction as the second line-of-sight position. To do. When the distance between the first line-of-sight position and the second line-of-sight position is equal to or greater than the threshold, the controller 10 changes the display position of the target object based on the second line-of-sight position.

以下、図2〜図6を用いて、実施形態1に係るスマートフォン1により実行される処理の例を説明する。図2〜図6は、実施形態1に係るスマートフォン1により実行される処理の例を説明するための図である。   Hereinafter, the example of the process performed by the smart phone 1 which concerns on Embodiment 1 is demonstrated using FIGS. 2-6 is a figure for demonstrating the example of the process performed by the smart phone 1 which concerns on Embodiment 1. FIG.

図2〜図6に示す処理は、スマートフォン1の水平方向への移動の前後で、利用者からタッチスクリーンディスプレイ2に対して向けられる視線方向に変更がないという状況下で実行される。図2〜図6に示す処理は、利用者の視線方向の延長線上にあるオブジェクトがタッチスクリーンディスプレイ2上に表示されている表示位置を、スマートフォン1の水平方向への移動の前後で利用者の視線方向から外れないように調整する処理の実現を目的とする。   The processing illustrated in FIGS. 2 to 6 is executed in a situation where there is no change in the line-of-sight direction directed from the user to the touch screen display 2 before and after the movement of the smartphone 1 in the horizontal direction. The processing shown in FIGS. 2 to 6 is performed by changing the display position where an object on the extended line in the user's line of sight is displayed on the touch screen display 2 before and after the smartphone 1 is moved in the horizontal direction. The object is to realize a process of adjusting so as not to deviate from the line-of-sight direction.

図2に示すように、スマートフォン1は、視線位置の検出を実行し、第1の視線位置VP1を検出する。そして、スマートフォン1は、第1の視線位置VP1に表示されているオブジェクトT1を対象オブジェクトとして確定する(ステップS11)。   As illustrated in FIG. 2, the smartphone 1 detects a line-of-sight position and detects a first line-of-sight position VP1. Then, the smartphone 1 determines the object T1 displayed at the first line-of-sight position VP1 as a target object (step S11).

続いて、スマートフォン1は、タッチスクリーンディスプレイ2の主面に対して水平方向d1への移動を検出した場合には、水平方向の移動検出後に検出する視線位置VP2を第2の視線位置として確定する(ステップS12a)。続いて、スマートフォン1は、第1の視線位置VP1と第2の視線位置VP2との距離が閾値以上である場合には、対象オブジェクトであるオブジェクトT1の表示位置を、第2の視線位置VP2に基づいて変更する(ステップS12a)。   Subsequently, when the smartphone 1 detects a movement in the horizontal direction d1 with respect to the main surface of the touch screen display 2, the smartphone 1 determines the line-of-sight position VP2 to be detected after detecting the movement in the horizontal direction as the second line-of-sight position. (Step S12a). Subsequently, when the distance between the first line-of-sight position VP1 and the second line-of-sight position VP2 is equal to or greater than the threshold, the smartphone 1 changes the display position of the object T1 that is the target object to the second line-of-sight position VP2. It changes based on (step S12a).

図3には、図2に示すステップS11〜ステップS12aに対応する視線位置の変化を示す。利用者からタッチスクリーンディスプレイ2に対して向けられる視線方向に変更がない状態で、スマートフォン1が水平方向d1へ移動された場合、利用者の視線方向に変更がなくても、スマートフォン1により検出される視線位置は移動の前後で変化する。すなわち、図3に示すように、例えば、移動距離Lの分だけ第1の視線位置VP1が移動することになる。その結果、図3に示すように、スマートフォン1により検出される視線位置は、第2の視線位置VP2となる。よって、スマートフォン1は、第2の視線位置VP2に基づいてオブジェクトT1の表示位置を変更することにより、利用者の視線方向から外さないように、オブジェクトの表示位置を調整する処理を実現する。   FIG. 3 shows changes in the line-of-sight position corresponding to steps S11 to S12a shown in FIG. When the smartphone 1 is moved in the horizontal direction d1 with no change in the line-of-sight direction directed from the user to the touch screen display 2, it is detected by the smartphone 1 even if there is no change in the user's line-of-sight direction. The line-of-sight position changes before and after the movement. That is, as shown in FIG. 3, for example, the first line-of-sight position VP1 moves by the moving distance L. As a result, as shown in FIG. 3, the line-of-sight position detected by the smartphone 1 is the second line-of-sight position VP2. Therefore, the smartphone 1 realizes a process of adjusting the display position of the object so as not to be removed from the user's line-of-sight direction by changing the display position of the object T1 based on the second line-of-sight position VP2.

上述の通り、スマートフォン1は、利用者からタッチスクリーンディスプレイ2に対して向けられる視線方向に変更がないという状況下でスマートフォン1の移動が行われることにより、タッチスクリーンディスプレイ2上で検出される視線位置に変更が生じた場合(第1の視線位置VP1と第2の視線位置VP2との距離が閾値以上である場合)には、対象オブジェクトの表示位置を、スマートフォン1の水平方向への移動の前後で利用者の視線方向から外れないように調整する。これとは反対に、スマートフォン1の移動による対象オブジェクトの移動に伴って、例えば、利用者の視線方向が対象オブジェクトを追従する方向に移動するなど、利用者の視線方向に移動が発生した場合(第1の視線位置VP1と第2の視線位置VP2との距離が閾値未満である場合)には、対象オブジェクトの表示位置の調整を行わない。このようにして、スマートフォン1は、対象オブジェクトの表示位置を、スマートフォン1の水平方向への移動の前後で利用者の視線方向から外れないように調整するという目的を担保する。   As described above, the smartphone 1 detects the line of sight detected on the touch screen display 2 by the movement of the smartphone 1 under the condition that the line of sight directed from the user to the touch screen display 2 is not changed. When the position is changed (when the distance between the first line-of-sight position VP1 and the second line-of-sight position VP2 is equal to or greater than the threshold), the display position of the target object is set to the horizontal movement of the smartphone 1. Adjust so that it does not deviate from the user's line of sight before and after On the contrary, when the movement of the target object due to the movement of the smartphone 1 occurs, for example, when the movement occurs in the user's line-of-sight direction, for example, the user's line-of-sight direction moves in a direction following the target object ( When the distance between the first line-of-sight position VP1 and the second line-of-sight position VP2 is less than the threshold value), the display position of the target object is not adjusted. In this way, the smartphone 1 ensures the purpose of adjusting the display position of the target object so as not to deviate from the user's line-of-sight direction before and after the movement of the smartphone 1 in the horizontal direction.

例えば、乗り物に乗車中、あるいは工事現場など、スマートフォンに対して振動が作用しやすい環境下では、スマートフォン1の操作中に利用者の意図しない移動がスマートフォン1に発生することが予想される。このような状況に対して、スマートフォン1は、対象オブジェクトの表示位置を変更することにより、スマートフォン1の移動による対象オブジェクトの移動を相殺する。このため、スマートフォン1は、対象オブジェクト(ソフトウェアキーなど)に対する利用者の誤入力を低減できる。また、利用者は、スマートフォン1に移動が発生する度に、対象オブジェクト(ソフトウェアキーなど)へ視線を追従させることが不要なので、眼の疲労を軽減させる効果も考えられる。   For example, in an environment in which vibration is likely to act on a smartphone, such as while riding on a vehicle or a construction site, it is expected that a movement unintended by the user will occur in the smartphone 1 during operation of the smartphone 1. For such a situation, the smartphone 1 cancels the movement of the target object due to the movement of the smartphone 1 by changing the display position of the target object. For this reason, the smart phone 1 can reduce a user's erroneous input with respect to a target object (software key etc.). Moreover, since it is not necessary for the user to follow the line of sight to the target object (software key or the like) every time the smartphone 1 moves, an effect of reducing eye fatigue can be considered.

上記ステップS11〜ステップS12aと同様にして、スマートフォン1は、タッチスクリーンディスプレイ2の主面に対して水平方向d2への移動を検出した場合には、水平方向の移動検出後に検出する視線位置VP3を第2の視線位置として確定する(ステップS11〜ステップS12b)。続いて、スマートフォン1は、第1の視線位置VP1と第2の視線位置VP3との距離が閾値以上である場合には、対象オブジェクトであるオブジェクトT1の表示位置を、第2の視線位置VP3に基づいて変更する(ステップS12b)。   Similarly to step S11 to step S12a, when the smartphone 1 detects movement in the horizontal direction d2 with respect to the main surface of the touch screen display 2, the smartphone 1 sets the line-of-sight position VP3 to be detected after detection of movement in the horizontal direction. The second line-of-sight position is determined (steps S11 to S12b). Subsequently, when the distance between the first line-of-sight position VP1 and the second line-of-sight position VP3 is equal to or greater than the threshold, the smartphone 1 changes the display position of the object T1 that is the target object to the second line-of-sight position VP3. It changes based on (step S12b).

図4は、図2に示す例とは異なる方向にスマートフォン1が移動した場合の処理の例を示す。図4に示すように、スマートフォン1は、視線位置の検出を実行し、第1の視線位置VP4を検出する。そして、スマートフォン1は、第1の視線位置VP4に表示されているオブジェクトT1を対象オブジェクトとして確定する(ステップS21)。   FIG. 4 shows an example of processing when the smartphone 1 moves in a direction different from the example shown in FIG. As illustrated in FIG. 4, the smartphone 1 detects a line-of-sight position and detects a first line-of-sight position VP4. Then, the smartphone 1 determines the object T1 displayed at the first line-of-sight position VP4 as a target object (Step S21).

続いて、スマートフォン1は、タッチスクリーンディスプレイ2の主面に対して水平方向d3への移動を検出した場合には、水平方向の移動検出後に検出する視線位置VP5を第2の視線位置として確定する(ステップS22a)。続いて、スマートフォン1は、第1の視線位置VP4と第2の視線位置VP5との距離が閾値以上である場合には、対象オブジェクトであるオブジェクトT1の表示位置を、第2の視線位置VP5に基づいて変更する(ステップS22a)。   Subsequently, when the smartphone 1 detects a movement in the horizontal direction d3 with respect to the main surface of the touch screen display 2, the smartphone 1 determines the line-of-sight position VP5 detected after detecting the movement in the horizontal direction as the second line-of-sight position. (Step S22a). Subsequently, when the distance between the first line-of-sight position VP4 and the second line-of-sight position VP5 is greater than or equal to the threshold, the smartphone 1 changes the display position of the object T1 that is the target object to the second line-of-sight position VP5. It changes based on (step S22a).

上記ステップS21〜ステップS22aと同様にして、スマートフォン1は、タッチスクリーンディスプレイ2の主面に対して水平方向d4への移動を検出した場合には、水平方向の移動検出後に検出する視線位置VP6を第2の視線位置として確定する(ステップS21〜ステップS22b)。続いて、スマートフォン1は、第1の視線位置VP4と第2の視線位置VP6との距離が閾値以上である場合には、対象オブジェクトであるオブジェクトT1の表示位置を、第2の視線位置VP6に基づいて変更する(ステップS22b)。   Similarly to step S21 to step S22a described above, when the smartphone 1 detects movement in the horizontal direction d4 with respect to the main surface of the touch screen display 2, the smartphone 1 sets the line-of-sight position VP6 to be detected after detection of movement in the horizontal direction. The second line-of-sight position is determined (steps S21 to S22b). Subsequently, when the distance between the first line-of-sight position VP4 and the second line-of-sight position VP6 is equal to or greater than the threshold, the smartphone 1 changes the display position of the object T1 that is the target object to the second line-of-sight position VP6. It changes based on (step S22b).

図5及び図6は、オブジェクトをより具体的にした処理の例を示す。図5及び図6は、タッチスクリーンディスプレイ2に電話アプリケーションの画面50が表示される例を示す。画面50には、利用者が入力操作するためのオブジェクトとして複数のキーが表示される。図5及び図6に示す処理を実現するために、画面50に含まれる複数のオブジェクトの中から、対象オブジェクトとなるオブジェクトの複製を生成して画面50上に表示させる処理を実現するための機能がスマートフォン1に予め実装されていてよい。図5及び図6に示す例に限られず、画面50に含まれる複数のオブジェクトの中から、対象オブジェクト(例えば、キーの1つ)を実際に分離して画面50上に表示させる処理を実現するための機能がスマートフォン1に予め実装されていてよい。   5 and 6 show an example of processing that makes an object more specific. 5 and 6 show an example in which a telephone application screen 50 is displayed on the touch screen display 2. On the screen 50, a plurality of keys are displayed as objects for the user to input. A function for realizing a process of generating a duplicate of an object as a target object from a plurality of objects included in the screen 50 and displaying the duplicate on the screen 50 in order to realize the processing shown in FIGS. May be mounted on the smartphone 1 in advance. The present invention is not limited to the examples shown in FIGS. 5 and 6, and a process of actually separating a target object (for example, one of the keys) from a plurality of objects included in the screen 50 and displaying it on the screen 50 is realized. The function for this may be mounted in the smart phone 1 beforehand.

図5に示すように、スマートフォン1は、視線位置の検出を実行し、第1の視線位置VP7を検出する。そして、スマートフォン1は、第1の視線位置VP7に表示されているオブジェクトT2を対象オブジェクトとして確定する(ステップS31)。   As illustrated in FIG. 5, the smartphone 1 detects a line-of-sight position and detects a first line-of-sight position VP7. Then, the smartphone 1 determines the object T2 displayed at the first line-of-sight position VP7 as a target object (step S31).

続いて、スマートフォン1は、タッチスクリーンディスプレイ2の主面に対して水平方向d1への移動を検出した場合には、水平方向の移動検出後に検出する視線位置VP8を第2の視線位置として確定する(ステップS32)。続いて、スマートフォン1は、対象オブジェクトであるオブジェクトT2の表示位置を、第2の視線位置VP8に基づいて変更する(ステップS32)。   Subsequently, when the smartphone 1 detects the movement in the horizontal direction d1 with respect to the main surface of the touch screen display 2, the smartphone 1 determines the line-of-sight position VP8 detected after the movement in the horizontal direction is detected as the second line-of-sight position. (Step S32). Subsequently, the smartphone 1 changes the display position of the object T2 that is the target object based on the second line-of-sight position VP8 (step S32).

一方、図6に示すように、スマートフォン1は、水平方向への移動を検出する前に、視線位置の検出を実行し、その結果、第1の視線位置VP7を検出する。そして、スマートフォン1は、第1の視線位置VP7に表示されているオブジェクトT2を対象オブジェクトとして確定する(ステップS41)。   On the other hand, as illustrated in FIG. 6, the smartphone 1 detects the line-of-sight position before detecting movement in the horizontal direction, and as a result, detects the first line-of-sight position VP7. Then, the smartphone 1 determines the object T2 displayed at the first line-of-sight position VP7 as a target object (step S41).

続いて、スマートフォン1は、タッチスクリーンディスプレイ2の主面に対して水平方向d2への移動を検出した場合には、水平方向の移動検出後に検出する視線位置VP9を第2の視線位置として確定する(ステップS42)。続いて、スマートフォン1は、対象オブジェクトであるオブジェクトT2の表示位置を、第2の視線位置VP9に基づいて変更する(ステップS42)。   Subsequently, when the smartphone 1 detects movement in the horizontal direction d2 with respect to the main surface of the touch screen display 2, the smartphone 1 determines the line-of-sight position VP9 detected after detection of movement in the horizontal direction as the second line-of-sight position. (Step S42). Subsequently, the smartphone 1 changes the display position of the object T2 that is the target object based on the second line-of-sight position VP9 (step S42).

スマートフォン1は、例えば、図5に示すように、第1の視線位置VP7と第2の視線位置VP8との距離が閾値以上である場合には、画面50に表示される数字「3」のキー(オブジェクト)の表示位置を、スマートフォン1の水平方向への移動の前後で利用者の視線方向から外れないように調整する。図5及び図6に示す例では、対象オブジェクトとなるオブジェクトの複製が画面50上に表示される場合を示すが、この例に限られず、例えば、画面50に含まれる複数のオブジェクトの中から、対象オブジェクトとなる1部のオブジェクトが実際に分離されて画面50上に表示されるようにしてもよい。   For example, as illustrated in FIG. 5, when the distance between the first line-of-sight position VP <b> 7 and the second line-of-sight position VP <b> 8 is equal to or greater than the threshold value, the smartphone 1 has a number “3” key displayed on the screen 50. The display position of (object) is adjusted so as not to deviate from the user's line of sight before and after the smartphone 1 is moved in the horizontal direction. In the example shown in FIGS. 5 and 6, a case where a copy of an object to be a target object is displayed on the screen 50 is not limited to this example. For example, from among a plurality of objects included in the screen 50, A part of the object that is the target object may be actually separated and displayed on the screen 50.

図7を参照しつつ、実施形態1に係るスマートフォン1による処理の流れを説明する。図7は、実施形態1に係るスマートフォン1による処理の流れを示すフローチャートである。図7に示す処理は、コントローラ10が、ストレージ9に記憶されている視線位置検出プログラム9A、及び表示位置調整プログラム9Bなどを実行することにより実現される。   The flow of processing by the smartphone 1 according to the first embodiment will be described with reference to FIG. FIG. 7 is a flowchart illustrating a process flow by the smartphone 1 according to the first embodiment. The processing shown in FIG. 7 is realized by the controller 10 executing a line-of-sight position detection program 9A, a display position adjustment program 9B, and the like stored in the storage 9.

スピーカ11は、音出力部である。スピーカ11は、コントローラ10から送信される音信号を音として出力する。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。   The speaker 11 is a sound output unit. The speaker 11 outputs the sound signal transmitted from the controller 10 as sound. The speaker 11 is used for outputting a ring tone and music, for example. One of the receiver 7 and the speaker 11 may also function as the other.

カメラ12は、撮影した画像を電気信号へ変換する。カメラ12は、ディスプレイ2Aに面している物体を撮影するインカメラである。カメラ12は、例えば、タッチスクリーンディスプレイ2に視線を向ける利用者の眼球の画像を撮影する。カメラ12は、インカメラ及びアウトカメラを切り換えて利用可能なカメラユニットとしてスマートフォン1に実装されてもよい。カメラ12は、画像取得部の一例である。赤外線照射部13は、カメラ12により実行される撮影に同期して、赤外線を照射する。   The camera 12 converts the captured image into an electrical signal. The camera 12 is an in camera that captures an object facing the display 2A. For example, the camera 12 captures an image of the eyeball of the user who turns his / her line of sight toward the touch screen display 2. The camera 12 may be mounted on the smartphone 1 as a camera unit that can be used by switching between the in-camera and the out-camera. The camera 12 is an example of an image acquisition unit. The infrared irradiation unit 13 irradiates infrared rays in synchronization with photographing performed by the camera 12.

コネクタ14は、他の装置が接続される端子である。コネクタ14は、USB(Universal Serial Bus)、HDMI(登録商標)(High−Definition Multimedia Interface)、ライトピーク(サンダーボルト(登録商標))、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用の端子でもよい。コネクタ14に接続される装置は、例えば、外部ストレージ、スピーカ、及び通信装置を含むが、これらに限定されない。   The connector 14 is a terminal to which another device is connected. The connector 14 may be a general-purpose terminal such as USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), Light Peak (Thunderbolt (registered trademark)), and an earphone microphone connector. . The connector 14 may be a dedicated terminal such as a dock connector. Devices connected to the connector 14 include, but are not limited to, external storage, speakers, and communication devices, for example.

加速度センサ15は、スマートフォン1に作用する加速度の方向及び大きさを検出する。加速度センサ15は、例えば、加速度の方向に基づき、タッチスクリーンディスプレイ2の主面(画像表示面)に対して水平方向の移動を検出する。加速度センサ15は、移動検出部の一例である。方位センサ16は、例えば、地磁気の向きを検出し、地磁気の向きに基づいて、スマートフォン1の向き(方位)を検出する。   The acceleration sensor 15 detects the direction and magnitude of acceleration acting on the smartphone 1. For example, the acceleration sensor 15 detects a movement in the horizontal direction with respect to the main surface (image display surface) of the touch screen display 2 based on the direction of acceleration. The acceleration sensor 15 is an example of a movement detection unit. The direction sensor 16 detects, for example, the direction of geomagnetism, and detects the direction (azimuth) of the smartphone 1 based on the direction of geomagnetism.

スマートフォン1は、上記の各機能部の他、GPS受信機、及びバイブレータを備えてもよい。GPS受信機は、GPS衛星からの所定の周波数帯の電波信号を受信し、受信した電波信号の復調処理を行って、処理後の信号をコントローラ10に送出する。バイブレータは、スマートフォン1の一部又は全体を振動させる。バイブレータは、振動を発生させるために、例えば、圧電素子、又は偏心モータなどを有する。図1には示していないが、バッテリなど、スマートフォン1の機能を維持するために当然に用いられる機能部はスマートフォン1に実装される。   The smartphone 1 may include a GPS receiver and a vibrator in addition to the above functional units. The GPS receiver receives a radio signal in a predetermined frequency band from a GPS satellite, demodulates the received radio signal, and sends the processed signal to the controller 10. The vibrator vibrates a part or the whole of the smartphone 1. The vibrator includes, for example, a piezoelectric element or an eccentric motor in order to generate vibration. Although not shown in FIG. 1, functional units such as a battery that are naturally used to maintain the functions of the smartphone 1 are mounted on the smartphone 1.

図7及び図8を参照しつつ、実施形態1に係るスマートフォン1による処理の流れを説明する。図7及び図8は、実施形態1に係るスマートフォン1による処理の流れを示すフローチャートである。図7及び図8に示す処理は、コントローラ10が、ストレージ9に記憶されている視線位置検出プログラム9A、及び表示位置調整プログラム9Bなどを実行することにより実現される。   The flow of processing by the smartphone 1 according to the first embodiment will be described with reference to FIGS. 7 and 8. 7 and 8 are flowcharts showing a flow of processing by the smartphone 1 according to the first embodiment. The processing illustrated in FIGS. 7 and 8 is realized by the controller 10 executing the line-of-sight position detection program 9A, the display position adjustment program 9B, and the like stored in the storage 9.

図7に示すように、コントローラ10は、検出した第1の視線位置に基づいて、対象オブジェクトとして確定する(ステップS101)。   As illustrated in FIG. 7, the controller 10 determines the target object based on the detected first line-of-sight position (step S101).

続いて、コントローラ10は、表示部(タッチスクリーンディスプレイ2)の主面に対して水平方向の移動が検出されたかを判定する(ステップS102)。   Subsequently, the controller 10 determines whether movement in the horizontal direction is detected with respect to the main surface of the display unit (touch screen display 2) (step S102).

コントローラ10は、判定の結果、表示部の主面に対して水平方向への移動が検出されない場合には(ステップS102,No)、ステップS102の判定を繰り返す。   As a result of the determination, when the movement in the horizontal direction with respect to the main surface of the display unit is not detected (No at Step S102), the controller 10 repeats the determination at Step S102.

一方、コントローラ10は、判定の結果、表示部の主面に対して水平方向への移動が検出された場合には(ステップS102,Yes)、当該水平方向の移動検出後に検出された視線位置を第2の視線位置として確定する(ステップS103)。   On the other hand, when the movement in the horizontal direction is detected with respect to the main surface of the display unit as a result of the determination (step S102, Yes), the controller 10 determines the line-of-sight position detected after the detection of the movement in the horizontal direction. The second line-of-sight position is determined (step S103).

続いて、コントローラ10は、上記第1の視線位置と上記第2の視線位置との間の距離が閾値以上であるかを判定する(ステップS104)。   Subsequently, the controller 10 determines whether or not the distance between the first line-of-sight position and the second line-of-sight position is greater than or equal to a threshold (step S104).

コントローラ10は、判定の結果、上記第1の視線位置と上記第2の視線位置との間の距離が閾値以上である場合には(ステップS104,Yes)、対象オブジェクトの表示位置を上記第2の視線位置に基づいて変更し(ステップS105)、図7に示す処理を終了する。   As a result of the determination, when the distance between the first line-of-sight position and the second line-of-sight position is equal to or greater than the threshold value (step S104, Yes), the controller 10 determines the display position of the target object as the second position. Is changed based on the line-of-sight position (step S105), and the process shown in FIG.

一方、コントローラ10は、判定の結果、上記第1の視線位置と上記第2の視線位置との間の距離が閾値以上ではない場合には(ステップS104,No)、図7に示す処理を終了する。   On the other hand, as a result of the determination, when the distance between the first line-of-sight position and the second line-of-sight position is not equal to or greater than the threshold (No in step S104), the controller 10 ends the process illustrated in FIG. To do.

図7に示す処理において、スマートフォン1は、検出される移動の加速度が閾値以上である場合に、対象オブジェクトの表示位置を変更してもよい。以下、図8を用いて、この場合のスマートフォン1による処理の流れを説明する。図8に示す処理は、ステップS203の処理手順が、図7に示す処理とは異なる。   In the process illustrated in FIG. 7, the smartphone 1 may change the display position of the target object when the detected acceleration of movement is greater than or equal to the threshold value. Hereinafter, the flow of processing by the smartphone 1 in this case will be described with reference to FIG. The processing shown in FIG. 8 is different from the processing shown in FIG.

図8に示すように、コントローラ10は、検出した第1の視線位置に基づいて、対象オブジェクトとして確定する(ステップS201)。   As shown in FIG. 8, the controller 10 determines the target object based on the detected first line-of-sight position (step S201).

続いて、コントローラ10は、表示部(タッチスクリーンディスプレイ2)の主面に対して水平方向の移動が検出されたかを判定する(ステップS202)。   Subsequently, the controller 10 determines whether movement in the horizontal direction is detected with respect to the main surface of the display unit (touch screen display 2) (step S202).

コントローラ10は、判定の結果、表示部の主面に対して水平方向の移動が検出されない場合には(ステップS202,No)、ステップS202の判定を繰り返す。   As a result of the determination, when the horizontal movement with respect to the main surface of the display unit is not detected (No at Step S202), the controller 10 repeats the determination at Step S202.

一方、コントローラ10は、判定の結果、表示部の主面に対して水平方向への移動が検出された場合には(ステップS202,Yes)、当該水平方向への移動の加速度が閾値以上であるかを判定する(ステップS203)。   On the other hand, as a result of the determination, when the movement in the horizontal direction is detected with respect to the main surface of the display unit (step S202, Yes), the acceleration of the movement in the horizontal direction is equal to or greater than the threshold value. Is determined (step S203).

コントローラ10は、判定の結果、当該水平方向への移動の加速度が閾値以上である場合には(ステップS203,Yes)、当該水平方向の移動検出後に検出された視線位置を第2の視線位置として確定する(ステップS204)。   When the acceleration of the movement in the horizontal direction is equal to or greater than the threshold value as a result of the determination (step S203, Yes), the controller 10 sets the line-of-sight position detected after the movement in the horizontal direction as the second line-of-sight position. Confirm (step S204).

続いて、コントローラ10は、上記第1の視線位置と上記第2の視線位置との間の距離が閾値以上であるかを判定する(ステップS205)。   Subsequently, the controller 10 determines whether the distance between the first line-of-sight position and the second line-of-sight position is greater than or equal to a threshold value (step S205).

コントローラ10は、判定の結果、上記第1の視線位置と上記第2の視線位置との間の距離が閾値以上である場合には(ステップS205,Yes)、対象オブジェクトの表示位置を上記第2の視線位置に基づいて変更し(ステップS206)、図8に示す処理を終了する。   As a result of the determination, when the distance between the first line-of-sight position and the second line-of-sight position is equal to or greater than the threshold (Yes in step S205), the controller 10 determines the display position of the target object as the second position. Is changed based on the line-of-sight position (step S206), and the process shown in FIG.

一方、コントローラ10は、判定の結果、上記第1の視線位置と上記第2の視線位置との間の距離が閾値以上ではない場合には(ステップS205,No)、図7に示す処理を終了する。   On the other hand, if the determination result shows that the distance between the first line-of-sight position and the second line-of-sight position is not greater than or equal to the threshold (No at step S205), the controller 10 ends the process shown in FIG. To do.

上記ステップS203において、コントローラ10は、判定の結果、当該水平方向への移動の加速度が閾値以上ではない場合には(ステップS203,No)、図7に示す処理を終了する。   In step S203, if the result of determination is that the acceleration of movement in the horizontal direction is not greater than or equal to the threshold value (step S203, No), the controller 10 ends the processing shown in FIG.

図8に示す処理において、移動の加速度が閾値以上であるかを判定することにより、利用者の意図した移動であるかどうかを判定することできる。   In the process shown in FIG. 8, it is possible to determine whether the movement is intended by the user by determining whether the acceleration of movement is equal to or greater than a threshold value.

(実施形態2)
上記の実施形態1において、タッチスクリーンディスプレイ2に表示される対象オブジェクト以外のオブジェクトの表示位置を、対象オブジェクトの表示位置の変更に伴って調整してもよい。以下、図9及び図10を用いて、この場合のスマートフォン1による処理の例について説明する。図9及び図10は、実施形態2に係るスマートフォン1により実行される処理の例を説明するための図である。図9及び図10に示す例では、画面50に含まれる複数のキー(オブジェクト)のうち、対象オブジェクトが数字「3」のキーに該当し、数字「3」以外の残りの各キーが対象オブジェクト以外のオブジェクトに該当する。
(Embodiment 2)
In the first embodiment, the display position of an object other than the target object displayed on the touch screen display 2 may be adjusted in accordance with the change in the display position of the target object. Hereinafter, an example of processing by the smartphone 1 in this case will be described with reference to FIGS. 9 and 10. 9 and 10 are diagrams for explaining an example of processing executed by the smartphone 1 according to the second embodiment. In the example illustrated in FIGS. 9 and 10, the target object corresponds to the key “3” among the plurality of keys (objects) included in the screen 50, and the remaining keys other than the number “3” are the target objects. Applies to objects other than.

図9は、対象オブジェクトの表示位置の変更と同時に、対象オブジェクト以外のオブジェクトの表示位置を変更する場合の処理の例を示す。   FIG. 9 shows an example of processing when the display position of an object other than the target object is changed simultaneously with the change of the display position of the target object.

図9に示すように、スマートフォン1は、視線位置の検出を実行し、第1の視線位置VP7を検出する。そして、スマートフォン1は、第1の視線位置VP7に表示されているオブジェクトT2を対象オブジェクトとして確定する(ステップS51)。   As illustrated in FIG. 9, the smartphone 1 detects a line-of-sight position and detects a first line-of-sight position VP7. Then, the smartphone 1 determines the object T2 displayed at the first line-of-sight position VP7 as a target object (step S51).

続いて、スマートフォン1は、タッチスクリーンディスプレイ2の主面に対して水平方向d1への移動を検出した場合には、水平方向の移動検出後に検出する視線位置VP8を第2の視線位置として確定する(ステップS52)。続いて、スマートフォン1は、第1の視線位置VP7と第2の視線位置VP8との距離が閾値以上である場合には、対象オブジェクトであるオブジェクトT2の表示位置を、第2の視線位置VP8に基づいて変更する(ステップS52)。対象オブジェクトT2の表示位置を変更する場合、スマートフォン1は、対象オブジェクトT2以外のオブジェクトT3(残りの各キー)の表示位置を、表示位置変更前の対象オブジェクトT2との位置関係が維持されるように変更する(ステップS52)。   Subsequently, when the smartphone 1 detects the movement in the horizontal direction d1 with respect to the main surface of the touch screen display 2, the smartphone 1 determines the line-of-sight position VP8 detected after the movement in the horizontal direction is detected as the second line-of-sight position. (Step S52). Subsequently, when the distance between the first line-of-sight position VP7 and the second line-of-sight position VP8 is equal to or greater than the threshold, the smartphone 1 changes the display position of the object T2 that is the target object to the second line-of-sight position VP8. Based on the change (step S52). When changing the display position of the target object T2, the smartphone 1 maintains the positional relationship between the display position of the object T3 (remaining keys) other than the target object T2 and the target object T2 before the display position change. (Step S52).

スマートフォン1は、対象オブジェクト以外のオブジェクトの表示位置を変更するので、例えば、キー操作のように、複数のオブジェクトを経由する一連の操作が滞りなく行われるように担保できる。   Since the smartphone 1 changes the display position of an object other than the target object, for example, a series of operations via a plurality of objects can be secured without delay, such as a key operation.

図10は、表示位置変更後の対象オブジェクトに対する所定の操作の検出を契機として、対象オブジェクト以外のオブジェクトの表示位置を変更する場合の処理の例を示す。図10に示す処理を実現するために、画面50に含まれる複数のオブジェクトの中から、対象オブジェクトの複製を画面50から分離されたように表示させる処理、及び対象オブジェクトの複製に対する操作を受付可能な状態とする処理を実現させるための機能がスマートフォン1に予め実装されていてよい。   FIG. 10 shows an example of processing when the display position of an object other than the target object is changed, triggered by detection of a predetermined operation on the target object after the display position is changed. In order to realize the processing shown in FIG. 10, it is possible to accept processing for displaying a copy of the target object as separated from the screen 50 from among a plurality of objects included in the screen 50 and operations for copying the target object. A function for realizing the processing to be in a proper state may be mounted in the smartphone 1 in advance.

図10に示すように、スマートフォン1は、視線位置の検出を実行し、第1の視線位置VP7を検出する。そして、スマートフォン1は、第1の視線位置VP7に表示されているオブジェクトT2を対象オブジェクトとして確定する(ステップS61)。   As illustrated in FIG. 10, the smartphone 1 detects a line-of-sight position and detects a first line-of-sight position VP7. Then, the smartphone 1 determines the object T2 displayed at the first line-of-sight position VP7 as a target object (Step S61).

続いて、スマートフォン1は、タッチスクリーンディスプレイ2の主面に対して水平方向d1への移動を検出した場合には、水平方向の移動検出後に検出する視線位置VP8を第2の視線位置として確定する(ステップS62)。続いて、スマートフォン1は、第1の視線位置VP7と第2の視線位置VP8との距離が閾値以上である場合には、対象オブジェクトであるオブジェクトT2の表示位置を、第2の視線位置VP8に基づいて変更する(ステップS62)。   Subsequently, when the smartphone 1 detects the movement in the horizontal direction d1 with respect to the main surface of the touch screen display 2, the smartphone 1 determines the line-of-sight position VP8 detected after the movement in the horizontal direction is detected as the second line-of-sight position. (Step S62). Subsequently, when the distance between the first line-of-sight position VP7 and the second line-of-sight position VP8 is equal to or greater than the threshold, the smartphone 1 changes the display position of the object T2 that is the target object to the second line-of-sight position VP8. Based on the change (step S62).

続いて、スマートフォン1は、表示位置変更後の対象オブジェクトT2に対する所定の操作を検出した場合には、当該操作を契機として、対象オブジェクトT2以外のオブジェクトT3(残りの各キー)の表示位置を、表示位置変更前の対象オブジェクトT2との位置関係が維持されるように変更する(ステップS63〜ステップS64)。   Subsequently, when the smartphone 1 detects a predetermined operation on the target object T2 after the change of the display position, the display position of the object T3 (remaining keys) other than the target object T2 is triggered by the operation, It changes so that the positional relationship with target object T2 before a display position change may be maintained (step S63-step S64).

スマートフォン1は、図10に示すように、対象オブジェクト以外のオブジェクトの表示位置を変更するので、対象オブジェクトに対する誤入力を防止しつつ、例えば、キー操作のように、対象オブジェクトに対する操作後に複数のオブジェクトを経由する一連の操作が滞りなく行われるように担保できる。   As shown in FIG. 10, the smartphone 1 changes the display position of an object other than the target object, and thus prevents erroneous input to the target object, and for example, a plurality of objects after an operation on the target object, such as a key operation. It can be ensured that a series of operations through the network is performed without delay.

図10に示す例において、スマートフォン1は、対象オブジェクトであるオブジェクトT2の表示位置の変更が完了されるまでの間、対象オブジェクト以外のオブジェクトに対する操作が無効となるように制御してもよい。図10に示す例では、対象オブジェクトとなるオブジェクトの複製が画面50上に表示される場合を示すが、この例に限られず、例えば、画面50に含まれる複数のオブジェクトの中から、対象オブジェクトとなる1部のオブジェクトが実際に分離されて画面50上に表示されるようにしてもよい。   In the example illustrated in FIG. 10, the smartphone 1 may perform control so that an operation on an object other than the target object is invalid until the change of the display position of the object T2 that is the target object is completed. In the example shown in FIG. 10, a case where a copy of an object to be a target object is displayed on the screen 50 is shown. However, the present invention is not limited to this example. For example, a target object is selected from a plurality of objects included in the screen 50. A part of the objects may be actually separated and displayed on the screen 50.

(その他の実施形態)
上記の実施形態1及び実施形態2では、スマートフォン1の移動の前後において、利用者の視線方向が移動しないこと(すなわち眼の動きが固定されていること)を前提とする処理について説明してきた。この処理を実行するモードは、比較的周期が短く、振幅が小さい振動(すなわち人の目が追従できないような振動)の環境下で使用されることが多い。一方、比較的振幅が大きい振動の環境下では、対象オブジェクトがタッチスクリーンディスプレイ2の範囲から外れてしまう可能性が高くなる。また、比較的周期が長い振動の環境下では、スマートフォン1(の対象オブジェクト)の移動に追従して、利用者の視線方向も移動できるようになる。このように比較的振幅が大きい環境下、または、比較的周期が長い振動の環境下においては、対象オブジェクトの位置を第2の視線位置に追従させる処理を実行するモードにすればよい。
(Other embodiments)
In the first embodiment and the second embodiment described above, the processing based on the assumption that the user's line-of-sight direction does not move (that is, the movement of the eye is fixed) before and after the movement of the smartphone 1 has been described. The mode for executing this processing is often used in an environment of vibration with a relatively short cycle and small amplitude (that is, vibration that the human eye cannot follow). On the other hand, in a vibration environment with a relatively large amplitude, there is a high possibility that the target object will be out of the range of the touch screen display 2. In addition, in a vibration environment with a relatively long cycle, the user's line-of-sight direction can be moved following the movement of the smartphone 1 (target object). In this way, in an environment where the amplitude is relatively large or an environment where the vibration is relatively long, a mode for executing processing for causing the position of the target object to follow the second line-of-sight position may be set.

図11は、上述したその他の実施形態の処理を説明するための図である。例えば、図11に示すように、スマートフォン1がタッチスクリーンディスプレイ2の主面に対して水平方向d1へ移動する前後で、第1の視線位置VP1と第2の視線位置VP10との距離に閾値以上の開きがある場合、スマートフォン1は、第2の視線位置VP10に追従させて対象オブジェクトT1の表示位置を変更する(ステップS71〜ステップS72a)。ここで、第2の視線位置VP10は、タッチスクリーンディスプレイ2の左方向(d1と同一の方向)へ移動した利用者の視線方向に対応する。同様に、スマートフォン1がタッチスクリーンディスプレイ2の主面に対して水平方向d2へ移動する前後で、第1の視線位置VP1と第2の視線位置VP11との距離に閾値以上の開きがある場合、スマートフォン1は、第2の視線位置VP11に追従させて対象オブジェクトT1の表示位置を変更する(ステップS71〜ステップS72b)。ここで、第2の視線位置VP10は、タッチスクリーンディスプレイ2の下方向(d2に対して垂直下向きの方向)へ移動した利用者の視線方向に対応する。なお、図11に示す処理の流れは、第2の視線位置に追従させて対象オブジェクトの表示位置を変更する点以外は、上記図7及び上記図8に示す処理の流れと同様である。このように、本出願に係るスマートフォン1は、利用者の視線方向が移動しない場合の処理(図7及び図8)と、利用者の視線方向が移動する場合の処理と(図11)とを、スマートフォン1に作用する振動の状態に応じて選択して使用することができる。   FIG. 11 is a diagram for explaining the processing of the other embodiment described above. For example, as shown in FIG. 11, the distance between the first line-of-sight position VP1 and the second line-of-sight position VP10 is greater than or equal to the threshold before and after the smartphone 1 moves in the horizontal direction d1 with respect to the main surface of the touch screen display 2. If there is an opening, the smartphone 1 changes the display position of the target object T1 by following the second line-of-sight position VP10 (steps S71 to S72a). Here, the second line-of-sight position VP10 corresponds to the line-of-sight direction of the user who has moved in the left direction of the touch screen display 2 (the same direction as d1). Similarly, before and after the smartphone 1 moves in the horizontal direction d2 with respect to the main surface of the touch screen display 2, when the distance between the first line-of-sight position VP1 and the second line-of-sight position VP11 is larger than the threshold, The smartphone 1 changes the display position of the target object T1 by following the second line-of-sight position VP11 (steps S71 to S72b). Here, the second line-of-sight position VP10 corresponds to the line-of-sight direction of the user who has moved downward in the touch screen display 2 (a downward direction perpendicular to d2). The process flow shown in FIG. 11 is the same as the process flow shown in FIGS. 7 and 8 except that the display position of the target object is changed following the second line-of-sight position. As described above, the smartphone 1 according to the present application performs processing when the user's line-of-sight direction does not move (FIGS. 7 and 8), and processing when the user's line-of-sight direction moves (FIG. 11). It can be selected and used according to the state of vibration acting on the smartphone 1.

上記の実施形態では、添付の請求項に係る装置の例として、スマートフォン1について説明したが、添付の請求項に係る装置は、スマートフォン1に限定されない。添付の請求項に係る装置は、タッチスクリーンを有する電子機器であれば、スマートフォン以外の装置であってもよい。   In said embodiment, although the smart phone 1 was demonstrated as an example of the apparatus which concerns on an attached claim, the apparatus which concerns on an attached claim is not limited to the smart phone 1. FIG. The device according to the appended claims may be a device other than a smartphone as long as it is an electronic device having a touch screen.

添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記の実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成により具現化されるべきである。   The characterizing embodiments have been described in order to fully and clearly disclose the technology according to the appended claims. However, the appended claims should not be limited to the above-described embodiments, but all modifications and alternatives that can be created by those skilled in the art within the scope of the basic matters shown in this specification. Should be embodied by a possible configuration.

1 スマートフォン
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 視線位置検出プログラム
9B 表示位置調整プログラム
9C 電話アプリケーション
9Z 設定データ
10 コントローラ
11 スピーカ
12 カメラ
13 赤外線照射部
14 コネクタ
15 加速度センサ
16 方位センサ
DESCRIPTION OF SYMBOLS 1 Smart phone 2 Touch screen display 2A Display 2B Touch screen 3 Button 4 Illuminance sensor 5 Proximity sensor 6 Communication unit 7 Receiver 8 Microphone 9 Storage 9A Gaze position detection program 9B Display position adjustment program 9C Telephone application 9Z Setting data 10 Controller 11 Speaker 12 Camera 13 Infrared irradiation part 14 Connector 15 Acceleration sensor 16 Direction sensor

Claims (5)

入力操作をするための複数のオブジェクトを主面に表示する表示部と、
移動を検出する移動検出部と、
画像を取得する画像取得部と、
前記画像取得部により取得された画像に基づいて、前記複数のオブジェクトのいずれかに対応する利用者の視線位置を検出する視線位置検出部と、
前記複数のオブジェクトのうち、前記視線位置検出部により検出される第1の視線位置に表示されているオブジェクトを対象オブジェクトとして確定し、
前記表示部の主面に対して水平方向の移動が前記移動検出部により検出された場合には、当該水平方向の移動検出後に前記視線位置検出部により検出される視線位置を第2の視線位置として確定し、
前記第1の視線位置と前記第2の視線位置との間の距離が閾値以上である場合には、前記対象オブジェクトの表示位置を前記第2の視線位置に基づいて変更する制御部と
を有する携帯端末。
A display unit that displays a plurality of objects for input operation on the main surface;
A movement detector for detecting movement;
An image acquisition unit for acquiring images;
A line-of-sight position detection unit that detects a line-of-sight position of a user corresponding to any of the plurality of objects based on the image acquired by the image acquisition unit;
Of the plurality of objects, the object displayed at the first line-of-sight position detected by the line-of-sight position detection unit is determined as a target object,
When a movement in the horizontal direction with respect to the main surface of the display unit is detected by the movement detection unit, the line-of-sight position detected by the line-of-sight position detection unit after the movement in the horizontal direction is detected is a second line-of-sight position. As
A control unit that changes a display position of the target object based on the second line-of-sight position when a distance between the first line-of-sight position and the second line-of-sight position is equal to or greater than a threshold value. Mobile device.
前記制御部は、前記移動検出部により検出される移動の加速度が所定の閾値以上である場合に、前記対象オブジェクトの表示位置を前記第2の視線位置に基づいて変更する請求項1に記載の携帯端末。   The said control part changes the display position of the said target object based on a said 2nd visual line position, when the acceleration of the movement detected by the said movement detection part is more than a predetermined threshold value. Mobile device. 前記制御部は、前記対象オブジェクトの表示位置を変更する場合、前記対象オブジェクト以外のオブジェクトの表示位置を、表示位置変更前の前記対象オブジェクトとの位置関係が維持されるように変更する請求項1または2に記載の携帯端末。   The said control part changes the display position of objects other than the said target object so that the positional relationship with the said target object before a display position change may be maintained, when changing the display position of the said target object. Or the portable terminal of 2. 前記制御部は、表示位置変更後の前記対象オブジェクトに対する所定の操作の検出を契機として、前記対象オブジェクト以外のオブジェクトの表示位置を、表示位置変更前の前記対象オブジェクトとの位置関係が維持されるように変更する請求項1または2に記載の携帯端末。   The control unit maintains a positional relationship between a display position of an object other than the target object and the target object before the display position is changed, triggered by detection of a predetermined operation on the target object after the display position is changed. The mobile terminal according to claim 1 or 2, which is modified as follows. 入力操作をするための複数のオブジェクトを主面に表示する表示部と、
移動を検出する移動検出部と、
画像を取得する画像取得部と、
前記画像取得部により取得された画像に基づいて、前記複数のオブジェクトのいずれかに対応する利用者の視線位置を検出する視線位置検出部とを有する携帯端末に実行させる制御方法であって、
前記複数のオブジェクトのうち、前記視線位置検出部により検出される第1の視線位置に表示されているオブジェクトを対象オブジェクトとして確定するステップと、
前記表示部の主面に対して水平方向の移動が前記移動検出部により検出された場合には、当該水平方向の振動検出後に前記視線位置検出部により検出される視線位置を第2の視線位置として確定するステップと、
前記第1の視線位置と前記第2の視線位置との間の距離が閾値以上である場合には、前記対象オブジェクトの表示位置を前記第2の視線位置に基づいて変更するステップと
を含む制御方法。
A display unit that displays a plurality of objects for input operation on the main surface;
A movement detector for detecting movement;
An image acquisition unit for acquiring images;
A control method to be executed by a mobile terminal having a gaze position detection unit that detects a gaze position of a user corresponding to any of the plurality of objects based on an image acquired by the image acquisition unit,
Determining an object displayed at a first line-of-sight position detected by the line-of-sight position detection unit among the plurality of objects as a target object;
When movement in the horizontal direction with respect to the main surface of the display unit is detected by the movement detection unit, the line-of-sight position detected by the line-of-sight position detection unit after the detection of vibration in the horizontal direction is the second line-of-sight position. Step to confirm as
A step of changing a display position of the target object based on the second line-of-sight position when a distance between the first line-of-sight position and the second line-of-sight position is equal to or greater than a threshold value. Method.
JP2014240331A 2014-11-27 2014-11-27 Portable terminal and control method Active JP6416598B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014240331A JP6416598B2 (en) 2014-11-27 2014-11-27 Portable terminal and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014240331A JP6416598B2 (en) 2014-11-27 2014-11-27 Portable terminal and control method

Publications (2)

Publication Number Publication Date
JP2016103102A true JP2016103102A (en) 2016-06-02
JP6416598B2 JP6416598B2 (en) 2018-10-31

Family

ID=56088976

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014240331A Active JP6416598B2 (en) 2014-11-27 2014-11-27 Portable terminal and control method

Country Status (1)

Country Link
JP (1) JP6416598B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3882744A1 (en) 2020-03-19 2021-09-22 Mazda Motor Corporation State estimation device
EP3882745A1 (en) 2020-03-19 2021-09-22 Mazda Motor Corporation State estimation device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008129775A (en) * 2006-11-20 2008-06-05 Ntt Docomo Inc Display control unit, display device and display control method
JP2011257502A (en) * 2010-06-07 2011-12-22 Sony Corp Image stabilizer, image stabilization method, and program
JP2012022632A (en) * 2010-07-16 2012-02-02 Canon Inc Information processing apparatus and control method thereof
JP2014010227A (en) * 2012-06-28 2014-01-20 Nec Saitama Ltd Portable electronic apparatus, control method therefor and program
JP2014063208A (en) * 2012-09-19 2014-04-10 Mega Chips Corp Portable terminal device, program, and camera-shake correction method
JP2014082648A (en) * 2012-10-17 2014-05-08 Casio Comput Co Ltd Electronic apparatus, image correction method, and program
WO2014181403A1 (en) * 2013-05-08 2014-11-13 富士通株式会社 Input device and input program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008129775A (en) * 2006-11-20 2008-06-05 Ntt Docomo Inc Display control unit, display device and display control method
JP2011257502A (en) * 2010-06-07 2011-12-22 Sony Corp Image stabilizer, image stabilization method, and program
JP2012022632A (en) * 2010-07-16 2012-02-02 Canon Inc Information processing apparatus and control method thereof
JP2014010227A (en) * 2012-06-28 2014-01-20 Nec Saitama Ltd Portable electronic apparatus, control method therefor and program
JP2014063208A (en) * 2012-09-19 2014-04-10 Mega Chips Corp Portable terminal device, program, and camera-shake correction method
JP2014082648A (en) * 2012-10-17 2014-05-08 Casio Comput Co Ltd Electronic apparatus, image correction method, and program
WO2014181403A1 (en) * 2013-05-08 2014-11-13 富士通株式会社 Input device and input program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3882744A1 (en) 2020-03-19 2021-09-22 Mazda Motor Corporation State estimation device
EP3882745A1 (en) 2020-03-19 2021-09-22 Mazda Motor Corporation State estimation device
CN113495624A (en) * 2020-03-19 2021-10-12 马自达汽车株式会社 State estimation device
US11809621B2 (en) 2020-03-19 2023-11-07 Mazda Motor Corporation State estimation device, method and computer program therefor
CN113495624B (en) * 2020-03-19 2024-05-31 马自达汽车株式会社 State estimation device
US12093445B2 (en) 2020-03-19 2024-09-17 Mazda Motor Corporation State estimation device, method and computer program therefor

Also Published As

Publication number Publication date
JP6416598B2 (en) 2018-10-31

Similar Documents

Publication Publication Date Title
JP6549693B2 (en) Wearable device, control method and control program
JP6140217B2 (en) Electronic device, control method, and control program
JP6215128B2 (en) Portable electronic device, control method and control program
JP6416598B2 (en) Portable terminal and control method
JP2017195444A (en) Portable electronic device, security control method, and security control program
US10051189B2 (en) Electronic device, control method, and control program
JP6247203B2 (en) Portable electronic device and control method
JP6373722B2 (en) Portable terminal and control method
JP2016048830A (en) Portable electronic apparatus, control method and control program
JP6396202B2 (en) Electronic device and display control method
JP2016136351A (en) Electronic apparatus and control method
JP6261546B2 (en) Portable device, control method and control program
JP6062484B2 (en) Electronic device, control method, and control program
JP6560410B2 (en) Mobile terminal and control method
JP6399944B2 (en) Electronic device, control method, and control program
JP6495149B2 (en) Electronic device, control method, and control program
JP2019032846A (en) Electronic apparatus and display control method
JP6152334B2 (en) Electronic device, control method, and control program
US10447640B2 (en) Communication device, control method, and control program
JP2017021468A (en) Electronic apparatus, image processing method, and image processing program
JP6464046B2 (en) Electronic device, control method, and control program
JP2016103105A (en) Portable terminal and control method therefor
JP6661452B2 (en) Portable device, control method and control program
JP5763117B2 (en) Portable electronic device, control method and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181004

R150 Certificate of patent or registration of utility model

Ref document number: 6416598

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150