[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7570882B2 - Electronic device, electronic device control method, program, and storage medium - Google Patents

Electronic device, electronic device control method, program, and storage medium Download PDF

Info

Publication number
JP7570882B2
JP7570882B2 JP2020176006A JP2020176006A JP7570882B2 JP 7570882 B2 JP7570882 B2 JP 7570882B2 JP 2020176006 A JP2020176006 A JP 2020176006A JP 2020176006 A JP2020176006 A JP 2020176006A JP 7570882 B2 JP7570882 B2 JP 7570882B2
Authority
JP
Japan
Prior art keywords
gaze
touch
pointer
item
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020176006A
Other languages
Japanese (ja)
Other versions
JP2021108447A5 (en
JP2021108447A (en
Inventor
誠司 小川
新 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to PCT/JP2020/044911 priority Critical patent/WO2021131562A1/en
Priority to CN202080090239.6A priority patent/CN114902104B/en
Publication of JP2021108447A publication Critical patent/JP2021108447A/en
Priority to US17/846,754 priority patent/US12052491B2/en
Publication of JP2021108447A5 publication Critical patent/JP2021108447A5/ja
Application granted granted Critical
Publication of JP7570882B2 publication Critical patent/JP7570882B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、電子機器、電子機器の制御方法、プログラムおよび記憶媒体に関する。 The present invention relates to an electronic device, a control method for an electronic device, a program, and a storage medium.

ユーザが自身の視線(視線入力)によって操作を行う電子機器が知られている。特にデジタルカメラやゲーム機など、ユーザが即時的に電子機器に対して操作指示を行いたい場合に、視線入力は有効である。 Electronic devices are known that allow users to operate them by looking at their eyes (gaze input). Gaze input is particularly effective when users want to instantly give operating instructions to electronic devices, such as digital cameras and game consoles.

一般に、視線はブレが大きいため、視線の検出位置を示すポインタ(視線ポインタ;GUI)を画面上に表示する場合に、小さいポインタ(枠)を表示すると、ポインタにブレが大きく生じるため、ユーザに不快感を与える可能性がある。視線の検出位置を示すポインタ(GUI)を画面上に表示する場合に、大きいポインタ(枠)を表示すると、狙った被写体を枠の範囲内に収めやすくなるため、上述の不快感を軽減できる。しかし、大雑把な範囲指定となるため、その枠内での細かいオブジェクト(被写体)に対して、自動焦点調節(AF)や被写体追尾の指示を行いづらい。 In general, the gaze is subject to large shaking, so when a pointer (gaze pointer; GUI) indicating the detected position of the gaze is displayed on the screen, if a small pointer (frame) is displayed, the pointer will shake significantly, which may cause discomfort to the user. When a pointer (GUI) indicating the detected position of the gaze is displayed on the screen, if a large pointer (frame) is displayed, it becomes easier to fit the targeted subject within the range of the frame, thereby reducing the discomfort described above. However, as the range is specified roughly, it is difficult to instruct automatic focus adjustment (AF) or subject tracking for small objects (subjects) within the frame.

ポインタの大きさを変える技術として、特許文献1には、検出された被写体の近傍にユーザのタッチ位置を示すポインタ(タッチポインタ)を重ねると、タッチポインタのサイズを変更する技術が開示されている。 As a technique for changing the size of a pointer, Patent Literature 1 discloses a technique for changing the size of a touch pointer when the pointer indicating the user's touch position (touch pointer) is placed near a detected subject.

特開2018-037893号公報JP 2018-037893 A

しかしながら、特許文献1に開示された技術では、被写体に応じてポインタの大きさを変えることになるため、ユーザの意図に反してポインタの大きさが変わってしまう可能性がある。 However, the technology disclosed in Patent Document 1 changes the size of the pointer depending on the subject, so there is a possibility that the size of the pointer may change contrary to the user's intention.

そこで、本発明は、ユーザの視線入力を用いて位置を指定する場合に、ユーザの意図した位置を容易に指定することができる技術を提供することを目的とする。 The present invention aims to provide a technology that allows a user to easily specify an intended position when specifying a position using eye gaze input.

本発明の一態様は、
表示手段を見るユーザの視線による視線位置を検出する視線検出手段と、
前記視線検出手段により検出した視線位置または操作手段に対する第1の操作に応じて、前記表示手段における選択位置を指定するように制御する制御手段であって、
前記視線検出手段により検出した視線位置に基づいて前記選択位置が指定され、かつ、前記操作手段に対する前記第1の操作が行われていない第1の場合に、前記視線検出手段により検出した視線位置に基づく前記選択位置に第1の大きさの範囲を示す第1のアイテムを表示し、
前記視線検出手段により検出した視線位置に基づいて前記選択位置が指定され、かつ、前記操作手段に対する前記第1の操作が行われた第2の場合に、前記選択位置に前記第1の大きさよりも小さい第2の大きさの範囲を示す第2のアイテムを表示し、
前記第1の場合に、前記第1の操作とは異なる第2の操作が行われたことに応じて、前記第1のアイテムの位置で、所定の条件に基づいてオブジェクトを選択し、
前記第2の場合に、前記第2の操作が行われたことに応じて、前記第2のアイテムの位置で、前記所定の条件に基づかずにオブジェクトを選択する、
ように制御する制御手段と、
を有することを特徴とする電子機器である。
One aspect of the present invention is
A gaze detection means for detecting a gaze position of a user looking at the display means;
A control means for controlling to designate a selection position on the display means in response to a line of sight position detected by the line of sight detection means or a first operation on the operation means,
displaying a first item indicating a first size range at the selection position based on the gaze position detected by the gaze detection means in a first case in which the selection position is designated based on the gaze position detected by the gaze detection means and the first operation is not performed on the operation means;
displaying a second item indicating a range of a second size smaller than the first size at the selection position in a second case in which the selection position is designated based on the gaze position detected by the gaze detection means and the first operation is performed on the operation means;
In the first case, in response to a second operation different from the first operation being performed, selecting an object at a position of the first item based on a predetermined condition;
In the second case, in response to the second operation being performed, an object is selected at the position of the second item without being based on the predetermined condition.
A control means for controlling the
The electronic device is characterized by having the following features.

本発明によれば、ユーザの視線入力を用いて位置を指定する場合に、ユーザの意図した位置を容易に指定することができる。 According to the present invention, when a position is specified using eye gaze input by the user, the user can easily specify the intended position.

デジタルカメラ100の外観図である。FIG. 1 is an external view of a digital camera 100. デジタルカメラ100のブロック図である。FIG. 1 is a block diagram of a digital camera 100. 一点AFでの視線によるAF枠の設定を説明する図である。11A and 11B are diagrams illustrating setting of an AF frame by a line of sight in one-point AF. 顔+追尾優先AFでの視線によるAF枠の設定を説明する図である。11A and 11B are diagrams illustrating setting of an AF frame based on the line of sight in face+tracking priority AF. 撮影モード処理のフローチャートである。13 is a flowchart of a shooting mode process. 撮影モード処理のフローチャートである。13 is a flowchart of a shooting mode process. カメラ設定処理のフローチャートである。13 is a flowchart of a camera setting process. タッチ操作応答処理のフローチャートである。13 is a flowchart of a touch operation response process. 視線有効時相対位置指定処理のフローチャートである。13 is a flowchart of a relative position designation process when the line of sight is enabled. 視線無効時相対位置指定処理のフローチャートである。13 is a flowchart of a relative position designation process when the line of sight is invalid. 絶対位置指定処理のフローチャートである。13 is a flowchart of an absolute position designation process. 設定メニュー画面の表示例である。13 is a display example of a setting menu screen. 視線を用いた文字の挿入位置の選択に関する表示例である。13 is a display example regarding selection of a character insertion position using line of sight. 変形例2に係るヘッドセット1300および操作部材の外観図である。FIG. 13 is an external view of a headset 1300 and operation members according to Modification 2. 変形例2に係る位置指定操作を説明する図である。13A to 13C are diagrams illustrating a position designation operation according to Modification 2.

[実施形態]
<デジタルカメラ100の外観図>
以下、図面を参照して本発明の好適な実施形態を説明する。図1A,1Bに、本発明を適用可能な装置の一例としてのデジタルカメラ100の外観図を示す。図1Aはデジタルカメラ100の前面斜視図であり、図1Bはデジタルカメラ100の背面斜視図である。
[Embodiment]
<External view of digital camera 100>
A preferred embodiment of the present invention will now be described with reference to the drawings. Figures 1A and 1B show external views of a digital camera 100 as an example of an apparatus to which the present invention can be applied. Figure 1A is a front perspective view of the digital camera 100, and Figure 1B is a rear perspective view of the digital camera 100.

表示部28は、デジタルカメラ100の背面に設けられた表示部であり、画像や各種情報を表示する。タッチパネル70aは、表示部28の表示面(タッチ操作面;タッチ操作部材)に対するタッチ操作を検出することができる。ファインダー外表示部43は、デジタルカメラ100の上面に設けられた表示部であり、シャッター速度や絞りをはじめとするデジタルカメラ100の様々な設定値を表示する。シャッターボタン61は撮影指示(撮像指示)を行うための操作部材である。モード切替スイッチ60は、各種モードを切り替えるための操作部材である。端子カバー40は、デジタルカメラ100を外部機器に接続するコネクタ(不図示)を保護するカバーである。 The display unit 28 is a display unit provided on the back surface of the digital camera 100, and displays images and various information. The touch panel 70a can detect touch operations on the display surface (touch operation surface; touch operation member) of the display unit 28. The outside-finder display unit 43 is a display unit provided on the top surface of the digital camera 100, and displays various settings of the digital camera 100, including the shutter speed and aperture. The shutter button 61 is an operating member for issuing shooting instructions (image capture instructions). The mode change switch 60 is an operating member for switching between various modes. The terminal cover 40 is a cover that protects a connector (not shown) that connects the digital camera 100 to an external device.

メイン電子ダイヤル71は回転操作部材であり、メイン電子ダイヤル71を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。電源スイッチ72は、デジタルカメラ100の電源のONとOFFを切り替える操作部材である。サブ電子ダイヤル73は回転操作部材であり、サブ電子ダイヤル73を回すことで、選択枠(カーソル)の移動や画像送りなどが行える。4方向キー74は、上、下、左、右部分をそれぞれ押し込み可能に構成され、4方向キー74の押した部分に応じた処理が可能である。SETボタン75は、押しボタンであり、主に選択項目の決定などに用いられる。マルチコントローラー(以下、MC)65は、8方向への方向指示と、中央部分の押し込み操作とを受け付け可能である。 The main electronic dial 71 is a rotary operation member, and by turning the main electronic dial 71, settings such as the shutter speed and aperture can be changed. The power switch 72 is an operation member that switches the power of the digital camera 100 ON and OFF. The sub electronic dial 73 is a rotary operation member, and by turning the sub electronic dial 73, the selection frame (cursor) can be moved and images can be forwarded. The four-way key 74 is configured so that the up, down, left, and right parts can each be pressed, and processing can be performed according to which part of the four-way key 74 is pressed. The SET button 75 is a push button, and is mainly used to confirm selection items. The multi-controller (hereinafter, MC) 65 can accept directional instructions in eight directions and a press operation on the center part.

動画ボタン76は、動画撮影(記録)の開始や停止の指示に用いられる。AEロックボタン77は押しボタンであり、撮影待機状態でAEロックボタン77を押下することにより、露出状態を固定することができる。拡大ボタン78は、撮影モードのライブビュー表示(LV表示)において拡大モードのONとOFFを切り替えるための操作ボタンである。拡大モードをONとしてからメイン電子ダイヤル71を操作することにより、ライブビュー画像(LV画像)の拡大や縮小を行える。再生モードにおいては、拡大ボタン78は、再生画像を拡大したり、その拡大率を増加させたりするための操作ボタンとして機能する。再生ボタン79は、撮影モードと再生モードとを切り替えるための操作ボタンである。撮影モード中に再生ボタン79を押下することで再生モードに遷移し、記録媒体200(後述)に記録された画像のうち最新の画像を表示部28に表示させることができる。メニューボタン81はメニュー画面を表示させる指示操作を行うために用いられる押しボタンであり、メニューボタン81が押されると各種の設定が可能なメニュー画面が表示部28に表示される。ユーザは、表示部28に表示されたメニュー画面と、4方向キー74やSETボタン75、またはMC65とを用いて直感的に各種設定を行うことができる。視線確定ボタン82は、操作部70に含まれる操作部材であって、後述する視線ポインタの位置に基づく被写体の選択実行または解除を指示する押しボタンである。視線確定ボタンは、ユーザーがファインダーを覗いた状態(接眼部16に接眼した状態)でも操作しやすい位置に配置されており、グリップ部90を持つ右手の親指で操作可能な位置に配置されている。 The video button 76 is used to start or stop video shooting (recording). The AE lock button 77 is a push button, and pressing the AE lock button 77 in the shooting standby state fixes the exposure state. The enlargement button 78 is an operation button for switching the enlargement mode ON and OFF in the live view display (LV display) of the shooting mode. By turning the enlargement mode ON and then operating the main electronic dial 71, the live view image (LV image) can be enlarged or reduced. In the playback mode, the enlargement button 78 functions as an operation button for enlarging the playback image or increasing its magnification ratio. The playback button 79 is an operation button for switching between the shooting mode and the playback mode. By pressing the playback button 79 during the shooting mode, the mode transitions to the playback mode, and the latest image among the images recorded on the recording medium 200 (described later) can be displayed on the display unit 28. The menu button 81 is a push button used to perform an instruction operation to display a menu screen, and when the menu button 81 is pressed, a menu screen on which various settings can be made is displayed on the display unit 28. The user can intuitively make various settings using the menu screen displayed on the display unit 28, the four-way key 74, the SET button 75, or the MC 65. The line of sight confirmation button 82 is an operating member included in the operation unit 70, and is a push button that instructs the user to select or cancel a subject based on the position of the line of sight pointer, which will be described later. The line of sight confirmation button is located in a position that is easy for the user to operate even when looking through the viewfinder (with the eye placed on the eyepiece unit 16), and is located in a position that can be operated with the thumb of the right hand holding the grip unit 90.

通信端子10は、デジタルカメラ100がレンズユニット150(後述;着脱可能)側と通信を行うための通信端子である。接眼部16は、接眼ファインダー(覗き込み型のファインダー)の接眼部であり、ユーザは、接眼部16を介して内部のEVF29(後述)に表示された映像を視認することができる。接眼検知部57は、接眼部16にユーザ(撮影者)が接眼しているか否かを検知する接眼検知センサーである。蓋202は、記録媒体200(後述)を格納するスロットの蓋である。グリップ部90は、ユーザがデジタルカメラ100を構える際に右手で握りやすい形状とした保持部である。グリップ部90を右手の小指、薬指、中指で握ってデジタルカメラ100を保持した状態で、右手の人差指で操作可能な位置にシャッターボタン61とメイン電子ダイヤル71が配置されている。また、同じ状態で、右手の親指で操作可能な位置に、サブ電子ダイヤル73、視線確定ボタン82が配置されている。 The communication terminal 10 is a communication terminal for the digital camera 100 to communicate with the lens unit 150 (described later; detachable). The eyepiece 16 is an eyepiece of an eyepiece finder (a peer-in type finder), and the user can view the image displayed on the internal EVF 29 (described later) through the eyepiece 16. The eyepiece detection unit 57 is an eyepiece detection sensor that detects whether the user (photographer) has placed his/her eye on the eyepiece 16. The cover 202 is a cover for a slot that stores a recording medium 200 (described later). The grip unit 90 is a holding unit that is shaped so that the user can easily hold it with the right hand when holding the digital camera 100. The shutter button 61 and the main electronic dial 71 are located in a position that can be operated with the index finger of the right hand when the digital camera 100 is held by holding the grip unit 90 with the little finger, ring finger, and middle finger of the right hand. In the same state, the sub electronic dial 73 and the line of sight confirmation button 82 are located in a position that can be operated with the thumb of the right hand.

<デジタルカメラ100の構成ブロック図>
図2は、デジタルカメラ100の構成例を示すブロック図である。レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ103は通常、複数枚のレンズから構成されるが、図2では簡略して一枚のレンズのみで示している。通信端子6は、レンズユニット150がデジタルカメラ100側と通信を行うための通信端子であり、通信端子10は、デジタルカメラ100がレンズユニット150側と通信を行うための通信端子である。レンズユニット150は、これら通信端子6,10を介してシステム制御部50と通信する。そして、レンズユニット150は、内部のレンズシステム制御回路4によって絞り駆動回路2を介して絞り1の制御を行う。また、レンズユニット150は、レンズシステム制御回路4によってAF駆動回路3を介してレンズ103を変位させることで焦点を合わせる。
<Configuration block diagram of digital camera 100>
FIG. 2 is a block diagram showing an example of the configuration of the digital camera 100. The lens unit 150 is a lens unit equipped with an interchangeable photographing lens. The lens 103 is usually composed of a plurality of lenses, but FIG. 2 shows only one lens for simplicity. The communication terminal 6 is a communication terminal through which the lens unit 150 communicates with the digital camera 100, and the communication terminal 10 is a communication terminal through which the digital camera 100 communicates with the lens unit 150. The lens unit 150 communicates with the system control unit 50 via these communication terminals 6 and 10. The lens unit 150 controls the aperture 1 via the aperture drive circuit 2 by the internal lens system control circuit 4. The lens unit 150 adjusts the focus by displacing the lens 103 via the AF drive circuit 3 by the lens system control circuit 4.

シャッター101は、システム制御部50の制御で撮像部22の露光時間を自由に制御できるフォーカルプレーンシャッターである。 The shutter 101 is a focal plane shutter that can freely control the exposure time of the imaging unit 22 under the control of the system control unit 50.

撮像部22は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。撮像部22は、システム制御部50にデフォーカス量情報を出力する撮像面
位相差センサーを有していてもよい。
The imaging unit 22 is an imaging element that converts an optical image into an electrical signal and is configured with a CCD, a CMOS element, etc. The imaging unit 22 may have an imaging surface phase difference sensor that outputs defocus amount information to the system control unit 50.

画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の処理(画素補間、縮小といったリサイズ処理、色変換処理、等)を行う。また、画像処理部24は、撮像した画像データを用いて所定の演算処理を行い、システム制御部50は、画像処理部24により得られた演算結果に基づいて露光制御や測距制御を行う。これにより,TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理、等が行われる。画像処理部24は、さらに、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。 The image processing unit 24 performs predetermined processing (pixel interpolation, resizing such as reduction, color conversion, etc.) on the data from the A/D converter 23 or the data from the memory control unit 15. The image processing unit 24 also performs predetermined calculation processing using the captured image data, and the system control unit 50 performs exposure control and distance measurement control based on the calculation results obtained by the image processing unit 24. This allows TTL (through-the-lens) type AF (autofocus) processing, AE (automatic exposure) processing, EF (flash pre-flash) processing, etc. to be performed. The image processing unit 24 also performs predetermined calculation processing using the captured image data, and performs TTL type AWB (auto white balance) processing based on the obtained calculation results.

メモリ制御部15は、A/D変換器23、画像処理部24、メモリ32間のデータの送受信を制御する。A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介してメモリ32に書き込まれる。あるいは、A/D変換器23からの出力データは、画像処理部24を介さずにメモリ制御部15を介してメモリ32に書き込まれる。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28やEVF29に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。 The memory control unit 15 controls the transmission and reception of data between the A/D converter 23, the image processing unit 24, and the memory 32. The output data from the A/D converter 23 is written to the memory 32 via the image processing unit 24 and the memory control unit 15. Alternatively, the output data from the A/D converter 23 is written to the memory 32 via the memory control unit 15 without going through the image processing unit 24. The memory 32 stores image data obtained by the imaging unit 22 and converted into digital data by the A/D converter 23, and image data to be displayed on the display unit 28 and EVF 29. The memory 32 has a storage capacity sufficient to store a predetermined number of still images and a predetermined period of moving images and audio.

また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。メモリ32に書き込まれた表示用の画像データはメモリ制御部15を介して表示部28やEVF29により表示される。表示部28とEVF29のそれぞれは、LCDや有機EL等の表示器上で、メモリ制御部15からの信号に応じた表示を行う。A/D変換器23によってA/D変換されメモリ32に蓄積されたデータを表示部28またはEVF29に逐次転送して表示することで、ライブビュー表示(LV)が行える。以下、ライブビュー表示で表示される画像をライブビュー画像(LV画像)と称する。 The memory 32 also serves as a memory (video memory) for displaying images. The image data for display written to the memory 32 is displayed by the display unit 28 or EVF 29 via the memory control unit 15. The display unit 28 and EVF 29 each perform display according to a signal from the memory control unit 15 on a display device such as an LCD or an organic EL. A live view display (LV) can be performed by sequentially transferring and displaying data that has been A/D converted by the A/D converter 23 and stored in the memory 32 to the display unit 28 or EVF 29. Hereinafter, the image displayed in the live view display is referred to as a live view image (LV image).

視線検出部160(受付部)は、接眼部16に接眼したユーザの目の、EVF29を見る視線を検出する。視線検出部160は、ダイクロイックミラー162、結像レンズ163、視線検知センサー164、視線検出回路165、赤外発光ダイオード166により構成される。 The gaze detection unit 160 (reception unit) detects the gaze of the user's eye, which is placed in the eyepiece unit 16, as he or she looks at the EVF 29. The gaze detection unit 160 is composed of a dichroic mirror 162, an imaging lens 163, a gaze detection sensor 164, a gaze detection circuit 165, and an infrared light emitting diode 166.

赤外発光ダイオード166は、ファインダー画面内におけるユーザの視線位置を検出するための発光素子であり、ユーザの眼球(目)161に赤外光を照射する。赤外発光ダイオード166から発した赤外光は眼球(目)161で反射し、その赤外反射光はダイクロイックミラー162に到達する。ダイクロイックミラー162は、赤外光だけを反射して、可視光を透過させる。光路が変更された赤外反射光は、結像レンズ163を介して視線検知センサー164の撮像面に結像する。結像レンズ163は、視線検知光学系を構成する光学部材である。視線検知センサー164は、CCD型イメージセンサ等の撮像デバイスから構成される。 The infrared light emitting diode 166 is a light emitting element for detecting the user's gaze position within the viewfinder screen, and irradiates infrared light onto the user's eyeball (eye) 161. The infrared light emitted from the infrared light emitting diode 166 is reflected by the eyeball (eye) 161, and the reflected infrared light reaches the dichroic mirror 162. The dichroic mirror 162 reflects only the infrared light and transmits visible light. The reflected infrared light, whose optical path has been changed, forms an image on the imaging surface of the gaze detection sensor 164 via the imaging lens 163. The imaging lens 163 is an optical component that constitutes the gaze detection optical system. The gaze detection sensor 164 is composed of an imaging device such as a CCD image sensor.

視線検知センサー164は、入射された赤外反射光を電気信号に光電変換して視線検出回路165へ出力する。視線検出回路165は、視線検知センサー164の出力信号に基づいて、ユーザの眼球(目)161の動きからユーザの視線位置を検出し、検出情報をシステム制御部50および注視判定部170に出力する。 The gaze detection sensor 164 photoelectrically converts the incident infrared reflected light into an electrical signal and outputs it to the gaze detection circuit 165. The gaze detection circuit 165 detects the user's gaze position from the movement of the user's eyeball (eye) 161 based on the output signal of the gaze detection sensor 164, and outputs the detection information to the system control unit 50 and the gaze determination unit 170.

注視判定部170は、視線検出回路165から受け取った検出情報に基づいて、ユーザの視線がある領域に固定されている期間が所定の閾値を越えた場合に、その領域を注視していると判定する。従って、当該領域は、注視が行われた位置である注視位置(注視領域
)であるといえる。なお、「視線がある領域に固定されている」とは、例えば、所定の期間経過するまでの間、視線の動きの平均位置が当該領域内にあり、かつ、ばらつき(分散)が所定値よりも少ないことである。なお、所定の閾値は、システム制御部50により任意に変更可能である。また、注視判定部170を独立したブロックとして設けず、システム制御部50が視線検出回路165から受け取った検出情報に基づいて注視判定部170と同じ機能を実行するようにしてもよい。
The gaze determination unit 170 determines that the user is gazing at a certain area when the period during which the user's gaze is fixed on that area exceeds a predetermined threshold based on the detection information received from the gaze detection circuit 165. Therefore, the area can be said to be a gaze position (gaze area) where the gaze is performed. Note that "the gaze is fixed on a certain area" means, for example, that the average position of the gaze movement is within the area until a predetermined period has elapsed, and the variation (dispersion) is less than a predetermined value. Note that the predetermined threshold can be arbitrarily changed by the system control unit 50. In addition, the gaze determination unit 170 may not be provided as an independent block, and the system control unit 50 may execute the same function as the gaze determination unit 170 based on the detection information received from the gaze detection circuit 165.

本実施形態では、視線検出部160は、角膜反射法と呼ばれる方式を用いて視線を検出する。角膜反射法とは、赤外発光ダイオード166から発せられた赤外光が眼球(目)161(特に角膜)で反射した反射光と、眼球(目)161の瞳孔との位置関係から、視線の向き・位置を検出する方式である。なお、視線(視線の向き・位置)を検出する方式は特に限定されず、上記以外の方式を用いてもよい。例えば、黒目と白目での光の反射率が異なることを利用する強膜反射法と呼ばれる方式を用いてもよい。 In this embodiment, the gaze detection unit 160 detects the gaze using a method called the corneal reflex method. The corneal reflex method is a method of detecting the direction and position of the gaze from the positional relationship between the light reflected by the eyeball (eye) 161 (particularly the cornea) of the infrared light emitted from the infrared light emitting diode 166 and the pupil of the eyeball (eye) 161. Note that the method of detecting the gaze (direction and position of the gaze) is not particularly limited, and methods other than those described above may be used. For example, a method called the scleral reflex method may be used, which utilizes the difference in light reflectance between the iris and white of the eye.

ファインダー外表示部43には、ファインダー外表示部駆動回路44を介して、シャッター速度や絞りをはじめとするカメラの様々な設定値が表示される。 Various camera settings, including shutter speed and aperture, are displayed on the outside viewfinder display 43 via the outside viewfinder display drive circuit 44.

不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えば、FLash-ROM等である。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記録される。ここでいうプログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。 The non-volatile memory 56 is an electrically erasable and recordable memory, such as a Flash-ROM. Constants and programs for the operation of the system control unit 50 are recorded in the non-volatile memory 56. The programs referred to here are programs for executing the various flowcharts described later in this embodiment.

システム制御部50は、少なくとも1つのプロセッサーまたは回路からなる制御部であり、デジタルカメラ100全体を制御する。システム制御部50は、前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52は例えばRAMであり、システム制御部50は、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等をシステムメモリ52に展開する。また、システム制御部50は、メモリ32、表示部28等を制御することにより表示制御も行う。 The system control unit 50 is a control unit consisting of at least one processor or circuit, and controls the entire digital camera 100. The system control unit 50 executes the programs recorded in the non-volatile memory 56 described above, thereby realizing each process of this embodiment described below. The system memory 52 is, for example, a RAM, and the system control unit 50 loads constants and variables for the operation of the system control unit 50, programs read from the non-volatile memory 56, etc. into the system memory 52. The system control unit 50 also performs display control by controlling the memory 32, the display unit 28, etc.

システムタイマー53は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。 The system timer 53 is a timing unit that measures the time used for various controls and the time of the built-in clock.

電源制御部80は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出などを行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。 The power supply control unit 80 is composed of a battery detection circuit, a DC-DC converter, a switch circuit that switches between blocks to which electricity is applied, and other components, and detects whether a battery is installed, the type of battery, and the remaining battery power. The power supply control unit 80 also controls the DC-DC converter based on the detection results and instructions from the system control unit 50, and supplies the necessary voltage for the necessary period to each component, including the recording medium 200. The power supply unit 30 is composed of primary batteries such as alkaline batteries or lithium batteries, secondary batteries such as NiCd batteries, NiMH batteries, or Li batteries, an AC adapter, etc.

記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。 The recording medium I/F 18 is an interface with a recording medium 200 such as a memory card or a hard disk. The recording medium 200 is a recording medium such as a memory card for recording captured images, and is composed of a semiconductor memory, a magnetic disk, etc.

通信部54は、無線または有線ケーブルによって接続された外部機器との間で、映像信号や音声信号の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。また、通信部54は、Bluetooth(登録商標)やBluetooth Low Energyでも外部機器と通信可能である。通信部54は撮像部22で撮像した画像(LV画像を含む)や、記録媒体200に記録された画像を送信可能であり、外部機器から画像データやその他の各種情報を受信
することができる。
The communication unit 54 transmits and receives video signals and audio signals to and from an external device connected wirelessly or via a wired cable. The communication unit 54 can also be connected to a wireless LAN (Local Area Network) or the Internet. The communication unit 54 can also communicate with an external device via Bluetooth (registered trademark) or Bluetooth Low Energy. The communication unit 54 can transmit images (including LV images) captured by the imaging unit 22 and images recorded on the recording medium 200, and can receive image data and various other information from an external device.

姿勢検知部55は、重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、デジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像の画像ファイルに付加したり、画像を回転して記録したりすることが可能である。姿勢検知部55としては、加速度センサーやジャイロセンサーなどを用いることができる。姿勢検知部55である加速度センサーやジャイロセンサーを用いて、デジタルカメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。 The attitude detection unit 55 detects the attitude of the digital camera 100 with respect to the direction of gravity. Based on the attitude detected by the attitude detection unit 55, it is possible to determine whether the image captured by the imaging unit 22 was captured with the digital camera 100 held horizontally or vertically. The system control unit 50 can add orientation information corresponding to the attitude detected by the attitude detection unit 55 to the image file of the image captured by the imaging unit 22, or rotate and record the image. An acceleration sensor, a gyro sensor, or the like can be used as the attitude detection unit 55. It is also possible to detect the movement of the digital camera 100 (panning, tilting, lifting, whether it is stationary, etc.) using the acceleration sensor or gyro sensor that is the attitude detection unit 55.

接眼検知部57は、接眼ファインダー(以後、単に「ファインダー」と記載する)の接眼部16に対する目(物体)161の接近(接眼)および離脱(離眼)を検知する(接近検知)、接眼検知センサーである。システム制御部50は、接眼検知部57で検知された状態に応じて、表示部28とEVF29の表示(表示状態)/非表示(非表示状態)を切り替える。より具体的には、少なくとも撮影待機状態で、かつ、表示先の切替が自動切替である場合において、非接眼中は表示先を表示部28として表示をオンとし、EVF29は非表示とする。また、接眼中は表示先をEVF29として表示をオンとし、表示部28は非表示とする。接眼検知部57としては、例えば赤外線近接センサーを用いることができ、EVF29を内蔵するファインダーの接眼部16への何らかの物体の接近を検知することができる。物体が接近した場合は、接眼検知部57の投光部(図示せず)から投光した赤外線が物体で反射して赤外線近接センサーの受光部(図示せず)で受光される。受光された赤外線の量によって、物体が接眼部16からどの距離まで近づいているか(接眼距離)も判別することができる。このように、接眼検知部57は、接眼部16への物体の近接距離を検知する接眼検知を行う。非接眼状態(非接近状態)から、接眼部16に対して所定距離以内に近づく物体が検出された場合に、接眼されたと検出するものとする。接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検出するものとする。接眼を検出する閾値と、離眼を検出する閾値は例えばヒステリシスを設けるなどして異なっていてもよい。また、接眼を検出した後は、離眼を検出するまでは接眼状態であるものとする。離眼を検出した後は、接眼を検出するまでは非接眼状態であるものとする。なお、赤外線近接センサーは一例であって、接眼検知部57には、接眼とみなせる目や物体の接近を検知できるものであれば他のセンサーを採用してもよい。 The eyepiece detection unit 57 is an eyepiece detection sensor that detects the approach (eyepiece) and departure (eye separation) of the eye (object) 161 to the eyepiece unit 16 of the eyepiece finder (hereinafter simply referred to as the "finder") (approach detection). The system control unit 50 switches the display unit 28 and the EVF 29 between display (display state)/non-display (non-display state) depending on the state detected by the eyepiece detection unit 57. More specifically, at least in the standby state for shooting and when the display destination switching is automatic switching, when the eye is not in contact with the camera, the display destination is set to the display unit 28 and the display is turned on, and the EVF 29 is turned off. Also, when the eye is in contact with the camera, the display destination is set to the EVF 29 and the display is turned on, and the display unit 28 is turned off. For example, an infrared proximity sensor can be used as the eyepiece detection unit 57, and it can detect the approach of some object to the eyepiece unit 16 of the finder that incorporates the EVF 29. When an object approaches, infrared light projected from a light projecting section (not shown) of the eyepiece detection section 57 is reflected by the object and received by a light receiving section (not shown) of the infrared proximity sensor. The amount of infrared light received can also determine how close the object is to the eyepiece section 16 (eyepiece distance). In this way, the eyepiece detection section 57 performs eyepiece detection to detect the proximity of the object to the eyepiece section 16. When an object approaching within a predetermined distance from the non-eyepiece state (non-approaching state) is detected, it is detected that the object has been placed in eye contact. When an object whose approach was detected is moved away from the eyepiece state (approaching state) by a predetermined distance or more, it is detected that the object has been removed. The threshold for detecting eye contact and the threshold for detecting removal of the eye may be different, for example, by providing a hysteresis. In addition, after detecting the eye contact, the eyepiece is in the eye contact state until removal of the eye is detected. After detecting the removal of the eye, the eyepiece is in the non-eye contact state until removal of the eye is detected. Note that the infrared proximity sensor is just one example, and other sensors may be used for the eye proximity detection unit 57 as long as they can detect the approach of an eye or object that can be considered as an eye.

システム制御部50は、視線検出部160を制御することによって、EVF29への以下の視線の状態を検出できる。
・EVF29へ向けられていなかった視線が新たにEVF29へ向けられたこと。すなわち、視線入力の開始。
・EVF29に対する視線入力をしている状態であること。
・EVF29のある位置へ注視している状態であること。
・EVF29へ向けられていた視線を外したこと。すなわち、視線入力の終了。
・EVF29へ何も視線入力していない状態(EVF29を見ていない状態)。
The system control unit 50 controls the line-of-sight detection unit 160 to detect the following states of the line of sight toward the EVF 29.
The line of sight that was not directed toward the EVF 29 is now directed toward the EVF 29. In other words, the start of line of sight input.
- Eye gaze input is being performed on the EVF 29.
- Be sure to focus your gaze on the position of the EVF 29.
The gaze direction is changed to the EVF 29. In other words, the gaze input is terminated.
- A state in which no gaze input is being made to the EVF 29 (a state in which the user is not looking at the EVF 29).

これらの操作・状態や、EVF29に視線が向いている位置(方向)は内部バスを通じてシステム制御部50に通知され、システム制御部50は、通知された情報に基づいてどのような視線入力が行われているかを判定する。 These operations and states, as well as the position (direction) in which the gaze is directed toward the EVF 29, are notified to the system control unit 50 via the internal bus, and the system control unit 50 determines what type of gaze input is being performed based on the notified information.

操作部70は、ユーザからの操作(ユーザ操作)を受け付ける入力部であり、システム制御部50に各種の動作指示を入力するために使用される。図2に示すように、操作部7
0は、モード切替スイッチ60、シャッターボタン61、電源スイッチ72、タッチパネル70a、等を含む。また、操作部70は、その他の操作部材70bとして、メイン電子ダイヤル71、サブ電子ダイヤル73、4方向キー74、SETボタン75、動画ボタン76、AEロックボタン77、拡大ボタン78、再生ボタン79、メニューボタン81、MC65等を含む。
The operation unit 70 is an input unit that accepts operations from a user (user operations) and is used to input various operation instructions to the system control unit 50. As shown in FIG.
The operation unit 70 includes a mode changeover switch 60, a shutter button 61, a power switch 72, a touch panel 70a, etc. The operation unit 70 also includes, as other operation members 70b, a main electronic dial 71, a sub electronic dial 73, a four-way key 74, a SET button 75, a video button 76, an AE lock button 77, a magnification button 78, a playback button 79, a menu button 81, an MC 65, etc.

モード切替スイッチ60は、システム制御部50の動作モードを静止画撮影モード、動画撮影モード、再生モード等のいずれかに切り替える。静止画撮影モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、プログラムAEモード(Pモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、カスタムモード等がある。モード切替スイッチ60により、ユーザは、これらのモードのいずれかに直接切り替えることができる。あるいは、モード切替スイッチ60で撮影モードの一覧画面に一旦切り替えた後に、表示された複数のモードのいずれかに、他の操作部材を用いて選択的に切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。 The mode changeover switch 60 changes the operation mode of the system control unit 50 to one of still image shooting mode, video shooting mode, playback mode, etc. Modes included in the still image shooting mode include auto shooting mode, auto scene determination mode, manual mode, aperture priority mode (Av mode), shutter speed priority mode (Tv mode), and program AE mode (P mode). There are also various scene modes and custom modes that provide shooting settings for different shooting scenes. The mode changeover switch 60 allows the user to directly switch to one of these modes. Alternatively, after switching to a list screen of shooting modes with the mode changeover switch 60, the user may selectively switch to one of the multiple displayed modes using other operating members. Similarly, the video shooting mode may also include multiple modes.

シャッターボタン61は、第1シャッタースイッチ62と第2シャッタースイッチ64を備える。第1シャッタースイッチ62は、シャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。システム制御部50は、第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の撮影準備動作を開始する。第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから、撮像された画像を画像ファイルとして記録媒体200に書き込むまでの、一連の撮影処理の動作を開始する。 The shutter button 61 has a first shutter switch 62 and a second shutter switch 64. The first shutter switch 62 is turned on when the shutter button 61 is pressed halfway (instruction to prepare for shooting) and generates a first shutter switch signal SW1. The system control unit 50 starts preparation operations for shooting such as AF (autofocus) processing, AE (auto exposure) processing, AWB (auto white balance) processing, and EF (pre-flash) processing based on the first shutter switch signal SW1. The second shutter switch 64 is turned on when the shutter button 61 is pressed fully (instruction to shoot) and generates a second shutter switch signal SW2. The system control unit 50 starts a series of shooting processing operations based on the second shutter switch signal SW2, from reading out the signal from the imaging unit 22 to writing the captured image to the recording medium 200 as an image file.

タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aは、光の透過率が表示部28の表示を妨げないように構成され、表示部28の表示面の上層に取り付けられる。そして、タッチパネル70aにおける入力座標と、表示部28の表示面上の表示座標とを対応付ける。これにより、あたかもユーザが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザインターフェース)を提供できる。システム制御部50は、タッチパネル70aへの以下の操作、あるいは状態を検出できる。 The touch panel 70a and the display unit 28 can be configured as one unit. For example, the touch panel 70a is configured so that the light transmittance does not interfere with the display of the display unit 28, and is attached to the upper layer of the display surface of the display unit 28. Then, input coordinates on the touch panel 70a are associated with display coordinates on the display surface of the display unit 28. This makes it possible to provide a GUI (graphical user interface) that allows the user to directly operate the screen displayed on the display unit 28. The system control unit 50 can detect the following operations or states on the touch panel 70a.

・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch-Down)と称する)。
・タッチパネル70aを指やペンでタッチしている状態(以下、タッチオン(Touch-On)と称する)。
・指やペンがタッチパネル70aをタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)。
・タッチパネル70aへタッチしていた指やペンがタッチパネル70aから離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch-Up)と称する)。
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)。
A finger or pen that has not been touching the touch panel 70a touches the touch panel 70a again, that is, the start of touching (hereinafter referred to as touch-down).
A state in which the touch panel 70a is touched with a finger or a pen (hereinafter, referred to as Touch-On).
A finger or a pen is moved while touching the touch panel 70a (hereinafter, referred to as Touch-Move).
The finger or pen that has been touching the touch panel 70a is removed (released), that is, the touch ends (hereinafter, referred to as "touch-up").
A state in which nothing is touching the touch panel 70a (hereinafter, referred to as Touch-Off).

タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タ
ッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。
When touch-down is detected, touch-on is also detected at the same time. After touch-down, touch-on will usually continue to be detected unless touch-up is detected. If touch-move is detected, touch-on will also be detected at the same time. Even if touch-on is detected, touch-move will not be detected if the touch position does not move. After it is detected that all fingers or pens that were touching have touched up, touch-off will occur.

これらの操作・状態や、タッチパネル70a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知される。そして、システム制御部50は通知された情報に基づいてタッチパネル70a上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについてはタッチパネル70a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル70a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行われたと判定するものとする。タッチパネル70a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル70a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。さらに、複数箇所(例えば2点)を共にタッチして(マルチタッチして)、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパネルのうちいずれの方式のものであってもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。 These operations and states, as well as the position coordinates of the finger or pen touching the touch panel 70a, are notified to the system control unit 50 via the internal bus. The system control unit 50 then determines what kind of operation (touch operation) has been performed on the touch panel 70a based on the notified information. For touch moves, the direction of movement of the finger or pen moving on the touch panel 70a can also be determined for each vertical and horizontal component on the touch panel 70a based on the change in position coordinates. If a touch move of a predetermined distance or more is detected, it is determined that a slide operation has been performed. An operation in which a finger is touched on the touch panel 70a, quickly moved a certain distance, and then released is called a flick. In other words, a flick is an operation in which a finger is quickly traced on the touch panel 70a as if flicking it. If a touch move of a predetermined distance or more at a predetermined speed or more is detected and a touch up is detected, it can be determined that a flick has been performed (it can be determined that a flick has occurred following a slide operation). Furthermore, a touch operation in which multiple points (e.g., two points) are touched together (multi-touch) and the touch positions are brought closer together is called a pinch in, and a touch operation in which the touch positions are moved away from each other is called a pinch out. Pinch out and pinch in are collectively called a pinch operation (or simply a pinch). The touch panel 70a may be any of a variety of touch panel types, including a resistive film type, a capacitive type, a surface acoustic wave type, an infrared type, an electromagnetic induction type, an image recognition type, and an optical sensor type. There are types that detect a touch by contact with the touch panel, and types that detect a touch by the approach of a finger or a pen to the touch panel, and either type may be used.

なお、デジタルカメラ100には、内蔵されたマイクまたは音声入力端子を介して接続された音声入力装置から得られたシステム制御部50に送信する音声入力部(不図示)が設けられていてもよい。この場合、システム制御部50は、入力された音声信号を必要に応じて選択し、アナログデジタル変換を行い、レベルの適正化処理、特定周波数の低減処理等をして音声信号を生成する。 The digital camera 100 may also be provided with an audio input unit (not shown) that transmits audio obtained from a built-in microphone or an audio input device connected via an audio input terminal to the system control unit 50. In this case, the system control unit 50 selects the input audio signal as necessary, performs analog-to-digital conversion, and performs level optimization processing, specific frequency reduction processing, etc. to generate an audio signal.

本実施形態では、ユーザは、接眼状態でタッチムーブ操作が行われる場合の位置指標(例えば、AF枠)の位置を指定する方式を、絶対位置指定方式と相対位置指定方式とのいずれかに設定することができる。絶対位置指定方式とは、タッチパネル70aにおける入力座標と、EVF29の表示面上の表示座標とが対応付けられている方式である。絶対位置指定方式の場合、タッチパネル70aに対するタッチダウンがあると、タッチムーブが無くとも、タッチされた位置(座標入力された位置)に対応付けられた位置にAF枠が設定される(タッチダウン前の位置から移動する)。絶対位置指定方式で設定される位置は、タッチダウン前に設定されていた位置には関係なく、タッチダウンされた位置に基づいた位置となる。また、タッチダウン後にタッチムーブがあると、タッチムーブ後のタッチ位置に基づいてAF枠の位置も移動する。相対位置指定方式とは、タッチパネル70aにおける入力座標と、EVF29の表示面上の表示座標とが対応付けられていない方式である。相対位置指定方式の場合、タッチパネル70aに対するタッチダウンがあっただけでタッチムーブが無い状態では、AF枠の位置はタッチダウン前の位置から移動しない。その後タッチムーブがあると、タッチダウン位置に関わらず、現在設定されているAF枠の位置(タッチダウン前に設定されていた位置)から、タッチムーブの移動方向にタッチムーブの移動量に応じた距離だけ、AF枠の位置が移動する。 In this embodiment, the user can set the method of specifying the position of the position indicator (for example, the AF frame) when a touch-move operation is performed in the eye-closed state to either an absolute position specification method or a relative position specification method. The absolute position specification method is a method in which the input coordinates on the touch panel 70a correspond to the display coordinates on the display surface of the EVF 29. In the case of the absolute position specification method, when there is a touch-down on the touch panel 70a, the AF frame is set at a position corresponding to the touched position (position where the coordinates are input) even if there is no touch-move (moves from the position before the touch-down). The position set by the absolute position specification method is a position based on the touch-down position, regardless of the position set before the touch-down. In addition, when there is a touch-move after the touch-down, the position of the AF frame also moves based on the touch position after the touch-move. The relative position specification method is a method in which the input coordinates on the touch panel 70a do not correspond to the display coordinates on the display surface of the EVF 29. In the case of the relative position designation method, if there is only a touchdown on the touch panel 70a and no touch-move, the position of the AF frame does not move from the position before the touchdown. If there is a touch-move after that, regardless of the touchdown position, the position of the AF frame moves in the direction of the touch-move movement from the currently set position of the AF frame (the position that was set before the touchdown) by a distance according to the amount of movement of the touch-move.

なお、AF方式(AF枠の設定方式)として、「一点AF」と「顔+追尾優先AF」を含む複数のAF方式のうちいずれかを設定可能である。「一点AF」とは、AFを行う位
置として一点AF枠によって1箇所をユーザーが指定する方式である。「顔+追尾優先AF」とは、ユーザーによる追尾対象の指定が無い場合には、自動選択条件に基づいて自動的にAF位置が設定される方式である。自動的なAF位置の設定では、LV画像から人物の顔が検出されていれば顔を優先してAF対象被写体として選択する。人物の顔が複数検出されている場合には、顔のサイズが大きい、顔の位置がデジタルカメラ100に近い(至近側である)顔の位置が画像内における中央に近い、予め登録された個人の顔である、等の優先度に従って1つの顔を選択してAF対象被写体に設定する。人物の顔が検出されていなければ、デジタルカメラ100に近い(至近側である)、コントラストが高い、動物や乗り物などの優先度の高い被写体である、動体である、などの優先度に従って顔以外の被写体を選択してAF対象被写体に設定する。ユーザーによって追尾対象の被写体が指定された場合には、追尾対象の被写体をAF対象被写体とする。すなわち、自動選択条件は、以下に示す例のような要素条件のうち少なくとも1つの要素条件を用いて重みづけを行い、得られるスコアが所定の閾値以上であることや得られるスコアが最も高いという条件である。
・検出された人物の顔である。
・顔のサイズが大きい。
・顔の位置がデジタルカメラ100に近い(至近側である)。
・顔の位置が画像内における中央に近い。
・予め登録された個人の顔である。
・デジタルカメラ100に近い(至近側である)。
・コントラストが高い。
・動物や乗り物などの優先度の高い被写体である。
・動体である。
As the AF method (AF frame setting method), any one of a plurality of AF methods including "single point AF" and "face + tracking priority AF" can be set. "Single point AF" is a method in which the user specifies one location by using a single point AF frame as the position for performing AF. "Face + tracking priority AF" is a method in which the AF position is automatically set based on the automatic selection conditions when the user does not specify the tracking target. In the automatic AF position setting, if a person's face is detected from the LV image, the face is selected as the AF target subject with priority. If multiple people's faces are detected, one face is selected and set as the AF target subject according to the priority such as the face size is large, the face position is close to the digital camera 100 (close side), the face position is close to the center in the image, the face is a pre-registered individual's face, etc. If a person's face is not detected, a subject other than the face is selected and set as the AF target subject according to the priority such as the face is close to the digital camera 100 (close side), the contrast is high, the subject is a high priority subject such as an animal or a vehicle, or it is a moving object. When a subject to be tracked is designated by a user, the subject to be tracked is set as an AF target subject. That is, the automatic selection condition is a condition in which weighting is performed using at least one element condition such as the example shown below, and the obtained score is equal to or greater than a predetermined threshold value or the obtained score is the highest score.
- It is the face of a detected person.
-The face is large.
The face is positioned close to the digital camera 100 (on the close side).
- The face is positioned close to the center of the image.
- The face of a pre-registered individual.
- Close to the digital camera 100 (close side).
-High contrast.
- High-priority subjects such as animals or vehicles.
・It is a moving object.

<一点AFでの視線によるAF枠の設定>
図3(a)~図3(f)を用いて、デジタルカメラ100においてAF枠の選択方式(AF方式)を「一点AF」とした場合の、視線入力を利用したAF枠の移動制御について説明する。図3(a)~図3(f)はそれぞれ、AF枠の選択方式(AF方式)を「一点AF」とした場合にEVF29に表示される表示例である。
<Setting the AF frame by line of sight in single-point AF>
3(a) to 3(f) will be used to explain AF frame movement control using eye gaze input when the AF frame selection method (AF method) is set to "single-point AF" in the digital camera 100. Each of Figs. 3(a) to 3(f) is a display example displayed on the EVF 29 when the AF frame selection method (AF method) is set to "single-point AF."

図3(a)は、視線機能(視線入力を用いたAF位置の指定機能)を有効とし、視線検出部160でユーザーの視線を検出している状態の表示例である。ライブビュー(以下、LV)301は、撮像部22で撮像されているLV画像である。一点AF枠302は、AF枠の選択方式(AF方式)を「一点AF」とした場合のAF枠(AFの対象となる位置、すなわち焦点調節位置を示すインジケーター)である。1点AF枠は、初期状態では画面中央に設定される。視線ポインタ310は、視線検出部160で検出した視線入力の位置を示すポインタ(インジケーター、表示アイテム、第1のアイテム)である。視線検出部160は、視線入力がされている位置としてある1点の座標を取得可能であるが、視線ポインタ310は、視線入力されている位置を中心としたある程度大きい所定サイズの範囲を示すものとして表示される。このようにすることで、視線入力で検出されている位置が、ユーザーが選択したいターゲット被写体の位置に厳密に一致していなくとも、視線ポインタが示す範囲内にターゲット被写体を収めることが可能となる。すなわち、視線入力によって大雑把な位置の指定が可能である。また、視線検出部160で検出された視線位置を、所定期間分(例えば30ミリ秒の期間)平均化した位置を中心として視線ポインタ310を表示する。このようにすることで、ユーザーの視線入力の位置の微小時間内のバラつきによる視線ポインタの過度な移動を防ぐことができ、視線ポインタの視認性を向上させることができる。人間による視線には、固視微動と呼ばれる、ある一点を注視している際にも眼球が細かい運動を起こすという特性がある。従って視線入力だけを用いて厳密な位置の指定を行おうとしても、ユーザーの意図通りの位置を指定することは難しく、ユーザーにとって不快な操作感となってしまう。これに対し、視線ポインタ310を、ある
程度大きい第1の大きさで、所定期間分平均化した位置に基づいて表示することで、このような不快感を軽減することができる。
FIG. 3A shows an example of a display in which the gaze function (a function for specifying an AF position using gaze input) is enabled and the gaze detection unit 160 detects the gaze of the user. A live view (hereinafter, LV) 301 is an LV image captured by the imaging unit 22. A one-point AF frame 302 is an AF frame (an indicator showing a position to be subjected to AF, i.e., a focus adjustment position) when the AF frame selection method (AF method) is set to "one-point AF". The one-point AF frame is set to the center of the screen in the initial state. A gaze pointer 310 is a pointer (indicator, display item, first item) that indicates the position of the gaze input detected by the gaze detection unit 160. The gaze detection unit 160 can acquire the coordinates of a certain point as the position where the gaze input is made, but the gaze pointer 310 is displayed as indicating a range of a certain large predetermined size centered on the position where the gaze input is made. In this way, even if the position detected by the gaze input does not exactly match the position of the target subject that the user wants to select, it is possible to place the target subject within the range indicated by the gaze pointer. That is, it is possible to roughly specify a position by the gaze input. In addition, the gaze pointer 310 is displayed with the gaze position detected by the gaze detection unit 160 averaged over a predetermined period (for example, a period of 30 milliseconds) as the center. In this way, it is possible to prevent excessive movement of the gaze pointer due to the variation in the position of the user's gaze input within a small time period, and it is possible to improve the visibility of the gaze pointer. The gaze of a human being has a characteristic called fixation eye movement, in which the eyeball makes a fine movement even when gazing at a certain point. Therefore, even if an attempt is made to specify a precise position using only the gaze input, it is difficult to specify the position as the user intends, and the operation feels unpleasant to the user. In contrast, by displaying the gaze pointer 310 based on the position averaged over a predetermined period at a first size that is somewhat large, such discomfort can be reduced.

図3(b)は、図3(a)の状態から、ユーザーが視線を移動させて、EVF29のうち見ている場所を変えた場合のEVF29での表示例である。視線ポインタ310は、図3(a)では画面右上にあったが、図3(b)では画面左下に移動している。このように、ユーザーの視線の移動に連動して視線ポインタ310の位置も移動する。なお、視線ポインタ310が移動しただけでは、一点AF302は移動しない。すなわち、図3(a)と図3(b)における一点AF枠302の位置は同じである。 Figure 3(b) is an example of the display on the EVF 29 when the user moves their gaze from the state shown in Figure 3(a) to change the location of the EVF 29 they are looking at. The gaze pointer 310 was at the top right of the screen in Figure 3(a) but has moved to the bottom left of the screen in Figure 3(b). In this way, the position of the gaze pointer 310 also moves in conjunction with the movement of the user's gaze. Note that the single-point AF 302 does not move just by moving the gaze pointer 310. In other words, the position of the single-point AF frame 302 is the same in Figures 3(a) and 3(b).

図3(c)は、図3(b)の状態で視線確定ボタン82が押下された場合のEVF29における表示例である。視線ポインタ310が表示された状態で視線確定ボタン82が押下されると、その時点での視線入力位置(視線検出部160で検出した位置を所定期間分平均化した位置)に一点AF枠302が設定される(移動する)。視線ポインタ310が画面端部に接していない場合には、視線入力位置を中心とした範囲に視線ポインタ310が表示されているため、一点AF枠は視線ポインタ310があった位置の中心に表示されることになる。また、視線による位置の指定が確定した状態となり、視線ポインタ310は非表示となる。このように、視線入力の位置に基づいてAFを行う位置を移動させることができる。アイコン303は、再び視線入力に基づいてAF枠を移動させる場合には、視線による位置の指定の確定状態を解除する必要があること、および、解除する操作方法を示すアイコンである。「Eye」の文字列が視線確定ボタン82を示しており、視線確定ボタン82の押下によって確定状態を解除できることを示している。図3(c)の状態から視線確定ボタン82が押下されると、確定状態が解除され、図3(a)や図3(b)の表示状態に戻る。 3(c) is a display example in the EVF 29 when the gaze confirmation button 82 is pressed in the state of FIG. 3(b). When the gaze confirmation button 82 is pressed with the gaze pointer 310 displayed, the one-point AF frame 302 is set (moved) to the gaze input position at that time (the position obtained by averaging the positions detected by the gaze detection unit 160 for a predetermined period). When the gaze pointer 310 is not in contact with the edge of the screen, the gaze pointer 310 is displayed in a range centered on the gaze input position, so the one-point AF frame is displayed at the center of the position where the gaze pointer 310 was. In addition, the position designation by the gaze is confirmed, and the gaze pointer 310 is not displayed. In this way, the position where AF is performed can be moved based on the position of the gaze input. The icon 303 indicates that the confirmation state of the position designation by the gaze must be released when the AF frame is to be moved based on the gaze input again, and indicates the operation method for releasing the confirmation state. The character string "Eye" indicates the gaze confirmation button 82, and indicates that the confirmation state can be released by pressing the gaze confirmation button 82. When the gaze confirmation button 82 is pressed from the state shown in FIG. 3(c), the confirmation state is released and the display returns to the state shown in FIG. 3(a) or FIG. 3(b).

図3(d)は、図3(b)の状態からタッチパネル70aに対するタッチダウンを検知した場合の表示例である。視線ポインタ310が表示された状態でタッチダウンがあると、その時点での視線入力位置(視線検出部160で検出した位置を所定期間分平均化した位置)に一点AF枠302が設定される(移動する)。そして、タッチ&ドラッグAF機能によるAF枠の移動が可能な状態(タッチ&ドラッグAF機能によるAF枠の移動途中の状態)となる。タッチ&ドラッグAF機能とは、EVF29に表示されたAF枠を、EVF29とは異なる位置にあるタッチパネル70aに対するタッチムーブによって移動させる機能である。タッチ操作によってユーザーが所望する位置を正確に指定できるため、タッチ位置を示すポインタ(この例では一点AF枠302自体)が大きいと細かい位置の指定ができず煩わしい。従って視線ポインタ310のような大きいポインタは非表示とし、視線ポインタ310より小さい一点AF枠302によって位置の指定を行う状態とする。 3(d) is a display example when touchdown on the touch panel 70a is detected from the state of FIG. 3(b). When touchdown occurs with the gaze pointer 310 displayed, the one-point AF frame 302 is set (moves) to the gaze input position at that time (the position detected by the gaze detection unit 160 is averaged for a predetermined period). Then, the state becomes one in which the AF frame can be moved by the touch & drag AF function (the state in which the AF frame is in the middle of moving by the touch & drag AF function). The touch & drag AF function is a function that moves the AF frame displayed on the EVF 29 by touching and moving the touch panel 70a, which is located in a different position from the EVF 29. Since the user can accurately specify the desired position by touch operation, if the pointer indicating the touch position (the one-point AF frame 302 itself in this example) is large, it is cumbersome to be unable to specify a fine position. Therefore, a large pointer such as the gaze pointer 310 is hidden, and the state is set to one in which the position is specified by the one-point AF frame 302, which is smaller than the gaze pointer 310.

図3(e)は、図3(d)の状態から、タッチパネル70aに対する左下向きのタッチムーブを検知し、相対位置指定によって、検知したタッチムーブに応じて一点AF枠302を左下に移動させた場合の表示例である。 Figure 3(e) is a display example in which a touch-move to the lower left on the touch panel 70a is detected from the state shown in Figure 3(d), and the single-point AF frame 302 is moved to the lower left in response to the detected touch-move by specifying a relative position.

図3(f)は、図3(e)の状態からタッチアップがあった場合の表示例である。タッチ&ドラッグによる一点AF枠302の移動が終了した状態となり、アイコン303が表示される。このように、視線入力とタッチ操作とを組み合わせたAF枠の位置(選択位置)の指定が可能である。なお、図3(f)、あるいは図3(c)の状態からさらにタッチパネル70aにタッチしてタッチムーブを行えば、一点AF枠302をタッチムーブに応じてさらに移動させることができる。 Figure 3(f) is an example of the display when there is a touch-up from the state of Figure 3(e). The movement of the single-point AF frame 302 by touch and drag has ended, and an icon 303 is displayed. In this way, it is possible to specify the position of the AF frame (selected position) by combining gaze input and touch operation. Note that if the touch panel 70a is further touched from the state of Figure 3(f) or Figure 3(c) to perform a touch move, the single-point AF frame 302 can be moved further in response to the touch move.

上述の例において、ユーザーがピントを合わせたい位置が、LV画像301に含まれる
自動車(被写体)のナンバープレートであるものとする。この場合、次のようにして一点AF枠302をナンバープレートの位置に設定することができる。まず、図3(b)のように、LV画像301のうち自動車のフロント部分を見ることで、自動車のフロント部分を視線ポインタ310で素早く大雑把に指定する。その後、視線ポインタ310に基づいて設定された一点AF枠302の位置(図3(d)における一点AF枠302の位置)をタッチ操作によって移動させて微調整することで、ナンバープレートの位置に正確に合わせることができる。この時のタッチムーブの移動量は、すでにナンバープレート付近に一点AF枠302が視線入力に基づいて設定されており、ここからの移動量となるため、少なくて済む。このように、本実施形態によれば、素早く正確に、ユーザーが所望する位置を指定することが可能である。
In the above example, the position on which the user wants to focus is the license plate of the car (subject) included in the LV image 301. In this case, the one-point AF frame 302 can be set to the position of the license plate as follows. First, as shown in FIG. 3B, the front part of the car in the LV image 301 is looked at, and the front part of the car is quickly and roughly specified with the gaze pointer 310. Then, the position of the one-point AF frame 302 set based on the gaze pointer 310 (the position of the one-point AF frame 302 in FIG. 3D) can be moved and fine-tuned by a touch operation to accurately match the position of the license plate. The amount of movement of the touch move at this time is small because the one-point AF frame 302 has already been set near the license plate based on the gaze input, and the amount of movement is from here. In this way, according to this embodiment, it is possible to quickly and accurately specify the position desired by the user.

<顔+追尾優先AFでの視線によるAF枠の設定>
図4(a)~図4(g)を用いて、デジタルカメラ100においてAF枠の選択方式(AF方式)を「顔+追尾優先」とした場合の、視線入力を利用したAF枠の移動制御について説明する。図4(a)~図4(g)はそれぞれ、AF枠の選択方式(AF方式)を「顔+追尾優先」とした場合にEVF29に表示される表示例である。
<Setting the AF frame by gaze in Face + Tracking Priority AF>
4(a) to 4(g) will be used to explain AF frame movement control using eye gaze input when the AF frame selection method (AF method) is set to "face + tracking priority" in the digital camera 100. Each of Figs. 4(a) to 4(g) is a display example displayed on the EVF 29 when the AF frame selection method (AF method) is set to "face + tracking priority."

図4(a)は、視線機能を有効とし、視線検出部160でユーザーの視線を検出している状態の表示例である。図3(a)で説明したものと同じものについては、同じ符号を付して説明を省略する。顔+追尾優先でも、一点AFの場合と同様に、視線ポインタ310は、ある程度大きい第1の大きさで、所定期間分平均化した位置に基づいて表示する。顔枠401~405は、LV画像から検出されている人物の顔の位置を示すインジケーターである。図4(a)の状態ではどの顔も選択されていない。 Figure 4(a) is an example of a display when the gaze function is enabled and the gaze detection unit 160 is detecting the gaze of the user. The same elements as those explained in Figure 3(a) are given the same reference numerals and explanations are omitted. In face + tracking priority, as in the case of single-point AF, the gaze pointer 310 is displayed at a relatively large first size based on a position averaged over a predetermined period of time. The face frames 401 to 405 are indicators that show the position of the face of a person detected from the LV image. In the state of Figure 4(a), no face is selected.

図4(b)は、図4(a)の状態から、ユーザーが視線を移動させて、EVF29のうち見ている場所を変えた場合のEVF29での表示例である。視線ポインタ310は、図4(a)では画面左側にあったが、図4(b)では画面右上に移動している。 Figure 4(b) is an example of the display on the EVF 29 when the user moves their gaze from the state shown in Figure 4(a) and changes the location of the EVF 29 they are looking at. The gaze pointer 310 was on the left side of the screen in Figure 4(a), but has moved to the top right of the screen in Figure 4(b).

図4(c)は、図4(b)の状態で視線確定ボタン82が押下された場合のEVF29における表示例である。視線ポインタ310が表示された状態で視線確定ボタン82が押下されると、その時点で視線ポインタ310が示す範囲内で、前述の自動選択条件に従って自動的に追尾対象(AF対象でもある)の被写体が選択される。図4(c)の例では、図4(b)に示す視線ポインタ310内において、全体が含まれる顔(顔枠402と顔枠403)のうち、最も至近側の顔である顔枠402によって示される顔が選択され、追尾対象として設定される。追尾対象となった被写体には追尾枠412が表示され、顔枠は非表示となる。そして、追尾が開始される。追尾中は、追尾対象の被写体が移動しても、追尾枠が追尾対象に追従して移動する。視線ポインタ310によって被写体を選択するゾーンを絞っているため、視線ポインタ310の外側の被写体が選択されることはなく、顔枠401や顔枠405によって示される顔や自動車が選択されることはない。すなわち、視線によって素早く大雑把にユーザーが指定した範囲の中から追尾対象が設定される分、視線を用いない自動選択よりもユーザーの意図にあった被写体を選択することが可能となる。また、図4(c)では、視線による位置の指定が確定した状態となり、視線ポインタ310は非表示となる。図4(c)の状態から視線確定ボタン82が押下されると、確定状態が解除され、図4(a)や図4(b)の表示状態に戻る。 Figure 4(c) is a display example in the EVF 29 when the gaze confirmation button 82 is pressed in the state of Figure 4(b). When the gaze confirmation button 82 is pressed in the state where the gaze pointer 310 is displayed, a subject to be tracked (also an AF subject) is automatically selected within the range indicated by the gaze pointer 310 at that time according to the above-mentioned automatic selection conditions. In the example of Figure 4(c), among the faces (face frames 402 and 403) whose entirety is included within the gaze pointer 310 shown in Figure 4(b), the face indicated by the face frame 402, which is the face closest to the face, is selected and set as the tracking subject. The tracking frame 412 is displayed on the subject to be tracked, and the face frame is hidden. Then, tracking is started. During tracking, even if the subject to be tracked moves, the tracking frame moves to track the tracking target. Because the gaze pointer 310 narrows down the zone in which the subject is selected, subjects outside the gaze pointer 310 are not selected, and faces and cars indicated by face frames 401 and 405 are not selected. In other words, the tracking target is set from within a range specified by the user quickly and roughly by the gaze, making it possible to select a subject that matches the user's intention better than automatic selection without using the gaze. Also, in FIG. 4(c), the position specified by the gaze is confirmed, and the gaze pointer 310 is hidden. When the gaze confirmation button 82 is pressed from the state of FIG. 4(c), the confirmation state is released, and the display returns to the state of FIG. 4(a) or FIG. 4(b).

図4(d)は、図4(b)の状態からタッチパネル70aに対するタッチダウンを検知した場合の表示例である。視線ポインタ310が表示された状態でタッチダウンがあると、その時点での視線入力位置(視線検出部160で検出した位置を所定期間分平均化した位置)にタッチポインタ406が表示される。そして、タッチ&ドラッグAF機能による位置の指定が可能な状態(タッチ&ドラッグAF機能によるタッチポインタ406の移動
途中の状態)となる。タッチ操作によってユーザーが所望する位置を正確に指定できるため、タッチ位置を示すポインタ(この例でタッチポインタ406)が大きいと細かい位置の指定ができず煩わしい。従って視線ポインタ310のような大きいなポインタは非表示とし、視線ポインタ310より小さいタッチポインタ406によって位置の指定を行う状態とする。これによって、図示のように顔が密集しているような場合でも、ユーザー所望の顔を選択しやすくなる。
FIG. 4D is a display example when touchdown on the touch panel 70a is detected from the state of FIG. 4B. When touchdown occurs with the gaze pointer 310 displayed, the touch pointer 406 is displayed at the gaze input position at that time (the position obtained by averaging the positions detected by the gaze detection unit 160 for a predetermined period). Then, the state becomes one in which the position can be specified by the touch & drag AF function (the state in which the touch pointer 406 is in the middle of moving by the touch & drag AF function). Since the user can accurately specify the desired position by the touch operation, if the pointer indicating the touch position (the touch pointer 406 in this example) is large, it is cumbersome to be unable to specify a fine position. Therefore, a large pointer such as the gaze pointer 310 is not displayed, and the state is one in which the position is specified by the touch pointer 406, which is smaller than the gaze pointer 310. This makes it easier for the user to select the desired face even when the faces are crowded together as shown in the figure.

図4(e)は、図4(d)の状態から、タッチパネル70aに対する右上向きのタッチムーブを検知し、相対位置指定によって、検知したタッチムーブに応じてタッチポインタ406を右上に移動させた場合の表示例である。タッチポインタ406が顔枠403の位置にほぼ一致する位置(より厳密には、顔枠403の範囲内にタッチポインタ406の中心が含まれる位置)となっている。この状態でタッチアップがなされると、タッチポインタ406の位置に基づいて、顔枠403が追尾対象として指定される。なお、図4(e)のような表示に変えて、タッチアップ前のタッチポインタ406の移動中に、タッチポインタ406で顔枠の指定が可能な位置関係となった場合に、その時点でタッチアップがあった場合に指定される顔を示す表示(吸着表示)を行ってもよい。 Fig. 4(e) is a display example in which, from the state of Fig. 4(d), a touch move to the upper right on the touch panel 70a is detected, and the touch pointer 406 is moved to the upper right according to the detected touch move by specifying a relative position. The touch pointer 406 is in a position that almost coincides with the position of the face frame 403 (more precisely, a position where the center of the touch pointer 406 is included within the range of the face frame 403). When a touch-up is performed in this state, the face frame 403 is specified as the tracking target based on the position of the touch pointer 406. Note that instead of the display as shown in Fig. 4(e), when the positional relationship is reached where the face frame can be specified by the touch pointer 406 while the touch pointer 406 is moving before the touch-up, a display (adhesive display) showing the face that would be specified if a touch-up occurs at that time may be performed.

図4(f)は、吸着表示の表示例を示す。タッチポインタ406をタッチムーブに応じて移動させ、顔枠403を指定可能な位置となったことに応じて、タッチポインタ406を非表示とし、顔枠403を他の顔枠と異なる表示形態で表示する。このようにすることで、ユーザーは、この時点でタッチアップを行えば顔枠403が指定されることを認識することができ、目的の位置までタッチムーブを行えたか否かを判断しやすくなる。 Figure 4(f) shows an example of the suction display. The touch pointer 406 is moved in response to a touch move, and when the face frame 403 is in a position where it can be specified, the touch pointer 406 is made invisible and the face frame 403 is displayed in a different display form from the other face frames. In this way, the user can recognize that if they touch up at this point, the face frame 403 will be specified, making it easier to determine whether or not they have performed a touch move to the desired position.

図4(g)は、図4(e)または図4(f)の状態からタッチアップがあった場合の表示例である。タッチアップ直前のタッチポインタ406の位置に基づいて顔枠403が追尾対象に設定され、追尾枠413が表示されて追尾が開始される。タッチ&ドラッグによるタッチポインタ406の移動が終了した状態となり、アイコン303が表示される。なお、図4(g)あるいは図4(c)の状態からさらにタッチパネル70aにタッチしてタッチムーブを行えば、追尾が解除されて追尾対象のあった位置にタッチポインタ406が表示され、タッチポインタ406をタッチムーブに応じて移動させることができる。 Figure 4(g) is an example of the display when there is a touch-up from the state of Figure 4(e) or Figure 4(f). Based on the position of the touch pointer 406 immediately before the touch-up, the face frame 403 is set as the tracking target, the tracking frame 413 is displayed, and tracking begins. The movement of the touch pointer 406 by touch and drag is completed, and the icon 303 is displayed. Note that if the touch panel 70a is further touched from the state of Figure 4(g) or Figure 4(c) to perform a touch move, tracking is released and the touch pointer 406 is displayed at the position where the tracking target was located, and the touch pointer 406 can be moved in accordance with the touch move.

上述の例において、ユーザーがピントを合わせたい位置が、LV画像301に含まれる顔枠403が示す顔であるものとする。この場合、次のようにして追尾対象(AF位置)を顔枠403の位置に設定することができる。まず、図4(b)のように、LV画像301のうち顔枠403の付近の部分を見ることで、素早く大雑把に範囲を指定する。その後、視線ポインタ310に基づいて設定された追尾対象である顔枠402の位置から、タッチ操作によってタッチポインタ406移動させて微調整することで、顔枠403に正確に合わせることができる。この時のタッチムーブの移動量は、すでに顔枠403付近の顔枠402が視線入力に基づいて設定されており、ここからの移動量となるため、少なくて済む。このように、本実施形態によれば、素早く正確に、ユーザーが所望する位置(被写体)を指定することが可能である。 In the above example, the position on which the user wants to focus is the face indicated by the face frame 403 included in the LV image 301. In this case, the tracking target (AF position) can be set to the position of the face frame 403 as follows. First, as shown in FIG. 4B, the area is specified roughly and quickly by looking at the part of the LV image 301 near the face frame 403. Then, the touch pointer 406 is moved by a touch operation from the position of the face frame 402, which is the tracking target set based on the gaze pointer 310, to fine-tune it, so that it can be accurately aligned with the face frame 403. The amount of movement of the touch move at this time is small because the face frame 402 near the face frame 403 has already been set based on gaze input, and the amount of movement is from here. In this way, according to this embodiment, it is possible to quickly and accurately specify the position (subject) desired by the user.

次に、以上説明した動作・画面遷移を実現する処理を説明する。 Next, we will explain the process that realizes the operations and screen transitions described above.

<撮影モード処理>
図5A、図5Bは、本実施形態におけるデジタルカメラ100における撮影モード処理のフローチャートである。図5A、図5Bの処理は、表示先がEVF29となっている場合の処理であるものとする。この図5A、図5Bを含む、図5A~図10のフローチャートにおける各処理は、システム制御部50が、不揮発性メモリ56に格納されたプログラムをシステムメモリ52に展開して実行することにより実現される。デジタルカメラ10
0を撮影モードで起動すると、フラグや制御変数等を初期化し、図5A、図5Bの処理を開始する。
<Shooting mode processing>
5A and 5B are flowcharts of the shooting mode process in the digital camera 100 of this embodiment. The processes in Fig. 5A and Fig. 5B are processes when the display destination is the EVF 29. The processes in the flowcharts of Fig. 5A to Fig. 10, including Fig. 5A and Fig. 5B, are realized by the system control unit 50 expanding a program stored in the non-volatile memory 56 into the system memory 52 and executing it.
When the CPU 10 is started in the shooting mode, flags, control variables, etc. are initialized and the processing of Figs. 5A and 5B is started.

S500では、システム制御部50は、撮像部22でのライブビュー画像(LV画像)の撮像を開始し、撮像したLV画像をEVF29に表示する。 In S500, the system control unit 50 starts capturing a live view image (LV image) in the imaging unit 22 and displays the captured LV image on the EVF 29.

S501では、システム制御部50は、ユーザー操作に応じて撮像に関する各種設定を行うカメラ設定処理を行う。カメラ設定処理については図6を用いて後述する。
定処理の詳細は、図6を用いて後述する。
In S501, the system control unit 50 performs a camera setting process for making various settings related to image capture in response to a user operation. The camera setting process will be described later with reference to FIG.
The details of the determination process will be described later with reference to FIG.

S502では、システム制御部50は、視線機能が有効であるか否か(後述する視線AFの設定が有効であるか否か)を判断する。有効である場合はS503に進み、そうでない場合(無効である場合)はS516に進む。 In S502, the system control unit 50 determines whether the line-of-sight function is enabled (whether the line-of-sight AF setting described below is enabled). If it is enabled, the process proceeds to S503, and if it is not enabled (disabled), the process proceeds to S516.

S503では、システム制御部50は、視線検出部160で視線が検出されているか否かを判断する。検出されている場合はS504に進み、そうでない場合(視線機能が有効であるが、視線が検知されていない場合)はS516に進む。 In S503, the system control unit 50 determines whether or not the gaze is detected by the gaze detection unit 160. If it is detected, the process proceeds to S504, and if not (the gaze function is enabled but the gaze is not detected), the process proceeds to S516.

S504では、システム制御部50は、視線ポインタ表示が有効であるか否かを判断する。有効である場合はS505に進み、そうでない場合(無効である場合)はS507に進む。 In S504, the system control unit 50 determines whether the gaze pointer display is enabled. If it is enabled, the process proceeds to S505, and if it is not enabled (disabled), the process proceeds to S507.

S505では、システム制御部50は、システムメモリに保持された視線確定フラグが0であるか否かを判定する。初期値は0である。視線確定フラグ=0は前述の視線確定状態が解除されている状態を示しており、視線によって視線ポインタを移動させることが可能な状態である。視線によって大雑把な位置を指定可能な「粗調整モード」でもある。一方、視線確定フラグ=1は、前述の視線確定状態を示しており、一旦、視線によって大雑把な位置を指定した後の状態で、視線による位置の指定はできない状態である。タッチムーブによって細かく位置を指定可能な「微調整モード」でもある。視線フラグが0である場合にはS506に進み、そうでない場合(視線フラグ=1である場合)にはS507に進む。 In S505, the system control unit 50 determines whether the gaze confirmation flag stored in the system memory is 0. The initial value is 0. A gaze confirmation flag of 0 indicates that the gaze confirmation state described above has been released, and the gaze pointer can be moved by the gaze. This is also a "coarse adjustment mode" in which a rough position can be specified by the gaze. On the other hand, a gaze confirmation flag of 1 indicates the gaze confirmation state described above, and is a state in which a rough position has been specified by the gaze once, and it is no longer possible to specify a position by the gaze. This is also a "fine adjustment mode" in which a position can be specified in detail by touch-move. If the gaze flag is 0, proceed to S506, and if not (if the gaze flag is 1), proceed to S507.

S506では、システム制御部50は、EVF29に、視線検出部160で検出されている視線入力位置を基準として視線ポインタ310を表示する。前述の通り、視線ポインタ310はある程度大きい第1の大きさ(サイズ)で、視線入力位置を所定期間分平均化した位置に基づいて表示する。平均化された視線検出位置がEVF29の端部周辺でない場合には、視線ポインタ310は視線入力位置を中心とした第1の大きさの範囲に表示される。平均化された視線検出位置がEVF29の端部周辺である場合には、視線ポインタ310は視線入力位置に近い画面の端に接する第1の大きさの範囲に表示される。S506の処理によって、AF方式が一点AFに設定されていれば前述した図3(a)、図3(b)のような表示となり、顔+追尾優先に設定されていれば前述した図4(a)、図4(b)のような表示が行われる。 In S506, the system control unit 50 displays the gaze pointer 310 on the EVF 29 based on the gaze input position detected by the gaze detection unit 160. As described above, the gaze pointer 310 is displayed in a relatively large first size based on the average position of the gaze input position for a predetermined period. If the averaged gaze detection position is not near the edge of the EVF 29, the gaze pointer 310 is displayed in a range of the first size centered on the gaze input position. If the averaged gaze detection position is near the edge of the EVF 29, the gaze pointer 310 is displayed in a range of the first size adjacent to the edge of the screen close to the gaze input position. If the AF method is set to single-point AF by the processing of S506, the display will be as shown in Figures 3(a) and 3(b) described above, and if it is set to face + tracking priority, the display will be as shown in Figures 4(a) and 4(b) described above.

S507では、システム制御部50は、視線確定ボタン82が押下されたか否か(すなわち、視線による位置の指定の実行を指示する操作があったか否か)を判定する。視線確定ボタン82が押下された場合はS508に進み、そうでない場合はS516に進む。 In S507, the system control unit 50 determines whether the gaze confirmation button 82 has been pressed (i.e., whether an operation has been performed to instruct the execution of position specification by gaze). If the gaze confirmation button 82 has been pressed, the process proceeds to S508, and if not, the process proceeds to S516.

S508では、システム制御部50は、システムメモリ52に保持された視線確定フラグが0であるか否かを判定する。視線確定フラグ=0である場合にはS512に進み、そうでない場合(視線確定フラグ=1である場合)にはS509に進む。 In S508, the system control unit 50 determines whether the gaze confirmation flag stored in the system memory 52 is 0. If the gaze confirmation flag = 0, the process proceeds to S512, and if not (if the gaze confirmation flag = 1), the process proceeds to S509.

S509では、システム制御部50は、視線確定フラグを0にセットする。また、表示されていたアイコン303を非表示とし、視線の確定が解除された状態の表示に復帰させる。 In S509, the system control unit 50 sets the gaze confirmation flag to 0. In addition, the icon 303 that was displayed is hidden, and the display returns to the state in which the gaze confirmation has been released.

S510では、システム制御部50は、現在設定されているAF方式が顔+追尾優先AFであるか否かを判定する。顔+追尾優先AFである場合にはS511に進んで追尾を解除し、S504に進む。これによって、例えば前述の図4(c)や図4(g)の表示が行われていた場合に視線確定ボタン82が押下されたことに応じて、図4(a)や図4(b)の表示状態に遷移する。S510で、現在設定されているAF方式が顔+追尾優先AFではないと判定されると(すなわち一点AFであると判定されると)、S504に進む。これによって、例えば前述の図3(c)や図3(f)の表示が行われていた場合に視線確定ボタン82が押下されたことに応じて、図3(a)や図3(b)の表示状態に遷移する。 In S510, the system control unit 50 determines whether the currently set AF method is face + tracking priority AF. If it is face + tracking priority AF, the process proceeds to S511, where tracking is released, and the process proceeds to S504. As a result, for example, when the display of FIG. 4(c) or FIG. 4(g) is performed, the display state of FIG. 4(a) or FIG. 4(b) is transitioned to in response to the line of sight confirmation button 82 being pressed. In S510, if it is determined that the currently set AF method is not face + tracking priority AF (i.e., it is determined that it is single-point AF), the process proceeds to S504. As a result, for example, when the display of FIG. 3(c) or FIG. 3(f) is performed, the display state of FIG. 3(a) or FIG. 3(b) is transitioned to in response to the line of sight confirmation button 82 being pressed.

S512では、システム制御部50は、視線確定フラグを1にセットする。また、アイコン303をEVF29に表示し、視線の確定状態の表示とする。 In S512, the system control unit 50 sets the gaze confirmation flag to 1. In addition, the system control unit 50 displays the icon 303 on the EVF 29 to indicate the gaze confirmation state.

S513では、システム制御部50は、現在設定されているAF方式が顔+追尾優先AFであるか否かを判定する。顔+追尾優先AFである場合にはS514に進み、そうでない場合(すなわち一点AFである場合)にはS515に進む。 In S513, the system control unit 50 determines whether the currently set AF method is face + tracking priority AF. If it is face + tracking priority AF, the process proceeds to S514, and if it is not (i.e., if it is single-point AF), the process proceeds to S515.

S514では、視線ポインタ310によって示される第1の大きさの範囲内において(視線ポインタ310が表示されていない場合でも同様の範囲内において)、追尾対象の被写体を前述の自動選択条件に基づいて選択する。そして、選択された被写体(追尾対象)に追尾枠を表示し、追尾を開始する。これによって、例えば前述の図4(b)から図4(c)のように表示が遷移する。 In S514, within a range of a first size indicated by the gaze pointer 310 (within the same range even when the gaze pointer 310 is not displayed), a subject to be tracked is selected based on the automatic selection conditions described above. Then, a tracking frame is displayed around the selected subject (tracking subject), and tracking begins. This causes the display to transition, for example, from that shown in FIG. 4(b) to that shown in FIG. 4(c).

S515では、システム制御部50は、視線確定ボタン82が押下された時点での視線入力位置(視線検出部160で検出した位置を所定期間分平均化した位置)に、一点AF枠302を設定する。これによって、例えば前述の図3(b)から図3(c)のように表示が遷移する。なお、本実施形態では一点AFの場合には視線検出部160で検出されていた視線入力位置に一点AF枠を設定する例を説明した。しかしこれに限るものではなく、一点AFの場合であっても、顔+追尾優先AFの場合と同様に、視線ポインタ310の範囲内で自動選択条件に基づく自動選択を行い、自動選択された被写体の位置に一点AF枠302を設定するようにしてもよい。 In S515, the system control unit 50 sets the single-point AF frame 302 at the gaze input position (the position obtained by averaging the positions detected by the gaze detection unit 160 for a predetermined period) at the time when the gaze confirmation button 82 is pressed. This causes the display to transition from FIG. 3(b) to FIG. 3(c), for example. In this embodiment, an example has been described in which the single-point AF frame is set at the gaze input position detected by the gaze detection unit 160 in the case of single-point AF. However, this is not limited to this, and even in the case of single-point AF, automatic selection based on the automatic selection conditions may be performed within the range of the gaze pointer 310, as in the case of face + tracking priority AF, and the single-point AF frame 302 may be set at the position of the automatically selected subject.

S516では、システム制御部50は、タッチパネル70aに対するタッチダウンがあったか否かを判定する。タッチダウンがあった場合はS517に進み、そうでない場合はS518に進む。 In S516, the system control unit 50 determines whether or not there has been a touch-down on the touch panel 70a. If there has been a touch-down, the process proceeds to S517; if not, the process proceeds to S518.

S517では、システム制御部50は、タッチパネル70aに対するタッチ操作に応じて、タッチ操作応答処理を行う。タッチ操作応答処理については図7を用いて後述する。 In S517, the system control unit 50 performs touch operation response processing in response to a touch operation on the touch panel 70a. The touch operation response processing will be described later with reference to FIG. 7.

S518では、システム制御部50は、操作部70に対するその他の操作があったか否かを判定する。その他の操作があった場合にはS519に進み、そうでない場合にはS520に進む。 In S518, the system control unit 50 determines whether or not any other operation has been performed on the operation unit 70. If any other operation has been performed, the process proceeds to S519; if not, the process proceeds to S520.

S519では、システム制御部50は、その他の操作に応じた処理を行う。例えば、シャッター速度や絞り値、露出補正値といった各種撮影パラメータを変更したり、記録画質
やセルフタイマーの設定を行ったりすることができる。
In S519, the system control unit 50 performs processing in response to other operations, such as changing various shooting parameters such as the shutter speed, aperture value, and exposure compensation value, and setting the recording image quality and the self-timer.

S520では、システム制御部50は、第1シャッタースイッチ信号SW1がオンとなったか否か、すなわち、シャッターボタン61が半押しされ、撮影準備指示が行われたか否かを判定する。 In S520, the system control unit 50 determines whether the first shutter switch signal SW1 is turned on, i.e., whether the shutter button 61 has been half-pressed and a shooting preparation command has been issued.

S521では、システム制御部50は、視線ポインタ310の表示中であるか否か、すなわち、視線機能が有効であり、視線検出がされており、視線ポインタの表示が有効であり、かつ、視線確定フラグ=0であるか否かを判定する。視線ポインタ310の表示中である場合にはS522に進み、そうでない場合にはS523に進む。なお、視線ポインタ310が表示中であるか否かの判定に変えて、視線機能が有効であり、視線検出がされており、かつ、視線確定フラグ=0であるか否かの判定としてもよい。この場合、視線機能が有効であり、視線検出がされており、かつ、視線確定フラグ=0であれば、視線ポインタの表示が無効(視線ポインタ310が非表示)であってもS522に進む。 In S521, the system control unit 50 determines whether the gaze pointer 310 is being displayed, that is, whether the gaze function is enabled, gaze detection is being performed, the gaze pointer display is enabled, and the gaze confirmation flag = 0. If the gaze pointer 310 is being displayed, the process proceeds to S522, and if not, the process proceeds to S523. Note that instead of determining whether the gaze pointer 310 is being displayed, it may be determined whether the gaze function is enabled, gaze detection is being performed, and the gaze confirmation flag = 0. In this case, if the gaze function is enabled, gaze detection is being performed, and the gaze confirmation flag = 0, the process proceeds to S522 even if the gaze pointer display is disabled (the gaze pointer 310 is not displayed).

S522では、システム制御部50は、視線ポインタ310によって示される第1の大きさの範囲内において(視線ポインタ310が表示されていない場合でも同様の範囲内において)、AF対象の被写体を前述の自動選択条件に基づいて選択する。これは、S514での追尾対象の選択と同様の処理である。そして、選択された被写体(AF対象、焦点調節対象)に基づいてAFを実行する。同様にして、選択された被写体を基準としてAF,AWBなどの処理を行ってもよい。なお、AF方式が一点AFである場合には、AF対象を自動選択条件に基づいて選択するのではなく、その時点の視線入力位置を中心とする一点AF枠の範囲をAF対象として選択してもよい。 In S522, the system control unit 50 selects a subject as the AF target within a range of a first size indicated by the gaze pointer 310 (within the same range even when the gaze pointer 310 is not displayed) based on the automatic selection conditions described above. This is the same process as the selection of the tracking target in S514. Then, AF is performed based on the selected subject (AF target, focus adjustment target). Similarly, AF, AWB, and other processes may be performed based on the selected subject. Note that when the AF method is single-point AF, the AF target may not be selected based on the automatic selection conditions, but may instead be selected within the range of a single-point AF frame centered on the gaze input position at that time.

S523では、システム制御部50は、現在設定されているAF方式が顔+追尾優先AFであるか否かを判定する。顔+追尾優先AFである場合にはS524に進み、そうでない場合(一点AFである場合)にはS527に進む。 In S523, the system control unit 50 determines whether the currently set AF method is face + tracking priority AF. If it is face + tracking priority AF, the process proceeds to S524, and if it is not (single-point AF), the process proceeds to S527.

S524では、システム制御部50は、被写体の追尾を行っている状態であるか否かを判定する。追尾中である場合にはS526に進み、そうでない場合にはS525に進む。 In S524, the system control unit 50 determines whether or not the subject is being tracked. If the subject is being tracked, the process proceeds to S526; if not, the process proceeds to S525.

S525では、システム制御部50は、撮像されているLV画像の全範囲を対象として、AF対象の被写体を前述の自動選択条件に基づいて選択する。そして、選択された被写体(AF対象、焦点調節対象)に基づいてAFを実行する。同様にして、選択された被写体を基準としてAF,AWBなどの処理を行ってもよい。なお、LV画像の全範囲を対象とするものに限るものではなく、LV画像のうち、視線ポインタ310のサイズである第1の大きさよりも大きい第2の大きさの範囲内を対象としてもよい。例えば、LV画像の中央から80%の範囲(>第1のサイズ)をS525での自動選択条件に基づく被写体の自動選択の対象の範囲としてもよい。この場合、それ以外の端の領域はAFを合わせるべき主要被写体が存在する可能性が低いと想定されるため、S525での自動選択条件に基づく被写体の自動選択の対象外となる。 In S525, the system control unit 50 selects a subject to be the AF target based on the above-mentioned automatic selection conditions for the entire range of the captured LV image. Then, AF is performed based on the selected subject (AF target, focus adjustment target). In the same manner, AF, AWB, and other processing may be performed based on the selected subject. Note that the target is not limited to the entire range of the LV image, and may be within a range of a second size larger than the first size, which is the size of the gaze pointer 310, of the LV image. For example, a range of 80% from the center of the LV image (>first size) may be set as the target range for automatic selection of subjects based on the automatic selection conditions in S525. In this case, it is assumed that there is a low possibility that a main subject to be adjusted for AF exists in the other edge areas, so they are not subject to automatic selection of subjects based on the automatic selection conditions in S525.

S526では、システム制御部50は、追尾中の追尾枠で(すなわち、追尾対象に対して)AFを実行する。同様にして、追尾対象を基準としてAF,AWBなどの処理を行ってもよい。 In S526, the system control unit 50 performs AF in the tracking frame being tracked (i.e., for the tracking target). Similarly, AF, AWB, and other processes may be performed based on the tracking target.

S527では、システム制御部50は、設定されている1点AF枠においてAFを実行する。同様にして、一点AF枠を基準としてAF,AWBなどの処理を行ってもよい。 In S527, the system control unit 50 performs AF in the one-point AF frame that has been set. Similarly, AF, AWB, and other processes may be performed based on the one-point AF frame.

S528では、システム制御部50は、第2シャッタースイッチ信号SW2がオン、す
なわち、シャッターボタン61が全押しされて撮影指示が行われたか否かを判定する。SW2がオンとなった場合にはS530に進み、そうでない場合はS529に進む。
In S528, the system control unit 50 determines whether the second shutter switch signal SW2 is on, that is, whether or not a shooting instruction has been issued by fully pressing the shutter button 61. If SW2 is on, the process proceeds to S530, and if not, the process proceeds to S529.

S529では、システム制御部50は、SW1のオンが保持されているか否かを判定する。保持されている場合にはS528に戻り、そうでない場合(SW1がオフとなった場合)はS531に進む。 In S529, the system control unit 50 determines whether SW1 is held on. If it is held on, the process returns to S528, and if not (SW1 is turned off), the process proceeds to S531.

S530では、システム制御部50は、撮像部22での露光から撮像された画像を画像ファイルとして記録媒体200に記録するまでの一連の撮影処理(前述の撮影処理)を行う。 In S530, the system control unit 50 performs a series of image capture processes (the aforementioned image capture process) from exposure in the image capture unit 22 to recording the captured image as an image file on the recording medium 200.

S531では、撮影モードの終了イベント(電源オフ操作や、再生モードなどの他の動作モードに遷移させる指示など)があったか否かを判定する。終了イベントがない場合にはS500に戻って処理を繰り返し、終了イベントがあった場合には撮影モード処理を終了する。 In S531, it is determined whether an end event for the shooting mode has occurred (such as a power-off operation or an instruction to transition to another operating mode such as playback mode). If no end event has occurred, the process returns to S500 and is repeated, and if an end event has occurred, the shooting mode process ends.

<カメラ設定処理>
前述した図5AのS501のカメラ設定処理について説明する。カメラ設定処理は、メニューボタン81が押下された場合に表示される撮影に関する設定メニュー画面における各設定項目についての設定を行う処理である。
<Camera setting process>
The camera setting process in S501 of Fig. 5A described above will be described below. The camera setting process is a process for setting each setting item on the setting menu screen related to photography that is displayed when the menu button 81 is pressed.

図11(a)、図11(b)に、EVF29または表示部28に表示される撮影に関する設定メニュー画面の表示例を示す。図11(a)のメニュー画面に含まれる設定項目1101は、AF方式の設定を行うための項目である。設定項目1102は、タッチ&ドラッグAFの設定を行うための項目である。設定項目1103は、視線機能関連の設定を行うための項目である。設定項目1104は、MC65の中央部分の押し込み操作が行われた場合の動作を設定するための項目である。 FIGS. 11(a) and 11(b) show examples of a setting menu screen related to shooting that is displayed on the EVF 29 or the display unit 28. Setting item 1101 included in the menu screen in FIG. 11(a) is an item for setting the AF method. Setting item 1102 is an item for setting touch-and-drag AF. Setting item 1103 is an item for setting related to the line-of-sight function. Setting item 1104 is an item for setting the operation when the center part of the MC65 is pressed.

図11(b)は、視線機能関連の設定を行うための視線AFの詳細設定メニュー画面の表示例である。この画面は、図11(a)の設定項目1103が選択された場合に表示される。図11(b)の視線AFの詳細設定メニュー画面には、設定項目1105~1107が表示される。設定項目1105は、視線機能を有効または無効に設定するための項目である。設定項目1106は、視線ポインタの表示を有効(表示)または無効(非表示)に設定するための項目である。設定項目1107は、SW1がオンとなった場合に視線検出位置にAF枠をジャンプさせる機能を有効または無効に設定するための項目である。 Figure 11 (b) is an example of the display of a gaze AF detailed settings menu screen for configuring settings related to the gaze function. This screen is displayed when setting item 1103 in Figure 11 (a) is selected. Setting items 1105 to 1107 are displayed on the gaze AF detailed settings menu screen in Figure 11 (b). Setting item 1105 is an item for setting the gaze function to enabled or disabled. Setting item 1106 is an item for setting the display of the gaze pointer to enabled (displayed) or disabled (not displayed). Setting item 1107 is an item for setting the function of jumping the AF frame to the gaze detection position when SW1 is turned on to enabled or disabled.

図6は、前述した図5AのS501のカメラ設定処理の詳細を示すフローチャートである。 Figure 6 is a flowchart showing the details of the camera setting process of S501 in Figure 5A described above.

S601で、システム制御部50は、視線機能(視線AF)のON/OFF(有効/無効)を切り替える操作が操作部70に対して行われたか否かを判断する。視線機能のON/OFF(有効/無効)を切り替える操作とは、本実施形態では、メニュー画面を開き、該当する設定項目(設定項目1105)を選択して設定を切り替える操作である。本実施形態では、視線AFをONにするとユーザの視線を入力する機能が有効になり、視線AFをOFFにすると当該機能が無効になる。視線機能のON/OFFを切り替える操作が行われた場合はS602に進み、そうでない場合はS603に進む。 In S601, the system control unit 50 determines whether an operation to switch the gaze function (gaze AF) ON/OFF (enable/disable) has been performed on the operation unit 70. In this embodiment, the operation to switch the gaze function ON/OFF (enable/disable) is an operation to open a menu screen, select a corresponding setting item (setting item 1105), and switch the setting. In this embodiment, turning gaze AF ON enables the function to input the user's gaze, and turning gaze AF OFF disables the function. If an operation to switch the gaze function ON/OFF has been performed, the process proceeds to S602, and if not, the process proceeds to S603.

S602で、システム制御部50は、視線機能のON/OFFを切り替え、変更された設定内容を不揮発性メモリ56に記録する。 At S602, the system control unit 50 switches the gaze function ON/OFF and records the changed settings in the non-volatile memory 56.

S603で、システム制御部50は、視線ポインタ表示のON/OFF(有効/無効)を切り替える操作が操作部70に対して行われたか否かを判断する。視線確定機能のON/OFF(有効/無効)を切り替える操作とは、本実施形態では、メニュー画面を開き、該当する設定項目(設定項目1106)を選択して設定を切り替える操作である。本実施形態では、視線ポインタ表示をONにするとユーザの視線入力に応じてGUIとしての視線ポインタ310が表示され、視線ポインタ表示をOFFにすると視線ポインタが非表示になる。視線ポインタ表示のON/OFFを切り替える操作が行われた場合はS604に進み、そうでない場合はS605に進む。 In S603, the system control unit 50 determines whether an operation to switch the gaze pointer display ON/OFF (enabled/disabled) has been performed on the operation unit 70. In this embodiment, the operation to switch the gaze determination function ON/OFF (enabled/disabled) is an operation to open a menu screen, select a corresponding setting item (setting item 1106), and switch the setting. In this embodiment, when the gaze pointer display is turned ON, the gaze pointer 310 is displayed as a GUI in response to the user's gaze input, and when the gaze pointer display is turned OFF, the gaze pointer is hidden. If an operation to switch the gaze pointer display ON/OFF has been performed, the process proceeds to S604, and if not, the process proceeds to S605.

S604で、システム制御部50は、視線ポインタ表示のON/OFF(有効/無効)を切り替え、変更された設定内容を不揮発性メモリ56に記録する。 In S604, the system control unit 50 switches the gaze pointer display ON/OFF (enabled/disabled) and records the changed settings in the non-volatile memory 56.

S605で、システム制御部50は、タッチ&ドラッグAF機能の設定を切り替える操作が操作部70に対して行われたか否かを判断する。タッチ&ドラッグAF機能の設定を切り替える操作とは、本実施形態では、メニュー画面を開き、該当する設定項目(設定項目1102)を選択して設定を切り替える操作である。本実施形態では、タッチ&ドラッグAFの設定として、「絶対(上述の絶対位置指定方式)」と「相対(上述の相対位置指定方式)」とのいずれかを選択可能である。タッチ&ドラッグAF機能を切り替える操作が行われた場合はS606に進み、そうでない場合はS607に進む。 In S605, the system control unit 50 determines whether an operation to switch the settings of the touch-and-drag AF function has been performed on the operation unit 70. In this embodiment, the operation to switch the settings of the touch-and-drag AF function is an operation to open a menu screen, select a corresponding setting item (setting item 1102), and switch the setting. In this embodiment, the touch-and-drag AF setting can be selected from either "absolute (the above-mentioned absolute position specification method)" or "relative (the above-mentioned relative position specification method)." If an operation to switch the touch-and-drag AF function has been performed, the process proceeds to S606, and if not, the process proceeds to S607.

S606で、システム制御部50は、タッチ&ドラッグAF機能の設定を切り替え、変更された設定内容を不揮発性メモリ56に記録する。 In S606, the system control unit 50 switches the settings of the touch-and-drag AF function and records the changed settings in the non-volatile memory 56.

S607で、システム制御部50は、AF方式を切り替える操作が操作部70に対して行われたか否かを判断する。AF方式を切り替える操作とは、本実施形態では、メニュー画面を開き、該当する設定項目(設定項目1101)を選択して設定を切り替える操作である。AF方式を切り替える操作が行われた場合はS608に進み、そうでない場合はカメラ設定処理を終了する。なお、本実施形態ではAF方式として顔+追尾優先AFと一点AFとのいずれかを選択できる例を説明したが、他のAF方式(ゾーンAF、多点AFなど)を設定可能としてもよい。 In S607, the system control unit 50 determines whether an operation to switch the AF method has been performed on the operation unit 70. In this embodiment, the operation to switch the AF method is an operation to open a menu screen, select a corresponding setting item (setting item 1101), and switch the setting. If an operation to switch the AF method has been performed, the process proceeds to S608, and if not, the camera setting process ends. Note that, although an example has been described in which either face + tracking priority AF or single point AF can be selected as the AF method in this embodiment, other AF methods (such as zone AF and multi-point AF) may be set.

S608で、システム制御部50は、AF方式を切り替え、変更された設定内容を不揮発性メモリ56に記録する。 In S608, the system control unit 50 switches the AF method and records the changed settings in the non-volatile memory 56.

<タッチ操作応答処理>
図7に、前述の図5AのS517のタッチ操作応答処理の詳細フローチャートを示す。
<Touch operation response processing>
FIG. 7 shows a detailed flowchart of the touch operation response process in S517 of FIG. 5A described above.

S701で、システム制御部50は、S502と同様に視線機能が有効であるか否かを判断する。有効である場合はS702に進み、そうでない場合(無効である場合)はS708に進む。 In S701, the system control unit 50 determines whether the line of sight function is enabled, as in S502. If it is enabled, the process proceeds to S702, and if it is not enabled (disabled), the process proceeds to S708.

S702で、システム制御部50は、S503と同様に視線が検出されているか否かを判断する。検出されている場合はS703に進み、そうでない場合はS708に進む。 In S702, the system control unit 50 determines whether or not a line of sight has been detected, similar to S503. If a line of sight has been detected, the process proceeds to S703; if not, the process proceeds to S708.

S703で、システム制御部50は、視線確定フラグを1に設定する。 At S703, the system control unit 50 sets the gaze confirmation flag to 1.

S704で、システム制御部50は、視線ポインタを非表示にする。 At S704, the system control unit 50 hides the gaze pointer.

S705で、システム制御部50は、前述の図11(a)の設定項目1102のタッチ&ドラッグAFの設定が相対位置指定方式であるか否かを判断する。相対位置指定方式で
ある場合はS706に進み、そうでない場合(絶対位置指定方式である場合)はS707に進む。
In S705, the system control unit 50 determines whether or not the setting of the touch-and-drag AF in the setting item 1102 in Fig. 11A described above is the relative position designation method. If it is the relative position designation method, the process proceeds to S706, and if not (if it is the absolute position designation method), the process proceeds to S707.

S706では、システム制御部50は、視線有効時相対位置指定処理を行う。この処理の詳細は図8を用いて後述する。 In S706, the system control unit 50 performs a relative position designation process when the line of sight is active. The details of this process will be described later with reference to FIG. 8.

S707では、システム制御部50は、絶対値指定処理を行う。この処理の詳細は図10を用いて後述する。 In S707, the system control unit 50 performs absolute value specification processing. Details of this processing will be described later with reference to FIG. 10.

S708で、システム制御部50は、S705と同様にタッチ&ドラッグAFの設定が相対位置指定方式であるか否かを判断する。相対位置指定方式である場合はS709に進み、そうでない場合(絶対位置指定方式である場合)はS710に進む。 In S708, the system control unit 50 determines whether the touch-and-drag AF setting is the relative position designation method, as in S705. If it is the relative position designation method, the process proceeds to S709, and if not (if it is the absolute position designation method), the process proceeds to S710.

S709では、システム制御部50は、視線無効時相対位置指定処理を行う。この処理の詳細は図9を用いて後述する。 In S709, the system control unit 50 performs a process for specifying a relative position when the line of sight is invalid. The details of this process will be described later with reference to FIG. 9.

S710では、システム制御部50は、絶対位置指定処理を行う。この処理はS709の処理と同様であり、図10を用いて後述する。 In S710, the system control unit 50 performs absolute position specification processing. This processing is similar to the processing in S709, and will be described later with reference to FIG. 10.

視線機能が有効で(S701-Yes)視線が検出されている場合(S702-Yes)にS705でタッチ&ドラッグAFの設定が相対位値指定方式であるか否かを判定し、絶対位置指定方式である場合にS707で絶対位置指定処理を行う例を説明した。しかし、これに限るものではない。視線機能が有効である場合(S701-Yes)、あるいは視線機能が有効でかつ視線が検出されている場合(701とS702の双方でYes)の場合は、タッチ&ドラッグAFの設定にかかわらず視線有効時相対位置指定処理を行うようにしてもよい。すなわち、S701がYesであれば、S702の判定をせずに、S703、S704の処理を行い、その後S705の判定をせずにS706の処理を行うようにしてもよい。あるいは、S701がYesで、S702もYesあれば、S703、S704の処理を行い、その後S705の判定をせずにS706の処理を行うようにしてもよい。このようにすることで、視線機能を利用できる状態の場合に、視線によって大雑把な位置を指定した後、視線で指定した位置からの続きの微調整をタッチ操作による相対位置指定によって行うことができる。 In the above example, when the gaze function is enabled (S701-Yes) and the gaze is detected (S702-Yes), it is determined whether the touch and drag AF setting is the relative position value designation method in S705, and when the absolute position designation method is used, the absolute position designation process is performed in S707. However, this is not limited to the above. When the gaze function is enabled (S701-Yes), or when the gaze function is enabled and the gaze is detected (Yes in both 701 and S702), the gaze-enabled relative position designation process may be performed regardless of the touch and drag AF setting. That is, if S701 is Yes, the process of S703 and S704 may be performed without determining S702, and then the process of S706 may be performed without determining S705. Alternatively, if S701 is Yes and S702 is also Yes, the process of S703 and S704 may be performed, and then the process of S706 may be performed without determining S705. By doing this, when the gaze function is available, you can specify a rough position by gaze, and then make further fine adjustments from the position specified by gaze by specifying a relative position using touch operations.

<視線有効時相対位置指定処理>
図8に、前述した図7のS706の視線有効時相対位置指定処理の詳細フローチャートを示す。
<Relative position designation process when line of sight is enabled>
FIG. 8 shows a detailed flowchart of the line-of-sight-valid relative position designation process in S706 of FIG.

S801で、システム制御部50は、AF方式が「顔+追尾優先AF」であるか否かを判定する。「顔+追尾優先AF」である場合はS805に進み、そうでない場合(本実施形態では「一点AF」の場合)はS802に進む。 In S801, the system control unit 50 determines whether the AF method is "face + tracking priority AF." If it is "face + tracking priority AF," the process proceeds to S805, and if it is not (in this embodiment, it is "single point AF"), the process proceeds to S802.

S802で、システム制御部50は、タッチダウンがあった時点で視線入力位置(視線検出部160で検出した位置を所定期間分平均化した位置)に一点AF枠を表示する。これによって、前述の図3(b)の表示から図3(d)の表示に遷移する。 In S802, the system control unit 50 displays a single-point AF frame at the gaze input position (the position obtained by averaging the positions detected by the gaze detection unit 160 over a predetermined period) at the time of touch-down. This causes a transition from the display in FIG. 3(b) to the display in FIG. 3(d).

S803で、システム制御部50は、タッチパネル70aに対するタッチムーブに応じて一点AF枠を移動させる。この移動は、相対位置指定方式で行われる。 In S803, the system control unit 50 moves the single-point AF frame in response to a touch-move on the touch panel 70a. This movement is performed using a relative position designation method.

S804では、システム制御部50は、タッチパネル70aからのタッチアップがあったか否かを判定する。タッチアップがあった場合は、アイコン303を表示し(これによ
って前述の図3(f)の表示となる)、図8の処理を終了する。タッチアップがない場合はS803に戻る。
In S804, the system control unit 50 judges whether or not there has been a touch-up from the touch panel 70a. If there has been a touch-up, the system control unit 50 displays the icon 303 (which results in the display of FIG. 3(f) described above), and ends the processing of FIG. 8. If there has been no touch-up, the system control unit 50 returns to S803.

S805で、システム制御部50は、被写体を追尾中か否かを判断する。追尾中である場合はS810に進み、そうでない場合はS806に進む。 In S805, the system control unit 50 determines whether or not the subject is being tracked. If the subject is being tracked, the process proceeds to S810; if not, the process proceeds to S806.

S806で、システム制御部50は、タッチダウンがあった時点での視線入力位置に、タッチ位置(選択位置)を示すタッチポインタ406(第2の大きさの範囲を示す第2のアイテム;小さいポインタ)を表示する。これによって、例えば図4(b)から図4(d)の表示へと遷移する。ここで、視線入力位置は、例えば、視線検出部160で検出した位置を所定期間分平均化した位置である。 In S806, the system control unit 50 displays a touch pointer 406 (a second item indicating a second size range; a small pointer) indicating the touch position (selected position) at the gaze input position at the time of touch-down. This causes a transition from the display in FIG. 4(b) to that in FIG. 4(d), for example. Here, the gaze input position is, for example, a position obtained by averaging the positions detected by the gaze detection unit 160 over a predetermined period of time.

S807で、システム制御部50は、タッチパネル70aに対するタッチムーブ(移動指示操作)に応じて、タッチ位置を示すタッチポインタ406を移動させる。この移動は、相対位置指定方式による移動である。これによって、例えば図4(d)から図4(e)へと表示が遷移する。システム制御部50は、タッチポインタ406が表示された後の視線入力に基づかずに、タッチムーブに応じてタッチポインタ406の表示位置を移動していると捉えることもできる。 In S807, the system control unit 50 moves the touch pointer 406 indicating the touch position in response to a touch move (movement instruction operation) on the touch panel 70a. This movement is a movement by the relative position designation method. This causes the display to transition, for example, from FIG. 4(d) to FIG. 4(e). It can also be considered that the system control unit 50 moves the display position of the touch pointer 406 in response to the touch move, not based on the gaze input after the touch pointer 406 is displayed.

S808では、システム制御部50は、タッチパネル70aからのタッチアップがあったか否かを判定する。タッチアップがあった場合はS809へ進み、そうでない場合はS807に戻る。 In S808, the system control unit 50 determines whether or not there has been a touch-up from the touch panel 70a. If there has been a touch-up, the process proceeds to S809; if not, the process returns to S807.

S809で、システム制御部50は、タッチポインタの位置における被写体を選択し、当該被写体の追尾を開始する。この時の選択は、前述の自動選択条件には基づかない。また、アイコン303を表示する。これによって、例えば図4(e)から図4(g)のように表示が遷移する。 In S809, the system control unit 50 selects the subject at the position of the touch pointer and starts tracking the subject. The selection at this time is not based on the automatic selection conditions described above. In addition, the icon 303 is displayed. This causes the display to transition, for example, from FIG. 4(e) to FIG. 4(g).

S810で、システム制御部50は、タッチダウンがあった時点での追尾対象の位置に、タッチ位置(選択位置)を示すタッチポインタ406(第2の大きさの範囲を示す第2のアイテム;小さいポインタ)を表示する。 At S810, the system control unit 50 displays a touch pointer 406 (a second item indicating a second size range; a small pointer) indicating the touch position (selected position) at the position of the tracking target at the time of touchdown.

S811~S813の処理は、前述のS806~S809の処理とそれぞれ同様であるため、説明を省略する。 The processes in steps S811 to S813 are similar to the processes in steps S806 to S809 described above, and therefore will not be described here.

なお、本実施形態では、視線有効時にタッチダウンがあった場合に追尾中である場合には視線有力位置ではなく追尾位置にタッチポインタ406を表示する例を説明した。しかしこれに限るものではなく、視線が有効であれば、追尾中であるか否かにかかわらず、タッチダウンがあった場合には視線入力位置(視線検出部160で検出した位置を所定期間分平均化した位置)にタッチポインタ406を表示するようにしてもよい。この場合は、S801でYesとなった場合に、S805の判定を行わずにS806へ進むこととなる。 In this embodiment, an example has been described in which if a touchdown occurs while the gaze is valid, and tracking is in progress, the touch pointer 406 is displayed at the tracking position, not at the gaze-probable position. However, this is not limited to this, and if the gaze is valid, regardless of whether tracking is in progress or not, if a touchdown occurs, the touch pointer 406 may be displayed at the gaze input position (a position obtained by averaging the positions detected by the gaze detection unit 160 for a predetermined period of time). In this case, if S801 is Yes, the process proceeds to S806 without making the determination in S805.

また、相対位置指定方式でタッチアップによる被写体追尾を行う場合(S809、S813、後述するS908、S912)、タッチアップから一定時間経過後に被写体追尾を開始するようにしてもよい。これにより、相対位置指定方式の場合にタッチダウン、タッチムーブ、タッチアップの一連の操作を繰り返し行いながらタッチポインタを移動する場合に、被写体追尾処理が毎回発動しなくなるため、タッチポインタの移動がしやすくなる。 In addition, when subject tracking is performed by touching up using the relative position designation method (S809, S813, S908 and S912 described below), subject tracking may be started a certain time after touching up. This makes it easier to move the touch pointer when moving the touch pointer by repeatedly performing a series of operations of touching down, touching move, and touching up using the relative position designation method, since subject tracking processing is not triggered every time.

<視線無効時相対位置指定処理>
図9は、前述した図7のS709の視線無効時相対位置指定処理の詳細フローチャートである。
<Relative position specification process when line of sight is disabled>
FIG. 9 is a detailed flowchart of the line-of-sight invalid relative position designation process in S709 of FIG.

S901で、システム制御部50は、AF方式が「顔+追尾優先AF」であるか否かを判断する。「顔+追尾優先AF」である場合はS902に進み、そうでない場合(本実施形態では「一点AF」の場合)はS904に進む。 In S901, the system control unit 50 determines whether the AF method is "face + tracking priority AF." If it is "face + tracking priority AF," the process proceeds to S902, and if it is not (in this embodiment, it is "single point AF"), the process proceeds to S904.

S902で、システム制御部50は、タッチパネル70aに対するタッチムーブに応じて一点AF枠を移動させる。なお、視線入力を検出していなく、かつ相対位置指定方式であるため、タッチダウンに応じては一点AF枠の位置は移動せず、タッチダウン前に設定されていた一点AF枠の位置から、タッチムーブに応じた距離だけ、相対位置指定方式で移動する。 In S902, the system control unit 50 moves the single-point AF frame in response to a touch move on the touch panel 70a. Note that because gaze input has not been detected and the relative position designation method is used, the position of the single-point AF frame does not move in response to a touch down, but moves by the relative position designation method by a distance corresponding to the touch move from the position of the single-point AF frame that was set before the touch down.

S903では、システム制御部50は、タッチパネル70aからのタッチアップがあったか否かを判定する。タッチアップがあった場合は図9の処理を終了し、タッチアップがない場合はS902に戻る。 In S903, the system control unit 50 determines whether or not there has been a touch-up from the touch panel 70a. If there has been a touch-up, the process of FIG. 9 ends, and if there has not been a touch-up, the process returns to S902.

S904では、システム制御部50は、被写体を追尾中か否かを判断する。追尾中である場合はS909に進み、そうでない場合はS905に進む。 In S904, the system control unit 50 determines whether or not the subject is being tracked. If the subject is being tracked, the process proceeds to S909; if not, the process proceeds to S905.

S905で、システム制御部50は、EVF29の中央に、タッチ位置(選択位置)を示すタッチポインタ406(第2の大きさの範囲を示す第2のアイテム;小さいポインタ)を表示する。 At S905, the system control unit 50 displays a touch pointer 406 (a second item indicating a second size range; a small pointer) indicating the touch position (selection position) in the center of the EVF 29.

S906~S912の処理は、前述した図7のS807~S813の処理とそれぞれ同様であるため、説明を省略する。 The processes in steps S906 to S912 are similar to the processes in steps S807 to S813 in FIG. 7, respectively, and therefore will not be described here.

<絶対位置指定処理>
図10は、前述した図7のS707、S710の絶対位置指定処理の詳細フローチャートである。
<Absolute position specification process>
FIG. 10 is a detailed flowchart of the absolute position designation process in steps S707 and S710 in FIG.

S1001で、システム制御部50は、AF方式が「顔+追尾優先AF」であるか否かを判断する。「顔+追尾優先AF」である場合はS1005に進み、そうでない場合(本実施形態では「一点AF」の場合)はS1002に進む。 In S1001, the system control unit 50 determines whether the AF method is "face + tracking priority AF." If it is "face + tracking priority AF," the process proceeds to S1005, and if it is not (in this embodiment, it is "single point AF"), the process proceeds to S1002.

S1002では、システム制御部50は、タッチダウンされた際のタッチ位置(タッチダウン位置)に対応するEVF29上の位置に、一点AF枠を表示する。 In S1002, the system control unit 50 displays a single-point AF frame at a position on the EVF 29 that corresponds to the touch position (touch-down position) when touched down.

S1003では、システム制御部50は、タッチムーブに応じて、タッチムーブ後のタッチ位置に対応するEVF29上の位置に、一点AF枠を移動させる。この移動は絶対位置指定方式で行われ、移動後の一点AF枠の位置は、タッチムーブの距離や方向に基づくものではなく、最新のタッチ位置に対応する位置となる。 In S1003, the system control unit 50, in response to the touch-move, moves the single-point AF frame to a position on the EVF 29 that corresponds to the touch position after the touch-move. This movement is performed using an absolute position specification method, and the position of the single-point AF frame after the movement is not based on the distance or direction of the touch-move, but is a position that corresponds to the most recent touch position.

S1004では、システム制御部50は、タッチパネル70aからのタッチアップがあったか否かを判定し、タッチアップがあった場合には図10の処理を終了し、そうでない場合にはS1003に戻る。 In S1004, the system control unit 50 determines whether or not there has been a touch-up from the touch panel 70a, and if there has been a touch-up, ends the processing of FIG. 10, and if not, returns to S1003.

S1005では、システム制御部50は、タッチダウンされた際のタッチ位置(タッチダウン位置)に対応するEVF29上の位置に、タッチポインタ406を表示する。 In S1005, the system control unit 50 displays the touch pointer 406 at a position on the EVF 29 that corresponds to the touch position (touch-down position) at the time of touch-down.

S1006では、システム制御部50は、タッチムーブに応じて、タッチムーブ後のタッチ位置に対応するEVF29上の位置に、タッチポインタ1006を移動させる。この移動は絶対位置指定方式で行われ、移動後のタッチポインタ1006の位置は、タッチムーブの距離や方向に基づくものではなく、最新のタッチ位置に対応する位置となる。 In S1006, the system control unit 50 moves the touch pointer 1006 in response to the touch move to a position on the EVF 29 that corresponds to the touch position after the touch move. This movement is performed using an absolute position specification method, and the position of the touch pointer 1006 after the movement is not based on the distance or direction of the touch move, but is a position that corresponds to the most recent touch position.

S1007では、システム制御部50は、タッチパネル70aからのタッチアップがあったか否かを判定する。タッチアップがあった場合はS1008へ進み、そうでない場合はS1006に戻る。 In S1007, the system control unit 50 determines whether or not there has been a touch-up from the touch panel 70a. If there has been a touch-up, the process proceeds to S1008; if not, the process returns to S1006.

S1008で、システム制御部50は、タッチポインタの位置における被写体を選択し、当該被写体の追尾を開始する。また、アイコン303を表示して、図10の処理を終了する。 In S1008, the system control unit 50 selects the subject at the position of the touch pointer and starts tracking the subject. It also displays the icon 303 and ends the processing in FIG. 10.

以上説明した本実施形態によれば、ユーザが視線入力を行う場合に大きいポインタを表示して大まかに被写体を選択して、タッチ操作を行う場合に小さいポインタを表示して細かい位置の指定を行うことができる。これにより、ユーザの視線入力とタッチ操作を用いて位置を指定する場合に、ユーザの意図した位置を容易に指定することができる。 According to the present embodiment described above, when the user performs gaze input, a large pointer is displayed to roughly select the subject, and when the user performs touch operation, a small pointer is displayed to specify a fine position. This makes it possible to easily specify the intended position when specifying a position using gaze input and touch operation by the user.

なお、上述の実施形態では、タッチ操作に応じて小さいポインタ(タッチポインタ)を表示する例を説明したが、これに限るものではない。MC65や4方向キー74といった操作部材への操作に応じても微調整するための位置の指定が可能である。従って、視線ポインタによって粗く位置指定を行った状態で、MC65や4方向キー74に対する操作があったことに応じて、視線ポインタに変えて、微調整用の位置指定ポインタ(第2の大きさのポインタ)を表示するようにしてもよい。そして、この微調整用の位置指定ポインタをMC65や4方向キー74に対する操作移動させることで、位置指定の微調整が行えるようにしてもよい。 In the above embodiment, an example was described in which a small pointer (touch pointer) was displayed in response to a touch operation, but this is not limited to this. It is also possible to specify a position for fine adjustment in response to operation of an operating member such as the MC 65 or the four-way key 74. Therefore, when a position has been roughly specified using the gaze pointer, in response to operation of the MC 65 or the four-way key 74, a fine adjustment position specification pointer (pointer of a second size) may be displayed instead of the gaze pointer. Then, by moving this fine adjustment position specification pointer in response to operation of the MC 65 or the four-way key 74, fine adjustment of the position specification may be performed.

なお、視線確定フラグの解除条件は、上記の例に限定されない。S530で撮影処理を一回行った後に、自動的に視線確定フラグを0にリセットするようにしてもよい。また、視線確定フラグを1にしたと同時に視線機能(視線AFの設定)を「無効」にして、ユーザの任意のタイミング(S602において視線機能を有効にしたタイミング)で視線フラグを0に戻してもよい。また第1シャッターボタン62をオフにした後(シャッターボタン61の半押しを解除した後)、一定時間経過後に、自動的に視線フラグを0に戻してもよい。 The conditions for canceling the gaze confirmation flag are not limited to the above example. After performing the shooting process once in S530, the gaze confirmation flag may be automatically reset to 0. Furthermore, the gaze confirmation flag may be set to 1 and the gaze function (gaze AF setting) may be "disabled" at the same time, and the gaze flag may be returned to 0 at a timing of the user's choice (the timing when the gaze function was enabled in S602). Furthermore, the gaze flag may be automatically returned to 0 after a certain time has elapsed after the first shutter button 62 is turned off (after the half-press of the shutter button 61 is released).

また、タッチ操作後にポインタを小さくする例を述べたが、どの程度小さくするかについても、カメラ設定やユースケースに応じて変更してもよい。例えば、サーボAFモード(第2のAFモード)の場合に、視線ポインタまたはタッチポインタの大きさをワンショットAFモード(第1のAFモード)時よりも大きくしてもよい。ここで、サーボAFモードは、AF枠の位置で継続してAFを実行し続けるコンティニュアスAFを行うモードである。動きのある被写体を撮影するときに利用すると好適である。ワンショットAFモードは、一度AFしたら、再度AFの指示が無い限りはAF処理を停止(フォーカスをロック;ピント位置を固定)するAF処理のモードである。具体的には、サーボAFモードであって、視線入力時にタッチ操作が行われていない場合には、視線入力に基づく位置に、上述の視線ポインタ310よりも大きいポインタ(第1の大きさよりも大きい第3の大きさの範囲を示す第3のアイテム)を表示する。このようにすれば、AFを合わせたい被写体が動体で、狭い範囲に留まっていない場合でも、より大きい視線ポインタに収めればよいので、視線によって所望の被写体を指定しやすくなる。また、視線ポインタを表示している状態でAF処理を実行する場合にサーボAFモードでAF処理を実行し、タッチポ
インタを表示している状態でAF処理を実行する場合にワンショットAFモードでAFを実行してもよい。
In addition, although an example of making the pointer smaller after a touch operation has been described, the extent to which the pointer is made smaller may be changed according to the camera settings and use case. For example, in the case of servo AF mode (second AF mode), the size of the gaze pointer or touch pointer may be made larger than that in one-shot AF mode (first AF mode). Here, the servo AF mode is a mode that performs continuous AF, which continues to perform AF at the position of the AF frame. It is suitable to use when photographing a moving subject. The one-shot AF mode is an AF processing mode that stops AF processing (locks the focus; fixes the focus position) once AF is performed unless there is an AF instruction again. Specifically, in the servo AF mode, when a touch operation is not performed during gaze input, a pointer larger than the above-mentioned gaze pointer 310 (a third item indicating a range of a third size larger than the first size) is displayed at a position based on the gaze input. In this way, even if the subject to which AF is to be adjusted is a moving object and does not remain in a narrow range, it is only necessary to fit it into a larger gaze pointer, making it easier to specify the desired subject by gaze. In addition, when AF processing is performed while the gaze pointer is displayed, AF processing may be performed in servo AF mode, and when AF processing is performed while the touch pointer is displayed, AF processing may be performed in one-shot AF mode.

また、AF方式が顔+追尾優先AFではなく、ゾーンAFに設定されている場合に、視線ポインタをゾーンAF処理におけるゾーンの大きさ相当に大きくしてもよい。すなわち、ゾーンAFで表示される視線ポインタの大きさを、顔+追尾優先AFで表示される第1の大きさよりも大きい第4の大きさにしてもよい。ここで、ゾーンAFは、動体の撮影に適したAF方式であり、大きめのゾーンをユーザーが設定した位置に設定し、そのソーンの中で自動選択条件に合致する被写体をAF対象とする方式である。 In addition, when the AF method is set to zone AF instead of face + tracking priority AF, the gaze pointer may be enlarged to a size equivalent to the size of the zone in zone AF processing. In other words, the size of the gaze pointer displayed in zone AF may be set to a fourth size larger than the first size displayed in face + tracking priority AF. Here, zone AF is an AF method suitable for photographing moving objects, in which a larger zone is set at a position set by the user, and subjects within that zone that meet the automatic selection conditions are targeted for AF.

上述の実施形態では、タッチ操作に応じて、AF処理を実行する範囲を変更する(小さくする)例を説明したが、被写体を検出する領域の大きさや、検出する被写体の種別をタッチ操作に応じて変更してもよい。例えば、視線ポインタを表示している状態でAF処理を実行する場合には検出した顔に対してAF処理を実行し、タッチポインタを表示している状態でAF処理を実行する場合に検出した瞳に対してAF処理を実行してもよい。 In the above embodiment, an example was described in which the range in which AF processing is performed is changed (reduced) in response to a touch operation, but the size of the area in which the subject is detected or the type of subject to be detected may also be changed in response to a touch operation. For example, when AF processing is performed with the gaze pointer displayed, AF processing may be performed on the detected face, and when AF processing is performed with the touch pointer displayed, AF processing may be performed on the detected eyes.

なお、視線ポインタからタッチポインタへの表示の切替があった場合に、タッチポインタを表示する位置については、上記に限定されない。例えば、視線ポインタ内で検出した被写体の位置にタッチポインタを表示してもよい。 Note that when the display is switched from the gaze pointer to the touch pointer, the position at which the touch pointer is displayed is not limited to the above. For example, the touch pointer may be displayed at the position of the subject detected within the gaze pointer.

<変形例1>
上述の実施形態では、デジタルカメラ100での被写体選択時に、視線入力時にタッチ操作が行われていない場合に視線ポインタ(大きいポインタ)を表示し、タッチ操作が行われている場合にタッチポインタ(小さいポインタ)を表示する例について説明した。しかし、被写体の選択に限るものではなく、他の目的の位置指定にも本願は適用可能である。すなわち、被写体選択とは異なる位置指定操作においても、次のような位置の選択が可能である。視線入力時に、操作部材(例えばタッチパネル)への操作が行われていない場合に、大きなポインタ(インジケーター)を表示し、大きなポインタを視線入力にしたがって移動することで粗く位置指定を行う。そして、視線入力で粗く位置指定した範囲内で、自動選択条件に基づき、細かい位置を指定する。そして、操作部材(例えばタッチパネル)への操作が行われている場合には、大きなポインタから小さなポインタへ表示を切り替え、小さいポインタ(インジケーター)を操作部材への操作にしたがって移動することで細かく位置指定を行う。
<Modification 1>
In the above embodiment, an example has been described in which, when selecting a subject with the digital camera 100, if no touch operation is performed during gaze input, a gaze pointer (large pointer) is displayed, and if a touch operation is performed, a touch pointer (small pointer) is displayed. However, the present application is not limited to subject selection, and can also be applied to position designation for other purposes. That is, even in a position designation operation other than subject selection, the following position selection is possible. When no operation is performed on an operating member (e.g., a touch panel) during gaze input, a large pointer (indicator) is displayed, and the large pointer is moved according to the gaze input to roughly designate the position. Then, within the range roughly designated by the gaze input, a fine position is designated based on the automatic selection conditions. Then, when an operation is performed on an operating member (e.g., a touch panel), the display is switched from the large pointer to a small pointer, and the small pointer (indicator) is moved according to the operation on the operating member to finely designate the position.

図12(a)~図12(c)に、被写体選択とは異なる位置指定操作の例(変形例)として、文字列の中での文字の挿入位置の選択操作に本願を適用した場合の表示例を示す。 FIGS. 12(a) to 12(c) show examples of display when the present application is applied to the operation of selecting the position at which to insert characters in a string of characters, as an example (variant example) of a position designation operation that is different from subject selection.

図12(a)に、「This is the piel.」という入力済みの文字列の中から、文字を挿入する位置を視線入力を用いて選択する場合の表示例を示す。視線入力位置を基準とする所定範囲に視線ポインタ1200(視線入力位置に追従する)が表示される。この状態で、視線確定操作(視線による位置の指定の実行を指示する操作)が行われると、視線ポインタ1200によって示される範囲内で、自動選択条件に基づいて、文字の挿入位置が決定される。本変形例では、自動選択条件は「単語と単語の間の文節のうち、視線入力位置に最も近い位置」という条件である。「This is the piel.」という文字列においては、図示のように、文節1201~1203の文節が検出される。図12(a)の位置に視線ポインタ1200がある状態で視線確定操作が行われると、視線ポインタ1200に含まれる文節1203が選択され、その後の文字入力操作によってこの位置に文字を挿入することができる。視線ポインタ1200がある状態での視線確定操作に応じた位置指定では、単語内の位置は選択できない。例えば、図12(a)の状態で単語「piel」の内部の「i」と「e」の間の位置は選択できない。これは
、前述のように視線入力位置を用いた細かい位置の指定は人間の特性上困難であるため、文字挿入を行う可能性が高い文節に挿入位置を限定することで、意図しない位置を選択してしまうことを低減するためである。このように、文字を挿入したい位置を見るだけで、素早く簡単に文字挿入位置を選択することができる。また、図12(a)の状態でMC65や4方向キー74に対する操作などの、操作部材による位置指定操作が行われると、視線ポインタ1200が非表示となり、視線入力位置に挿入位置カーソル1210が表示される。そして、挿入位置カーソル1210が表示された位置から操作部材による操作に応じて挿入位置カーソル1210の位置を移動(微調整)可能である。
FIG. 12A shows a display example in which a position for inserting characters is selected by using gaze input from within an input character string of "This is the piel.". A gaze pointer 1200 (following the gaze input position) is displayed in a predetermined range based on the gaze input position. In this state, when a gaze confirmation operation (an operation for instructing execution of position specification by gaze) is performed, a character insertion position is determined based on an automatic selection condition within the range indicated by the gaze pointer 1200. In this modified example, the automatic selection condition is a condition that "among phrases between words, the position closest to the gaze input position." In the character string of "This is the piel.", phrases 1201 to 1203 are detected as shown in the figure. When a gaze confirmation operation is performed with the gaze pointer 1200 at the position of FIG. 12A, a phrase 1203 included in the gaze pointer 1200 is selected, and a character can be inserted at this position by a subsequent character input operation. When the gaze pointer 1200 is present and a position is specified according to a gaze confirmation operation, a position within a word cannot be selected. For example, in the state of FIG. 12(a), a position between "i" and "e" within the word "piel" cannot be selected. This is because, as described above, it is difficult to specify a precise position using a gaze input position due to human characteristics, and by limiting the insertion position to a phrase where character insertion is likely to be performed, it is possible to reduce the selection of an unintended position. In this way, a character insertion position can be quickly and easily selected by simply looking at the position where a character is to be inserted. Also, when a position specification operation is performed using an operating member such as an operation on the MC 65 or the four-way key 74 in the state of FIG. 12(a), the gaze pointer 1200 is hidden and the insertion position cursor 1210 is displayed at the gaze input position. Then, the position of the insertion position cursor 1210 can be moved (fine-adjusted) from the position where the insertion position cursor 1210 is displayed according to an operation using the operating member.

図12(b)に、図12(a)の状態でMC65や4方向キー74に対する操作などがあった場合の表示例を示す。視線ポインタ1200は非表示となり、単語「piel」の内部の「i」と「e」の間の位置に挿入位置カーソル1210が表示されている。挿入位置カーソル1210は挿入位置を示す第2の大きさのポインタ(インジケーター)であり、第1の大きさである視線ポインタ1200よりも小さい。挿入位置カーソル1210は図示のように単語内部の各文字の間の位置を指定可能であり、位置1211~位置1215といった位置に、MC65や4方向キー74に対する操作に応じて任意に移動させることができる。例えば、図12(b)の位置に挿入位置カーソル1210が位置している状態で「x」という文字を挿入すると、図12(c)のように、「This is the
pixel.」といったように文字列を修正することができる。
FIG. 12B shows an example of a display when an operation is performed on the MC 65 or the four-way key 74 in the state shown in FIG. 12A. The gaze pointer 1200 is hidden, and an insertion position cursor 1210 is displayed between "i" and "e" inside the word "piel". The insertion position cursor 1210 is a pointer (indicator) of a second size indicating the insertion position, and is smaller than the gaze pointer 1200 of the first size. As shown in the figure, the insertion position cursor 1210 can specify a position between each character inside a word, and can be moved arbitrarily to positions such as positions 1211 to 1215 in response to an operation on the MC 65 or the four-way key 74. For example, when the character "x" is inserted with the insertion position cursor 1210 positioned at the position shown in FIG. 12B, "This is the
The string can be modified to something like "pixel."

<変形例2>
上述の実施形態で説明したような例だけでなく、さらに、被写体や指定対象を素早く正確に選択することが要求される状況下において、本願発明を適用することが可能である。例えば、ヘッドマウントディスプレイ(HMD)を含むヘッドセットを装着したユーザーが、VR(Virtual Reality)画像に表示される仮想のキャラクターなどの対象を選択する際にも適用可能である。視線入力時に操作部材(例えばタッチパネルやタッチ操作と押下可能な光学トラッキングポインター)への操作が行われていない場合に、大きなポインタ(インジケーター)を表示し、大きなポインタを視線入力にしたがって移動することで粗く位置指定を行う。そして、視線入力で粗く位置指定を行った範囲内で自動選択条件に基づき、細かい位置を指定する。そして、操作部材への操作が行われている場合には、大きなポインタから小さなポインタ(インジケーター)へ表示を切り替え、小さいポインタ(インジケーター)を操作部材への操作にしたがって移動することで細かく位置指定を行う。
<Modification 2>
The present invention can be applied not only to the examples described in the above-mentioned embodiments, but also to situations in which it is required to quickly and accurately select a subject or a specified target. For example, the present invention can be applied when a user wearing a headset including a head mounted display (HMD) selects a target such as a virtual character displayed in a VR (Virtual Reality) image. When no operation is performed on an operating member (for example, a touch panel or an optical tracking pointer that can be touched and pressed) during gaze input, a large pointer (indicator) is displayed and the large pointer is moved according to the gaze input to roughly specify a position. Then, within the range where the position was roughly specified by the gaze input, a fine position is specified based on the automatic selection conditions. Then, when an operation is performed on an operating member, the display is switched from the large pointer to a small pointer (indicator), and the small pointer (indicator) is moved according to the operation on the operating member to finely specify a position.

図13(a)~図13(c)にヘッドセット1300と、操作部材であるゲームコントローラー1320の外観図を示す。 Figures 13(a) to 13(c) show external views of the headset 1300 and the game controller 1320, which is an operating member.

図13(a)、図13(b)にヘッドセット1300の外願図を示す。ヘッドセット1300は主にHMD1310からなり、本変形例2ではHMD1310はパーソナルコンピューターなどと接続せず、単体で使用できるVR機器(スタンドアロン型のVR-HMD)である。HMD1310の中に、図2に示すシステム制御部50や視線検出部160などの本実施形態を適用するために必要なものが内蔵される。 FIGS. 13(a) and 13(b) show external views of a headset 1300. The headset 1300 mainly comprises an HMD 1310, and in this second modification, the HMD 1310 is a VR device (standalone VR-HMD) that can be used on its own without being connected to a personal computer or the like. The HMD 1310 contains components necessary for applying this embodiment, such as the system control unit 50 and gaze detection unit 160 shown in FIG. 2.

図13(c)にゲームコントローラー1320を示す。ゲームコントローラー1320はHMD1310に表示されるゲーム画面1400(後述)の表示のための指示の受け付けなどを行う。ゲームコントローラー1320は、グリップ部1321、タッチ可能部分を備えた押下可能な操作部材であるマルチボタン1322、SETボタン75を備える。グリップ部1321は上述のデジタルカメラ100のグリップ部90と同様に、ユーザーがゲームコントローラー1320を把持しやすい構造・材質である。マルチボタン1322にはゲーム画面1400に表示されるポインタの移動を指示する機能など、様々な機能
を割り当てることができる。本変形例2では、マルチボタン1322はタッチ操作と押し込み操作の両方を受け付けることが可能な操作部材である。マルチボタン1322に搭載のタッチ操作部材は、上述したようなタッチ検出機構でもよいし、赤外線式センサーでもよい。マルチボタン1322の内部に赤外線式センサーを搭載し、マルチボタン1322の上部(ユーザーの指が触れる部分)に赤外線を照射する。ユーザーがマルチボタン1322の上部に触れると、赤外線がユーザーの指で反射し、この反射光を検出することでユーザーの指の動きを検出することができる。このような光学式の操作部材を、光学トラッキングポインター(OTP)と称するものとする。OTPはタッチパネル70aと同様、OTPに対するユーザーの指(操作体)の動きである移動操作を検出することができる。なお、マルチボタン1322はOTPに限らず、MC65や4方向機キー74、ジョイスティックのように方向指示部材でもよい。なお、HMD1310とゲームコントローラー1320とは、有線で接続してもよいしBluetooth等の無線通信で接続してもよい。
FIG. 13C shows the game controller 1320. The game controller 1320 accepts instructions for displaying a game screen 1400 (described later) displayed on the HMD 1310. The game controller 1320 includes a grip section 1321, a multi-button 1322 that is a depressable operation member having a touchable portion, and a SET button 75. The grip section 1321 is made of a structure and material that allows the user to easily hold the game controller 1320, similar to the grip section 90 of the digital camera 100 described above. The multi-button 1322 can be assigned various functions, such as a function to instruct the movement of a pointer displayed on the game screen 1400. In this second modified example, the multi-button 1322 is an operation member that can accept both a touch operation and a pressing operation. The touch operation member mounted on the multi-button 1322 may be a touch detection mechanism as described above, or an infrared sensor. An infrared sensor is mounted inside the multi-button 1322, and infrared rays are irradiated onto the upper part of the multi-button 1322 (the part touched by the user's finger). When the user touches the upper part of the multi-button 1322, the infrared rays are reflected by the user's finger, and the movement of the user's finger can be detected by detecting the reflected light. Such an optical operating member is called an optical tracking pointer (OTP). Like the touch panel 70a, the OTP can detect a movement operation, which is the movement of the user's finger (operating body) relative to the OTP. Note that the multi-button 1322 is not limited to an OTP, and may be a direction indicating member such as the MC65, the four-way key 74, or a joystick. Note that the HMD 1310 and the game controller 1320 may be connected by wire or wireless communication such as Bluetooth.

図14(a)~図14(f)に、アクションゲームでの攻撃対象を指定する位置指定操作の例(変形例)において、HMD1310に表示されるゲーム画面の表示例を示す。 Figures 14(a) to 14(f) show examples of game screens displayed on the HMD 1310 in an example (variant) of a position designation operation for designating an attack target in an action game.

図14(a)は、ヘッドセット1300を装着してアクションゲームをプレイしているユーザーに対して、複数の攻撃対象1401~1404が、仮想的に近づいてきている状態を表示するゲーム画面の表示例である。このとき、視線検出部160で検出したユーザーの視線に対応する位置に視線ポインタ1410が表示されている。そして、ユーザーの視線の移動にしたがって、視線ポインタ1410が、図14(a)で示された位置から図14(b)で示された位置に移動する。その後、操作部材を用いて視線確定操作(具体的にはマルチボタン1322の押し込みやSETボタン75の押下)が行われると、自動選択条件に基づいて、視線ポインタ1410によって示される範囲内で攻撃対象のキャラクターが決定される。本変形例2では、自動選択条件は「視線ポインタの範囲内のうち、ユーザーに最も近い対象」という条件とする。 Figure 14(a) is an example of a game screen display showing a state in which multiple attack targets 1401-1404 are virtually approaching a user wearing a headset 1300 and playing an action game. At this time, a gaze pointer 1410 is displayed at a position corresponding to the user's gaze detected by the gaze detection unit 160. Then, as the user's gaze moves, the gaze pointer 1410 moves from the position shown in Figure 14(a) to the position shown in Figure 14(b). After that, when a gaze confirmation operation is performed using an operating member (specifically, pressing the multi-button 1322 or pressing the SET button 75), a character to be attacked is determined within the range indicated by the gaze pointer 1410 based on the automatic selection condition. In this modification example 2, the automatic selection condition is set to "the target closest to the user within the range of the gaze pointer."

図14(b)のように攻撃対象1401~1404がゲーム画面に存在する状態で視線確定操作が行われると対象枠1411が表示される。具体的には、自動選択条件により、視線ポインタ1410の範囲内に存在する対象1401~1403のうち、仮想的にユーザーに最も近づいている対象1401が選択され、対象枠1411が表示される(図14(c))。これにより、ユーザーはその視線を移動することによって対象枠1411が表示されている対象1401を選択して攻撃を行うことができる。しかし、ユーザーが実際に攻撃したいキャラクターは、自動選択された対象1401ではなく、視線ポインタ1410の範囲に含まれる他のキャラクター(例えば、対象1402)の場合がある。 As shown in FIG. 14(b), when a gaze confirmation operation is performed while targets 1401-1404 to be attacked are present on the game screen, a target frame 1411 is displayed. Specifically, according to the automatic selection conditions, of targets 1401-1403 present within the range of gaze pointer 1410, target 1401 that is virtually closest to the user is selected, and target frame 1411 is displayed (FIG. 14(c)). This allows the user to move their gaze to select target 1401 with target frame 1411 displayed to perform an attack. However, the character that the user actually wants to attack may not be the automatically selected target 1401, but another character (e.g., target 1402) that is within the range of gaze pointer 1410.

図14(d)に、図14(b)の状態でMC65や4方向キー74、マルチボタン1322のOTPへのタッチ操作などがあった場合の表示例を示す。視線ポインタ1410は非表示となり、タッチポインタ1412が表示されている。タッチポインタ1412は図4のタッチポインタ406と同様のものとする。タッチポインタ1412は視線ポインタ1410よりも小さい。このような表示にすることにより、ユーザーは視線ポインタ1410で大まかな対象(位置)を指定したあとに、細かな対象の指定(微調整)が可能である。 Figure 14 (d) shows an example of the display when, in the state of Figure 14 (b), there is a touch operation on the MC 65, the four-way key 74, or the OTP of the multi-button 1322. The gaze pointer 1410 is hidden, and a touch pointer 1412 is displayed. The touch pointer 1412 is the same as the touch pointer 406 in Figure 4. The touch pointer 1412 is smaller than the gaze pointer 1410. By displaying in this way, the user can specify a rough target (position) with the gaze pointer 1410, and then specify a finer target (fine-tune).

図14(e)に、図14(d)の状態からユーザーがマルチボタン1322やMC65への操作によってタッチポインタ1412を対象1402の付近に移動させた場合の表示例を示す。ユーザーは視線によって大まかな位置の指定を行っているため、図14(d)に示す位置から図14(e)に示す位置までの距離は短く、タッチポインタ1412を移動させるために、多くの操作や時間を要しない。 Figure 14(e) shows an example of a display when the user moves the touch pointer 1412 from the state of Figure 14(d) to the vicinity of the target 1402 by operating the multi-button 1322 or MC65. Because the user specifies a rough position by line of sight, the distance from the position shown in Figure 14(d) to the position shown in Figure 14(e) is short, and it does not require much operation or time to move the touch pointer 1412.

図14(f)に、図14(e)の状態でマルチボタン1322の押し込みもしくはタッチアップを行った場合の表示例を示す。マルチボタン1322への押し込み直前のタッチポインタ1412の表示位置に基づいて対象枠1413が表示・設定され、対象1402が攻撃対象として選択されたことがわかる。 Figure 14 (f) shows an example of the display when the multi-button 1322 is pressed or touched up in the state of Figure 14 (e). The target frame 1413 is displayed and set based on the display position of the touch pointer 1412 immediately before the multi-button 1322 is pressed, and it can be seen that the target 1402 has been selected as the target for attack.

例えば、ユーザーの至近側にいる対象の優先度を上げて攻撃対象として選択することは、攻撃が成功する可能性が高くなるため合理的である。しかし、例えば図14(a)に表示する時点では、最も遠くにいる対象1402は、近くにいる対象1401に比べて、攻撃が成功する可能性は低いが、攻撃が成功した場合のポイントが高いことがある。このような状況においては、攻撃対象として選択したいキャラクターはユーザーの戦略に応じて異なる。そこで、ユーザーの視線にしたがって素早く大雑把に範囲を指定したあと、ユーザーによる移動/タッチ操作によって微調整を行うことで、ユーザー所望の対象を正確に選択することができる。ユーザーの視線により大雑把に範囲を指定できているため、微調整のための移動量/タッチ操作量が少なくて済み、素早く対象を選択することが可能である。このように、素早く正確に、ユーザーが所望する位置(対象)を指定することが可能である。 For example, it is rational to give higher priority to targets closest to the user and select them as targets for attack, since this increases the chances of a successful attack. However, for example, at the time of display in FIG. 14(a), the target 1402 that is furthest away is less likely to be attacked successfully than the target 1401 that is closer, but may receive higher points if the attack is successful. In such a situation, the character that the user wishes to select as a target for attack varies depending on the user's strategy. Therefore, after roughly specifying the range according to the user's line of sight, the user can accurately select the target that the user desires by making fine adjustments through movement/touch operations. Because the range can be roughly specified according to the user's line of sight, the amount of movement/touch operation required for fine adjustments is small, making it possible to select a target quickly. In this way, the user can quickly and accurately specify the position (target) that he or she desires.

本変形例2では、攻撃対象として1つの対象を指定することを前提としていたが、一度に複数の対象を指定できてもよい。例えば、図14(b)の視線ポインタ1410が表示された時点で、確定機能を有する操作が行われた場合は、視線ポインタ1410の範囲内から個別に対象を選択するのではなく、視線ポインタ1410の範囲内の対象を全て選択するようにしてもよい。すなわち、対象1401のみではなく、対象1401~対象1403の複数対象を選択するようにしてもよい。ここで、確定機能を有する操作は、視線確定操作ではなく決定ボタンなどの別の操作が挙げられる。なお、視線ポインタ1410は、表示部に表示される対象のうち、複数の対象を包含可能な範囲を示すアイテムであると捉えることもできる。 In this second modification, it is assumed that one target is designated as the target of attack, but multiple targets may be designated at once. For example, when an operation with a confirmation function is performed at the time when the gaze pointer 1410 in FIG. 14(b) is displayed, all targets within the range of the gaze pointer 1410 may be selected, rather than selecting targets individually from within the range of the gaze pointer 1410. In other words, multiple targets 1401 to 1403 may be selected, rather than just target 1401. Here, the operation with the confirmation function is not the gaze confirmation operation, but another operation such as a decision button. Note that the gaze pointer 1410 can also be considered as an item that indicates a range that can include multiple targets among the targets displayed on the display unit.

また、対象枠1411、タッチポインタ1412、対象枠1413の表示形態は図14(a)~図14(f)に示すような表示に限らない。対象1401や対象1402が選択されていること、現在タッチ操作でポインタの操作が行えることが視認できる表示であればよい。例えば、対象1401や対象1402のシルエットに沿ってハイライト表示がされたり、枠表示が点滅したり、枠表示の表示色が視線ポインタ1410と異なるものにしてもよい。タッチポインタ1412は円枠表示に限らず円の内部を塗りつぶした表示でも良いし、円でなく視線ポインタ1410や対象枠1411のように四角枠で表示し、視線ポインタ1410や対象枠1411とは異なる表示色で表示するようにしてもよい。なお、タッチポインタ1412は、表示部に表示される対象のうち、1つを包含可能な範囲を示すアイテムであると捉えることもできる。 The display form of the target frame 1411, the touch pointer 1412, and the target frame 1413 is not limited to the display shown in FIG. 14(a) to FIG. 14(f). Any display may be used as long as it allows visual confirmation that the target 1401 or the target 1402 is selected and that the pointer can be currently operated by touch operation. For example, the silhouette of the target 1401 or the target 1402 may be highlighted, the frame display may blink, or the display color of the frame display may be different from that of the gaze pointer 1410. The touch pointer 1412 is not limited to a circular frame display, and may be displayed with the inside of the circle filled in, or may be displayed as a square frame like the gaze pointer 1410 and the target frame 1411 instead of a circle, and may be displayed in a different display color from the gaze pointer 1410 and the target frame 1411. The touch pointer 1412 can also be considered as an item indicating a range that can include one of the targets displayed on the display unit.

また、上述した実施形態においては、本発明をデジタルカメラに適用した場合を例にして説明したが、これはこの例に限定されず、視線入力および操作部材に対する操作によって位置を指定可能な電子機器であれば適用可能である。すなわち、本発明はパーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ヘッドマウントディスプレイなどに適用可能である。また、本発明は、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダー、タブレット端末、スマートフォン、投影装置、ディスプレイを備える家電装置や車載装置などに適用可能である。例えば、PCにおけるソフトキーボードにおいて、キー操作では一つ一つの文字を入力するが、視線で入力を行う場合は、複数の単語の候補から所望なものを選択する、という適用の形態としてもよい。 In the above-mentioned embodiment, the present invention is applied to a digital camera, but the present invention is not limited to this example and can be applied to any electronic device that can specify a position by eye-gaze input and operation of an operating member. That is, the present invention can be applied to personal computers, PDAs, mobile phone terminals, portable image viewers, head-mounted displays, and the like. The present invention can also be applied to digital photo frames, music players, game consoles, e-book readers, tablet terminals, smartphones, projection devices, home appliances and in-vehicle devices equipped with displays, and the like. For example, in a soft keyboard on a PC, characters are input one by one by key operation, but when inputting with eye gaze, a desired word can be selected from multiple candidate words.

本発明は、以下の処理を実行することによっても実現される。即ち、上述の実施形態の
機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
The present invention can also be realized by executing the following process. That is, software (programs) that realize the functions of the above-described embodiments are supplied to a system or device via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or device reads and executes the program code. In this case, the program and the storage medium on which the program is stored constitute the present invention.

なお、CPUが行うものとして説明した上述の各種制御は、1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。 The various controls described above as being performed by the CPU may be performed by a single piece of hardware, or multiple pieces of hardware may share the processing to control the entire device.

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the gist of the invention are also included in the present invention. Furthermore, each of the above-described embodiments merely represents one embodiment of the present invention, and each embodiment can be combined as appropriate.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Other Embodiments
The present invention can also be realized by a process in which a program for implementing one or more of the functions of the above-described embodiments is supplied to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device read and execute the program. The present invention can also be realized by a circuit (e.g., ASIC) that implements one or more of the functions.

100:デジタルカメラ 50:システム制御部 160:視線検出部 100: Digital camera 50: System control unit 160: Gaze detection unit

Claims (18)

表示手段を見るユーザの視線位置を検出する視線検出手段と、
前記視線検出手段により検出した視線位置または操作手段に対する第1の操作に応じて、前記表示手段における選択位置を指定するように制御する制御手段であって、
前記視線検出手段により検出した視線位置に基づいて前記選択位置が指定され、かつ、前記操作手段に対する前記第1の操作が行われていない第1の場合に、前記視線検出手段により検出した視線位置に基づく前記選択位置に第1の大きさの範囲を示す第1のアイテムを表示し、
前記視線検出手段により検出した視線位置に基づいて前記選択位置が指定され、かつ、前記操作手段に対する前記第1の操作が行われた第2の場合に、前記選択位置に前記第1の大きさよりも小さい第2の大きさの範囲を示す第2のアイテムを表示し、
前記第1の場合に、前記第1の操作とは異なる第2の操作が行われたことに応じて、前記第1のアイテムの位置で、所定の条件に基づいてオブジェクトを選択し、
前記第2の場合に、前記第2の操作が行われたことに応じて、前記第2のアイテムの位置で、前記所定の条件に基づかずにオブジェクトを選択する、
ように制御する制御手段と、
を有することを特徴とする電子機器。
A gaze detection means for detecting a gaze position of a user looking at the display means;
A control means for controlling to designate a selection position on the display means in response to a line of sight position detected by the line of sight detection means or a first operation on the operation means,
displaying a first item indicating a first size range at the selection position based on the gaze position detected by the gaze detection means in a first case in which the selection position is designated based on the gaze position detected by the gaze detection means and the first operation is not performed on the operation means;
displaying a second item indicating a range of a second size smaller than the first size at the selection position in a second case in which the selection position is designated based on the gaze position detected by the gaze detection means and the first operation is performed on the operation means;
In the first case, in response to a second operation different from the first operation being performed, selecting an object at a position of the first item based on a predetermined condition;
In the second case, in response to the second operation being performed, an object is selected at the position of the second item without being based on the predetermined condition.
A control means for controlling the
1. An electronic device comprising:
前記制御手段は、さらに前記選択されたオブジェクトに対してAF処理を実行する、
ことを特徴とする請求項1に記載の電子機器。
The control means further executes an AF process on the selected object.
2. The electronic device according to claim 1 .
前記制御手段は、前記AF処理を実行した後にピント位置を固定する第1のAFモードと、AFを実行し続ける第2のAFモードとを切り替え可能であって、
前記第2のAFモードであって、かつ前記第1の場合に、前記視線検出手段により検出した視線位置に基づく前記選択位置に第1の大きさよりも大きい第3の大きさの範囲を示す第3のアイテムを表示するように制御する
ことを特徴とする請求項2に記載の電子機器。
the control means is capable of switching between a first AF mode in which a focus position is fixed after the AF process is performed and a second AF mode in which AF is continued to be performed,
The electronic device according to claim 2, characterized in that, in the second AF mode and in the first case, the electronic device is controlled so as to display a third item indicating a range of a third size larger than the first size at the selection position based on the gaze position detected by the gaze detection means.
前記制御手段は、前記第2の場合に、前記第1のアイテムを非表示にする、
ことを特徴とする請求項1から3のいずれか一項に記載の電子機器。
The control means, in the second case, hides the first item.
4. The electronic device according to claim 1, wherein the first and second electrodes are electrically connected to the first and second electrodes.
前記第2の操作は、前記電子機器のグリップ部を保持した状態でシャッターボタンを操作可能で、かつ、前記グリップ部を保持する手の指で操作可能な位置に配置された、前記シャッターボタンとは異なる操作手段に対する操作である、
ことを特徴とする請求項1から4のいずれか一項に記載の電子機器。
the second operation is an operation on an operating means other than the shutter button, the operating means being arranged at a position where a shutter button can be operated with fingers of a hand holding a grip portion of the electronic device and the operating means is operable with the fingers of a hand holding the grip portion;
5. The electronic device according to claim 1, wherein the first and second electrodes are electrically connected to the first and second electrodes.
前記第2の操作は、撮像指示を行うための操作である、
ことを特徴とする請求項1から4のいずれか一項に記載の電子機器。
the second operation is an operation for issuing an image capture instruction;
5. The electronic device according to claim 1, wherein the first and second electrodes are electrically connected to the first and second electrodes.
表示手段を見るユーザの視線による視線位置を検出する視線検出手段と、
前記視線検出手段により検出した視線位置または操作手段に対する第1の操作に応じて、前記表示手段における選択位置を指定するように制御する制御手段であって、
前記視線検出手段により検出した視線位置に基づいて前記選択位置が指定され、かつ、前記操作手段に対する前記第1の操作が行われていない第1の場合に、
前記視線検出手段により検出した視線位置に基づく前記選択位置に第1の大きさの範囲を示す第1のアイテムを表示し、
前記視線検出手段により検出した視線位置に基づいて前記選択位置が指定され、かつ、前記操作手段に対する前記第1の操作が行われた第2の場合に、
前記選択位置に前記第1の大きさより小さい第2の大きさの範囲を示す第2のアイテムを表示し、
前記第1のアイテムを非表示にする、
ように制御する制御手段と、
を有することを特徴とする電子機器。
A gaze detection means for detecting a gaze position of a user looking at the display means;
A control means for controlling to designate a selection position on the display means in response to a line of sight position detected by the line of sight detection means or a first operation on the operation means,
In a first case in which the selection position is designated based on a gaze position detected by the gaze detection means and the first operation is not performed on the operation means,
displaying a first item indicating a first size range at the selection position based on the gaze position detected by the gaze detection means ;
In a second case in which the selection position is designated based on a gaze position detected by the gaze detection means and the first operation is performed on the operation means,
displaying a second item at the selection location indicating a range of a second size smaller than the first size;
hiding the first item;
A control means for controlling the
1. An electronic device comprising:
前記制御手段は、前記第2のアイテムが表示された状態で、前記操作手段に対する移動指示操作があったことに応じて、前記第2のアイテムが表示された後の視線位置に基づかずに、前記移動指示操作に応じて前記第2のアイテムの表示位置を移動するように制御する、
ことを特徴とする請求項1から7のいずれか一項に記載の電子機器。
the control means, in response to a movement instruction operation being performed on the operation means while the second item is being displayed, controls to move a display position of the second item in response to the movement instruction operation, not based on a gaze position after the second item is displayed;
8. The electronic device according to claim 1, wherein the first and second electrodes are electrically connected to the first and second electrodes.
前記操作手段はタッチ操作部材であり、前記第1の操作は、前記タッチ操作部材に対するタッチ操作である、
ことを特徴とする請求項1から8のいずれか一項に記載の電子機器。
the operation means is a touch operation member, and the first operation is a touch operation on the touch operation member;
9. The electronic device according to claim 1, wherein the first and second electrodes are electrically connected to the first and second electrodes.
前記制御手段は、前記第2の場合に、前記タッチ操作に基づく前記選択位置に、前記第2のアイテムを表示するように制御する、
ことを特徴とする請求項9に記載の電子機器。
the control means, in the second case, controls to display the second item at the selection position based on the touch operation.
10. The electronic device according to claim 9.
前記制御手段は、前記第2の場合に、前記第1の操作がされた時点での前記視線検出手段により検出した視線位置に基づく前記選択位置に、前記第2のアイテムを表示するように制御する、
ことを特徴とする請求項1から9のいずれか一項に記載の電子機器。
the control means, in the second case, controls to display the second item at the selection position based on a gaze position detected by the gaze detection means at a time when the first operation is performed.
10. The electronic device according to claim 1, wherein the first and second electrodes are electrically connected to the first and second electrodes.
前記操作手段は操作体の移動を伴う移動操作を検知する検知手段であり、前記第1の操作は、前記検知手段に対する前記移動操作である、
ことを特徴とする請求項1から11のいずれか一項に記載の電子機器。
The operation means is a detection means for detecting a movement operation involving a movement of an operation object, and the first operation is the movement operation on the detection means.
12. The electronic device according to claim 1 .
前記第1のアイテムは、前記表示手段に表示される対象のうち、複数の対象を包含可能な範囲を示すアイテムである、
ことを特徴とする請求項1から12のいずれか一項に記載の電子機器。
the first item is an item indicating a range that can include a plurality of objects among the objects displayed on the display means;
13. The electronic device according to claim 1 .
前記第2のアイテムは、前記表示手段に表示される対象のうち、1つを包含可能な範囲を示すアイテムである、
ことを特徴とする請求項1から13のいずれか一項に記載の電子機器。
the second item is an item indicating a range that can include one of the objects displayed on the display means;
14. The electronic device according to claim 1, wherein the first and second electrodes are arranged in a first direction.
表示手段を見るユーザの視線による視線位置を検出する視線検出ステップと、
前記視線検出ステップにおいて検出された視線位置または操作手段に対する第1の操作に応じて前記表示手段における選択位置を指定するように制御する制御ステップであって、
前記視線検出ステップにおいて検出された視線位置に基づいて前記選択位置が指定され、かつ、前記操作手段に対する前記第1の操作が行われていない第1の場合に、前記視線検出ステップにおいて検出された視線位置に基づく前記選択位置に第1の大きさの範囲を示す第1のアイテムを表示し、
前記視線検出ステップにおいて検出された視線位置に基づいて前記選択位置が指定され、かつ、前記操作手段に対する前記第1の操作が行われた第2の場合に、前記選択位置に前記第1の大きさよりも小さい第2の大きさの範囲を示す第2のアイテムを表示し、
前記第1の場合に、前記第1の操作とは異なる第2の操作が行われたことに応じて、前記第1のアイテムの位置で、所定の条件に基づいてオブジェクトを選択し、
前記第2の場合に、前記第2の操作が行われたことに応じて、前記第2のアイテムの位置で、前記所定の条件に基づかずにオブジェクトを選択する、
ように制御する制御ステップと、
を有することを特徴とする電子機器の制御方法。
a gaze detection step of detecting a gaze position of a user looking at the display means;
a control step of controlling to designate a selection position on the display means in response to a gaze position detected in the gaze detection step or a first operation on the operation means,
displaying a first item indicating a first size range at the selection position based on the gaze position detected in the gaze detection step , in a first case in which the selection position is designated based on the gaze position detected in the gaze detection step and the first operation on the operation means is not performed;
displaying a second item indicating a range of a second size smaller than the first size at the selection position in a second case in which the selection position is designated based on the gaze position detected in the gaze detection step and the first operation is performed on the operation means;
In the first case, in response to a second operation different from the first operation being performed, selecting an object at a position of the first item based on a predetermined condition;
In the second case, in response to the second operation being performed, an object is selected at the position of the second item without being based on the predetermined condition.
A control step of controlling so that
13. A method for controlling an electronic device comprising:
表示手段を見るユーザの視線による視線位置を検出する視線検出ステップと、
前記視線検出ステップにおいて検出された視線位置または操作手段に対する第1の操作に応じて前記表示手段における選択位置を指定するように制御する制御ステップであって、
前記視線検出ステップにおいて検出された視線位置に基づいて前記選択位置が指定され、かつ、前記操作手段に対する前記第1の操作が行われていない第1の場合に、
前記視線検出ステップにおいて検出された視線位置に基づく前記選択位置に第1の大きさの範囲を示す第1のアイテムを表示し、
前記視線検出ステップにおいて検出された視線位置に基づいて前記選択位置が指定され、かつ、前記操作手段に対する前記第1の操作が行われた第2の場合に、
前記選択位置に前記第1の大きさよりも小さい第2の大きさの範囲を示す第2のアイテムを表示し、
前記第1のアイテムを非表示にする、
ように制御する制御ステップと、
を有することを特徴とする電子機器の制御方法。
a gaze detection step of detecting a gaze position of a user looking at the display means;
a control step of controlling to designate a selection position on the display means in response to a gaze position detected in the gaze detection step or a first operation on the operation means,
In a first case in which the selection position is designated based on the gaze position detected in the gaze detection step and the first operation on the operation means is not performed,
displaying a first item indicating a first size range at the selection position based on the gaze position detected in the gaze detection step ;
In a second case in which the selection position is designated based on the gaze position detected in the gaze detection step and the first operation is performed on the operation means,
displaying a second item indicating a range of a second size smaller than the first size at the selection position;
hiding the first item;
A control step of controlling so that
13. A method for controlling an electronic device comprising:
コンピュータを、請求項1から11のいずれか一項に記載された電子機器の各手段として機能させるためのプログラム。 A program for causing a computer to function as each of the means of the electronic device described in any one of claims 1 to 11. コンピュータを、請求項1から11のいずれか一項に記載された電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
A computer-readable storage medium storing a program for causing a computer to function as each of the means of the electronic device according to any one of claims 1 to 11.
JP2020176006A 2019-12-27 2020-10-20 Electronic device, electronic device control method, program, and storage medium Active JP7570882B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2020/044911 WO2021131562A1 (en) 2019-12-27 2020-12-02 Electronic device, electronic device control method, program, and storage medium
CN202080090239.6A CN114902104B (en) 2019-12-27 2020-12-02 Electronic device, control method of electronic device, and computer-readable storage medium
US17/846,754 US12052491B2 (en) 2019-12-27 2022-06-22 Electronic device, control method for electronic device, and non-transitory computer readable storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019238836 2019-12-27
JP2019238836 2019-12-27

Publications (3)

Publication Number Publication Date
JP2021108447A JP2021108447A (en) 2021-07-29
JP2021108447A5 JP2021108447A5 (en) 2023-10-04
JP7570882B2 true JP7570882B2 (en) 2024-10-22

Family

ID=76967998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020176006A Active JP7570882B2 (en) 2019-12-27 2020-10-20 Electronic device, electronic device control method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP7570882B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017014415A1 (en) 2015-07-20 2017-01-26 Samsung Electronics Co., Ltd. Image capturing apparatus and method of operating the same
JP2017103566A (en) 2015-11-30 2017-06-08 キヤノン株式会社 Imaging control apparatus and control method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017014415A1 (en) 2015-07-20 2017-01-26 Samsung Electronics Co., Ltd. Image capturing apparatus and method of operating the same
JP2017103566A (en) 2015-11-30 2017-06-08 キヤノン株式会社 Imaging control apparatus and control method thereof

Also Published As

Publication number Publication date
JP2021108447A (en) 2021-07-29

Similar Documents

Publication Publication Date Title
CN112099618B (en) Electronic device, control method for electronic device, and storage medium
CN112104809B (en) Electronic device, control method of electronic device, and storage medium
EP3876517A1 (en) Electronic device, control method, program, and computer readable medium
US11233941B2 (en) Electronic device that receives line of sight input, method of controlling electronic device, and non-transitory computer readable medium
JP2021087068A (en) Electronic apparatus and control method of electronic apparatus
US12052491B2 (en) Electronic device, control method for electronic device, and non-transitory computer readable storage medium
JP7492349B2 (en) Imaging device, control method thereof, program, and storage medium
JP7490372B2 (en) Imaging control device and control method thereof
JP7346375B2 (en) Electronic equipment, its control method, program, and recording medium
JP2021152597A (en) Imaging apparatus and method for controlling the same, program, and storage medium
JP7570882B2 (en) Electronic device, electronic device control method, program, and storage medium
JP7547062B2 (en) Imaging device
JP7387493B2 (en) Electronic devices, control methods for electronic devices, programs, storage media
JP7346135B2 (en) Electronic devices, control methods for electronic devices, programs and storage media
JP7542994B2 (en) Electronics
JP7450408B2 (en) Electronic devices, their control methods, programs and storage media
WO2024203205A1 (en) Electronic apparatus, method for controlling electronic apparatus, and program
JP7451255B2 (en) Electronic equipment and its control method
JP2024103248A (en) Imaging apparatus
JP2023160103A (en) Electronic apparatus
JP2022095306A (en) Display control device and method for controlling the same
JP2022067578A (en) Imaging apparatus and method for controlling the same and program and recording medium
JP2022096462A (en) Electronic apparatus, method for controlling the same, program, and recording medium
JP2021018634A (en) Electronic equipment and method of controlling the same

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230926

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241009

R150 Certificate of patent or registration of utility model

Ref document number: 7570882

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150