JP7570882B2 - Electronic device, electronic device control method, program, and storage medium - Google Patents
Electronic device, electronic device control method, program, and storage medium Download PDFInfo
- Publication number
- JP7570882B2 JP7570882B2 JP2020176006A JP2020176006A JP7570882B2 JP 7570882 B2 JP7570882 B2 JP 7570882B2 JP 2020176006 A JP2020176006 A JP 2020176006A JP 2020176006 A JP2020176006 A JP 2020176006A JP 7570882 B2 JP7570882 B2 JP 7570882B2
- Authority
- JP
- Japan
- Prior art keywords
- gaze
- touch
- pointer
- item
- electronic device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 189
- 238000003860 storage Methods 0.000 title claims description 7
- 230000008569 process Effects 0.000 claims description 118
- 238000001514 detection method Methods 0.000 claims description 90
- 230000004044 response Effects 0.000 claims description 41
- 238000012545 processing Methods 0.000 description 52
- 238000012790 confirmation Methods 0.000 description 49
- 230000006870 function Effects 0.000 description 45
- 210000001508 eye Anatomy 0.000 description 34
- 210000003811 finger Anatomy 0.000 description 17
- 238000003384 imaging method Methods 0.000 description 17
- 238000003780 insertion Methods 0.000 description 13
- 230000037431 insertion Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 12
- 230000007704 transition Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 8
- 238000013459 approach Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 238000003825 pressing Methods 0.000 description 7
- 238000012935 Averaging Methods 0.000 description 6
- 210000005252 bulbus oculi Anatomy 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000010187 selection method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 210000000887 face Anatomy 0.000 description 4
- 230000011514 reflex Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 229910005580 NiCd Inorganic materials 0.000 description 1
- 229910005813 NiMH Inorganic materials 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Camera Bodies And Camera Details Or Accessories (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Position Input By Displaying (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、電子機器、電子機器の制御方法、プログラムおよび記憶媒体に関する。 The present invention relates to an electronic device, a control method for an electronic device, a program, and a storage medium.
ユーザが自身の視線(視線入力)によって操作を行う電子機器が知られている。特にデジタルカメラやゲーム機など、ユーザが即時的に電子機器に対して操作指示を行いたい場合に、視線入力は有効である。 Electronic devices are known that allow users to operate them by looking at their eyes (gaze input). Gaze input is particularly effective when users want to instantly give operating instructions to electronic devices, such as digital cameras and game consoles.
一般に、視線はブレが大きいため、視線の検出位置を示すポインタ(視線ポインタ;GUI)を画面上に表示する場合に、小さいポインタ(枠)を表示すると、ポインタにブレが大きく生じるため、ユーザに不快感を与える可能性がある。視線の検出位置を示すポインタ(GUI)を画面上に表示する場合に、大きいポインタ(枠)を表示すると、狙った被写体を枠の範囲内に収めやすくなるため、上述の不快感を軽減できる。しかし、大雑把な範囲指定となるため、その枠内での細かいオブジェクト(被写体)に対して、自動焦点調節(AF)や被写体追尾の指示を行いづらい。 In general, the gaze is subject to large shaking, so when a pointer (gaze pointer; GUI) indicating the detected position of the gaze is displayed on the screen, if a small pointer (frame) is displayed, the pointer will shake significantly, which may cause discomfort to the user. When a pointer (GUI) indicating the detected position of the gaze is displayed on the screen, if a large pointer (frame) is displayed, it becomes easier to fit the targeted subject within the range of the frame, thereby reducing the discomfort described above. However, as the range is specified roughly, it is difficult to instruct automatic focus adjustment (AF) or subject tracking for small objects (subjects) within the frame.
ポインタの大きさを変える技術として、特許文献1には、検出された被写体の近傍にユーザのタッチ位置を示すポインタ(タッチポインタ)を重ねると、タッチポインタのサイズを変更する技術が開示されている。
As a technique for changing the size of a pointer,
しかしながら、特許文献1に開示された技術では、被写体に応じてポインタの大きさを変えることになるため、ユーザの意図に反してポインタの大きさが変わってしまう可能性がある。
However, the technology disclosed in
そこで、本発明は、ユーザの視線入力を用いて位置を指定する場合に、ユーザの意図した位置を容易に指定することができる技術を提供することを目的とする。 The present invention aims to provide a technology that allows a user to easily specify an intended position when specifying a position using eye gaze input.
本発明の一態様は、
表示手段を見るユーザの視線による視線位置を検出する視線検出手段と、
前記視線検出手段により検出した視線位置または操作手段に対する第1の操作に応じて、前記表示手段における選択位置を指定するように制御する制御手段であって、
前記視線検出手段により検出した視線位置に基づいて前記選択位置が指定され、かつ、前記操作手段に対する前記第1の操作が行われていない第1の場合に、前記視線検出手段により検出した視線位置に基づく前記選択位置に第1の大きさの範囲を示す第1のアイテムを表示し、
前記視線検出手段により検出した視線位置に基づいて前記選択位置が指定され、かつ、前記操作手段に対する前記第1の操作が行われた第2の場合に、前記選択位置に前記第1の大きさよりも小さい第2の大きさの範囲を示す第2のアイテムを表示し、
前記第1の場合に、前記第1の操作とは異なる第2の操作が行われたことに応じて、前記第1のアイテムの位置で、所定の条件に基づいてオブジェクトを選択し、
前記第2の場合に、前記第2の操作が行われたことに応じて、前記第2のアイテムの位置で、前記所定の条件に基づかずにオブジェクトを選択する、
ように制御する制御手段と、
を有することを特徴とする電子機器である。
One aspect of the present invention is
A gaze detection means for detecting a gaze position of a user looking at the display means;
A control means for controlling to designate a selection position on the display means in response to a line of sight position detected by the line of sight detection means or a first operation on the operation means,
displaying a first item indicating a first size range at the selection position based on the gaze position detected by the gaze detection means in a first case in which the selection position is designated based on the gaze position detected by the gaze detection means and the first operation is not performed on the operation means;
displaying a second item indicating a range of a second size smaller than the first size at the selection position in a second case in which the selection position is designated based on the gaze position detected by the gaze detection means and the first operation is performed on the operation means;
In the first case, in response to a second operation different from the first operation being performed, selecting an object at a position of the first item based on a predetermined condition;
In the second case, in response to the second operation being performed, an object is selected at the position of the second item without being based on the predetermined condition.
A control means for controlling the
The electronic device is characterized by having the following features.
本発明によれば、ユーザの視線入力を用いて位置を指定する場合に、ユーザの意図した位置を容易に指定することができる。 According to the present invention, when a position is specified using eye gaze input by the user, the user can easily specify the intended position.
[実施形態]
<デジタルカメラ100の外観図>
以下、図面を参照して本発明の好適な実施形態を説明する。図1A,1Bに、本発明を適用可能な装置の一例としてのデジタルカメラ100の外観図を示す。図1Aはデジタルカメラ100の前面斜視図であり、図1Bはデジタルカメラ100の背面斜視図である。
[Embodiment]
<External view of
A preferred embodiment of the present invention will now be described with reference to the drawings. Figures 1A and 1B show external views of a
表示部28は、デジタルカメラ100の背面に設けられた表示部であり、画像や各種情報を表示する。タッチパネル70aは、表示部28の表示面(タッチ操作面;タッチ操作部材)に対するタッチ操作を検出することができる。ファインダー外表示部43は、デジタルカメラ100の上面に設けられた表示部であり、シャッター速度や絞りをはじめとするデジタルカメラ100の様々な設定値を表示する。シャッターボタン61は撮影指示(撮像指示)を行うための操作部材である。モード切替スイッチ60は、各種モードを切り替えるための操作部材である。端子カバー40は、デジタルカメラ100を外部機器に接続するコネクタ(不図示)を保護するカバーである。
The
メイン電子ダイヤル71は回転操作部材であり、メイン電子ダイヤル71を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。電源スイッチ72は、デジタルカメラ100の電源のONとOFFを切り替える操作部材である。サブ電子ダイヤル73は回転操作部材であり、サブ電子ダイヤル73を回すことで、選択枠(カーソル)の移動や画像送りなどが行える。4方向キー74は、上、下、左、右部分をそれぞれ押し込み可能に構成され、4方向キー74の押した部分に応じた処理が可能である。SETボタン75は、押しボタンであり、主に選択項目の決定などに用いられる。マルチコントローラー(以下、MC)65は、8方向への方向指示と、中央部分の押し込み操作とを受け付け可能である。
The main
動画ボタン76は、動画撮影(記録)の開始や停止の指示に用いられる。AEロックボタン77は押しボタンであり、撮影待機状態でAEロックボタン77を押下することにより、露出状態を固定することができる。拡大ボタン78は、撮影モードのライブビュー表示(LV表示)において拡大モードのONとOFFを切り替えるための操作ボタンである。拡大モードをONとしてからメイン電子ダイヤル71を操作することにより、ライブビュー画像(LV画像)の拡大や縮小を行える。再生モードにおいては、拡大ボタン78は、再生画像を拡大したり、その拡大率を増加させたりするための操作ボタンとして機能する。再生ボタン79は、撮影モードと再生モードとを切り替えるための操作ボタンである。撮影モード中に再生ボタン79を押下することで再生モードに遷移し、記録媒体200(後述)に記録された画像のうち最新の画像を表示部28に表示させることができる。メニューボタン81はメニュー画面を表示させる指示操作を行うために用いられる押しボタンであり、メニューボタン81が押されると各種の設定が可能なメニュー画面が表示部28に表示される。ユーザは、表示部28に表示されたメニュー画面と、4方向キー74やSETボタン75、またはMC65とを用いて直感的に各種設定を行うことができる。視線確定ボタン82は、操作部70に含まれる操作部材であって、後述する視線ポインタの位置に基づく被写体の選択実行または解除を指示する押しボタンである。視線確定ボタンは、ユーザーがファインダーを覗いた状態(接眼部16に接眼した状態)でも操作しやすい位置に配置されており、グリップ部90を持つ右手の親指で操作可能な位置に配置されている。
The
通信端子10は、デジタルカメラ100がレンズユニット150(後述;着脱可能)側と通信を行うための通信端子である。接眼部16は、接眼ファインダー(覗き込み型のファインダー)の接眼部であり、ユーザは、接眼部16を介して内部のEVF29(後述)に表示された映像を視認することができる。接眼検知部57は、接眼部16にユーザ(撮影者)が接眼しているか否かを検知する接眼検知センサーである。蓋202は、記録媒体200(後述)を格納するスロットの蓋である。グリップ部90は、ユーザがデジタルカメラ100を構える際に右手で握りやすい形状とした保持部である。グリップ部90を右手の小指、薬指、中指で握ってデジタルカメラ100を保持した状態で、右手の人差指で操作可能な位置にシャッターボタン61とメイン電子ダイヤル71が配置されている。また、同じ状態で、右手の親指で操作可能な位置に、サブ電子ダイヤル73、視線確定ボタン82が配置されている。
The
<デジタルカメラ100の構成ブロック図>
図2は、デジタルカメラ100の構成例を示すブロック図である。レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ103は通常、複数枚のレンズから構成されるが、図2では簡略して一枚のレンズのみで示している。通信端子6は、レンズユニット150がデジタルカメラ100側と通信を行うための通信端子であり、通信端子10は、デジタルカメラ100がレンズユニット150側と通信を行うための通信端子である。レンズユニット150は、これら通信端子6,10を介してシステム制御部50と通信する。そして、レンズユニット150は、内部のレンズシステム制御回路4によって絞り駆動回路2を介して絞り1の制御を行う。また、レンズユニット150は、レンズシステム制御回路4によってAF駆動回路3を介してレンズ103を変位させることで焦点を合わせる。
<Configuration block diagram of
FIG. 2 is a block diagram showing an example of the configuration of the
シャッター101は、システム制御部50の制御で撮像部22の露光時間を自由に制御できるフォーカルプレーンシャッターである。
The
撮像部22は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。撮像部22は、システム制御部50にデフォーカス量情報を出力する撮像面
位相差センサーを有していてもよい。
The
画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の処理(画素補間、縮小といったリサイズ処理、色変換処理、等)を行う。また、画像処理部24は、撮像した画像データを用いて所定の演算処理を行い、システム制御部50は、画像処理部24により得られた演算結果に基づいて露光制御や測距制御を行う。これにより,TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理、等が行われる。画像処理部24は、さらに、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。
The
メモリ制御部15は、A/D変換器23、画像処理部24、メモリ32間のデータの送受信を制御する。A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介してメモリ32に書き込まれる。あるいは、A/D変換器23からの出力データは、画像処理部24を介さずにメモリ制御部15を介してメモリ32に書き込まれる。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28やEVF29に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。
The
また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。メモリ32に書き込まれた表示用の画像データはメモリ制御部15を介して表示部28やEVF29により表示される。表示部28とEVF29のそれぞれは、LCDや有機EL等の表示器上で、メモリ制御部15からの信号に応じた表示を行う。A/D変換器23によってA/D変換されメモリ32に蓄積されたデータを表示部28またはEVF29に逐次転送して表示することで、ライブビュー表示(LV)が行える。以下、ライブビュー表示で表示される画像をライブビュー画像(LV画像)と称する。
The
視線検出部160(受付部)は、接眼部16に接眼したユーザの目の、EVF29を見る視線を検出する。視線検出部160は、ダイクロイックミラー162、結像レンズ163、視線検知センサー164、視線検出回路165、赤外発光ダイオード166により構成される。
The gaze detection unit 160 (reception unit) detects the gaze of the user's eye, which is placed in the
赤外発光ダイオード166は、ファインダー画面内におけるユーザの視線位置を検出するための発光素子であり、ユーザの眼球(目)161に赤外光を照射する。赤外発光ダイオード166から発した赤外光は眼球(目)161で反射し、その赤外反射光はダイクロイックミラー162に到達する。ダイクロイックミラー162は、赤外光だけを反射して、可視光を透過させる。光路が変更された赤外反射光は、結像レンズ163を介して視線検知センサー164の撮像面に結像する。結像レンズ163は、視線検知光学系を構成する光学部材である。視線検知センサー164は、CCD型イメージセンサ等の撮像デバイスから構成される。
The infrared light emitting diode 166 is a light emitting element for detecting the user's gaze position within the viewfinder screen, and irradiates infrared light onto the user's eyeball (eye) 161. The infrared light emitted from the infrared light emitting diode 166 is reflected by the eyeball (eye) 161, and the reflected infrared light reaches the
視線検知センサー164は、入射された赤外反射光を電気信号に光電変換して視線検出回路165へ出力する。視線検出回路165は、視線検知センサー164の出力信号に基づいて、ユーザの眼球(目)161の動きからユーザの視線位置を検出し、検出情報をシステム制御部50および注視判定部170に出力する。
The gaze detection sensor 164 photoelectrically converts the incident infrared reflected light into an electrical signal and outputs it to the gaze detection circuit 165. The gaze detection circuit 165 detects the user's gaze position from the movement of the user's eyeball (eye) 161 based on the output signal of the gaze detection sensor 164, and outputs the detection information to the
注視判定部170は、視線検出回路165から受け取った検出情報に基づいて、ユーザの視線がある領域に固定されている期間が所定の閾値を越えた場合に、その領域を注視していると判定する。従って、当該領域は、注視が行われた位置である注視位置(注視領域
)であるといえる。なお、「視線がある領域に固定されている」とは、例えば、所定の期間経過するまでの間、視線の動きの平均位置が当該領域内にあり、かつ、ばらつき(分散)が所定値よりも少ないことである。なお、所定の閾値は、システム制御部50により任意に変更可能である。また、注視判定部170を独立したブロックとして設けず、システム制御部50が視線検出回路165から受け取った検出情報に基づいて注視判定部170と同じ機能を実行するようにしてもよい。
The
本実施形態では、視線検出部160は、角膜反射法と呼ばれる方式を用いて視線を検出する。角膜反射法とは、赤外発光ダイオード166から発せられた赤外光が眼球(目)161(特に角膜)で反射した反射光と、眼球(目)161の瞳孔との位置関係から、視線の向き・位置を検出する方式である。なお、視線(視線の向き・位置)を検出する方式は特に限定されず、上記以外の方式を用いてもよい。例えば、黒目と白目での光の反射率が異なることを利用する強膜反射法と呼ばれる方式を用いてもよい。
In this embodiment, the
ファインダー外表示部43には、ファインダー外表示部駆動回路44を介して、シャッター速度や絞りをはじめとするカメラの様々な設定値が表示される。
Various camera settings, including shutter speed and aperture, are displayed on the
不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えば、FLash-ROM等である。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記録される。ここでいうプログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。
The
システム制御部50は、少なくとも1つのプロセッサーまたは回路からなる制御部であり、デジタルカメラ100全体を制御する。システム制御部50は、前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52は例えばRAMであり、システム制御部50は、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等をシステムメモリ52に展開する。また、システム制御部50は、メモリ32、表示部28等を制御することにより表示制御も行う。
The
システムタイマー53は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。 The system timer 53 is a timing unit that measures the time used for various controls and the time of the built-in clock.
電源制御部80は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出などを行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。
The power
記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。
The recording medium I/
通信部54は、無線または有線ケーブルによって接続された外部機器との間で、映像信号や音声信号の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。また、通信部54は、Bluetooth(登録商標)やBluetooth Low Energyでも外部機器と通信可能である。通信部54は撮像部22で撮像した画像(LV画像を含む)や、記録媒体200に記録された画像を送信可能であり、外部機器から画像データやその他の各種情報を受信
することができる。
The communication unit 54 transmits and receives video signals and audio signals to and from an external device connected wirelessly or via a wired cable. The communication unit 54 can also be connected to a wireless LAN (Local Area Network) or the Internet. The communication unit 54 can also communicate with an external device via Bluetooth (registered trademark) or Bluetooth Low Energy. The communication unit 54 can transmit images (including LV images) captured by the
姿勢検知部55は、重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、デジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像の画像ファイルに付加したり、画像を回転して記録したりすることが可能である。姿勢検知部55としては、加速度センサーやジャイロセンサーなどを用いることができる。姿勢検知部55である加速度センサーやジャイロセンサーを用いて、デジタルカメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。
The
接眼検知部57は、接眼ファインダー(以後、単に「ファインダー」と記載する)の接眼部16に対する目(物体)161の接近(接眼)および離脱(離眼)を検知する(接近検知)、接眼検知センサーである。システム制御部50は、接眼検知部57で検知された状態に応じて、表示部28とEVF29の表示(表示状態)/非表示(非表示状態)を切り替える。より具体的には、少なくとも撮影待機状態で、かつ、表示先の切替が自動切替である場合において、非接眼中は表示先を表示部28として表示をオンとし、EVF29は非表示とする。また、接眼中は表示先をEVF29として表示をオンとし、表示部28は非表示とする。接眼検知部57としては、例えば赤外線近接センサーを用いることができ、EVF29を内蔵するファインダーの接眼部16への何らかの物体の接近を検知することができる。物体が接近した場合は、接眼検知部57の投光部(図示せず)から投光した赤外線が物体で反射して赤外線近接センサーの受光部(図示せず)で受光される。受光された赤外線の量によって、物体が接眼部16からどの距離まで近づいているか(接眼距離)も判別することができる。このように、接眼検知部57は、接眼部16への物体の近接距離を検知する接眼検知を行う。非接眼状態(非接近状態)から、接眼部16に対して所定距離以内に近づく物体が検出された場合に、接眼されたと検出するものとする。接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検出するものとする。接眼を検出する閾値と、離眼を検出する閾値は例えばヒステリシスを設けるなどして異なっていてもよい。また、接眼を検出した後は、離眼を検出するまでは接眼状態であるものとする。離眼を検出した後は、接眼を検出するまでは非接眼状態であるものとする。なお、赤外線近接センサーは一例であって、接眼検知部57には、接眼とみなせる目や物体の接近を検知できるものであれば他のセンサーを採用してもよい。
The
システム制御部50は、視線検出部160を制御することによって、EVF29への以下の視線の状態を検出できる。
・EVF29へ向けられていなかった視線が新たにEVF29へ向けられたこと。すなわち、視線入力の開始。
・EVF29に対する視線入力をしている状態であること。
・EVF29のある位置へ注視している状態であること。
・EVF29へ向けられていた視線を外したこと。すなわち、視線入力の終了。
・EVF29へ何も視線入力していない状態(EVF29を見ていない状態)。
The
The line of sight that was not directed toward the
- Eye gaze input is being performed on the
- Be sure to focus your gaze on the position of the
The gaze direction is changed to the
- A state in which no gaze input is being made to the EVF 29 (a state in which the user is not looking at the EVF 29).
これらの操作・状態や、EVF29に視線が向いている位置(方向)は内部バスを通じてシステム制御部50に通知され、システム制御部50は、通知された情報に基づいてどのような視線入力が行われているかを判定する。
These operations and states, as well as the position (direction) in which the gaze is directed toward the
操作部70は、ユーザからの操作(ユーザ操作)を受け付ける入力部であり、システム制御部50に各種の動作指示を入力するために使用される。図2に示すように、操作部7
0は、モード切替スイッチ60、シャッターボタン61、電源スイッチ72、タッチパネル70a、等を含む。また、操作部70は、その他の操作部材70bとして、メイン電子ダイヤル71、サブ電子ダイヤル73、4方向キー74、SETボタン75、動画ボタン76、AEロックボタン77、拡大ボタン78、再生ボタン79、メニューボタン81、MC65等を含む。
The
The
モード切替スイッチ60は、システム制御部50の動作モードを静止画撮影モード、動画撮影モード、再生モード等のいずれかに切り替える。静止画撮影モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、プログラムAEモード(Pモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、カスタムモード等がある。モード切替スイッチ60により、ユーザは、これらのモードのいずれかに直接切り替えることができる。あるいは、モード切替スイッチ60で撮影モードの一覧画面に一旦切り替えた後に、表示された複数のモードのいずれかに、他の操作部材を用いて選択的に切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
The mode changeover switch 60 changes the operation mode of the
シャッターボタン61は、第1シャッタースイッチ62と第2シャッタースイッチ64を備える。第1シャッタースイッチ62は、シャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。システム制御部50は、第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の撮影準備動作を開始する。第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから、撮像された画像を画像ファイルとして記録媒体200に書き込むまでの、一連の撮影処理の動作を開始する。
The
タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aは、光の透過率が表示部28の表示を妨げないように構成され、表示部28の表示面の上層に取り付けられる。そして、タッチパネル70aにおける入力座標と、表示部28の表示面上の表示座標とを対応付ける。これにより、あたかもユーザが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザインターフェース)を提供できる。システム制御部50は、タッチパネル70aへの以下の操作、あるいは状態を検出できる。
The
・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch-Down)と称する)。
・タッチパネル70aを指やペンでタッチしている状態(以下、タッチオン(Touch-On)と称する)。
・指やペンがタッチパネル70aをタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)。
・タッチパネル70aへタッチしていた指やペンがタッチパネル70aから離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch-Up)と称する)。
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)。
A finger or pen that has not been touching the
A state in which the
A finger or a pen is moved while touching the
The finger or pen that has been touching the
A state in which nothing is touching the
タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タ
ッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。
When touch-down is detected, touch-on is also detected at the same time. After touch-down, touch-on will usually continue to be detected unless touch-up is detected. If touch-move is detected, touch-on will also be detected at the same time. Even if touch-on is detected, touch-move will not be detected if the touch position does not move. After it is detected that all fingers or pens that were touching have touched up, touch-off will occur.
これらの操作・状態や、タッチパネル70a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知される。そして、システム制御部50は通知された情報に基づいてタッチパネル70a上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについてはタッチパネル70a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル70a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行われたと判定するものとする。タッチパネル70a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル70a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。さらに、複数箇所(例えば2点)を共にタッチして(マルチタッチして)、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパネルのうちいずれの方式のものであってもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。
These operations and states, as well as the position coordinates of the finger or pen touching the
なお、デジタルカメラ100には、内蔵されたマイクまたは音声入力端子を介して接続された音声入力装置から得られたシステム制御部50に送信する音声入力部(不図示)が設けられていてもよい。この場合、システム制御部50は、入力された音声信号を必要に応じて選択し、アナログデジタル変換を行い、レベルの適正化処理、特定周波数の低減処理等をして音声信号を生成する。
The
本実施形態では、ユーザは、接眼状態でタッチムーブ操作が行われる場合の位置指標(例えば、AF枠)の位置を指定する方式を、絶対位置指定方式と相対位置指定方式とのいずれかに設定することができる。絶対位置指定方式とは、タッチパネル70aにおける入力座標と、EVF29の表示面上の表示座標とが対応付けられている方式である。絶対位置指定方式の場合、タッチパネル70aに対するタッチダウンがあると、タッチムーブが無くとも、タッチされた位置(座標入力された位置)に対応付けられた位置にAF枠が設定される(タッチダウン前の位置から移動する)。絶対位置指定方式で設定される位置は、タッチダウン前に設定されていた位置には関係なく、タッチダウンされた位置に基づいた位置となる。また、タッチダウン後にタッチムーブがあると、タッチムーブ後のタッチ位置に基づいてAF枠の位置も移動する。相対位置指定方式とは、タッチパネル70aにおける入力座標と、EVF29の表示面上の表示座標とが対応付けられていない方式である。相対位置指定方式の場合、タッチパネル70aに対するタッチダウンがあっただけでタッチムーブが無い状態では、AF枠の位置はタッチダウン前の位置から移動しない。その後タッチムーブがあると、タッチダウン位置に関わらず、現在設定されているAF枠の位置(タッチダウン前に設定されていた位置)から、タッチムーブの移動方向にタッチムーブの移動量に応じた距離だけ、AF枠の位置が移動する。
In this embodiment, the user can set the method of specifying the position of the position indicator (for example, the AF frame) when a touch-move operation is performed in the eye-closed state to either an absolute position specification method or a relative position specification method. The absolute position specification method is a method in which the input coordinates on the
なお、AF方式(AF枠の設定方式)として、「一点AF」と「顔+追尾優先AF」を含む複数のAF方式のうちいずれかを設定可能である。「一点AF」とは、AFを行う位
置として一点AF枠によって1箇所をユーザーが指定する方式である。「顔+追尾優先AF」とは、ユーザーによる追尾対象の指定が無い場合には、自動選択条件に基づいて自動的にAF位置が設定される方式である。自動的なAF位置の設定では、LV画像から人物の顔が検出されていれば顔を優先してAF対象被写体として選択する。人物の顔が複数検出されている場合には、顔のサイズが大きい、顔の位置がデジタルカメラ100に近い(至近側である)顔の位置が画像内における中央に近い、予め登録された個人の顔である、等の優先度に従って1つの顔を選択してAF対象被写体に設定する。人物の顔が検出されていなければ、デジタルカメラ100に近い(至近側である)、コントラストが高い、動物や乗り物などの優先度の高い被写体である、動体である、などの優先度に従って顔以外の被写体を選択してAF対象被写体に設定する。ユーザーによって追尾対象の被写体が指定された場合には、追尾対象の被写体をAF対象被写体とする。すなわち、自動選択条件は、以下に示す例のような要素条件のうち少なくとも1つの要素条件を用いて重みづけを行い、得られるスコアが所定の閾値以上であることや得られるスコアが最も高いという条件である。
・検出された人物の顔である。
・顔のサイズが大きい。
・顔の位置がデジタルカメラ100に近い(至近側である)。
・顔の位置が画像内における中央に近い。
・予め登録された個人の顔である。
・デジタルカメラ100に近い(至近側である)。
・コントラストが高い。
・動物や乗り物などの優先度の高い被写体である。
・動体である。
As the AF method (AF frame setting method), any one of a plurality of AF methods including "single point AF" and "face + tracking priority AF" can be set. "Single point AF" is a method in which the user specifies one location by using a single point AF frame as the position for performing AF. "Face + tracking priority AF" is a method in which the AF position is automatically set based on the automatic selection conditions when the user does not specify the tracking target. In the automatic AF position setting, if a person's face is detected from the LV image, the face is selected as the AF target subject with priority. If multiple people's faces are detected, one face is selected and set as the AF target subject according to the priority such as the face size is large, the face position is close to the digital camera 100 (close side), the face position is close to the center in the image, the face is a pre-registered individual's face, etc. If a person's face is not detected, a subject other than the face is selected and set as the AF target subject according to the priority such as the face is close to the digital camera 100 (close side), the contrast is high, the subject is a high priority subject such as an animal or a vehicle, or it is a moving object. When a subject to be tracked is designated by a user, the subject to be tracked is set as an AF target subject. That is, the automatic selection condition is a condition in which weighting is performed using at least one element condition such as the example shown below, and the obtained score is equal to or greater than a predetermined threshold value or the obtained score is the highest score.
- It is the face of a detected person.
-The face is large.
The face is positioned close to the digital camera 100 (on the close side).
- The face is positioned close to the center of the image.
- The face of a pre-registered individual.
- Close to the digital camera 100 (close side).
-High contrast.
- High-priority subjects such as animals or vehicles.
・It is a moving object.
<一点AFでの視線によるAF枠の設定>
図3(a)~図3(f)を用いて、デジタルカメラ100においてAF枠の選択方式(AF方式)を「一点AF」とした場合の、視線入力を利用したAF枠の移動制御について説明する。図3(a)~図3(f)はそれぞれ、AF枠の選択方式(AF方式)を「一点AF」とした場合にEVF29に表示される表示例である。
<Setting the AF frame by line of sight in single-point AF>
3(a) to 3(f) will be used to explain AF frame movement control using eye gaze input when the AF frame selection method (AF method) is set to "single-point AF" in the
図3(a)は、視線機能(視線入力を用いたAF位置の指定機能)を有効とし、視線検出部160でユーザーの視線を検出している状態の表示例である。ライブビュー(以下、LV)301は、撮像部22で撮像されているLV画像である。一点AF枠302は、AF枠の選択方式(AF方式)を「一点AF」とした場合のAF枠(AFの対象となる位置、すなわち焦点調節位置を示すインジケーター)である。1点AF枠は、初期状態では画面中央に設定される。視線ポインタ310は、視線検出部160で検出した視線入力の位置を示すポインタ(インジケーター、表示アイテム、第1のアイテム)である。視線検出部160は、視線入力がされている位置としてある1点の座標を取得可能であるが、視線ポインタ310は、視線入力されている位置を中心としたある程度大きい所定サイズの範囲を示すものとして表示される。このようにすることで、視線入力で検出されている位置が、ユーザーが選択したいターゲット被写体の位置に厳密に一致していなくとも、視線ポインタが示す範囲内にターゲット被写体を収めることが可能となる。すなわち、視線入力によって大雑把な位置の指定が可能である。また、視線検出部160で検出された視線位置を、所定期間分(例えば30ミリ秒の期間)平均化した位置を中心として視線ポインタ310を表示する。このようにすることで、ユーザーの視線入力の位置の微小時間内のバラつきによる視線ポインタの過度な移動を防ぐことができ、視線ポインタの視認性を向上させることができる。人間による視線には、固視微動と呼ばれる、ある一点を注視している際にも眼球が細かい運動を起こすという特性がある。従って視線入力だけを用いて厳密な位置の指定を行おうとしても、ユーザーの意図通りの位置を指定することは難しく、ユーザーにとって不快な操作感となってしまう。これに対し、視線ポインタ310を、ある
程度大きい第1の大きさで、所定期間分平均化した位置に基づいて表示することで、このような不快感を軽減することができる。
FIG. 3A shows an example of a display in which the gaze function (a function for specifying an AF position using gaze input) is enabled and the
図3(b)は、図3(a)の状態から、ユーザーが視線を移動させて、EVF29のうち見ている場所を変えた場合のEVF29での表示例である。視線ポインタ310は、図3(a)では画面右上にあったが、図3(b)では画面左下に移動している。このように、ユーザーの視線の移動に連動して視線ポインタ310の位置も移動する。なお、視線ポインタ310が移動しただけでは、一点AF302は移動しない。すなわち、図3(a)と図3(b)における一点AF枠302の位置は同じである。
Figure 3(b) is an example of the display on the
図3(c)は、図3(b)の状態で視線確定ボタン82が押下された場合のEVF29における表示例である。視線ポインタ310が表示された状態で視線確定ボタン82が押下されると、その時点での視線入力位置(視線検出部160で検出した位置を所定期間分平均化した位置)に一点AF枠302が設定される(移動する)。視線ポインタ310が画面端部に接していない場合には、視線入力位置を中心とした範囲に視線ポインタ310が表示されているため、一点AF枠は視線ポインタ310があった位置の中心に表示されることになる。また、視線による位置の指定が確定した状態となり、視線ポインタ310は非表示となる。このように、視線入力の位置に基づいてAFを行う位置を移動させることができる。アイコン303は、再び視線入力に基づいてAF枠を移動させる場合には、視線による位置の指定の確定状態を解除する必要があること、および、解除する操作方法を示すアイコンである。「Eye」の文字列が視線確定ボタン82を示しており、視線確定ボタン82の押下によって確定状態を解除できることを示している。図3(c)の状態から視線確定ボタン82が押下されると、確定状態が解除され、図3(a)や図3(b)の表示状態に戻る。
3(c) is a display example in the
図3(d)は、図3(b)の状態からタッチパネル70aに対するタッチダウンを検知した場合の表示例である。視線ポインタ310が表示された状態でタッチダウンがあると、その時点での視線入力位置(視線検出部160で検出した位置を所定期間分平均化した位置)に一点AF枠302が設定される(移動する)。そして、タッチ&ドラッグAF機能によるAF枠の移動が可能な状態(タッチ&ドラッグAF機能によるAF枠の移動途中の状態)となる。タッチ&ドラッグAF機能とは、EVF29に表示されたAF枠を、EVF29とは異なる位置にあるタッチパネル70aに対するタッチムーブによって移動させる機能である。タッチ操作によってユーザーが所望する位置を正確に指定できるため、タッチ位置を示すポインタ(この例では一点AF枠302自体)が大きいと細かい位置の指定ができず煩わしい。従って視線ポインタ310のような大きいポインタは非表示とし、視線ポインタ310より小さい一点AF枠302によって位置の指定を行う状態とする。
3(d) is a display example when touchdown on the
図3(e)は、図3(d)の状態から、タッチパネル70aに対する左下向きのタッチムーブを検知し、相対位置指定によって、検知したタッチムーブに応じて一点AF枠302を左下に移動させた場合の表示例である。
Figure 3(e) is a display example in which a touch-move to the lower left on the
図3(f)は、図3(e)の状態からタッチアップがあった場合の表示例である。タッチ&ドラッグによる一点AF枠302の移動が終了した状態となり、アイコン303が表示される。このように、視線入力とタッチ操作とを組み合わせたAF枠の位置(選択位置)の指定が可能である。なお、図3(f)、あるいは図3(c)の状態からさらにタッチパネル70aにタッチしてタッチムーブを行えば、一点AF枠302をタッチムーブに応じてさらに移動させることができる。
Figure 3(f) is an example of the display when there is a touch-up from the state of Figure 3(e). The movement of the single-
上述の例において、ユーザーがピントを合わせたい位置が、LV画像301に含まれる
自動車(被写体)のナンバープレートであるものとする。この場合、次のようにして一点AF枠302をナンバープレートの位置に設定することができる。まず、図3(b)のように、LV画像301のうち自動車のフロント部分を見ることで、自動車のフロント部分を視線ポインタ310で素早く大雑把に指定する。その後、視線ポインタ310に基づいて設定された一点AF枠302の位置(図3(d)における一点AF枠302の位置)をタッチ操作によって移動させて微調整することで、ナンバープレートの位置に正確に合わせることができる。この時のタッチムーブの移動量は、すでにナンバープレート付近に一点AF枠302が視線入力に基づいて設定されており、ここからの移動量となるため、少なくて済む。このように、本実施形態によれば、素早く正確に、ユーザーが所望する位置を指定することが可能である。
In the above example, the position on which the user wants to focus is the license plate of the car (subject) included in the
<顔+追尾優先AFでの視線によるAF枠の設定>
図4(a)~図4(g)を用いて、デジタルカメラ100においてAF枠の選択方式(AF方式)を「顔+追尾優先」とした場合の、視線入力を利用したAF枠の移動制御について説明する。図4(a)~図4(g)はそれぞれ、AF枠の選択方式(AF方式)を「顔+追尾優先」とした場合にEVF29に表示される表示例である。
<Setting the AF frame by gaze in Face + Tracking Priority AF>
4(a) to 4(g) will be used to explain AF frame movement control using eye gaze input when the AF frame selection method (AF method) is set to "face + tracking priority" in the
図4(a)は、視線機能を有効とし、視線検出部160でユーザーの視線を検出している状態の表示例である。図3(a)で説明したものと同じものについては、同じ符号を付して説明を省略する。顔+追尾優先でも、一点AFの場合と同様に、視線ポインタ310は、ある程度大きい第1の大きさで、所定期間分平均化した位置に基づいて表示する。顔枠401~405は、LV画像から検出されている人物の顔の位置を示すインジケーターである。図4(a)の状態ではどの顔も選択されていない。
Figure 4(a) is an example of a display when the gaze function is enabled and the
図4(b)は、図4(a)の状態から、ユーザーが視線を移動させて、EVF29のうち見ている場所を変えた場合のEVF29での表示例である。視線ポインタ310は、図4(a)では画面左側にあったが、図4(b)では画面右上に移動している。
Figure 4(b) is an example of the display on the
図4(c)は、図4(b)の状態で視線確定ボタン82が押下された場合のEVF29における表示例である。視線ポインタ310が表示された状態で視線確定ボタン82が押下されると、その時点で視線ポインタ310が示す範囲内で、前述の自動選択条件に従って自動的に追尾対象(AF対象でもある)の被写体が選択される。図4(c)の例では、図4(b)に示す視線ポインタ310内において、全体が含まれる顔(顔枠402と顔枠403)のうち、最も至近側の顔である顔枠402によって示される顔が選択され、追尾対象として設定される。追尾対象となった被写体には追尾枠412が表示され、顔枠は非表示となる。そして、追尾が開始される。追尾中は、追尾対象の被写体が移動しても、追尾枠が追尾対象に追従して移動する。視線ポインタ310によって被写体を選択するゾーンを絞っているため、視線ポインタ310の外側の被写体が選択されることはなく、顔枠401や顔枠405によって示される顔や自動車が選択されることはない。すなわち、視線によって素早く大雑把にユーザーが指定した範囲の中から追尾対象が設定される分、視線を用いない自動選択よりもユーザーの意図にあった被写体を選択することが可能となる。また、図4(c)では、視線による位置の指定が確定した状態となり、視線ポインタ310は非表示となる。図4(c)の状態から視線確定ボタン82が押下されると、確定状態が解除され、図4(a)や図4(b)の表示状態に戻る。
Figure 4(c) is a display example in the
図4(d)は、図4(b)の状態からタッチパネル70aに対するタッチダウンを検知した場合の表示例である。視線ポインタ310が表示された状態でタッチダウンがあると、その時点での視線入力位置(視線検出部160で検出した位置を所定期間分平均化した位置)にタッチポインタ406が表示される。そして、タッチ&ドラッグAF機能による位置の指定が可能な状態(タッチ&ドラッグAF機能によるタッチポインタ406の移動
途中の状態)となる。タッチ操作によってユーザーが所望する位置を正確に指定できるため、タッチ位置を示すポインタ(この例でタッチポインタ406)が大きいと細かい位置の指定ができず煩わしい。従って視線ポインタ310のような大きいなポインタは非表示とし、視線ポインタ310より小さいタッチポインタ406によって位置の指定を行う状態とする。これによって、図示のように顔が密集しているような場合でも、ユーザー所望の顔を選択しやすくなる。
FIG. 4D is a display example when touchdown on the
図4(e)は、図4(d)の状態から、タッチパネル70aに対する右上向きのタッチムーブを検知し、相対位置指定によって、検知したタッチムーブに応じてタッチポインタ406を右上に移動させた場合の表示例である。タッチポインタ406が顔枠403の位置にほぼ一致する位置(より厳密には、顔枠403の範囲内にタッチポインタ406の中心が含まれる位置)となっている。この状態でタッチアップがなされると、タッチポインタ406の位置に基づいて、顔枠403が追尾対象として指定される。なお、図4(e)のような表示に変えて、タッチアップ前のタッチポインタ406の移動中に、タッチポインタ406で顔枠の指定が可能な位置関係となった場合に、その時点でタッチアップがあった場合に指定される顔を示す表示(吸着表示)を行ってもよい。
Fig. 4(e) is a display example in which, from the state of Fig. 4(d), a touch move to the upper right on the
図4(f)は、吸着表示の表示例を示す。タッチポインタ406をタッチムーブに応じて移動させ、顔枠403を指定可能な位置となったことに応じて、タッチポインタ406を非表示とし、顔枠403を他の顔枠と異なる表示形態で表示する。このようにすることで、ユーザーは、この時点でタッチアップを行えば顔枠403が指定されることを認識することができ、目的の位置までタッチムーブを行えたか否かを判断しやすくなる。
Figure 4(f) shows an example of the suction display. The
図4(g)は、図4(e)または図4(f)の状態からタッチアップがあった場合の表示例である。タッチアップ直前のタッチポインタ406の位置に基づいて顔枠403が追尾対象に設定され、追尾枠413が表示されて追尾が開始される。タッチ&ドラッグによるタッチポインタ406の移動が終了した状態となり、アイコン303が表示される。なお、図4(g)あるいは図4(c)の状態からさらにタッチパネル70aにタッチしてタッチムーブを行えば、追尾が解除されて追尾対象のあった位置にタッチポインタ406が表示され、タッチポインタ406をタッチムーブに応じて移動させることができる。
Figure 4(g) is an example of the display when there is a touch-up from the state of Figure 4(e) or Figure 4(f). Based on the position of the
上述の例において、ユーザーがピントを合わせたい位置が、LV画像301に含まれる顔枠403が示す顔であるものとする。この場合、次のようにして追尾対象(AF位置)を顔枠403の位置に設定することができる。まず、図4(b)のように、LV画像301のうち顔枠403の付近の部分を見ることで、素早く大雑把に範囲を指定する。その後、視線ポインタ310に基づいて設定された追尾対象である顔枠402の位置から、タッチ操作によってタッチポインタ406移動させて微調整することで、顔枠403に正確に合わせることができる。この時のタッチムーブの移動量は、すでに顔枠403付近の顔枠402が視線入力に基づいて設定されており、ここからの移動量となるため、少なくて済む。このように、本実施形態によれば、素早く正確に、ユーザーが所望する位置(被写体)を指定することが可能である。
In the above example, the position on which the user wants to focus is the face indicated by the
次に、以上説明した動作・画面遷移を実現する処理を説明する。 Next, we will explain the process that realizes the operations and screen transitions described above.
<撮影モード処理>
図5A、図5Bは、本実施形態におけるデジタルカメラ100における撮影モード処理のフローチャートである。図5A、図5Bの処理は、表示先がEVF29となっている場合の処理であるものとする。この図5A、図5Bを含む、図5A~図10のフローチャートにおける各処理は、システム制御部50が、不揮発性メモリ56に格納されたプログラムをシステムメモリ52に展開して実行することにより実現される。デジタルカメラ10
0を撮影モードで起動すると、フラグや制御変数等を初期化し、図5A、図5Bの処理を開始する。
<Shooting mode processing>
5A and 5B are flowcharts of the shooting mode process in the
When the
S500では、システム制御部50は、撮像部22でのライブビュー画像(LV画像)の撮像を開始し、撮像したLV画像をEVF29に表示する。
In S500, the
S501では、システム制御部50は、ユーザー操作に応じて撮像に関する各種設定を行うカメラ設定処理を行う。カメラ設定処理については図6を用いて後述する。
定処理の詳細は、図6を用いて後述する。
In S501, the
The details of the determination process will be described later with reference to FIG.
S502では、システム制御部50は、視線機能が有効であるか否か(後述する視線AFの設定が有効であるか否か)を判断する。有効である場合はS503に進み、そうでない場合(無効である場合)はS516に進む。
In S502, the
S503では、システム制御部50は、視線検出部160で視線が検出されているか否かを判断する。検出されている場合はS504に進み、そうでない場合(視線機能が有効であるが、視線が検知されていない場合)はS516に進む。
In S503, the
S504では、システム制御部50は、視線ポインタ表示が有効であるか否かを判断する。有効である場合はS505に進み、そうでない場合(無効である場合)はS507に進む。
In S504, the
S505では、システム制御部50は、システムメモリに保持された視線確定フラグが0であるか否かを判定する。初期値は0である。視線確定フラグ=0は前述の視線確定状態が解除されている状態を示しており、視線によって視線ポインタを移動させることが可能な状態である。視線によって大雑把な位置を指定可能な「粗調整モード」でもある。一方、視線確定フラグ=1は、前述の視線確定状態を示しており、一旦、視線によって大雑把な位置を指定した後の状態で、視線による位置の指定はできない状態である。タッチムーブによって細かく位置を指定可能な「微調整モード」でもある。視線フラグが0である場合にはS506に進み、そうでない場合(視線フラグ=1である場合)にはS507に進む。
In S505, the
S506では、システム制御部50は、EVF29に、視線検出部160で検出されている視線入力位置を基準として視線ポインタ310を表示する。前述の通り、視線ポインタ310はある程度大きい第1の大きさ(サイズ)で、視線入力位置を所定期間分平均化した位置に基づいて表示する。平均化された視線検出位置がEVF29の端部周辺でない場合には、視線ポインタ310は視線入力位置を中心とした第1の大きさの範囲に表示される。平均化された視線検出位置がEVF29の端部周辺である場合には、視線ポインタ310は視線入力位置に近い画面の端に接する第1の大きさの範囲に表示される。S506の処理によって、AF方式が一点AFに設定されていれば前述した図3(a)、図3(b)のような表示となり、顔+追尾優先に設定されていれば前述した図4(a)、図4(b)のような表示が行われる。
In S506, the
S507では、システム制御部50は、視線確定ボタン82が押下されたか否か(すなわち、視線による位置の指定の実行を指示する操作があったか否か)を判定する。視線確定ボタン82が押下された場合はS508に進み、そうでない場合はS516に進む。
In S507, the
S508では、システム制御部50は、システムメモリ52に保持された視線確定フラグが0であるか否かを判定する。視線確定フラグ=0である場合にはS512に進み、そうでない場合(視線確定フラグ=1である場合)にはS509に進む。
In S508, the
S509では、システム制御部50は、視線確定フラグを0にセットする。また、表示されていたアイコン303を非表示とし、視線の確定が解除された状態の表示に復帰させる。
In S509, the
S510では、システム制御部50は、現在設定されているAF方式が顔+追尾優先AFであるか否かを判定する。顔+追尾優先AFである場合にはS511に進んで追尾を解除し、S504に進む。これによって、例えば前述の図4(c)や図4(g)の表示が行われていた場合に視線確定ボタン82が押下されたことに応じて、図4(a)や図4(b)の表示状態に遷移する。S510で、現在設定されているAF方式が顔+追尾優先AFではないと判定されると(すなわち一点AFであると判定されると)、S504に進む。これによって、例えば前述の図3(c)や図3(f)の表示が行われていた場合に視線確定ボタン82が押下されたことに応じて、図3(a)や図3(b)の表示状態に遷移する。
In S510, the
S512では、システム制御部50は、視線確定フラグを1にセットする。また、アイコン303をEVF29に表示し、視線の確定状態の表示とする。
In S512, the
S513では、システム制御部50は、現在設定されているAF方式が顔+追尾優先AFであるか否かを判定する。顔+追尾優先AFである場合にはS514に進み、そうでない場合(すなわち一点AFである場合)にはS515に進む。
In S513, the
S514では、視線ポインタ310によって示される第1の大きさの範囲内において(視線ポインタ310が表示されていない場合でも同様の範囲内において)、追尾対象の被写体を前述の自動選択条件に基づいて選択する。そして、選択された被写体(追尾対象)に追尾枠を表示し、追尾を開始する。これによって、例えば前述の図4(b)から図4(c)のように表示が遷移する。
In S514, within a range of a first size indicated by the gaze pointer 310 (within the same range even when the
S515では、システム制御部50は、視線確定ボタン82が押下された時点での視線入力位置(視線検出部160で検出した位置を所定期間分平均化した位置)に、一点AF枠302を設定する。これによって、例えば前述の図3(b)から図3(c)のように表示が遷移する。なお、本実施形態では一点AFの場合には視線検出部160で検出されていた視線入力位置に一点AF枠を設定する例を説明した。しかしこれに限るものではなく、一点AFの場合であっても、顔+追尾優先AFの場合と同様に、視線ポインタ310の範囲内で自動選択条件に基づく自動選択を行い、自動選択された被写体の位置に一点AF枠302を設定するようにしてもよい。
In S515, the
S516では、システム制御部50は、タッチパネル70aに対するタッチダウンがあったか否かを判定する。タッチダウンがあった場合はS517に進み、そうでない場合はS518に進む。
In S516, the
S517では、システム制御部50は、タッチパネル70aに対するタッチ操作に応じて、タッチ操作応答処理を行う。タッチ操作応答処理については図7を用いて後述する。
In S517, the
S518では、システム制御部50は、操作部70に対するその他の操作があったか否かを判定する。その他の操作があった場合にはS519に進み、そうでない場合にはS520に進む。
In S518, the
S519では、システム制御部50は、その他の操作に応じた処理を行う。例えば、シャッター速度や絞り値、露出補正値といった各種撮影パラメータを変更したり、記録画質
やセルフタイマーの設定を行ったりすることができる。
In S519, the
S520では、システム制御部50は、第1シャッタースイッチ信号SW1がオンとなったか否か、すなわち、シャッターボタン61が半押しされ、撮影準備指示が行われたか否かを判定する。
In S520, the
S521では、システム制御部50は、視線ポインタ310の表示中であるか否か、すなわち、視線機能が有効であり、視線検出がされており、視線ポインタの表示が有効であり、かつ、視線確定フラグ=0であるか否かを判定する。視線ポインタ310の表示中である場合にはS522に進み、そうでない場合にはS523に進む。なお、視線ポインタ310が表示中であるか否かの判定に変えて、視線機能が有効であり、視線検出がされており、かつ、視線確定フラグ=0であるか否かの判定としてもよい。この場合、視線機能が有効であり、視線検出がされており、かつ、視線確定フラグ=0であれば、視線ポインタの表示が無効(視線ポインタ310が非表示)であってもS522に進む。
In S521, the
S522では、システム制御部50は、視線ポインタ310によって示される第1の大きさの範囲内において(視線ポインタ310が表示されていない場合でも同様の範囲内において)、AF対象の被写体を前述の自動選択条件に基づいて選択する。これは、S514での追尾対象の選択と同様の処理である。そして、選択された被写体(AF対象、焦点調節対象)に基づいてAFを実行する。同様にして、選択された被写体を基準としてAF,AWBなどの処理を行ってもよい。なお、AF方式が一点AFである場合には、AF対象を自動選択条件に基づいて選択するのではなく、その時点の視線入力位置を中心とする一点AF枠の範囲をAF対象として選択してもよい。
In S522, the
S523では、システム制御部50は、現在設定されているAF方式が顔+追尾優先AFであるか否かを判定する。顔+追尾優先AFである場合にはS524に進み、そうでない場合(一点AFである場合)にはS527に進む。
In S523, the
S524では、システム制御部50は、被写体の追尾を行っている状態であるか否かを判定する。追尾中である場合にはS526に進み、そうでない場合にはS525に進む。
In S524, the
S525では、システム制御部50は、撮像されているLV画像の全範囲を対象として、AF対象の被写体を前述の自動選択条件に基づいて選択する。そして、選択された被写体(AF対象、焦点調節対象)に基づいてAFを実行する。同様にして、選択された被写体を基準としてAF,AWBなどの処理を行ってもよい。なお、LV画像の全範囲を対象とするものに限るものではなく、LV画像のうち、視線ポインタ310のサイズである第1の大きさよりも大きい第2の大きさの範囲内を対象としてもよい。例えば、LV画像の中央から80%の範囲(>第1のサイズ)をS525での自動選択条件に基づく被写体の自動選択の対象の範囲としてもよい。この場合、それ以外の端の領域はAFを合わせるべき主要被写体が存在する可能性が低いと想定されるため、S525での自動選択条件に基づく被写体の自動選択の対象外となる。
In S525, the
S526では、システム制御部50は、追尾中の追尾枠で(すなわち、追尾対象に対して)AFを実行する。同様にして、追尾対象を基準としてAF,AWBなどの処理を行ってもよい。
In S526, the
S527では、システム制御部50は、設定されている1点AF枠においてAFを実行する。同様にして、一点AF枠を基準としてAF,AWBなどの処理を行ってもよい。
In S527, the
S528では、システム制御部50は、第2シャッタースイッチ信号SW2がオン、す
なわち、シャッターボタン61が全押しされて撮影指示が行われたか否かを判定する。SW2がオンとなった場合にはS530に進み、そうでない場合はS529に進む。
In S528, the
S529では、システム制御部50は、SW1のオンが保持されているか否かを判定する。保持されている場合にはS528に戻り、そうでない場合(SW1がオフとなった場合)はS531に進む。
In S529, the
S530では、システム制御部50は、撮像部22での露光から撮像された画像を画像ファイルとして記録媒体200に記録するまでの一連の撮影処理(前述の撮影処理)を行う。
In S530, the
S531では、撮影モードの終了イベント(電源オフ操作や、再生モードなどの他の動作モードに遷移させる指示など)があったか否かを判定する。終了イベントがない場合にはS500に戻って処理を繰り返し、終了イベントがあった場合には撮影モード処理を終了する。 In S531, it is determined whether an end event for the shooting mode has occurred (such as a power-off operation or an instruction to transition to another operating mode such as playback mode). If no end event has occurred, the process returns to S500 and is repeated, and if an end event has occurred, the shooting mode process ends.
<カメラ設定処理>
前述した図5AのS501のカメラ設定処理について説明する。カメラ設定処理は、メニューボタン81が押下された場合に表示される撮影に関する設定メニュー画面における各設定項目についての設定を行う処理である。
<Camera setting process>
The camera setting process in S501 of Fig. 5A described above will be described below. The camera setting process is a process for setting each setting item on the setting menu screen related to photography that is displayed when the
図11(a)、図11(b)に、EVF29または表示部28に表示される撮影に関する設定メニュー画面の表示例を示す。図11(a)のメニュー画面に含まれる設定項目1101は、AF方式の設定を行うための項目である。設定項目1102は、タッチ&ドラッグAFの設定を行うための項目である。設定項目1103は、視線機能関連の設定を行うための項目である。設定項目1104は、MC65の中央部分の押し込み操作が行われた場合の動作を設定するための項目である。
FIGS. 11(a) and 11(b) show examples of a setting menu screen related to shooting that is displayed on the
図11(b)は、視線機能関連の設定を行うための視線AFの詳細設定メニュー画面の表示例である。この画面は、図11(a)の設定項目1103が選択された場合に表示される。図11(b)の視線AFの詳細設定メニュー画面には、設定項目1105~1107が表示される。設定項目1105は、視線機能を有効または無効に設定するための項目である。設定項目1106は、視線ポインタの表示を有効(表示)または無効(非表示)に設定するための項目である。設定項目1107は、SW1がオンとなった場合に視線検出位置にAF枠をジャンプさせる機能を有効または無効に設定するための項目である。
Figure 11 (b) is an example of the display of a gaze AF detailed settings menu screen for configuring settings related to the gaze function. This screen is displayed when setting
図6は、前述した図5AのS501のカメラ設定処理の詳細を示すフローチャートである。 Figure 6 is a flowchart showing the details of the camera setting process of S501 in Figure 5A described above.
S601で、システム制御部50は、視線機能(視線AF)のON/OFF(有効/無効)を切り替える操作が操作部70に対して行われたか否かを判断する。視線機能のON/OFF(有効/無効)を切り替える操作とは、本実施形態では、メニュー画面を開き、該当する設定項目(設定項目1105)を選択して設定を切り替える操作である。本実施形態では、視線AFをONにするとユーザの視線を入力する機能が有効になり、視線AFをOFFにすると当該機能が無効になる。視線機能のON/OFFを切り替える操作が行われた場合はS602に進み、そうでない場合はS603に進む。
In S601, the
S602で、システム制御部50は、視線機能のON/OFFを切り替え、変更された設定内容を不揮発性メモリ56に記録する。
At S602, the
S603で、システム制御部50は、視線ポインタ表示のON/OFF(有効/無効)を切り替える操作が操作部70に対して行われたか否かを判断する。視線確定機能のON/OFF(有効/無効)を切り替える操作とは、本実施形態では、メニュー画面を開き、該当する設定項目(設定項目1106)を選択して設定を切り替える操作である。本実施形態では、視線ポインタ表示をONにするとユーザの視線入力に応じてGUIとしての視線ポインタ310が表示され、視線ポインタ表示をOFFにすると視線ポインタが非表示になる。視線ポインタ表示のON/OFFを切り替える操作が行われた場合はS604に進み、そうでない場合はS605に進む。
In S603, the
S604で、システム制御部50は、視線ポインタ表示のON/OFF(有効/無効)を切り替え、変更された設定内容を不揮発性メモリ56に記録する。
In S604, the
S605で、システム制御部50は、タッチ&ドラッグAF機能の設定を切り替える操作が操作部70に対して行われたか否かを判断する。タッチ&ドラッグAF機能の設定を切り替える操作とは、本実施形態では、メニュー画面を開き、該当する設定項目(設定項目1102)を選択して設定を切り替える操作である。本実施形態では、タッチ&ドラッグAFの設定として、「絶対(上述の絶対位置指定方式)」と「相対(上述の相対位置指定方式)」とのいずれかを選択可能である。タッチ&ドラッグAF機能を切り替える操作が行われた場合はS606に進み、そうでない場合はS607に進む。
In S605, the
S606で、システム制御部50は、タッチ&ドラッグAF機能の設定を切り替え、変更された設定内容を不揮発性メモリ56に記録する。
In S606, the
S607で、システム制御部50は、AF方式を切り替える操作が操作部70に対して行われたか否かを判断する。AF方式を切り替える操作とは、本実施形態では、メニュー画面を開き、該当する設定項目(設定項目1101)を選択して設定を切り替える操作である。AF方式を切り替える操作が行われた場合はS608に進み、そうでない場合はカメラ設定処理を終了する。なお、本実施形態ではAF方式として顔+追尾優先AFと一点AFとのいずれかを選択できる例を説明したが、他のAF方式(ゾーンAF、多点AFなど)を設定可能としてもよい。
In S607, the
S608で、システム制御部50は、AF方式を切り替え、変更された設定内容を不揮発性メモリ56に記録する。
In S608, the
<タッチ操作応答処理>
図7に、前述の図5AのS517のタッチ操作応答処理の詳細フローチャートを示す。
<Touch operation response processing>
FIG. 7 shows a detailed flowchart of the touch operation response process in S517 of FIG. 5A described above.
S701で、システム制御部50は、S502と同様に視線機能が有効であるか否かを判断する。有効である場合はS702に進み、そうでない場合(無効である場合)はS708に進む。
In S701, the
S702で、システム制御部50は、S503と同様に視線が検出されているか否かを判断する。検出されている場合はS703に進み、そうでない場合はS708に進む。
In S702, the
S703で、システム制御部50は、視線確定フラグを1に設定する。
At S703, the
S704で、システム制御部50は、視線ポインタを非表示にする。
At S704, the
S705で、システム制御部50は、前述の図11(a)の設定項目1102のタッチ&ドラッグAFの設定が相対位置指定方式であるか否かを判断する。相対位置指定方式で
ある場合はS706に進み、そうでない場合(絶対位置指定方式である場合)はS707に進む。
In S705, the
S706では、システム制御部50は、視線有効時相対位置指定処理を行う。この処理の詳細は図8を用いて後述する。
In S706, the
S707では、システム制御部50は、絶対値指定処理を行う。この処理の詳細は図10を用いて後述する。
In S707, the
S708で、システム制御部50は、S705と同様にタッチ&ドラッグAFの設定が相対位置指定方式であるか否かを判断する。相対位置指定方式である場合はS709に進み、そうでない場合(絶対位置指定方式である場合)はS710に進む。
In S708, the
S709では、システム制御部50は、視線無効時相対位置指定処理を行う。この処理の詳細は図9を用いて後述する。
In S709, the
S710では、システム制御部50は、絶対位置指定処理を行う。この処理はS709の処理と同様であり、図10を用いて後述する。
In S710, the
視線機能が有効で(S701-Yes)視線が検出されている場合(S702-Yes)にS705でタッチ&ドラッグAFの設定が相対位値指定方式であるか否かを判定し、絶対位置指定方式である場合にS707で絶対位置指定処理を行う例を説明した。しかし、これに限るものではない。視線機能が有効である場合(S701-Yes)、あるいは視線機能が有効でかつ視線が検出されている場合(701とS702の双方でYes)の場合は、タッチ&ドラッグAFの設定にかかわらず視線有効時相対位置指定処理を行うようにしてもよい。すなわち、S701がYesであれば、S702の判定をせずに、S703、S704の処理を行い、その後S705の判定をせずにS706の処理を行うようにしてもよい。あるいは、S701がYesで、S702もYesあれば、S703、S704の処理を行い、その後S705の判定をせずにS706の処理を行うようにしてもよい。このようにすることで、視線機能を利用できる状態の場合に、視線によって大雑把な位置を指定した後、視線で指定した位置からの続きの微調整をタッチ操作による相対位置指定によって行うことができる。 In the above example, when the gaze function is enabled (S701-Yes) and the gaze is detected (S702-Yes), it is determined whether the touch and drag AF setting is the relative position value designation method in S705, and when the absolute position designation method is used, the absolute position designation process is performed in S707. However, this is not limited to the above. When the gaze function is enabled (S701-Yes), or when the gaze function is enabled and the gaze is detected (Yes in both 701 and S702), the gaze-enabled relative position designation process may be performed regardless of the touch and drag AF setting. That is, if S701 is Yes, the process of S703 and S704 may be performed without determining S702, and then the process of S706 may be performed without determining S705. Alternatively, if S701 is Yes and S702 is also Yes, the process of S703 and S704 may be performed, and then the process of S706 may be performed without determining S705. By doing this, when the gaze function is available, you can specify a rough position by gaze, and then make further fine adjustments from the position specified by gaze by specifying a relative position using touch operations.
<視線有効時相対位置指定処理>
図8に、前述した図7のS706の視線有効時相対位置指定処理の詳細フローチャートを示す。
<Relative position designation process when line of sight is enabled>
FIG. 8 shows a detailed flowchart of the line-of-sight-valid relative position designation process in S706 of FIG.
S801で、システム制御部50は、AF方式が「顔+追尾優先AF」であるか否かを判定する。「顔+追尾優先AF」である場合はS805に進み、そうでない場合(本実施形態では「一点AF」の場合)はS802に進む。
In S801, the
S802で、システム制御部50は、タッチダウンがあった時点で視線入力位置(視線検出部160で検出した位置を所定期間分平均化した位置)に一点AF枠を表示する。これによって、前述の図3(b)の表示から図3(d)の表示に遷移する。
In S802, the
S803で、システム制御部50は、タッチパネル70aに対するタッチムーブに応じて一点AF枠を移動させる。この移動は、相対位置指定方式で行われる。
In S803, the
S804では、システム制御部50は、タッチパネル70aからのタッチアップがあったか否かを判定する。タッチアップがあった場合は、アイコン303を表示し(これによ
って前述の図3(f)の表示となる)、図8の処理を終了する。タッチアップがない場合はS803に戻る。
In S804, the
S805で、システム制御部50は、被写体を追尾中か否かを判断する。追尾中である場合はS810に進み、そうでない場合はS806に進む。
In S805, the
S806で、システム制御部50は、タッチダウンがあった時点での視線入力位置に、タッチ位置(選択位置)を示すタッチポインタ406(第2の大きさの範囲を示す第2のアイテム;小さいポインタ)を表示する。これによって、例えば図4(b)から図4(d)の表示へと遷移する。ここで、視線入力位置は、例えば、視線検出部160で検出した位置を所定期間分平均化した位置である。
In S806, the
S807で、システム制御部50は、タッチパネル70aに対するタッチムーブ(移動指示操作)に応じて、タッチ位置を示すタッチポインタ406を移動させる。この移動は、相対位置指定方式による移動である。これによって、例えば図4(d)から図4(e)へと表示が遷移する。システム制御部50は、タッチポインタ406が表示された後の視線入力に基づかずに、タッチムーブに応じてタッチポインタ406の表示位置を移動していると捉えることもできる。
In S807, the
S808では、システム制御部50は、タッチパネル70aからのタッチアップがあったか否かを判定する。タッチアップがあった場合はS809へ進み、そうでない場合はS807に戻る。
In S808, the
S809で、システム制御部50は、タッチポインタの位置における被写体を選択し、当該被写体の追尾を開始する。この時の選択は、前述の自動選択条件には基づかない。また、アイコン303を表示する。これによって、例えば図4(e)から図4(g)のように表示が遷移する。
In S809, the
S810で、システム制御部50は、タッチダウンがあった時点での追尾対象の位置に、タッチ位置(選択位置)を示すタッチポインタ406(第2の大きさの範囲を示す第2のアイテム;小さいポインタ)を表示する。
At S810, the
S811~S813の処理は、前述のS806~S809の処理とそれぞれ同様であるため、説明を省略する。 The processes in steps S811 to S813 are similar to the processes in steps S806 to S809 described above, and therefore will not be described here.
なお、本実施形態では、視線有効時にタッチダウンがあった場合に追尾中である場合には視線有力位置ではなく追尾位置にタッチポインタ406を表示する例を説明した。しかしこれに限るものではなく、視線が有効であれば、追尾中であるか否かにかかわらず、タッチダウンがあった場合には視線入力位置(視線検出部160で検出した位置を所定期間分平均化した位置)にタッチポインタ406を表示するようにしてもよい。この場合は、S801でYesとなった場合に、S805の判定を行わずにS806へ進むこととなる。
In this embodiment, an example has been described in which if a touchdown occurs while the gaze is valid, and tracking is in progress, the
また、相対位置指定方式でタッチアップによる被写体追尾を行う場合(S809、S813、後述するS908、S912)、タッチアップから一定時間経過後に被写体追尾を開始するようにしてもよい。これにより、相対位置指定方式の場合にタッチダウン、タッチムーブ、タッチアップの一連の操作を繰り返し行いながらタッチポインタを移動する場合に、被写体追尾処理が毎回発動しなくなるため、タッチポインタの移動がしやすくなる。 In addition, when subject tracking is performed by touching up using the relative position designation method (S809, S813, S908 and S912 described below), subject tracking may be started a certain time after touching up. This makes it easier to move the touch pointer when moving the touch pointer by repeatedly performing a series of operations of touching down, touching move, and touching up using the relative position designation method, since subject tracking processing is not triggered every time.
<視線無効時相対位置指定処理>
図9は、前述した図7のS709の視線無効時相対位置指定処理の詳細フローチャートである。
<Relative position specification process when line of sight is disabled>
FIG. 9 is a detailed flowchart of the line-of-sight invalid relative position designation process in S709 of FIG.
S901で、システム制御部50は、AF方式が「顔+追尾優先AF」であるか否かを判断する。「顔+追尾優先AF」である場合はS902に進み、そうでない場合(本実施形態では「一点AF」の場合)はS904に進む。
In S901, the
S902で、システム制御部50は、タッチパネル70aに対するタッチムーブに応じて一点AF枠を移動させる。なお、視線入力を検出していなく、かつ相対位置指定方式であるため、タッチダウンに応じては一点AF枠の位置は移動せず、タッチダウン前に設定されていた一点AF枠の位置から、タッチムーブに応じた距離だけ、相対位置指定方式で移動する。
In S902, the
S903では、システム制御部50は、タッチパネル70aからのタッチアップがあったか否かを判定する。タッチアップがあった場合は図9の処理を終了し、タッチアップがない場合はS902に戻る。
In S903, the
S904では、システム制御部50は、被写体を追尾中か否かを判断する。追尾中である場合はS909に進み、そうでない場合はS905に進む。
In S904, the
S905で、システム制御部50は、EVF29の中央に、タッチ位置(選択位置)を示すタッチポインタ406(第2の大きさの範囲を示す第2のアイテム;小さいポインタ)を表示する。
At S905, the
S906~S912の処理は、前述した図7のS807~S813の処理とそれぞれ同様であるため、説明を省略する。 The processes in steps S906 to S912 are similar to the processes in steps S807 to S813 in FIG. 7, respectively, and therefore will not be described here.
<絶対位置指定処理>
図10は、前述した図7のS707、S710の絶対位置指定処理の詳細フローチャートである。
<Absolute position specification process>
FIG. 10 is a detailed flowchart of the absolute position designation process in steps S707 and S710 in FIG.
S1001で、システム制御部50は、AF方式が「顔+追尾優先AF」であるか否かを判断する。「顔+追尾優先AF」である場合はS1005に進み、そうでない場合(本実施形態では「一点AF」の場合)はS1002に進む。
In S1001, the
S1002では、システム制御部50は、タッチダウンされた際のタッチ位置(タッチダウン位置)に対応するEVF29上の位置に、一点AF枠を表示する。
In S1002, the
S1003では、システム制御部50は、タッチムーブに応じて、タッチムーブ後のタッチ位置に対応するEVF29上の位置に、一点AF枠を移動させる。この移動は絶対位置指定方式で行われ、移動後の一点AF枠の位置は、タッチムーブの距離や方向に基づくものではなく、最新のタッチ位置に対応する位置となる。
In S1003, the
S1004では、システム制御部50は、タッチパネル70aからのタッチアップがあったか否かを判定し、タッチアップがあった場合には図10の処理を終了し、そうでない場合にはS1003に戻る。
In S1004, the
S1005では、システム制御部50は、タッチダウンされた際のタッチ位置(タッチダウン位置)に対応するEVF29上の位置に、タッチポインタ406を表示する。
In S1005, the
S1006では、システム制御部50は、タッチムーブに応じて、タッチムーブ後のタッチ位置に対応するEVF29上の位置に、タッチポインタ1006を移動させる。この移動は絶対位置指定方式で行われ、移動後のタッチポインタ1006の位置は、タッチムーブの距離や方向に基づくものではなく、最新のタッチ位置に対応する位置となる。
In S1006, the
S1007では、システム制御部50は、タッチパネル70aからのタッチアップがあったか否かを判定する。タッチアップがあった場合はS1008へ進み、そうでない場合はS1006に戻る。
In S1007, the
S1008で、システム制御部50は、タッチポインタの位置における被写体を選択し、当該被写体の追尾を開始する。また、アイコン303を表示して、図10の処理を終了する。
In S1008, the
以上説明した本実施形態によれば、ユーザが視線入力を行う場合に大きいポインタを表示して大まかに被写体を選択して、タッチ操作を行う場合に小さいポインタを表示して細かい位置の指定を行うことができる。これにより、ユーザの視線入力とタッチ操作を用いて位置を指定する場合に、ユーザの意図した位置を容易に指定することができる。 According to the present embodiment described above, when the user performs gaze input, a large pointer is displayed to roughly select the subject, and when the user performs touch operation, a small pointer is displayed to specify a fine position. This makes it possible to easily specify the intended position when specifying a position using gaze input and touch operation by the user.
なお、上述の実施形態では、タッチ操作に応じて小さいポインタ(タッチポインタ)を表示する例を説明したが、これに限るものではない。MC65や4方向キー74といった操作部材への操作に応じても微調整するための位置の指定が可能である。従って、視線ポインタによって粗く位置指定を行った状態で、MC65や4方向キー74に対する操作があったことに応じて、視線ポインタに変えて、微調整用の位置指定ポインタ(第2の大きさのポインタ)を表示するようにしてもよい。そして、この微調整用の位置指定ポインタをMC65や4方向キー74に対する操作移動させることで、位置指定の微調整が行えるようにしてもよい。
In the above embodiment, an example was described in which a small pointer (touch pointer) was displayed in response to a touch operation, but this is not limited to this. It is also possible to specify a position for fine adjustment in response to operation of an operating member such as the
なお、視線確定フラグの解除条件は、上記の例に限定されない。S530で撮影処理を一回行った後に、自動的に視線確定フラグを0にリセットするようにしてもよい。また、視線確定フラグを1にしたと同時に視線機能(視線AFの設定)を「無効」にして、ユーザの任意のタイミング(S602において視線機能を有効にしたタイミング)で視線フラグを0に戻してもよい。また第1シャッターボタン62をオフにした後(シャッターボタン61の半押しを解除した後)、一定時間経過後に、自動的に視線フラグを0に戻してもよい。
The conditions for canceling the gaze confirmation flag are not limited to the above example. After performing the shooting process once in S530, the gaze confirmation flag may be automatically reset to 0. Furthermore, the gaze confirmation flag may be set to 1 and the gaze function (gaze AF setting) may be "disabled" at the same time, and the gaze flag may be returned to 0 at a timing of the user's choice (the timing when the gaze function was enabled in S602). Furthermore, the gaze flag may be automatically returned to 0 after a certain time has elapsed after the
また、タッチ操作後にポインタを小さくする例を述べたが、どの程度小さくするかについても、カメラ設定やユースケースに応じて変更してもよい。例えば、サーボAFモード(第2のAFモード)の場合に、視線ポインタまたはタッチポインタの大きさをワンショットAFモード(第1のAFモード)時よりも大きくしてもよい。ここで、サーボAFモードは、AF枠の位置で継続してAFを実行し続けるコンティニュアスAFを行うモードである。動きのある被写体を撮影するときに利用すると好適である。ワンショットAFモードは、一度AFしたら、再度AFの指示が無い限りはAF処理を停止(フォーカスをロック;ピント位置を固定)するAF処理のモードである。具体的には、サーボAFモードであって、視線入力時にタッチ操作が行われていない場合には、視線入力に基づく位置に、上述の視線ポインタ310よりも大きいポインタ(第1の大きさよりも大きい第3の大きさの範囲を示す第3のアイテム)を表示する。このようにすれば、AFを合わせたい被写体が動体で、狭い範囲に留まっていない場合でも、より大きい視線ポインタに収めればよいので、視線によって所望の被写体を指定しやすくなる。また、視線ポインタを表示している状態でAF処理を実行する場合にサーボAFモードでAF処理を実行し、タッチポ
インタを表示している状態でAF処理を実行する場合にワンショットAFモードでAFを実行してもよい。
In addition, although an example of making the pointer smaller after a touch operation has been described, the extent to which the pointer is made smaller may be changed according to the camera settings and use case. For example, in the case of servo AF mode (second AF mode), the size of the gaze pointer or touch pointer may be made larger than that in one-shot AF mode (first AF mode). Here, the servo AF mode is a mode that performs continuous AF, which continues to perform AF at the position of the AF frame. It is suitable to use when photographing a moving subject. The one-shot AF mode is an AF processing mode that stops AF processing (locks the focus; fixes the focus position) once AF is performed unless there is an AF instruction again. Specifically, in the servo AF mode, when a touch operation is not performed during gaze input, a pointer larger than the above-mentioned gaze pointer 310 (a third item indicating a range of a third size larger than the first size) is displayed at a position based on the gaze input. In this way, even if the subject to which AF is to be adjusted is a moving object and does not remain in a narrow range, it is only necessary to fit it into a larger gaze pointer, making it easier to specify the desired subject by gaze. In addition, when AF processing is performed while the gaze pointer is displayed, AF processing may be performed in servo AF mode, and when AF processing is performed while the touch pointer is displayed, AF processing may be performed in one-shot AF mode.
また、AF方式が顔+追尾優先AFではなく、ゾーンAFに設定されている場合に、視線ポインタをゾーンAF処理におけるゾーンの大きさ相当に大きくしてもよい。すなわち、ゾーンAFで表示される視線ポインタの大きさを、顔+追尾優先AFで表示される第1の大きさよりも大きい第4の大きさにしてもよい。ここで、ゾーンAFは、動体の撮影に適したAF方式であり、大きめのゾーンをユーザーが設定した位置に設定し、そのソーンの中で自動選択条件に合致する被写体をAF対象とする方式である。 In addition, when the AF method is set to zone AF instead of face + tracking priority AF, the gaze pointer may be enlarged to a size equivalent to the size of the zone in zone AF processing. In other words, the size of the gaze pointer displayed in zone AF may be set to a fourth size larger than the first size displayed in face + tracking priority AF. Here, zone AF is an AF method suitable for photographing moving objects, in which a larger zone is set at a position set by the user, and subjects within that zone that meet the automatic selection conditions are targeted for AF.
上述の実施形態では、タッチ操作に応じて、AF処理を実行する範囲を変更する(小さくする)例を説明したが、被写体を検出する領域の大きさや、検出する被写体の種別をタッチ操作に応じて変更してもよい。例えば、視線ポインタを表示している状態でAF処理を実行する場合には検出した顔に対してAF処理を実行し、タッチポインタを表示している状態でAF処理を実行する場合に検出した瞳に対してAF処理を実行してもよい。 In the above embodiment, an example was described in which the range in which AF processing is performed is changed (reduced) in response to a touch operation, but the size of the area in which the subject is detected or the type of subject to be detected may also be changed in response to a touch operation. For example, when AF processing is performed with the gaze pointer displayed, AF processing may be performed on the detected face, and when AF processing is performed with the touch pointer displayed, AF processing may be performed on the detected eyes.
なお、視線ポインタからタッチポインタへの表示の切替があった場合に、タッチポインタを表示する位置については、上記に限定されない。例えば、視線ポインタ内で検出した被写体の位置にタッチポインタを表示してもよい。 Note that when the display is switched from the gaze pointer to the touch pointer, the position at which the touch pointer is displayed is not limited to the above. For example, the touch pointer may be displayed at the position of the subject detected within the gaze pointer.
<変形例1>
上述の実施形態では、デジタルカメラ100での被写体選択時に、視線入力時にタッチ操作が行われていない場合に視線ポインタ(大きいポインタ)を表示し、タッチ操作が行われている場合にタッチポインタ(小さいポインタ)を表示する例について説明した。しかし、被写体の選択に限るものではなく、他の目的の位置指定にも本願は適用可能である。すなわち、被写体選択とは異なる位置指定操作においても、次のような位置の選択が可能である。視線入力時に、操作部材(例えばタッチパネル)への操作が行われていない場合に、大きなポインタ(インジケーター)を表示し、大きなポインタを視線入力にしたがって移動することで粗く位置指定を行う。そして、視線入力で粗く位置指定した範囲内で、自動選択条件に基づき、細かい位置を指定する。そして、操作部材(例えばタッチパネル)への操作が行われている場合には、大きなポインタから小さなポインタへ表示を切り替え、小さいポインタ(インジケーター)を操作部材への操作にしたがって移動することで細かく位置指定を行う。
<
In the above embodiment, an example has been described in which, when selecting a subject with the
図12(a)~図12(c)に、被写体選択とは異なる位置指定操作の例(変形例)として、文字列の中での文字の挿入位置の選択操作に本願を適用した場合の表示例を示す。 FIGS. 12(a) to 12(c) show examples of display when the present application is applied to the operation of selecting the position at which to insert characters in a string of characters, as an example (variant example) of a position designation operation that is different from subject selection.
図12(a)に、「This is the piel.」という入力済みの文字列の中から、文字を挿入する位置を視線入力を用いて選択する場合の表示例を示す。視線入力位置を基準とする所定範囲に視線ポインタ1200(視線入力位置に追従する)が表示される。この状態で、視線確定操作(視線による位置の指定の実行を指示する操作)が行われると、視線ポインタ1200によって示される範囲内で、自動選択条件に基づいて、文字の挿入位置が決定される。本変形例では、自動選択条件は「単語と単語の間の文節のうち、視線入力位置に最も近い位置」という条件である。「This is the piel.」という文字列においては、図示のように、文節1201~1203の文節が検出される。図12(a)の位置に視線ポインタ1200がある状態で視線確定操作が行われると、視線ポインタ1200に含まれる文節1203が選択され、その後の文字入力操作によってこの位置に文字を挿入することができる。視線ポインタ1200がある状態での視線確定操作に応じた位置指定では、単語内の位置は選択できない。例えば、図12(a)の状態で単語「piel」の内部の「i」と「e」の間の位置は選択できない。これは
、前述のように視線入力位置を用いた細かい位置の指定は人間の特性上困難であるため、文字挿入を行う可能性が高い文節に挿入位置を限定することで、意図しない位置を選択してしまうことを低減するためである。このように、文字を挿入したい位置を見るだけで、素早く簡単に文字挿入位置を選択することができる。また、図12(a)の状態でMC65や4方向キー74に対する操作などの、操作部材による位置指定操作が行われると、視線ポインタ1200が非表示となり、視線入力位置に挿入位置カーソル1210が表示される。そして、挿入位置カーソル1210が表示された位置から操作部材による操作に応じて挿入位置カーソル1210の位置を移動(微調整)可能である。
FIG. 12A shows a display example in which a position for inserting characters is selected by using gaze input from within an input character string of "This is the piel.". A gaze pointer 1200 (following the gaze input position) is displayed in a predetermined range based on the gaze input position. In this state, when a gaze confirmation operation (an operation for instructing execution of position specification by gaze) is performed, a character insertion position is determined based on an automatic selection condition within the range indicated by the
図12(b)に、図12(a)の状態でMC65や4方向キー74に対する操作などがあった場合の表示例を示す。視線ポインタ1200は非表示となり、単語「piel」の内部の「i」と「e」の間の位置に挿入位置カーソル1210が表示されている。挿入位置カーソル1210は挿入位置を示す第2の大きさのポインタ(インジケーター)であり、第1の大きさである視線ポインタ1200よりも小さい。挿入位置カーソル1210は図示のように単語内部の各文字の間の位置を指定可能であり、位置1211~位置1215といった位置に、MC65や4方向キー74に対する操作に応じて任意に移動させることができる。例えば、図12(b)の位置に挿入位置カーソル1210が位置している状態で「x」という文字を挿入すると、図12(c)のように、「This is the
pixel.」といったように文字列を修正することができる。
FIG. 12B shows an example of a display when an operation is performed on the
The string can be modified to something like "pixel."
<変形例2>
上述の実施形態で説明したような例だけでなく、さらに、被写体や指定対象を素早く正確に選択することが要求される状況下において、本願発明を適用することが可能である。例えば、ヘッドマウントディスプレイ(HMD)を含むヘッドセットを装着したユーザーが、VR(Virtual Reality)画像に表示される仮想のキャラクターなどの対象を選択する際にも適用可能である。視線入力時に操作部材(例えばタッチパネルやタッチ操作と押下可能な光学トラッキングポインター)への操作が行われていない場合に、大きなポインタ(インジケーター)を表示し、大きなポインタを視線入力にしたがって移動することで粗く位置指定を行う。そして、視線入力で粗く位置指定を行った範囲内で自動選択条件に基づき、細かい位置を指定する。そして、操作部材への操作が行われている場合には、大きなポインタから小さなポインタ(インジケーター)へ表示を切り替え、小さいポインタ(インジケーター)を操作部材への操作にしたがって移動することで細かく位置指定を行う。
<
The present invention can be applied not only to the examples described in the above-mentioned embodiments, but also to situations in which it is required to quickly and accurately select a subject or a specified target. For example, the present invention can be applied when a user wearing a headset including a head mounted display (HMD) selects a target such as a virtual character displayed in a VR (Virtual Reality) image. When no operation is performed on an operating member (for example, a touch panel or an optical tracking pointer that can be touched and pressed) during gaze input, a large pointer (indicator) is displayed and the large pointer is moved according to the gaze input to roughly specify a position. Then, within the range where the position was roughly specified by the gaze input, a fine position is specified based on the automatic selection conditions. Then, when an operation is performed on an operating member, the display is switched from the large pointer to a small pointer (indicator), and the small pointer (indicator) is moved according to the operation on the operating member to finely specify a position.
図13(a)~図13(c)にヘッドセット1300と、操作部材であるゲームコントローラー1320の外観図を示す。
Figures 13(a) to 13(c) show external views of the
図13(a)、図13(b)にヘッドセット1300の外願図を示す。ヘッドセット1300は主にHMD1310からなり、本変形例2ではHMD1310はパーソナルコンピューターなどと接続せず、単体で使用できるVR機器(スタンドアロン型のVR-HMD)である。HMD1310の中に、図2に示すシステム制御部50や視線検出部160などの本実施形態を適用するために必要なものが内蔵される。
FIGS. 13(a) and 13(b) show external views of a
図13(c)にゲームコントローラー1320を示す。ゲームコントローラー1320はHMD1310に表示されるゲーム画面1400(後述)の表示のための指示の受け付けなどを行う。ゲームコントローラー1320は、グリップ部1321、タッチ可能部分を備えた押下可能な操作部材であるマルチボタン1322、SETボタン75を備える。グリップ部1321は上述のデジタルカメラ100のグリップ部90と同様に、ユーザーがゲームコントローラー1320を把持しやすい構造・材質である。マルチボタン1322にはゲーム画面1400に表示されるポインタの移動を指示する機能など、様々な機能
を割り当てることができる。本変形例2では、マルチボタン1322はタッチ操作と押し込み操作の両方を受け付けることが可能な操作部材である。マルチボタン1322に搭載のタッチ操作部材は、上述したようなタッチ検出機構でもよいし、赤外線式センサーでもよい。マルチボタン1322の内部に赤外線式センサーを搭載し、マルチボタン1322の上部(ユーザーの指が触れる部分)に赤外線を照射する。ユーザーがマルチボタン1322の上部に触れると、赤外線がユーザーの指で反射し、この反射光を検出することでユーザーの指の動きを検出することができる。このような光学式の操作部材を、光学トラッキングポインター(OTP)と称するものとする。OTPはタッチパネル70aと同様、OTPに対するユーザーの指(操作体)の動きである移動操作を検出することができる。なお、マルチボタン1322はOTPに限らず、MC65や4方向機キー74、ジョイスティックのように方向指示部材でもよい。なお、HMD1310とゲームコントローラー1320とは、有線で接続してもよいしBluetooth等の無線通信で接続してもよい。
FIG. 13C shows the
図14(a)~図14(f)に、アクションゲームでの攻撃対象を指定する位置指定操作の例(変形例)において、HMD1310に表示されるゲーム画面の表示例を示す。
Figures 14(a) to 14(f) show examples of game screens displayed on the
図14(a)は、ヘッドセット1300を装着してアクションゲームをプレイしているユーザーに対して、複数の攻撃対象1401~1404が、仮想的に近づいてきている状態を表示するゲーム画面の表示例である。このとき、視線検出部160で検出したユーザーの視線に対応する位置に視線ポインタ1410が表示されている。そして、ユーザーの視線の移動にしたがって、視線ポインタ1410が、図14(a)で示された位置から図14(b)で示された位置に移動する。その後、操作部材を用いて視線確定操作(具体的にはマルチボタン1322の押し込みやSETボタン75の押下)が行われると、自動選択条件に基づいて、視線ポインタ1410によって示される範囲内で攻撃対象のキャラクターが決定される。本変形例2では、自動選択条件は「視線ポインタの範囲内のうち、ユーザーに最も近い対象」という条件とする。
Figure 14(a) is an example of a game screen display showing a state in which multiple attack targets 1401-1404 are virtually approaching a user wearing a
図14(b)のように攻撃対象1401~1404がゲーム画面に存在する状態で視線確定操作が行われると対象枠1411が表示される。具体的には、自動選択条件により、視線ポインタ1410の範囲内に存在する対象1401~1403のうち、仮想的にユーザーに最も近づいている対象1401が選択され、対象枠1411が表示される(図14(c))。これにより、ユーザーはその視線を移動することによって対象枠1411が表示されている対象1401を選択して攻撃を行うことができる。しかし、ユーザーが実際に攻撃したいキャラクターは、自動選択された対象1401ではなく、視線ポインタ1410の範囲に含まれる他のキャラクター(例えば、対象1402)の場合がある。
As shown in FIG. 14(b), when a gaze confirmation operation is performed while targets 1401-1404 to be attacked are present on the game screen, a
図14(d)に、図14(b)の状態でMC65や4方向キー74、マルチボタン1322のOTPへのタッチ操作などがあった場合の表示例を示す。視線ポインタ1410は非表示となり、タッチポインタ1412が表示されている。タッチポインタ1412は図4のタッチポインタ406と同様のものとする。タッチポインタ1412は視線ポインタ1410よりも小さい。このような表示にすることにより、ユーザーは視線ポインタ1410で大まかな対象(位置)を指定したあとに、細かな対象の指定(微調整)が可能である。
Figure 14 (d) shows an example of the display when, in the state of Figure 14 (b), there is a touch operation on the
図14(e)に、図14(d)の状態からユーザーがマルチボタン1322やMC65への操作によってタッチポインタ1412を対象1402の付近に移動させた場合の表示例を示す。ユーザーは視線によって大まかな位置の指定を行っているため、図14(d)に示す位置から図14(e)に示す位置までの距離は短く、タッチポインタ1412を移動させるために、多くの操作や時間を要しない。
Figure 14(e) shows an example of a display when the user moves the
図14(f)に、図14(e)の状態でマルチボタン1322の押し込みもしくはタッチアップを行った場合の表示例を示す。マルチボタン1322への押し込み直前のタッチポインタ1412の表示位置に基づいて対象枠1413が表示・設定され、対象1402が攻撃対象として選択されたことがわかる。
Figure 14 (f) shows an example of the display when the multi-button 1322 is pressed or touched up in the state of Figure 14 (e). The
例えば、ユーザーの至近側にいる対象の優先度を上げて攻撃対象として選択することは、攻撃が成功する可能性が高くなるため合理的である。しかし、例えば図14(a)に表示する時点では、最も遠くにいる対象1402は、近くにいる対象1401に比べて、攻撃が成功する可能性は低いが、攻撃が成功した場合のポイントが高いことがある。このような状況においては、攻撃対象として選択したいキャラクターはユーザーの戦略に応じて異なる。そこで、ユーザーの視線にしたがって素早く大雑把に範囲を指定したあと、ユーザーによる移動/タッチ操作によって微調整を行うことで、ユーザー所望の対象を正確に選択することができる。ユーザーの視線により大雑把に範囲を指定できているため、微調整のための移動量/タッチ操作量が少なくて済み、素早く対象を選択することが可能である。このように、素早く正確に、ユーザーが所望する位置(対象)を指定することが可能である。
For example, it is rational to give higher priority to targets closest to the user and select them as targets for attack, since this increases the chances of a successful attack. However, for example, at the time of display in FIG. 14(a), the
本変形例2では、攻撃対象として1つの対象を指定することを前提としていたが、一度に複数の対象を指定できてもよい。例えば、図14(b)の視線ポインタ1410が表示された時点で、確定機能を有する操作が行われた場合は、視線ポインタ1410の範囲内から個別に対象を選択するのではなく、視線ポインタ1410の範囲内の対象を全て選択するようにしてもよい。すなわち、対象1401のみではなく、対象1401~対象1403の複数対象を選択するようにしてもよい。ここで、確定機能を有する操作は、視線確定操作ではなく決定ボタンなどの別の操作が挙げられる。なお、視線ポインタ1410は、表示部に表示される対象のうち、複数の対象を包含可能な範囲を示すアイテムであると捉えることもできる。
In this second modification, it is assumed that one target is designated as the target of attack, but multiple targets may be designated at once. For example, when an operation with a confirmation function is performed at the time when the
また、対象枠1411、タッチポインタ1412、対象枠1413の表示形態は図14(a)~図14(f)に示すような表示に限らない。対象1401や対象1402が選択されていること、現在タッチ操作でポインタの操作が行えることが視認できる表示であればよい。例えば、対象1401や対象1402のシルエットに沿ってハイライト表示がされたり、枠表示が点滅したり、枠表示の表示色が視線ポインタ1410と異なるものにしてもよい。タッチポインタ1412は円枠表示に限らず円の内部を塗りつぶした表示でも良いし、円でなく視線ポインタ1410や対象枠1411のように四角枠で表示し、視線ポインタ1410や対象枠1411とは異なる表示色で表示するようにしてもよい。なお、タッチポインタ1412は、表示部に表示される対象のうち、1つを包含可能な範囲を示すアイテムであると捉えることもできる。
The display form of the
また、上述した実施形態においては、本発明をデジタルカメラに適用した場合を例にして説明したが、これはこの例に限定されず、視線入力および操作部材に対する操作によって位置を指定可能な電子機器であれば適用可能である。すなわち、本発明はパーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ヘッドマウントディスプレイなどに適用可能である。また、本発明は、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダー、タブレット端末、スマートフォン、投影装置、ディスプレイを備える家電装置や車載装置などに適用可能である。例えば、PCにおけるソフトキーボードにおいて、キー操作では一つ一つの文字を入力するが、視線で入力を行う場合は、複数の単語の候補から所望なものを選択する、という適用の形態としてもよい。 In the above-mentioned embodiment, the present invention is applied to a digital camera, but the present invention is not limited to this example and can be applied to any electronic device that can specify a position by eye-gaze input and operation of an operating member. That is, the present invention can be applied to personal computers, PDAs, mobile phone terminals, portable image viewers, head-mounted displays, and the like. The present invention can also be applied to digital photo frames, music players, game consoles, e-book readers, tablet terminals, smartphones, projection devices, home appliances and in-vehicle devices equipped with displays, and the like. For example, in a soft keyboard on a PC, characters are input one by one by key operation, but when inputting with eye gaze, a desired word can be selected from multiple candidate words.
本発明は、以下の処理を実行することによっても実現される。即ち、上述の実施形態の
機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
The present invention can also be realized by executing the following process. That is, software (programs) that realize the functions of the above-described embodiments are supplied to a system or device via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or device reads and executes the program code. In this case, the program and the storage medium on which the program is stored constitute the present invention.
なお、CPUが行うものとして説明した上述の各種制御は、1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。 The various controls described above as being performed by the CPU may be performed by a single piece of hardware, or multiple pieces of hardware may share the processing to control the entire device.
また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the gist of the invention are also included in the present invention. Furthermore, each of the above-described embodiments merely represents one embodiment of the present invention, and each embodiment can be combined as appropriate.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Other Embodiments
The present invention can also be realized by a process in which a program for implementing one or more of the functions of the above-described embodiments is supplied to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device read and execute the program. The present invention can also be realized by a circuit (e.g., ASIC) that implements one or more of the functions.
100:デジタルカメラ 50:システム制御部 160:視線検出部 100: Digital camera 50: System control unit 160: Gaze detection unit
Claims (18)
前記視線検出手段により検出した視線位置または操作手段に対する第1の操作に応じて、前記表示手段における選択位置を指定するように制御する制御手段であって、
前記視線検出手段により検出した視線位置に基づいて前記選択位置が指定され、かつ、前記操作手段に対する前記第1の操作が行われていない第1の場合に、前記視線検出手段により検出した視線位置に基づく前記選択位置に第1の大きさの範囲を示す第1のアイテムを表示し、
前記視線検出手段により検出した視線位置に基づいて前記選択位置が指定され、かつ、前記操作手段に対する前記第1の操作が行われた第2の場合に、前記選択位置に前記第1の大きさよりも小さい第2の大きさの範囲を示す第2のアイテムを表示し、
前記第1の場合に、前記第1の操作とは異なる第2の操作が行われたことに応じて、前記第1のアイテムの位置で、所定の条件に基づいてオブジェクトを選択し、
前記第2の場合に、前記第2の操作が行われたことに応じて、前記第2のアイテムの位置で、前記所定の条件に基づかずにオブジェクトを選択する、
ように制御する制御手段と、
を有することを特徴とする電子機器。 A gaze detection means for detecting a gaze position of a user looking at the display means;
A control means for controlling to designate a selection position on the display means in response to a line of sight position detected by the line of sight detection means or a first operation on the operation means,
displaying a first item indicating a first size range at the selection position based on the gaze position detected by the gaze detection means in a first case in which the selection position is designated based on the gaze position detected by the gaze detection means and the first operation is not performed on the operation means;
displaying a second item indicating a range of a second size smaller than the first size at the selection position in a second case in which the selection position is designated based on the gaze position detected by the gaze detection means and the first operation is performed on the operation means;
In the first case, in response to a second operation different from the first operation being performed, selecting an object at a position of the first item based on a predetermined condition;
In the second case, in response to the second operation being performed, an object is selected at the position of the second item without being based on the predetermined condition.
A control means for controlling the
1. An electronic device comprising:
ことを特徴とする請求項1に記載の電子機器。 The control means further executes an AF process on the selected object.
2. The electronic device according to claim 1 .
前記第2のAFモードであって、かつ前記第1の場合に、前記視線検出手段により検出した視線位置に基づく前記選択位置に第1の大きさよりも大きい第3の大きさの範囲を示す第3のアイテムを表示するように制御する
ことを特徴とする請求項2に記載の電子機器。 the control means is capable of switching between a first AF mode in which a focus position is fixed after the AF process is performed and a second AF mode in which AF is continued to be performed,
The electronic device according to claim 2, characterized in that, in the second AF mode and in the first case, the electronic device is controlled so as to display a third item indicating a range of a third size larger than the first size at the selection position based on the gaze position detected by the gaze detection means.
ことを特徴とする請求項1から3のいずれか一項に記載の電子機器。 The control means, in the second case, hides the first item.
4. The electronic device according to claim 1, wherein the first and second electrodes are electrically connected to the first and second electrodes.
ことを特徴とする請求項1から4のいずれか一項に記載の電子機器。 the second operation is an operation on an operating means other than the shutter button, the operating means being arranged at a position where a shutter button can be operated with fingers of a hand holding a grip portion of the electronic device and the operating means is operable with the fingers of a hand holding the grip portion;
5. The electronic device according to claim 1, wherein the first and second electrodes are electrically connected to the first and second electrodes.
ことを特徴とする請求項1から4のいずれか一項に記載の電子機器。 the second operation is an operation for issuing an image capture instruction;
5. The electronic device according to claim 1, wherein the first and second electrodes are electrically connected to the first and second electrodes.
前記視線検出手段により検出した視線位置または操作手段に対する第1の操作に応じて、前記表示手段における選択位置を指定するように制御する制御手段であって、
前記視線検出手段により検出した視線位置に基づいて前記選択位置が指定され、かつ、前記操作手段に対する前記第1の操作が行われていない第1の場合に、
前記視線検出手段により検出した視線位置に基づく前記選択位置に第1の大きさの範囲を示す第1のアイテムを表示し、
前記視線検出手段により検出した視線位置に基づいて前記選択位置が指定され、かつ、前記操作手段に対する前記第1の操作が行われた第2の場合に、
前記選択位置に前記第1の大きさより小さい第2の大きさの範囲を示す第2のアイテムを表示し、
前記第1のアイテムを非表示にする、
ように制御する制御手段と、
を有することを特徴とする電子機器。 A gaze detection means for detecting a gaze position of a user looking at the display means;
A control means for controlling to designate a selection position on the display means in response to a line of sight position detected by the line of sight detection means or a first operation on the operation means,
In a first case in which the selection position is designated based on a gaze position detected by the gaze detection means and the first operation is not performed on the operation means,
displaying a first item indicating a first size range at the selection position based on the gaze position detected by the gaze detection means ;
In a second case in which the selection position is designated based on a gaze position detected by the gaze detection means and the first operation is performed on the operation means,
displaying a second item at the selection location indicating a range of a second size smaller than the first size;
hiding the first item;
A control means for controlling the
1. An electronic device comprising:
ことを特徴とする請求項1から7のいずれか一項に記載の電子機器。 the control means, in response to a movement instruction operation being performed on the operation means while the second item is being displayed, controls to move a display position of the second item in response to the movement instruction operation, not based on a gaze position after the second item is displayed;
8. The electronic device according to claim 1, wherein the first and second electrodes are electrically connected to the first and second electrodes.
ことを特徴とする請求項1から8のいずれか一項に記載の電子機器。 the operation means is a touch operation member, and the first operation is a touch operation on the touch operation member;
9. The electronic device according to claim 1, wherein the first and second electrodes are electrically connected to the first and second electrodes.
ことを特徴とする請求項9に記載の電子機器。 the control means, in the second case, controls to display the second item at the selection position based on the touch operation.
10. The electronic device according to claim 9.
ことを特徴とする請求項1から9のいずれか一項に記載の電子機器。 the control means, in the second case, controls to display the second item at the selection position based on a gaze position detected by the gaze detection means at a time when the first operation is performed.
10. The electronic device according to claim 1, wherein the first and second electrodes are electrically connected to the first and second electrodes.
ことを特徴とする請求項1から11のいずれか一項に記載の電子機器。 The operation means is a detection means for detecting a movement operation involving a movement of an operation object, and the first operation is the movement operation on the detection means.
12. The electronic device according to claim 1 .
ことを特徴とする請求項1から12のいずれか一項に記載の電子機器。 the first item is an item indicating a range that can include a plurality of objects among the objects displayed on the display means;
13. The electronic device according to claim 1 .
ことを特徴とする請求項1から13のいずれか一項に記載の電子機器。 the second item is an item indicating a range that can include one of the objects displayed on the display means;
14. The electronic device according to claim 1, wherein the first and second electrodes are arranged in a first direction.
前記視線検出ステップにおいて検出された視線位置または操作手段に対する第1の操作に応じて前記表示手段における選択位置を指定するように制御する制御ステップであって、
前記視線検出ステップにおいて検出された視線位置に基づいて前記選択位置が指定され、かつ、前記操作手段に対する前記第1の操作が行われていない第1の場合に、前記視線検出ステップにおいて検出された視線位置に基づく前記選択位置に第1の大きさの範囲を示す第1のアイテムを表示し、
前記視線検出ステップにおいて検出された視線位置に基づいて前記選択位置が指定され、かつ、前記操作手段に対する前記第1の操作が行われた第2の場合に、前記選択位置に前記第1の大きさよりも小さい第2の大きさの範囲を示す第2のアイテムを表示し、
前記第1の場合に、前記第1の操作とは異なる第2の操作が行われたことに応じて、前記第1のアイテムの位置で、所定の条件に基づいてオブジェクトを選択し、
前記第2の場合に、前記第2の操作が行われたことに応じて、前記第2のアイテムの位置で、前記所定の条件に基づかずにオブジェクトを選択する、
ように制御する制御ステップと、
を有することを特徴とする電子機器の制御方法。 a gaze detection step of detecting a gaze position of a user looking at the display means;
a control step of controlling to designate a selection position on the display means in response to a gaze position detected in the gaze detection step or a first operation on the operation means,
displaying a first item indicating a first size range at the selection position based on the gaze position detected in the gaze detection step , in a first case in which the selection position is designated based on the gaze position detected in the gaze detection step and the first operation on the operation means is not performed;
displaying a second item indicating a range of a second size smaller than the first size at the selection position in a second case in which the selection position is designated based on the gaze position detected in the gaze detection step and the first operation is performed on the operation means;
In the first case, in response to a second operation different from the first operation being performed, selecting an object at a position of the first item based on a predetermined condition;
In the second case, in response to the second operation being performed, an object is selected at the position of the second item without being based on the predetermined condition.
A control step of controlling so that
13. A method for controlling an electronic device comprising:
前記視線検出ステップにおいて検出された視線位置または操作手段に対する第1の操作に応じて前記表示手段における選択位置を指定するように制御する制御ステップであって、
前記視線検出ステップにおいて検出された視線位置に基づいて前記選択位置が指定され、かつ、前記操作手段に対する前記第1の操作が行われていない第1の場合に、
前記視線検出ステップにおいて検出された視線位置に基づく前記選択位置に第1の大きさの範囲を示す第1のアイテムを表示し、
前記視線検出ステップにおいて検出された視線位置に基づいて前記選択位置が指定され、かつ、前記操作手段に対する前記第1の操作が行われた第2の場合に、
前記選択位置に前記第1の大きさよりも小さい第2の大きさの範囲を示す第2のアイテムを表示し、
前記第1のアイテムを非表示にする、
ように制御する制御ステップと、
を有することを特徴とする電子機器の制御方法。 a gaze detection step of detecting a gaze position of a user looking at the display means;
a control step of controlling to designate a selection position on the display means in response to a gaze position detected in the gaze detection step or a first operation on the operation means,
In a first case in which the selection position is designated based on the gaze position detected in the gaze detection step and the first operation on the operation means is not performed,
displaying a first item indicating a first size range at the selection position based on the gaze position detected in the gaze detection step ;
In a second case in which the selection position is designated based on the gaze position detected in the gaze detection step and the first operation is performed on the operation means,
displaying a second item indicating a range of a second size smaller than the first size at the selection position;
hiding the first item;
A control step of controlling so that
13. A method for controlling an electronic device comprising:
A computer-readable storage medium storing a program for causing a computer to function as each of the means of the electronic device according to any one of claims 1 to 11.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/044911 WO2021131562A1 (en) | 2019-12-27 | 2020-12-02 | Electronic device, electronic device control method, program, and storage medium |
CN202080090239.6A CN114902104B (en) | 2019-12-27 | 2020-12-02 | Electronic device, control method of electronic device, and computer-readable storage medium |
US17/846,754 US12052491B2 (en) | 2019-12-27 | 2022-06-22 | Electronic device, control method for electronic device, and non-transitory computer readable storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019238836 | 2019-12-27 | ||
JP2019238836 | 2019-12-27 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021108447A JP2021108447A (en) | 2021-07-29 |
JP2021108447A5 JP2021108447A5 (en) | 2023-10-04 |
JP7570882B2 true JP7570882B2 (en) | 2024-10-22 |
Family
ID=76967998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020176006A Active JP7570882B2 (en) | 2019-12-27 | 2020-10-20 | Electronic device, electronic device control method, program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7570882B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017014415A1 (en) | 2015-07-20 | 2017-01-26 | Samsung Electronics Co., Ltd. | Image capturing apparatus and method of operating the same |
JP2017103566A (en) | 2015-11-30 | 2017-06-08 | キヤノン株式会社 | Imaging control apparatus and control method thereof |
-
2020
- 2020-10-20 JP JP2020176006A patent/JP7570882B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017014415A1 (en) | 2015-07-20 | 2017-01-26 | Samsung Electronics Co., Ltd. | Image capturing apparatus and method of operating the same |
JP2017103566A (en) | 2015-11-30 | 2017-06-08 | キヤノン株式会社 | Imaging control apparatus and control method thereof |
Also Published As
Publication number | Publication date |
---|---|
JP2021108447A (en) | 2021-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112099618B (en) | Electronic device, control method for electronic device, and storage medium | |
CN112104809B (en) | Electronic device, control method of electronic device, and storage medium | |
EP3876517A1 (en) | Electronic device, control method, program, and computer readable medium | |
US11233941B2 (en) | Electronic device that receives line of sight input, method of controlling electronic device, and non-transitory computer readable medium | |
JP2021087068A (en) | Electronic apparatus and control method of electronic apparatus | |
US12052491B2 (en) | Electronic device, control method for electronic device, and non-transitory computer readable storage medium | |
JP7492349B2 (en) | Imaging device, control method thereof, program, and storage medium | |
JP7490372B2 (en) | Imaging control device and control method thereof | |
JP7346375B2 (en) | Electronic equipment, its control method, program, and recording medium | |
JP2021152597A (en) | Imaging apparatus and method for controlling the same, program, and storage medium | |
JP7570882B2 (en) | Electronic device, electronic device control method, program, and storage medium | |
JP7547062B2 (en) | Imaging device | |
JP7387493B2 (en) | Electronic devices, control methods for electronic devices, programs, storage media | |
JP7346135B2 (en) | Electronic devices, control methods for electronic devices, programs and storage media | |
JP7542994B2 (en) | Electronics | |
JP7450408B2 (en) | Electronic devices, their control methods, programs and storage media | |
WO2024203205A1 (en) | Electronic apparatus, method for controlling electronic apparatus, and program | |
JP7451255B2 (en) | Electronic equipment and its control method | |
JP2024103248A (en) | Imaging apparatus | |
JP2023160103A (en) | Electronic apparatus | |
JP2022095306A (en) | Display control device and method for controlling the same | |
JP2022067578A (en) | Imaging apparatus and method for controlling the same and program and recording medium | |
JP2022096462A (en) | Electronic apparatus, method for controlling the same, program, and recording medium | |
JP2021018634A (en) | Electronic equipment and method of controlling the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230926 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230926 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240910 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241009 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7570882 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |