[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2024030637A - 電子機器および電子機器の制御方法 - Google Patents

電子機器および電子機器の制御方法 Download PDF

Info

Publication number
JP2024030637A
JP2024030637A JP2022133643A JP2022133643A JP2024030637A JP 2024030637 A JP2024030637 A JP 2024030637A JP 2022133643 A JP2022133643 A JP 2022133643A JP 2022133643 A JP2022133643 A JP 2022133643A JP 2024030637 A JP2024030637 A JP 2024030637A
Authority
JP
Japan
Prior art keywords
image area
display
image
electronic device
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022133643A
Other languages
English (en)
Inventor
航平 畑
Kohei Hata
成 濱田
Sei Hamada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022133643A priority Critical patent/JP2024030637A/ja
Priority to US18/360,205 priority patent/US20240073511A1/en
Priority to CN202311067114.3A priority patent/CN117641080A/zh
Publication of JP2024030637A publication Critical patent/JP2024030637A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】2眼表示をする際に、被写体選択を伴う機能の使用に適した画像表示が可能な電子機器を提供する。【解決手段】電子機器は、第1の光学系を介して撮像された第1画像領域と、第2の光学系を介して撮像された第2画像領域とが並んだ画像を取得する取得手段と、前記第1画像領域と前記第2画像領域とを表示部に表示する表示制御手段と、ユーザから所定の操作を受け付ける受付手段とを有し、前記表示制御手段は、前記ユーザから前記所定の操作を受け付けた場合に、前記第2画像領域に代えて、前記第1画像領域の一部を拡大した拡大画像領域を表示するように制御する。【選択図】図6

Description

本発明は、電子機器および電子機器の制御方法に関する。
2つの光学系を用いて視差のある広視野角の画像を取得し、仮想球体上にマッピングして表示することで立体感のあるVR(Virtual Reality)画像を表示する技術が知られている。視差のある画像を撮影するための2眼VRカメラは、同じ方向を向いた2つの光学系を有しており、1度の撮影により視差のある2枚の画像領域を取得することができる。2眼VRカメラには、各光学系において上下左右180度(半球、画像中心から全方向に90度)以上の広範囲を撮影できるものがある。VR画像を表示する方法として、VR画像を仮想球体にマッピングする変形を行って1つの画像を表示する「1眼VR表示」、および左眼用と右眼用のVR画像領域を左右に並べて表示する「2眼VR表示」が知られている。
1眼レンズと2眼レンズとを付け替えて使用可能なカメラは、2眼レンズを使用した撮影中に、左眼光学系および右眼光学系で撮像した画像領域を左右に並べて2眼表示をすることで、2眼レンズによる撮影中であることを分かりやすくしている。
特許文献1には、切り出し範囲および除外範囲の2つ魚眼画像領域を表示し、いずれかの画像領域に対してピンチ操作による拡大指示を受け付けると、拡大指示があった画像領域を拡大表示する電子機器が開示されている。
特開2020-107270号公報
2眼表示では1つの画面に2つの画像領域が表示されるため、タッチAFまたはタッチAEといったライブビュー画面をタッチすることで被写体を選択する機能を使用する際に、所望の被写体を選択することが困難な場合がある。切り出し範囲および除外範囲のような2つの画像領域を個別に拡大表示することができても、ユーザは、拡大表示された被写体が、画像全体のどこに位置しているかが判断しづらい可能性がある。
本発明は、2眼表示をする際に、被写体選択を伴う機能の使用に適した画像表示が可能な電子機器を提供することを目的とする。
本発明に係る電子機器は、第1の光学系を介して撮像された第1画像領域と、第2の光学系を介して撮像された第2画像領域とが並んだ画像を取得する取得手段と、前記第1画像領域と前記第2画像領域とを表示部に表示する表示制御手段と、ユーザから所定の操作を受け付ける受付手段とを有し、前記表示制御手段は、前記ユーザから前記所定の操作を受け付けた場合に、前記第2画像領域に代えて、前記第1画像領域の一部を拡大した拡大画像領域を表示するように制御することを特徴とする。
本発明によれば、2眼表示をする際に、被写体選択を伴う機能の使用に適した画像表示
が可能な電子機器を提供することができる。
カメラの外観図である。 カメラの構成を示すブロック図である。 レンズユニットの構成を示す模式図である。 2眼表示のライブビュー画像を例示する図である。 実施形態1に係るカメラの拡大表示処理を例示するフローチャートである。 基準目画像領域および拡大表示領域の表示例を示す図である。 実施形態2に係るカメラの拡大表示処理を例示するフローチャートである。
〔実施形態1〕
以下、図面を参照して本発明の実施形態について説明する。本実施形態では、電子機器がデジタルカメラ(撮像装置)である場合を例にして説明する。本実施形態に係るデジタルカメラは、左右方向に所定の視差を有する左画像領域と右画像領域とを含む1つの画像(2眼画像)を取得し、表示部に表示することができる。
<ハードウェア構成>
図1(A),1(B)は、本実施形態に係るデジタルカメラ(カメラ)100の外観の一例を示す外観図である。図1(A)はカメラ100を前面側から見た斜視図であり、図1(B)はカメラ100を背面側から見た斜視図である。
カメラ100は、上面に、シャッターボタン101、電源スイッチ102、モード切替スイッチ103、メイン電子ダイヤル104、サブ電子ダイヤル105、動画ボタン106、ファインダ外表示部107を有する。シャッターボタン101は、撮影準備指示あるいは撮影指示を行うための操作部材である。電源スイッチ102は、カメラ100の電源のオンとオフとを切り替える操作部材である。モード切替スイッチ103は、各種モードを切り替えるための操作部材である。メイン電子ダイヤル104は、シャッター速度や絞り等の設定値を変更するための回転式の操作部材である。サブ電子ダイヤル105は、選択枠(カーソル)の移動や画像送り等を行うための回転式の操作部材である。動画ボタン106は、動画撮影(記録)の開始や停止の指示を行うための操作部材である。ファインダ外表示部107は、シャッター速度や絞り等の様々な設定値を表示する。
カメラ100は、背面に、表示部108、タッチパネル109、方向キー110、SETボタン111、AEロックボタン112、拡大ボタン113、再生ボタン114、メニューボタン115、接眼部116、接眼検知部118、タッチバー119を有する。表示部108は、画像や各種情報を表示する。タッチパネル109は、表示部108の表示面(タッチ操作面)に対するタッチ操作を検出する操作部材である。方向キー110は、上下左右にそれぞれ押下可能なキー(4方向キー)から構成される操作部材である。ユーザは、方向キー110を押下した位置に応じた操作をすることができる。SETボタン111は、主に選択項目を決定するときに押下される操作部材である。AEロックボタン112は、撮影待機状態で露出状態を固定するときに押下される操作部材である。拡大ボタン113は、撮影モードのライブビュー表示(LV表示)において拡大モードのオンとオフとを切り替えるための操作部材である。拡大モードがオンである場合、メイン電子ダイヤル104が操作されることにより、ライブビュー画像(LV画像)は拡大または縮小する。また、拡大ボタン113は、再生モードにおいて再生画像を拡大したり、拡大率を大きくしたりする場合に用いられる。再生ボタン114は、撮影モードと再生モードとを切り替えるための操作部材である。撮影モードの場合、ユーザは、再生ボタン114を押下することで再生モードに移行し、図2の記録媒体227に記録された画像のうち最新の画像
を表示部108に表示させることができる。
メニューボタン115は、各種設定が可能なメニュー画面を表示部108に表示するために押下される操作部材である。ユーザは、表示部108に表示されたメニュー画面と、方向キー110やSETボタン111とを用いて、直感的に各種設定を行うことができる。接眼部116は、接眼ファインダ(覗き込み型のファインダ)117に対してユーザが接眼して覗き込む部位である。ユーザは接眼部116を介して、カメラ100内部の図2のEVF217(Electronic View Finder)に表示された映像を視認することができる。接眼検知部118は、接眼部116(接眼ファインダ117)にユーザが接眼しているか否かを検知するセンサである。
タッチバー119は、タッチ操作を受け付けることが可能なライン状のタッチ操作部材(ラインタッチセンサ)である。タッチバー119は、右手の人差し指でシャッターボタン101を押下可能なようにグリップ部120を右手で握った状態(右手の小指、薬指、中指で握った状態)で、右手の親指でタッチ操作可能(タッチ可能)な位置に配置される。すなわち、タッチバー119は、接眼ファインダ117に接眼して接眼部116を覗き、いつでもシャッターボタン101を押下できるように構えた状態(撮影姿勢)で操作可能である。タッチバー119は、タッチバー119に対するタップ操作(タッチして所定期間以内にタッチ位置を移動せずに離す操作)、左右へのスライド操作(タッチした後、タッチしたままタッチ位置を移動する操作)等を受け付け可能である。タッチバー119は、タッチパネル109とは異なる操作部材であり、表示機能を備えていない。タッチバー119は、例えば各種機能を割当可能なマルチファンクションバー(M-Fnバー)として機能する。
また、カメラ100は、グリップ部120、サムレスト部121、端子カバー122、蓋123、通信端子124等を有する。グリップ部120は、ユーザがカメラ100を構える際に右手で握りやすい形状に形成された保持部である。グリップ部120を右手の小指、薬指、中指で握ってカメラ100を保持した状態で、右手の人差指で操作可能な位置にシャッターボタン101とメイン電子ダイヤル104が配置される。また、同様な状態で、右手の親指で操作可能な位置にサブ電子ダイヤル105とタッチバー119が配置される。サムレスト部121(親指待機位置)は、カメラ100の背面側の、どの操作部材も操作しない状態でグリップ部120を握った右手の親指を置きやすい箇所に設けられたグリップ部である。サムレスト部121は、保持力(グリップ感)を高めるためのラバー部材等で構成される。端子カバー122は、カメラ100を外部機器(外部装置)に接続する接続ケーブル等のコネクタを保護する。蓋123は、記録媒体227を格納するためのスロットを閉塞することで記録媒体227およびスロットを保護する。通信端子124は、カメラ100に対して着脱可能なレンズユニット(図2のレンズユニット200、図3のレンズユニット300)側と通信を行うための端子である。
<カメラ内部のハードウェア構成>
図2は、カメラ100の構成を示すブロック図である。なお、図1(A),1(B)と同一の構成要素には、図1(A),1(B)と同一の符号を付し、その構成要素の説明は適宜、省略する。図2では、カメラ100にレンズユニット200が装着されている。
まず、レンズユニット200について説明する。レンズユニット200は、カメラ100に対して着脱可能な交換レンズユニットの一種である。レンズユニット200は、1眼レンズユニット(単眼レンズユニット)であり、通常のレンズユニットの一例である。レンズユニット200は、絞り201、レンズ202、絞り駆動回路203、AF(オートフォーカス)駆動回路204、レンズシステム制御回路205、通信端子206等を有する。
絞り201は、開口径が調整可能に構成される。レンズ202は、複数枚のレンズから構成される。絞り駆動回路203は、絞り201の開口径を制御することで光量を調整する。AF駆動回路204は、レンズ202を駆動して焦点を合わせる。レンズシステム制御回路205は、後述するシステム制御部50の指示に基づいて、絞り駆動回路203、AF駆動回路204等を制御する。レンズシステム制御回路205は、絞り駆動回路203を介して絞り201の制御を行い、AF駆動回路204を介してレンズ202の位置を変えることで焦点を合わせる。レンズシステム制御回路205は、カメラ100との間で通信可能である。具体的には、レンズシステム制御回路205は、レンズユニット200の通信端子206と、カメラ100の通信端子124とを介してカメラ100と通信する。通信端子206は、レンズユニット200がカメラ100側と通信を行うための端子である。
次に、カメラ100について説明する。カメラ100は、シャッター210、撮像部211、A/D変換器212、メモリ制御部213、画像処理部214、メモリ215、D/A変換器216、EVF217、表示部108、システム制御部50を有する。
シャッター210は、システム制御部50の指示に基づいて撮像部211の露光時間を自由に制御できるフォーカルプレーンシャッターである。撮像部211は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子(イメージセンサ)である。撮像部211は、システム制御部50にデフォーカス量情報を出力する撮像面位相差センサを有していてもよい。A/D変換器212は、撮像部211から出力されるアナログ信号をデジタル信号に変換する。画像処理部214は、A/D変換器212からのデータまたはメモリ制御部213からのデータに対し所定の処理(画素補間、縮小等のリサイズ処理、色変換処理等)を行う。また、画像処理部214は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてシステム制御部50が露光制御や測距制御を行う。この処理により、TTL(スルー・ザ・レンズ)方式のAF処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理等が行われる。更に、画像処理部214は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてシステム制御部50はTTL方式のAWB(オートホワイトバランス)処理を行う。
A/D変換器212からの画像データは、画像処理部214およびメモリ制御部213を介してメモリ215に書き込まれる。あるいは、A/D変換器212からの画像データは、画像処理部214を介さずにメモリ制御部213を介してメモリ215に書き込まれる。メモリ215は、撮像部211によって得られA/D変換器212によりデジタルデータに変換された画像データや、表示部108やEVF217に表示するための画像データを格納する。メモリ215は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。また、メモリ215は画像表示用のメモリ(ビデオメモリ)を兼ねている。
D/A変換器216は、メモリ215に格納されている表示用の画像データをアナログ信号に変換して表示部108やEVF217に供給する。したがって、メモリ215に書き込まれた表示用の画像データは、D/A変換器216を介して表示部108やEVF217に表示される。表示部108やEVF217は、D/A変換器216からのアナログ信号に応じた表示を行う。表示部108やEVF217は、例えば、LCDや有機EL等のディスプレイである。A/D変換器212によってA/D変換されメモリ215に蓄積されたデジタル信号はD/A変換器216でアナログ信号に変換され、表示部108やEVF217に逐次転送される。表示部108やEVF217は、逐次転送されるアナログ信号を表示することで、ライブビュー表示を行う。
システム制御部50は、少なくとも1つのプロセッサおよび/または少なくとも1つの回路からなる制御部である。すなわち、システム制御部50は、プロセッサであってもよく、回路であってもよく、プロセッサと回路の組み合わせであってもよい。システム制御部50は、カメラ100全体を制御する。システム制御部50は、不揮発性メモリ219に記録されたプログラムを実行することで、後述するフローチャートの各処理を実現する。また、システム制御部50は、メモリ215、D/A変換器216、表示部108、EVF217等を制御することにより表示制御も行う。
また、カメラ100は、システムメモリ218、不揮発性メモリ219、システムタイマ220、通信部221、姿勢検知部222、接眼検知部118を有する。
システムメモリ218として、例えばRAMが用いられる。システムメモリ218には、システム制御部50の動作用の定数、変数、不揮発性メモリ219から読み出したプログラム等が展開される。不揮発性メモリ219は電気的に消去・記録可能なメモリであり、不揮発性メモリ219として、例えばEEPROMが用いられる。不揮発性メモリ219には、システム制御部50の動作用の定数、プログラム等が記録される。ここでのプログラムとは、後述するフローチャートを実行するためのプログラムである。システムタイマ220は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。通信部221は、無線または有線ケーブルによって接続された外部機器との間で、映像信号や音声信号の送受信を行う。通信部221は無線LAN(Local Area Network)やインターネットとも接続可能である。また、通信部221は、Bluetooth(登録商標)やBluetooth Low Energyでも外部機器と通信可能である。通信部221は撮像部211で撮像した画像(ライブ画像を含む)や、記録媒体227に記録された画像を送信可能であり、外部機器から画像やその他の各種情報を受信することができる。姿勢検知部222は、重力方向に対するカメラ100の姿勢(傾き)を検知する。姿勢検知部222で検知された姿勢に基づいて、カメラ100の水平方向(左右方向)あるいは垂直方向(上下方向;前後方向)の傾き角度を検出することができる。また、姿勢検知部222で検知された姿勢に基づいて、撮像部211で撮影された画像が、カメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部222で検知された姿勢に応じた向き情報を撮像部211で撮影された画像の画像ファイルに付加したり、検知された姿勢に応じて画像を回転したりすることが可能である。姿勢検知部222は、カメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。姿勢検知部222には、例えば、加速度センサやジャイロセンサ等を用いることができる。
接眼検知部118は、接眼部116(接眼ファインダ117)に対する何らかの物体の接近を検知することができる。接眼検知部118には、例えば、赤外線近接センサを用いることができる。物体が接近した場合、接眼検知部118の投光部から投光した赤外線は、物体で反射して赤外線近接センサの受光部で受光される。接眼検知部118は、受光された赤外線の量によって接眼部116から物体までの距離を判別することができる。このように、接眼検知部118は、接眼部116に対する物体の近接距離を検知する接眼検知を行う。接眼検知部118は、接眼部116に対する物体(眼)の接近(接眼)および離反(離眼)を検知する接眼検知センサである。接眼検知部118は、非接眼状態(非接近状態)から、接眼部116に対して所定距離以内に近づく物体が検知された場合に接眼されたと検知する。一方、接眼検知部118は、接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に離眼されたと検知する。接眼を検知する閾値と、離眼を検知する閾値とは例えばヒステリシスを設ける等して異なっていてもよい。また、接眼を検知してから離眼を検知するまでは接眼状態であるものとする。離眼を検知してから接眼を検知するまでは非接眼状態であるものとする。システム制御部50は、接眼検知
部118で検知された状態に応じて、表示部108とEVF217の表示(表示状態)/非表示(非表示状態)を切り替える。具体的には、システム制御部50は、少なくとも撮影待機状態であって、かつ、表示先の切替設定が自動切替である場合、非接眼中は表示先を表示部108として表示をオンとし、EVF217は非表示とする。また、システム制御部50は、接眼中は表示先をEVF217として表示をオンとし、表示部108は非表示とする。なお、接眼検知部118は、赤外線近接センサである場合に限られず、接眼とみなせる状態を検知できるものであれば他のセンサであってもよい。
また、カメラ100は、ファインダ外表示部107、ファインダ外表示駆動回路223、電源制御部224、電源部225、記録媒体I/F226、操作部228等を有する。
ファインダ外表示部107は、ファインダ外表示駆動回路223によって駆動され、シャッター速度や絞り等のカメラ100の様々な設定値を表示する。電源制御部224は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出等を行う。また、電源制御部224は、その検出結果およびシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体227を含む各部へ供給する。電源部225は、アルカリ電池およびリチウム電池等の一次電池、NiCd電池、NiMH電池およびLi電池等の二次電池、ACアダプター等である。記録媒体I/F226は、メモリカードやハードディスク等の記録媒体227とのインターフェースである。記録媒体227は、撮影された画像を記録するためのメモリカード等であり、半導体メモリや磁気ディスク等から構成される。記録媒体227は、カメラ100に対して着脱可能であってもよく、カメラ100に内蔵されていてもよい。
操作部228は、ユーザからの操作(ユーザ操作)を受け付ける入力部であり、システム制御部50に各種の指示を入力するために用いられる。操作部228は、シャッターボタン101、電源スイッチ102、モード切替スイッチ103、タッチパネル109、他の操作部229等を含む。他の操作部229には、メイン電子ダイヤル104、サブ電子ダイヤル105、動画ボタン106、方向キー110、SETボタン111、AEロックボタン112、拡大ボタン113、再生ボタン114、メニューボタン115、タッチバー119等が含まれる。
シャッターボタン101は、第1シャッタースイッチ230と第2シャッタースイッチ231を有する。第1シャッタースイッチ230は、シャッターボタン101の操作途中、いわゆる半押し(撮影準備指示)でオンとなり、第1シャッタースイッチ信号SW1を出力する。システム制御部50は、第1シャッタースイッチ信号SW1に応じて、AF処理、AE処理、AWB処理、EF処理等の撮影準備処理を開始する。第2シャッタースイッチ231は、シャッターボタン101の操作完了、いわゆる全押し(撮影指示)でオンとなり、第2シャッタースイッチ信号SW2を出力する。システム制御部50は、第2シャッタースイッチ信号SW2に応じて、撮像部211からの信号読み出しから、撮影された画像を含む画像ファイルを生成して記録媒体227に書き込むまでの一連の撮影処理を開始する。
モード切替スイッチ103は、システム制御部50の動作モードを静止画撮影モード、動画撮影モード、再生モード等の何れかに切り替える。静止画撮影モードには、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、プログラムAEモード(Pモード)が含まれる。また、静止画撮影モードには、撮影シーン別の撮影設定となる各種シーンモード、カスタムモード等が含まれる。ユーザは、モード切替スイッチ103により、上述した撮影モードの何れかに、直接切り替えることができる。あるいは、ユーザは、モード切替ス
イッチ103により撮影モードの一覧画面に一旦切り替えた後に、表示された複数のモードの何れかに操作部228を用いて選択的に切り替えることができる。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
タッチパネル109は、表示部108の表示面(タッチパネル109の操作面)への各種タッチ操作を検出するタッチセンサである。タッチパネル109と表示部108とは一体的に構成することができる。例えば、タッチパネル109は、光の透過率が表示部108の表示を妨げないように、表示部108の表示面の上層に取り付けられる。そして、タッチパネル109における入力座標は、表示部108の表示面上の表示座標と対応付けられる。そうすることで、あたかもユーザが表示部108上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザインターフェース)を構成できる。タッチパネル109には、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等の様々な方式のうち何れかの方式を用いることができる。方式によって、タッチパネル109に対する接触があったことでタッチがあったと検知する方式や、タッチパネル109に対する指やペンの接近があったことでタッチがあったと検知する方式があるが、何れの方式であってもよい。
システム制御部50は、タッチパネル109に対する以下の操作あるいは状態を検出できる。
・タッチパネル109にタッチしていなかった指やペンが新たにタッチパネル109にタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch-Down)という)。
・タッチパネル109を指やペンでタッチしている状態(以下、タッチオン(Touch-On)という)。
・タッチパネル109を指やペンがタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)という)。
・タッチパネル109へタッチしていた指やペンがタッチパネル109から離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch-Up)という)。
・タッチパネル109に何もタッチしていない状態(以下、タッチオフ(Touch-Off)という)。
タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。
これらの操作・状態や、タッチパネル109上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知される。システム制御部50は通知された情報に基づいてタッチパネル109上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについてはタッチパネル109上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル109上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行われたと判定される。タッチパネル109上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックという。フリックは、言い換えればタッチパネル109上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定される(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を共にタッチして(マルチタッチして)、互いのタッ
チ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトという。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)という。
<レンズユニットの構成>
図3は、レンズユニット300の構成を示す模式図である。図3では、レンズユニット300をカメラ100に装着した状態を示している。レンズユニット300を装着することで、カメラ100は、所定の視差を有する2つの画像領域を含む1つの画像(静止画または動画)を撮像できるようになる。なお、図3に示すカメラ100のうち、図2で説明した構成要素と同一の構成要素には、図2と同一の符号を付し、その構成要素の説明は適宜、省略する。
レンズユニット300は、カメラ100に対して着脱可能な交換レンズユニットの一種である。レンズユニット300は、視差のある右像および左像を撮像可能な2眼レンズユニットである。レンズユニット300は2つの光学系(撮影レンズ)を有し、2つの光学系それぞれで、略180度の広視野角の範囲を撮像できる。具体的に、レンズユニット300の2つの光学系それぞれで、左右方向(水平角度、方位角、ヨー角)180度、上下方向(垂直角度、仰俯角、ピッチ角)180度の視野分(画角分)の被写体を撮像できる。つまり、2つの光学系それぞれで、前方半球の範囲を撮像できる。
レンズユニット300は、複数のレンズと反射ミラー等を有する右眼光学系301R、複数のレンズと反射ミラー等を有する左眼光学系301L、レンズシステム制御回路303を有する。右眼光学系301Rは被写体側に配置されるレンズ302Rを有し、左眼光学系301Lは被写体側に配置されるレンズ302Lを有する。レンズ302Rとレンズ302Lとは同じ方向を向いており、それらの光軸は略平行である。右眼光学系301Rと左眼光学系301Lのそれぞれは、魚眼レンズを有し、撮像部211に円形の光学像を結像する。右眼光学系301Rを介して形成される光学像(右像)と、左眼光学系301Lを介して形成される光学像(左像)とは、1つの撮像部211の撮像面に結像され、撮像部211は、各光学像の画像領域を含む1つの画像を取得する。
レンズユニット300は、2眼立体視が可能なVR(Virtual Reality)画像のフォーマットの1つであるVR180の画像を得るための2眼レンズユニット(VR180レンズユニット)である。レンズユニット300は、右眼光学系301Rおよび左眼光学系301Lのそれぞれに、略180度の範囲を捉えることが可能な魚眼レンズを有する。なお、右眼光学系301Rおよび左眼光学系301Lのそれぞれが有するレンズで捉えることが可能な範囲は、180度の範囲よりも狭い160度程度であってもよい。レンズユニット300は、右眼光学系301Rを介して形成される右像と、左眼光学系301Lを介して形成される左像とを、レンズユニット300が装着されたカメラの1つまたは2つの撮像素子上に結像することができる。カメラ100では、右像と左像とが1つの撮像素子(撮像センサー)上に結像され、右像に対応する右画像領域と、左像に対応する左画像領域とが左右に並んだ1つの画像(2眼画像)が生成される。2眼画像には、右画像領域、左画像領域、および、光学像に対応しない領域(非画像領域、例えば黒色領域)が含まれる。
レンズユニット300は、レンズマウント部304と、カメラ100のカメラマウント部305とを介して、カメラ100に装着される。こうすることで、カメラ100の通信端子124と、レンズユニット300の通信端子306とを介して、カメラ100のシステム制御部50とレンズユニット300のレンズシステム制御回路303とが電気的に接続される。
図3では、右眼光学系301Rを介して形成される右像と、左眼光学系301Lを介して形成される左像とは、並んでカメラ100の撮像部211に結像される。すなわち、右眼光学系301Rおよび左眼光学系301Lにより、1つの撮像素子(撮像センサ)の2つの領域に2つの光学像がそれぞれ結像される。撮像部211は、結像された被写体像(光信号)をアナログ電気信号に変換する。このようにレンズユニット300(右眼光学系301Rと左眼光学系301L)を用いることで、視差がある2つの画像領域を含む1つの画像(2眼画像)を取得することができる。取得された画像を左眼用の画像と右眼用の画像とに分割してVR表示することで、ユーザは略180度の範囲の立体的なVR画像を視聴することができる。つまり、ユーザーは、VR180の画像を立体視することができる。
ここで、VR画像とは、後述するVR表示することができる画像である。VR画像には、全方位カメラ(全天球カメラ)で撮像した全方位画像(全天球画像)や、表示部で一度に表示できる表示範囲より広い映像範囲(有効映像範囲)を持つパノラマ画像などが含まれる。また、VR画像は、静止画に限られず、動画、ライブ画像(カメラからほぼリアルタイムで取得した画像)も含む。VR画像は、最大で、左右方向360度、上下方向360度の視野分の映像範囲(有効映像範囲)を持つ。また、VR画像には、左右方向360度未満、上下方向360度未満であっても、通常のカメラで撮像可能な画角よりも広範な画角、あるいは、表示部で一度に表示できる表示範囲より広い映像範囲を持つ画像も含まれる。上述したレンズユニット300を用いてカメラ100で撮像される画像は、VR画像の一種である。VR画像は、例えば、表示装置(VR画像を表示できる表示装置)の表示モードを「VRビュー」に設定することでVR表示することができる。360度の画角を有するVR画像の一部の範囲を表示して、ユーザが表示装置の姿勢を左右方向(水平回転方向)に変化させることで、表示される範囲を移動し、左右方向に継ぎ目のない全方位の映像を観賞することができる。
VR表示(VRビュー)とは、VR画像のうち、表示装置の姿勢に応じた視野範囲の映像を表示する、表示範囲を変更可能な表示方法(表示モード)である。VR表示には、VR画像を仮想球体にマッピングする変形(歪曲補正)を行って1つの画像を表示する「1眼VR表示(1眼VRビュー)」がある。また、VR表示には、左眼用のVR画像と右眼用のVR画像とをそれぞれ仮想球体にマッピングする変形を行って左右の領域に並べて表示する「2眼VR表示(2眼VRビュー)」がある。互いに視差のある左眼用のVR画像と右眼用のVR画像を用いて「2眼VR表示」を行うことで、それらVR画像を立体視することが可能である。何れのVR表示であっても、例えば、ユーザがHMD(ヘッドマウントディスプレイ)などの表示装置を装着した場合、ユーザの顔の向きに応じた視野範囲の映像が表示される。例えば、VR画像のうち、ある時点で左右方向に0度(特定の方位、例えば北)、上下方向に90度(天頂から90度、すなわち水平)を中心とした視野範囲の映像を表示しているとする。この状態から表示装置の姿勢を表裏反転させる(例えば、表示面を南向きから北向きに変更する)と、同じVR画像のうち、左右方向に180度(逆の方位、例えば南)、上下方向に90度を中心とした視野範囲の映像に、表示範囲が変更される。すなわち、ユーザがHMDを装着した状態で、顔を北から南に向ける(すなわち後ろを向く)ことで、HMDに表示される映像も北の映像から南の映像に変更される。なお、レンズユニット300を用いて撮像したVR画像は、前方略180度の範囲を撮像したVR180の画像(180°画像)であり、後方略180度の範囲の映像は存在しない。このようなVR180の画像をVR表示して、映像が存在しない側に表示装置の姿勢を変更した場合にはブランク領域が表示される。
このようにVR画像をVR表示することによって、ユーザは視覚的にあたかもVR画像内(VR空間内)にいるような感覚(没入感)を得ることができる。なお、VR画像の表示方法は表示装置の姿勢を変更する方法に限られない。例えば、タッチパネルや方向ボタ
ンなどを介したユーザ操作に応じて、表示範囲を移動(スクロール)させてもよい。また、VR表示時(表示モード「VRビュー」時)において、姿勢変化による表示範囲の変更に加え、タッチパネルでのタッチムーブ、マウスなどでのドラッグ操作、方向ボタンの押下などに応じて表示範囲を移動させてもよい。なお、VRゴーグル(ヘッドマウントアダプタ)に装着されたスマートフォンはHMDの一種である。
図4は、2眼表示のライブビュー画像400を例示する図である。ライブビュー画像400は、右眼光学系301Rを介して撮像されたライブビュー画像に対応するライブビュー画像領域401Rと、左眼光学系301Lを介して撮像されたライブビュー画像に対応するライブビュー画像領域401Lとを含む。ライブビュー画像領域401Rおよびライブビュー画像領域401Lはそれぞれ円形であり、撮像された被写体は、円形の外縁に近づくほど大きく歪んでいる。
2眼表示により2つの光学系で2つの広視野画像が撮像されていることが分かるため、ユーザは、カメラ100にVR180用レンズユニットを装着してVR用画像を撮像している状態であることを認識しやすい。一方、2眼表示では1つの画面に2つの画像領域が表示されるため、1つの画像領域が表示される場合よりも被写体は小さく表示される。このため、2眼表示は、ユーザがタッチAFまたはタッチAFといったライブビュー画面をタッチすることで被写体を選択する機能を使用する場合には適していない。
本実施形態では、カメラ100は、2眼表示の際にユーザから所定の操作を受け付けた場合、一方の画像領域に代えて、他方の一部を拡大した拡大画像領域を表示する。したがって、カメラ100は、被写体選択を伴う機能を使用することに適した画像表示を行うことができる。
所定の操作は、例えば、拡大画像領域を表示する機能が割り当てられた操作部材に対する操作である。また、所定の操作は、ライブビュー画像領域401Rまたはライブビュー画像領域401Lに対するピンチアウト操作であってもよい。
図5を参照して、カメラ100がライブビュー画像を拡大表示する処理について説明する。図5は、実施形態1に係るカメラ100の拡大表示処理を例示するフローチャートである。図5に示す拡大表示処理は、システム制御部50が不揮発性メモリ219に記録されたプログラムをシステムメモリ218に展開して実行することにより実現される。図5に示す拡大表示処理は、カメラ100が静止画撮影モード、または動画撮影モードに設定されることにより開始され、静止画撮影モードおよび動画撮影モード以外のモードに変更されるまで、所定の時間間隔で繰り返し実行される。
ステップS501では、システム制御部50は、カメラ100に装着されたレンズユニットの種類の情報を取得して、2眼レンズユニット300を装着中であるか否かを判定する。以下の説明では、2眼レンズユニット300はVR180用レンズユニットとする。
システム制御部50は、カメラ100に装着されたレンズユニットと通信端子124,206,306を介して通信することで、レンズユニットからレンズユニットの種類の情報を取得することができる。カメラ100がVR180用レンズユニットを装着中である場合、処理はステップS502に進む。カメラ100がレンズユニットを装着していない場合、または1眼レンズユニットを装着中である場合、処理はステップS507に進む。
ステップS502では、システム制御部50は、基準目拡大モードを有効化する。基準目拡大モードは、2眼表示された画像領域のうち、基準目に対応する画像領域(以下、基準目画像領域とも称される)の一部を拡大した拡大画像領域を、他方の画像領域に代えて
表示するモードである。基準目画像領域に表示される基準目のライブビュー画像は、AF処理やAE処理等の各機能の入力として用いられる画像であり、右眼および左眼のいずれを基準目とするかは、あらかじめ設定されている。また、基準目を右眼とするか左眼とするかは、ユーザにより設定の変更が可能である。基準目は、撮影された画像を視聴する視聴者の基準目を想定して設定される。
基準目拡大モードの有効化は、具体的には、カメラのメニュー画面において、拡大ボタン113に対して基準目拡大モードのオンとオフの切替操作を割り当てるためのメニュー項目のグレーアウトを解除することである。基準目拡大モードが有効化されると、ユーザは、基準目拡大モードを設定することができるようになる。
なお、拡大モードのオンとオフの切替操作が拡大ボタン113以外のボタン(機能割り当てボタン)に割り当てられている場合、システム制御部50は、基準目拡大モードが有効化された状態では、拡大モードをオンにしないように制御する。すなわち、システム制御部50は、基準目拡大モードと拡大モードとが同時にオンにならないように制御する。
ステップS503では、システム制御部50は、VR180用レンズユニットを介して撮像部211により撮像されている2つのライブビュー画像領域を取得し、表示部108に2眼画像を表示する。2眼画像は、ライブビュー画像領域401Rおよびライブビュー画像領域401Lを並べた画像である。
ステップS504では、システム制御部50(受付手段)は、ユーザによりライブビュー画像領域の拡大表示を指示する拡大操作があったか否かを判定する。拡大操作は所定の操作に相当する。拡大操作は、具体的には、基準目拡大モードのオンとオフの切替操作が割り当てられた拡大ボタン113を押下する操作、または基準目拡大モードのオンとオフの切替操作が割り当てられた他の機能割り当てボタンを押下する操作である。
拡大操作は、タッチパネル109に対するピンチアウト操作であってもよい。ピンチアウト操作は、基準目画像領域に対する操作であっても、基準目ではない目に対応する画像領域(以下、非基準目画像領域とも称される)に対する操作であってもよい。すなわち、システム制御部50は、非基準目画像領域に対するピンチアウト操作を検出した場合もステップS505に進み、基準目画像領域の一部を拡大した拡大画像領域を、基準目画像領域とともに表示する。
システム制御部50は、拡大操作を検出した場合、ユーザからライブビュー画像領域の拡大操作があったと判定し、ステップS505に進む。システム制御部50は、拡大操作を検出しなかった場合、ユーザによる拡大操作はなかったと判定し、図5に示す拡大表示処理を終了する。
ステップS505では、システム制御部50は、ステップS503で取得した2つのライブビュー画像領域のうち、基準目画像領域の一部を拡大した拡大画像領域を生成する。基準目画像領域に表示されるライブビュー画像は、AF処理やAE処理等の各機能の入力となる画像である。基準目画像領域において、拡大表示の対象となる領域の範囲は、拡大枠で囲むことによって示される。
ステップS506では、システム制御部50は、ステップS503で取得した2つのライブビュー画像のうち、基準目に対応する基準目画像領域と、ステップS505で生成した拡大画像領域とを並べて表示する。すなわち、システム制御部50は、基準目画像領域と並べて表示されていた非基準目画像領域に代えて、拡大画像領域を表示するように制御する。
拡大画像領域が表示されることで、ユーザは、拡大画像領域に対するタッチ操作により、容易に被写体を選択することができる。なお、ユーザは、拡大画像領域が表示されている場合に、基準目画像領域に対するタッチ操作によって被写体を選択することも可能である。
図6(A)から6(D)を参照して、基準目画像領域および拡大画像領域の表示例について説明する。図6(A)は、表示部108の形状に合わせて基準目画像領域601Rから切り出して拡大した長方形の拡大画像領域601Lを、基準目画像領域601Rと並べて表示する例を示す図である。ライブビュー画像600は、ステップS503で取得した基準目画像領域601RおよびステップS505で生成した拡大画像領域601Lを含む。拡大画像領域601Lは、基準目画像領域601Rに表示している拡大枠602で囲われた範囲を拡大した画像領域である。
拡大枠602は、基準目画像領域601Rにおいて、拡大画像領域601Lに表示された領域を示す枠である。拡大枠602は、基準目画像領域601Rと拡大画像領域601Lとが並べて表示されている場合に、基準目画像領域601Rに重畳して表示される。
基準目画像領域601Rおよび拡大画像領域601Lのそれぞれに対し、左眼光学系または右眼光学系のどちらの光学系で撮像されたかを示すアイテム(ガイド603Rおよびガイド603L)が表示されてもよい。ガイド603Rおよびガイド603Lは、ガイド603Rのように基準目画像領域601Rに隣接する位置に表示されてもよく、ガイド603Lのように拡大画像領域601Lに重畳して表示されてもよい。図6(A)の例では、基準目画像領域601Rは右眼光学系で撮像されているため、ガイド603Rは「R」を表示する。また、拡大画像領域601Lは右眼光学系で撮像された基準目画像領域601Rを拡大した領域であるため、ガイド603Lは「R」を表示する。
基準目画像領域601Rおよび拡大画像領域601Lが表示されている場合、タッチAFまたはタッチAE等の機能で被写体を選択するためのタッチ操作は、どちらの画像領域でも受け付けることが可能である。
基準目画像領域601Rおよび拡大画像領域601Lが並べて表示されている状態で、タッチパネル109に対してピンチアウト操作またはピンチイン操作が行われると、システム制御部50は、拡大画像領域601Lの拡大縮小率を変更してもよい。システム制御部50は、拡大画像領域601Lの拡大縮小率が変更されると、拡大画像領域601Lの撮像範囲を示すように拡大枠602の大きさおよび位置を変更して、拡大枠602を基準目画像領域601Rに重畳表示させる。ピンチアウト操作およびピンチイン操作は、基準目画像領域601Rに対する操作であっても、拡大画像領域601Lに対する操作であってもよい。
なお、拡大枠602の形状および大きさは、図6(A)の例に限定されない。拡大枠602の形状は、例えば、拡大画像領域601Lに対応する領域を囲む楕円等の形状としてもよい。また、拡大枠602の大きさは、拡大画像領域601Lの拡大縮小率に応じて変更することができる。
図6(B)は、正方形の形状をした拡大枠605で囲われた範囲を拡大した拡大画像領域604Lを、基準目画像領域601Rと並べて表示する例を示す図である。拡大画像領域604Lは、拡大枠605と同じ形状で生成される。非基準目画像領域に代えて拡大画像領域604Lが表示された場合に、基準目画像領域601Rおよび拡大画像領域604Lを除く領域は、黒塗り(黒色)等の表示形態で示される。
図6(C)は、図6(A)と同様の表示に加えて、OSD(オンスクリーンディスプレイ)に各種情報を表示した例を示す図である。OSD表示606は、F値、ゲイン、シャッタースピード等の被写体の選択操作に関連しない情報を含み、基準目画像領域601Rに重畳させて表示される。一方、OSD表示607は、AF枠、AE枠、追尾枠といった被写体の選択操作に関連する情報を含み、拡大画像領域601Lに重畳させて表示される。被写体の選択操作に関連するOSD表示607のみを拡大画像領域601Lに重畳させることで、ユーザは、被写体の選択操作に不要な情報を視界から排除して操作に集中することができる。
図6(D)は、ライブビュー画像の表示領域が縦長である場合に、拡大画像領域601Lと基準目画像領域601Rとを縦方向に並べて表示する例を示す図である。カメラ100で撮像したライブビュー画像をスマートフォンのようなリモート端末で表示する場合、表示領域が縦長の場合がある。表示領域が縦長の場合に、基準目画像領域601Rと拡大画像領域601Lとを横方向に並べて表示すると、縦方向に並べた場合よりも小さく表示されるため、ユーザが被写体を選択することは困難になる。
したがって、縦長の表示領域を有するカメラ100またはスマートフォン等では、図6(D)のライブビュー画像608に示すように、基準目画像領域601Rと拡大画像領域601Lとは縦方向に並べて表示することが好ましい。このように、システム制御部50は、表示部108の縦横比に基づいて、基準目画像領域601Rと拡大画像領域601Lとを縦方向に並べて表示するか、横方向に並べて表示するかを切り替える。
図5のステップS507では、システム制御部50は、基準目拡大モードを無効化する。基準目拡大モードの無効化は、具体的には、カメラのメニュー画面において、拡大ボタン113に対して基準目拡大モードのオンとオフの切替操作を割り当てるためのメニュー項目をグレーアウトする。基準目拡大モードが無効化されると、基準目拡大モードは設定されないように制御することができる。
なお、拡大画像領域601Lの表示は、拡大画像領域を表示する機能が割り当てられた拡大ボタン113等の操作部材の押下によって解除される。また、拡大画像領域601Lの表示は、拡大ボタン113等に対する拡大画像領域を表示する機能の割り当てが解除されたとき、基準目拡大モードが無効化されたとき等にも解除される。拡大画像領域601Lの表示が解除されると、システム制御部50は、基準目画像領域および非基準目画像領域を含む2眼画像を表示する。
ステップS508では、システム制御部50は、1眼レンズユニットを介して撮像部211により撮像されているライブビュー画像を取得し、表示部108にライブビュー表示をする。
ステップS509では、システム制御部50は、ユーザによりライブビュー画像の拡大表示を指示する拡大操作があったか否かを判定する。1眼レンズユニット装着時の拡大操作は、具体的には、拡大ボタン113を押下する操作である。また、拡大操作は、タッチパネル109に対するピンチアウト操作であってもよい。システム制御部50は、拡大操作を検出した場合、ユーザからライブビュー画像領域の拡大操作があったと判定し、ステップS510に進む。システム制御部50は、拡大操作を検出しなかった場合、ユーザによる拡大操作はなかったと判定し、図5に示す拡大表示処理を終了する。
ステップS510では、システム制御部50は、ステップS508で取得したライブビュー画像の一部を拡大して表示する。
実施形態1では、カメラ100は、2眼表示中にユーザからの所定の操作を受け付けると、基準目画像領域と、基準目画像領域の一部を拡大した拡大画像領域とを並べて表示する。ユーザは、限られた表示領域でも拡大画像領域において被写体を選択しやすくなる。また、拡大画像領域に対応する領域を示す拡大枠が基準目画像領域に重畳表示されることで、ユーザは、拡大画像領域が撮像範囲全体のどこに位置しているかを容易に判断することができる。このように、カメラ100は、被写体選択を伴う機能の使用に適した画像表示をすることができる。
〔実施形態2〕
実施形態1では、カメラ100は、ユーザから拡大表示を指示する拡大操作を受け付けた場合に、基準目画像領域および拡大画像領域を並べて表示する。これに対し、実施形態2では、カメラ100は、タッチAFまたはタッチAE等の被写体の選択操作を伴う機能が有効に設定された場合に、基準目画像領域および拡大画像領域を並べて表示する。実施形態2では、所定の操作は、被写体の選択操作を伴う機能を有効にする操作である。図1~図4で説明したカメラ100の構成およびライブビュー画像の表示例等は実施形態1と同様であるため、説明は省略する。
図7は、実施形態2に係るカメラ100の拡大表示処理を例示するフローチャートである。図7に示す拡大表示処理は、カメラ100が静止画撮影モード、または動画撮影モードに設定されることにより開始され、静止画撮影モードおよび動画撮影モード以外のモードに変更されるまで、所定の時間間隔で繰り返し実行される。ステップS701~ステップS703の処理は、実施形態1のステップS501~ステップS503と同様である。
ステップS704では、システム制御部50は、タッチAFまたはタッチAE等の被写体選択を伴う機能がオンに設定されたか否かを判定する。被写体選択を伴う機能がオンに設定された場合、処理はステップS705に進み、被写体選択を伴う機能がオンに設定されていない場合、図7に示す処理は終了する。
ステップS705~ステップS710の処理は、実施形態1のステップS505~ステップS510の処理と同様である。なお、拡大画像領域の表示は、被写体選択を伴う機能がオフに設定されることにより解除され、システム制御部50は、基準目画像領域および非基準目画像領域を含む2眼画像を表示する。
実施形態2では、カメラ100は、タッチAFおよびタッチAE等の被写体選択を伴う機能がオンに設定された場合に、基準目画像領域および拡大画像領域を並べて表示する。したがって、ユーザは、被写体選択を伴う機能をオンに設定すれば、追加の操作を実行することなく拡大画像領域を表示させることができる。
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。
また、上述の実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いてプログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのプログラムを実行する場合も本発明に含む。従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、O
Sに供給するスクリプトデータ等、プログラムの形態を問わない。
プログラムを供給するための記録媒体としては、例えば、ハードディスク、磁気テープ等の磁気記録媒体、光/光磁気記憶媒体、不揮発性の半導体メモリでもよい。また、プログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムを記憶し、接続のあったクライアントコンピュータがコンピュータプログラムをダウンロードする方法も考えられる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本実施形態の開示は、以下の構成、方法およびプログラムを含む。
(構成1)
第1の光学系を介して撮像された第1画像領域と、第2の光学系を介して撮像された第2画像領域とが並んだ画像を取得する取得手段と、
前記第1画像領域と前記第2画像領域とを表示部に表示する表示制御手段と、
ユーザから所定の操作を受け付ける受付手段と
を有し、
前記表示制御手段は、前記ユーザから前記所定の操作を受け付けた場合に、前記第2画像領域に代えて、前記第1画像領域の一部を拡大した拡大画像領域を表示するように制御する
ことを特徴とする電子機器。
(構成2)
前記表示制御手段は、前記第1画像領域と前記拡大画像領域とを並べて表示している場合に、前記拡大画像領域に表示した領域を示す枠を前記第1画像領域に重畳表示する
ことを特徴とする構成1に記載の電子機器。
(構成3)
前記第1画像領域は、右眼および左眼のうち基準目として設定された目に対応する光学系を介して撮像された画像領域である
ことを特徴とする構成1または2に記載の電子機器。
(構成4)
前記表示制御手段は、前記第2画像領域に代えて前記拡大画像領域を表示する場合に、前記第1画像領域および前記拡大画像領域を除く領域を黒色とする
ことを特徴とする構成1~3のいずれか1項に記載の電子機器。
(構成5)
前記表示制御手段は、前記拡大画像領域では、被写体の選択操作に関連する情報を重畳表示し、前記被写体の選択操作に関連しない情報を重畳表示しない
ことを特徴とする構成1~4のいずれか1項に記載の電子機器。
(構成6)
前記表示制御手段は、前記表示部の縦横比に基づいて、前記第1画像領域と前記第2画像領域とを縦方向に並べて表示するか、横方向に並べて表示するかを切り替える
ことを特徴とする構成1~5のいずれか1項に記載の電子機器。
(構成7)
前記所定の操作は、前記拡大画像領域を表示する機能が割り当てられた操作部材に対する操作、前記第1画像領域または前記第2画像領域に対するピンチアウト操作、または被写体の選択操作を伴う機能を有効にする操作である
ことを特徴とする構成1~6のいずれか1項に記載の電子機器。
(構成8)
前記表示制御手段は、前記第2画像領域に代えて前記拡大画像領域を表示している状態で、前記第1画像領域または前記拡大画像領域に対するピンチイン操作またはピンチアウト操作を受け付けた場合に、前記ピンチイン操作または前記ピンチアウト操作に基づいて、前記拡大画像領域の拡大縮小率を変更する
ことを特徴とする構成1~7のいずれか1項に記載の電子機器。
(構成9)
前記表示制御手段は、前記第1画像領域、前記第2画像領域、および前記拡大画像領域のそれぞれが前記第1の光学系で撮像されたか前記第2の光学系で撮像されたかを示すアイテムを表示する
ことを特徴とする構成1~8のいずれか1項に記載の電子機器。
(方法)
第1の光学系を介して撮像された第1画像領域と、第2の光学系を介して撮像された第2画像領域とが並んだ画像を取得する取得ステップと、
前記第1画像領域と前記第2画像領域とを表示部に表示する表示制御ステップと、
ユーザから所定の操作を受け付ける受付ステップと
前記ユーザから前記所定の操作を受け付けた場合に、前記第2画像領域に代えて、前記第1画像領域の一部を拡大した拡大画像領域を表示するように制御する制御ステップと
を有することを特徴とする電子機器の制御方法。
(プログラム)
上述した電子機器の制御方法の各ステップをコンピュータに実行させるためのプログラム。
50:システム制御部、100:カメラ(電子機器)、108:表示部、113:拡大ボタン、228:操作部、214:画像処理部、300:2眼レンズユニット

Claims (11)

  1. 第1の光学系を介して撮像された第1画像領域と、第2の光学系を介して撮像された第2画像領域とが並んだ画像を取得する取得手段と、
    前記第1画像領域と前記第2画像領域とを表示部に表示する表示制御手段と、
    ユーザから所定の操作を受け付ける受付手段と
    を有し、
    前記表示制御手段は、前記ユーザから前記所定の操作を受け付けた場合に、前記第2画像領域に代えて、前記第1画像領域の一部を拡大した拡大画像領域を表示するように制御する
    ことを特徴とする電子機器。
  2. 前記表示制御手段は、前記第1画像領域と前記拡大画像領域とを並べて表示している場合に、前記拡大画像領域に表示した領域を示す枠を前記第1画像領域に重畳表示する
    ことを特徴とする請求項1に記載の電子機器。
  3. 前記第1画像領域は、右眼および左眼のうち基準目として設定された目に対応する光学系を介して撮像された画像領域である
    ことを特徴とする請求項1または2に記載の電子機器。
  4. 前記表示制御手段は、前記第2画像領域に代えて前記拡大画像領域を表示する場合に、前記第1画像領域および前記拡大画像領域を除く領域を黒色とする
    ことを特徴とする請求項1または2に記載の電子機器。
  5. 前記表示制御手段は、前記拡大画像領域では、被写体の選択操作に関連する情報を重畳表示し、前記被写体の選択操作に関連しない情報を重畳表示しない
    ことを特徴とする請求項1または2に記載の電子機器。
  6. 前記表示制御手段は、前記表示部の縦横比に基づいて、前記第1画像領域と前記第2画像領域とを縦方向に並べて表示するか、横方向に並べて表示するかを切り替える
    ことを特徴とする請求項1または2に記載の電子機器。
  7. 前記所定の操作は、前記拡大画像領域を表示する機能が割り当てられた操作部材に対する操作、前記第1画像領域または前記第2画像領域に対するピンチアウト操作、または被写体の選択操作を伴う機能を有効にする操作である
    ことを特徴とする請求項1または2に記載の電子機器。
  8. 前記表示制御手段は、前記第2画像領域に代えて前記拡大画像領域を表示している状態で、前記第1画像領域または前記拡大画像領域に対するピンチイン操作またはピンチアウト操作を受け付けた場合に、前記ピンチイン操作または前記ピンチアウト操作に基づいて、前記拡大画像領域の拡大縮小率を変更する
    ことを特徴とする請求項1または2に記載の電子機器。
  9. 前記表示制御手段は、前記第1画像領域、前記第2画像領域、および前記拡大画像領域のそれぞれが前記第1の光学系で撮像されたか前記第2の光学系で撮像されたかを示すアイテムを表示する
    ことを特徴とする請求項1または2に記載の電子機器。
  10. 第1の光学系を介して撮像された第1画像領域と、第2の光学系を介して撮像された第2画像領域とが並んだ画像を取得する取得ステップと、
    前記第1画像領域と前記第2画像領域とを表示部に表示する表示制御ステップと、
    ユーザから所定の操作を受け付ける受付ステップと
    前記ユーザから前記所定の操作を受け付けた場合に、前記第2画像領域に代えて、前記第1画像領域の一部を拡大した拡大画像領域を表示するように制御する制御ステップと
    を有することを特徴とする電子機器の制御方法。
  11. 請求項10に記載の電子機器の制御方法の各ステップをコンピュータに実行させるためのプログラム。
JP2022133643A 2022-08-24 2022-08-24 電子機器および電子機器の制御方法 Pending JP2024030637A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022133643A JP2024030637A (ja) 2022-08-24 2022-08-24 電子機器および電子機器の制御方法
US18/360,205 US20240073511A1 (en) 2022-08-24 2023-07-27 Electronic apparatus, control method for electronic apparatus and storage medium
CN202311067114.3A CN117641080A (zh) 2022-08-24 2023-08-23 电子设备及其控制方法和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022133643A JP2024030637A (ja) 2022-08-24 2022-08-24 電子機器および電子機器の制御方法

Publications (1)

Publication Number Publication Date
JP2024030637A true JP2024030637A (ja) 2024-03-07

Family

ID=89995381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022133643A Pending JP2024030637A (ja) 2022-08-24 2022-08-24 電子機器および電子機器の制御方法

Country Status (3)

Country Link
US (1) US20240073511A1 (ja)
JP (1) JP2024030637A (ja)
CN (1) CN117641080A (ja)

Also Published As

Publication number Publication date
US20240073511A1 (en) 2024-02-29
CN117641080A (zh) 2024-03-01

Similar Documents

Publication Publication Date Title
US11849100B2 (en) Information processing apparatus, control method, and non-transitory computer readable medium
US20240205534A1 (en) Electronic equipment, method for controlling the same, and recording medium
US20220385829A1 (en) Information processing apparatus, control method, and storage medium
JP2022184712A (ja) 情報処理装置、撮像装置、制御方法、プログラム、および記憶媒体
JP2024030637A (ja) 電子機器および電子機器の制御方法
US20240241381A1 (en) Electronic device
JP2021069045A (ja) 表示制御装置、表示制御方法、プログラムおよび記憶媒体
US20220398688A1 (en) Image processing apparatus, image processing method, and storage medium
US12143709B2 (en) Imaging apparatus
EP4307660A1 (en) Information processing apparatus, information processing method, and program
US20240357067A1 (en) Imaging apparatus, control method of imaging apparatus, and non-transitory computer readable medium
US11843894B2 (en) Electronic apparatus, method of controlling the same, and storage medium
US20230281768A1 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
US20220385883A1 (en) Image processing apparatus, image processing method, and storage medium
JP2023184106A (ja) 表示制御装置、表示制御方法、プログラム、および記憶媒体
JP2024030580A (ja) 電子機器および電子機器の制御方法
US20230209177A1 (en) Imaging apparatus
US20220385830A1 (en) Electronic apparatus, control method, and non-transitory computer readable medium
JP2023181634A (ja) 電子機器、電子機器の制御方法、プログラム
JP2023102947A (ja) 情報処理装置、その制御方法およびプログラム
JP2023176161A (ja) 情報処理装置、撮像装置、情報処理方法、プログラム
JP2021158559A (ja) 電子機器、その制御方法およびプログラム
JP2022183844A (ja) 電子機器及びその制御方法及びプログラム及び記録媒体
JP2024098310A (ja) 電子機器、その制御方法およびプログラム
JP2023142979A (ja) 電子機器、電子機器の制御方法、プログラム、および記憶媒体