[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2018107553A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2018107553A
JP2018107553A JP2016250366A JP2016250366A JP2018107553A JP 2018107553 A JP2018107553 A JP 2018107553A JP 2016250366 A JP2016250366 A JP 2016250366A JP 2016250366 A JP2016250366 A JP 2016250366A JP 2018107553 A JP2018107553 A JP 2018107553A
Authority
JP
Japan
Prior art keywords
image
camera
sub
difference
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016250366A
Other languages
Japanese (ja)
Inventor
参納 雅人
Masahito Sanno
雅人 参納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016250366A priority Critical patent/JP2018107553A/en
Publication of JP2018107553A publication Critical patent/JP2018107553A/en
Pending legal-status Critical Current

Links

Landscapes

  • Cameras In General (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem in which, in an imaging apparatus for wipe-displaying as sub-screens images photographed by a plurality of separate cameras to an image photographed by a main camera, if an image with a high degree of similarity to the image being captured by the main camera is output as a sub-screen, there is no difference between a main-screen and a sub-screen and meaningless images even if viewed at the same time are wipe-displayed.SOLUTION: For each image of a separate camera shooting the same subject as the subject shot by a main camera, a degree of difference indicating a degree of a difference from the image photographed by the main camera is obtained. From the degree of difference obtained for each image of a separate camera, an image of a camera calculated as having the greatest difference from the image of the main camera is selected for a sub screen.SELECTED DRAWING: Figure 2

Description

本発明は、撮像装置及び撮像装置における制御方法に関する。   The present invention relates to an imaging apparatus and a control method in the imaging apparatus.

従来より同一シーンを多角的に表現するために、メインのカメラで撮影している親画像の中に別カメラやスマートフォンで撮影された画像などを子画面として画像表示装置にワイプ表示したり、ワイプ表示した状態の画像を記録する機能を備えた撮像装置がある。例えば、特許文献1では同一被写体の様子をリアルタイムに比較しながら撮影を行うことを可能とするために、像表示装置の親画面に子画面をワイプ出力し、子画面の画像として表示する画像を記録された画像の中から親画面と類似度の高い画像を抽出して選択する撮像装置が提案されている。   Conventionally, to display the same scene from multiple perspectives, the parent image captured by the main camera can be displayed on the image display device as a sub-screen. There is an imaging device having a function of recording an image in a displayed state. For example, in Patent Document 1, in order to enable shooting while comparing the state of the same subject in real time, a child screen is wiped out on the parent screen of the image display device, and an image to be displayed as the child screen image is displayed. There has been proposed an imaging apparatus that extracts and selects an image having a high similarity to the parent screen from recorded images.

特許4173379号Japanese Patent No. 4173379

例えば親画面と子画面を組み合わせて表示または記録する撮像装置において、メインカメラとは別のカメラが複数存在している場合など子画面とする画像が複数存在する場合は、子画面を表示するスペースやワイプ表示の見易さの問題などにより、複数の画像の中から子画面とする画像を絞り込んで選択する必要がある。   For example, in an imaging device that displays or records a combination of a main screen and a sub-screen, when there are multiple images that are sub-screens, such as when there are a plurality of cameras different from the main camera, a space for displaying the sub-screen It is necessary to narrow down and select an image as a child screen from a plurality of images due to the problem of visibility of the wipe display and the like.

しかしながら、メインカメラで撮影している画像と類似度の高い画像を子画面として出力すると、親画面と子画面の間に差分が無くなってしまうことがある。そのため、同時に見る意味の無い画像をワイプ表示され、複数カメラの撮影による画像表示または画像記録の意味が無くなってしまう場合がある。   However, if an image having a high degree of similarity to the image captured by the main camera is output as a child screen, there may be no difference between the parent screen and the child screen. For this reason, images that are meaningless to be viewed at the same time are displayed as wipes, and the meaning of image display or image recording by photographing with a plurality of cameras may be lost.

そこで、メインカメラで撮影している被写体と同一被写体が撮影されている別カメラの画像それぞれに対して、メインカメラで撮影された画像との差分の度合いを示す相違度を求める。別カメラの画像それぞれに求めた相違度から、最もメインカメラの画像との差分の大きいと算出されたカメラの画像を子画面として選択する。   Therefore, the degree of difference indicating the degree of difference between the image captured by the main camera and the image captured by the main camera is obtained for each of the images captured by another camera in which the same subject is captured by the main camera. Based on the degree of difference obtained for each image of another camera, the image of the camera that is calculated to have the largest difference from the image of the main camera is selected as the sub-screen.

親画面と子画面の両方で同一被写を撮影していても、子画面としてインカメラの画像との画像差分の大きい画像を選択することによって、子画面は親画面に対して同一被写体を異なる視点でとらえた画像となる。異なる視点の画像を組み合わせて記録することによって、同一被写体が写っていても互いの画像の視点の違いにより複数カメラの撮影による子画面表示の効果を発揮することができる。   Even if the same subject is shot on both the main screen and the sub screen, the sub screen differs from the main screen by selecting an image with a large image difference from the in-camera image as the sub screen. The image is captured from the viewpoint. By recording images from different viewpoints in combination, even if the same subject is captured, the effect of displaying a small screen by photographing with a plurality of cameras can be exhibited due to the difference in the viewpoints of the images.

本発明の構成の例を示すデジタルカメラを示す図であるIt is a figure which shows the digital camera which shows the example of a structure of this invention. 本実施例を示すフローチャートであるIt is a flowchart which shows a present Example. 本実施例の相違度を求める例を示す図であるIt is a figure which shows the example which calculates | requires the difference degree of a present Example. 本実施例の相違度を求める例を示すグラフであるIt is a graph which shows the example which calculates | requires the difference degree of a present Example. 本実施例の相違度を求める例を示す図であるIt is a figure which shows the example which calculates | requires the difference degree of a present Example. 本実施例の相違度を求める例を示すグラフであるIt is a graph which shows the example which calculates | requires the difference degree of a present Example. 本実施例の相違度を求める例を示す図であるIt is a figure which shows the example which calculates | requires the difference degree of a present Example. 本実施例の相違度を求める例を示すグラフであるIt is a graph which shows the example which calculates | requires the difference degree of a present Example. 本実施例の相違度を求める例を示す図であるIt is a figure which shows the example which calculates | requires the difference degree of a present Example. 本実施例の相違度を求める例を示すグラフであるIt is a graph which shows the example which calculates | requires the difference degree of a present Example. 本実施例の相違度を求める例を示す図であるIt is a figure which shows the example which calculates | requires the difference degree of a present Example. 本実施例の相違度を求める例を示すグラフであるIt is a graph which shows the example which calculates | requires the difference degree of a present Example. メインカメラで撮影された画像選択された子画面とする画像の例を示す図であるIt is a figure which shows the example of the image made into the subscreen by which the image image | photographed with the main camera was selected.

本発明をデジタルカメラを例に用いて説明をおこなう。以下、図面を参照して本発明の実施例を説明する。図1は、本発明の実施例の構成を示す図である。図1において、100は画像処理装置である。撮像装置100はメインカメラとサブカメラの2つの撮像部を備えている。10−1はメインカメラ10−2はサブカメラの撮影レンズ、12−1はメインカメラ12−2はサブカメラの絞り機能を備える機械式シャッター、14−1はメインカメラ14−2はサブカメラの光学像を電気信号に変換する撮像素子、16−1および16−2は撮像素子14−1および14−2に対応するアナログ信号出力をデジタル信号に変換するA/D変換器である。   The present invention will be described using a digital camera as an example. Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing a configuration of an embodiment of the present invention. In FIG. 1, reference numeral 100 denotes an image processing apparatus. The imaging apparatus 100 includes two imaging units, a main camera and a sub camera. Reference numeral 10-1 denotes a main camera 10-2, an imaging lens of a sub camera, 12-1 denotes a main camera 12-2, a mechanical shutter having a sub camera aperture function, and 14-1 denotes a main camera 14-2. Imaging elements 16-1 and 16-2 for converting an optical image into an electrical signal are A / D converters for converting an analog signal output corresponding to the imaging elements 14-1 and 14-2 into a digital signal.

18−1および18−2は対応する撮像素子14−1、14−2、対応するA/D変換器16−1,16−2にクロック信号や制御信号を供給するタイミング発生回路であり、メモリ制御回路22及びシステム制御回路50により制御される。12−1および12−2の機械式シャッター以外にも、18−1または18−2の撮像素子のリセットタイミングの制御によって、電子シャッタとして、蓄積時間を制御することが可能であり、動画撮影などに使用可能である。   Reference numerals 18-1 and 18-2 denote timing generation circuits for supplying clock signals and control signals to the corresponding imaging devices 14-1 and 14-2 and corresponding A / D converters 16-1 and 16-2. Control is performed by the control circuit 22 and the system control circuit 50. In addition to the mechanical shutters 12-1 and 12-2, the storage time can be controlled as an electronic shutter by controlling the reset timing of the image sensor 18-1 or 18-2. Can be used.

20−1および20−2は画像処理回路であり、 A/D変換器16−1または16−2からのデータ或いはメモリ制御回路22からのデータに対して画像拡大/縮小のための画素補間処理や色変換処理、ノイズ除去処理やエッジ強調処理などを行う。また、画像処理回路20−1および20−2においてはメモリ制御回路22からの画像データに対して顔領域を検出する顔検出処理や顔認証のための顔の特徴データの生成なども行う。   Reference numerals 20-1 and 20-2 denote image processing circuits, and pixel interpolation processing for image enlargement / reduction with respect to data from the A / D converter 16-1 or 16-2 or data from the memory control circuit 22 And color conversion processing, noise removal processing and edge enhancement processing. Further, the image processing circuits 20-1 and 20-2 also perform face detection processing for detecting a face area on the image data from the memory control circuit 22, generation of face feature data for face authentication, and the like.

その他にも、画像処理回路20−1および20−2では、TTL方式のAWB(オートホワイトバランス)処理をするために撮像した画像データを用いて所定の演算処理を行い、得られた演算結果をWB(ホワイトバランス)評価値として算出したり、算出されたWB評価値を基に画像データの色の変換なども行う。さらに、画像処理回路20−1および20−2では、TTL方式のAF処理、AE処理、EF処理を行うための、AF評価値、AE評価値、EF評価値を算出するために、撮像した画像データを用いて所定の演算処理を行う。   In addition, the image processing circuits 20-1 and 20-2 perform predetermined arithmetic processing using image data captured for TTL AWB (auto white balance) processing, and the obtained arithmetic results are displayed. Calculation is performed as a WB (white balance) evaluation value, or color conversion of image data is performed based on the calculated WB evaluation value. Further, in the image processing circuits 20-1 and 20-2, captured images are used to calculate AF evaluation values, AE evaluation values, and EF evaluation values for performing TTL AF processing, AE processing, and EF processing. Predetermined arithmetic processing is performed using the data.

得られたAF評価値、AE評価値、EF評価値を基にシステム制御回路50が、アルゴリズムに従って露光制御手段40−1や40−2、測距制御手段42−1や42−2に対して制御を行う。22はメモリ制御回路であり、A/D変換器16−1および16−2、タイミング発生回路18−1および18−2、画像処理回路20、メモリ30、圧縮・伸長回路32を制御する。A/D変換器16のデータが画像処理回路20、メモリ制御回路22を介して、或いはA/D変換器16のデータが直接メモリ制御回路22を介して、メモリ30に書き込まれる。   Based on the obtained AF evaluation value, AE evaluation value, and EF evaluation value, the system control circuit 50 applies to the exposure control means 40-1 and 40-2 and the distance measurement control means 42-1 and 42-2 according to the algorithm. Take control. A memory control circuit 22 controls the A / D converters 16-1 and 16-2, the timing generation circuits 18-1 and 18-2, the image processing circuit 20, the memory 30, and the compression / decompression circuit 32. The data of the A / D converter 16 is written into the memory 30 via the image processing circuit 20 and the memory control circuit 22, or the data of the A / D converter 16 is directly written via the memory control circuit 22.

28はTFT LCD等から成る画像表示部であり、メモリ30に書き込まれた表示用の画像データはメモリ制御回路22を介して画像表示部28により表示される。また、画像表示部28はメモリ30に書き込まれた複数の画像を同時に表示することも可能である。画像表示部28を用いて撮像した画像データを逐次表示すれば、電子ファインダー機能を実現することが可能である。   Reference numeral 28 denotes an image display unit composed of a TFT LCD or the like. Display image data written in the memory 30 is displayed by the image display unit 28 via the memory control circuit 22. The image display unit 28 can also display a plurality of images written in the memory 30 at the same time. If the image data captured using the image display unit 28 is sequentially displayed, the electronic viewfinder function can be realized.

また、画像表示部28は、システム制御回路50の指示により任意に表示をON/OFFすることが可能であり、表示をOFFにした場合には画像処理装置100の電力消費を大幅に低減することが出来る。30は撮影した静止画像や動画像を格納するためのメモリであり、所定枚数の静止画像や所定時間の動画像を格納するのに十分な記憶量を備えている。これにより、複数枚の静止画像を扱う場合や動画撮影の場合にも、高速かつ大量の画像書き込みをメモリ30に対して行うことが可能となる。   The image display unit 28 can arbitrarily turn on / off the display according to an instruction from the system control circuit 50. When the display is turned off, the power consumption of the image processing apparatus 100 can be greatly reduced. I can do it. Reference numeral 30 denotes a memory for storing captured still images and moving images, and has a sufficient storage capacity to store a predetermined number of still images and a predetermined time of moving images. This makes it possible to write a large amount of images to the memory 30 at a high speed even when handling a plurality of still images or shooting a moving image.

また、メモリ30は認証用の特徴データを一時記憶する領域やシステム制御回路50の作業領域としても使用することが可能である。31はFlashROM等で構成された不揮発性メモリである。システム制御回路50が実行するプログラムコードは不揮発性メモリ31に書き込まれ、逐次読み出しながらプログラムコードを実行する。また、不揮発性メモリ内には認証用の顔の特徴データを辞書データとして記憶する領域や、システム情報を記憶する領域、ユーザー設定情報を記憶する領域を設け、さまざまな情報や設定を次回起動時に読み出して、復元することを実現している。   The memory 30 can also be used as an area for temporarily storing feature data for authentication and a work area for the system control circuit 50. Reference numeral 31 denotes a non-volatile memory composed of a flash ROM or the like. The program code executed by the system control circuit 50 is written in the nonvolatile memory 31, and the program code is executed while being read sequentially. In addition, the non-volatile memory has an area for storing facial feature data for authentication as dictionary data, an area for storing system information, and an area for storing user setting information. It can be read and restored.

32は適応離散コサイン変換(ADCT)等により画像データを圧縮伸長する圧縮・伸長回路であり、メモリ30に格納された画像を読み込んで圧縮処理或いは伸長処理を行い、処理を終えたデータをメモリ30に書き込む。40−1はメインカメラ40−2はサブカメラ用の露光制御手段で絞り機能を備えるシャッター12−1または12−2を制御する。42−1はメインカメラ42−2はサブカメラ用の測距制御手段で、撮影レンズ10−1または10−2のフォーカシングを制御し、44−1はメインカメラ44−2はサブカメラ用のズーム制御手段で撮影レンズ10−1または10−2のズーミングを制御する。   Reference numeral 32 denotes a compression / decompression circuit that compresses and decompresses image data by adaptive discrete cosine transform (ADCT) or the like, reads an image stored in the memory 30, performs compression processing or decompression processing, and stores the processed data in the memory 30. Write to. The main camera 40-2 is an exposure control means for a sub camera, and controls the shutter 12-1 or 12-2 having an aperture function. 42-1 is a distance measuring control means for the main camera 42-2 and controls the focusing of the photographing lens 10-1 or 10-2, and 44-1 is a zoom for the sub camera. The zooming of the taking lens 10-1 or 10-2 is controlled by the control means.

48はフラッシュであり、AF補助光の投光機能、フラッシュ調光機能も有する。露光制御手段40−1および40−2、測距制御手段42−1および42−2はTTL方式を用いて制御されており、撮像した画像データを画像処理回路20−1または20−2によって演算した演算結果に基づき、システム制御回路50が露光制御手段40、測距制御手段42−1または42−2に対して制御を行う。   A flash 48 has an AF auxiliary light projecting function and a flash light control function. The exposure control means 40-1 and 40-2 and the distance measurement control means 42-1 and 42-2 are controlled using the TTL system, and the captured image data is calculated by the image processing circuit 20-1 or 20-2. Based on the calculated result, the system control circuit 50 controls the exposure control means 40 and the distance measurement control means 42-1 or 42-2.

50は画像処理装置100全体を制御するシステム制御回路である。60、62、64、66、70及び72は、システム制御回路50の各種の動作指示を入力するための操作手段であり、スイッチやダイアル、タッチパネル、視線検知によるポインティング、音声認識装置等の単数或いは複数の組み合わせで構成される。   A system control circuit 50 controls the entire image processing apparatus 100. Reference numerals 60, 62, 64, 66, 70, and 72 denote operation means for inputting various operation instructions of the system control circuit 50. A single unit such as a switch, a dial, a touch panel, pointing by line-of-sight detection, a voice recognition device, or the like Consists of multiple combinations.

ここで、これらの操作手段の具体的な説明を行う。60はモードダイアルスイッチで、電源オフ、自動撮影モード、撮影モード、パノラマ撮影モード、動画撮影モード、複数カメラの同時撮影モードや再生モード、PC接続モード等の各機能モードを切り替え設定することが出来る。62はシャッタースイッチSW1で、シャッターボタンの操作途中でONとなり、モードダイアルスイッチ60で設定したオードに応じてメインカメラかサブカメラ、メインカメラとサブカメラの両方に対して、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理等の動作開始を指示する。   Here, a specific description of these operating means will be given. Reference numeral 60 denotes a mode dial switch which can be set to switch between power-off, automatic shooting mode, shooting mode, panoramic shooting mode, movie shooting mode, simultaneous shooting mode of multiple cameras, playback mode, PC connection mode, and the like. . Reference numeral 62 denotes a shutter switch SW1, which is turned ON during the operation of the shutter button, and performs AF (autofocus) processing for the main camera or sub camera, or both the main camera and sub camera according to the order set by the mode dial switch 60. , AE (automatic exposure) processing, AWB (auto white balance) processing and the like start operation.

64はシャッタースイッチSW2で、シャッターボタンの操作完了でONとなる。フラッシュ撮影の場合、EF(フラッシュプリ発光)処理を行った後に、AE処理で決定された露光時間分、撮像素子14−1と14−2の少なくとも一方を露光させ、フラッシュ撮影の場合、この露光期間中に発光させて、露光期間終了と同時に露光制御手段40−1または40−2の少なくとも一方により遮光することで、撮像素子14−1または14−2の少なくとも一方への露光を終了させる。   A shutter switch SW2 64 is turned on when the operation of the shutter button is completed. In the case of flash photography, after performing EF (flash pre-emission) processing, at least one of the image sensors 14-1 and 14-2 is exposed for the exposure time determined by the AE processing. Light is emitted during the period, and at least one of the exposure control means 40-1 and 40-2 is shielded from light simultaneously with the end of the exposure period, thereby completing the exposure to at least one of the image sensor 14-1 or 14-2.

撮像素子14−1または14−2から読み出した信号をA/D変換器16−1または16−2、メモリ制御回路22を介してメモリ30に画像データを書き込む読み出し処理、画像処理回路20−1または20−2やメモリ制御回路22での演算を用いた現像処理、メモリ30から画像データを読み出し、圧縮・伸長回路32で圧縮を行う、次に記録媒体200に画像データを書き込む記録処理という一連の処理の動作開始を指示する。また、64のシャッタースイッチSW2の発動によりモードダイアルスイッチ60で設定したオードに応じて後述する通信装置110を介して画像を取得する。   Read processing for writing the signal read from the image sensor 14-1 or 14-2 to the memory 30 via the A / D converter 16-1 or 16-2 and the memory control circuit 22, and the image processing circuit 20-1 Alternatively, a series of development processing using calculation in 20-2 or the memory control circuit 22, reading processing of image data from the memory 30, compression by the compression / decompression circuit 32, and recording processing for writing image data to the recording medium 200. The operation start of the process is instructed. Further, an image is acquired via the communication device 110 described later in accordance with the mode set by the mode dial switch 60 by the activation of the 64 shutter switch SW2.

66は表示切替スイッチで、画像表示部28の表示切替をすることが出来る。この機能により、光学ファインダー104を用いて撮影を行う際に、TFT LCD等から成る画像表示部への電流供給を遮断することにより、省電力を図ることが可能となる。70は各種ボタン、タッチパネルや回転式ダイアル等からなる操作部で、メニューボタン、セットボタン、マクロボタン、マルチ画面再生改ページボタン、フラッシュ設定ボタン、単写/連写/セルフタイマー切り替えボタン等がある。またメニュー移動+(プラス)ボタン、メニュー移動−(マイナス)ボタン、再生画像移動+(プラス)ボタン、再生画像−(マイナス)ボタン、撮影画質選択ボタン、露出補正ボタン、日付/時間設定ボタン等もある。   Reference numeral 66 denotes a display changeover switch, which can change the display of the image display unit 28. With this function, when photographing is performed using the optical viewfinder 104, it is possible to save power by cutting off the current supply to the image display unit including a TFT LCD or the like. Reference numeral 70 denotes an operation unit including various buttons, a touch panel, a rotary dial, and the like, which include a menu button, a set button, a macro button, a multi-screen playback page break button, a flash setting button, a single shooting / continuous shooting / self-timer switching button, and the like. . Menu move + (plus) button, menu move-(minus) button, playback image move + (plus) button, playback image-(minus) button, shooting quality selection button, exposure compensation button, date / time setting button, etc. is there.

72−1または72−2はユーザーが撮像画像の倍率変更指示を行うズーム操作手段としてのズームスイッチ部である。以下、ズームスイッチ72−1または72−2ともいう。このズームスイッチ72−1または72−2は、撮像画角を望遠側に変更させるテレスイッチと、広角側に変更させるワイドスイッチからなる。このズームスイッチ72を用いることにより、ズーム制御手段44−1または44−2を制御して撮影レンズ10−1または10−2の撮像画角の変更を指示し光学ズーム操作を行うトリガとなる。また、画像処理回路20−1または20−2による画像の切り出しや、画素補間処理などによる撮像画角の電子的なズーミング変更のトリガともなる。   Reference numeral 72-1 or 72-2 denotes a zoom switch unit as a zoom operation means for a user to give a magnification change instruction for a captured image. Hereinafter, it is also referred to as zoom switch 72-1 or 72-2. The zoom switch 72-1 or 72-2 includes a tele switch that changes the imaging field angle to the telephoto side and a wide switch that changes the wide angle side. By using the zoom switch 72, the zoom control means 44-1 or 44-2 is controlled to give an instruction to change the imaging angle of view of the photographing lens 10-1 or 10-2 and serve as a trigger for performing an optical zoom operation. In addition, the image processing circuit 20-1 or 20-2 also serves as a trigger for image zooming or electronic zooming change of the imaging angle of view by pixel interpolation processing.

86はアルカリ電池の一次電池やNiCd電池やNiMH電池、Liイオン電池等の二次電池、ACアダプター等からなる電源手段である。90はメモリカードやハードディスク等の記録媒体とのインタフェース、92はメモリカードやハードディスク等の記録媒体と接続を行うコネクタである。104は光学ファインダであり、画像表示部28による電子ファインダー機能を使用すること無しに、光学ファインダのみを用いて撮影を行うことが可能であり、親画面と子画面表示の同時表示をすることが可能である。   Reference numeral 86 denotes a power supply means including a primary battery of an alkaline battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li ion battery, an AC adapter, or the like. Reference numeral 90 denotes an interface with a recording medium such as a memory card or hard disk, and reference numeral 92 denotes a connector for connecting to a recording medium such as a memory card or hard disk. Reference numeral 104 denotes an optical viewfinder, which can shoot using only the optical viewfinder without using the electronic viewfinder function of the image display unit 28, and can simultaneously display the main screen and the sub-screen display. Is possible.

110は無線通信を用いた通信装置であり、外部のカメラやスマートフォン等と通信を行うことによって画像データやメタデータを送受信することが可能であり、受信した画像データやメタデータはシステム制御50の指示によりメモリ制御22を介してメモリ30に一時記憶することができる。200はメモリカードやハードディスク等の記録媒体である。記録媒体200は、半導体メモリや磁気ディスク等から構成される記録部202、画像処理装置100とのインタフェース204、画像処理装置100と接続を行うコネクタ206を備えている。210はメモリカードやハードディスク等の記録媒体である。   Reference numeral 110 denotes a communication device using wireless communication, which can transmit and receive image data and metadata by communicating with an external camera, a smartphone, and the like. The received image data and metadata are stored in the system control 50. It can be temporarily stored in the memory 30 via the memory control 22 according to the instruction. Reference numeral 200 denotes a recording medium such as a memory card or a hard disk. The recording medium 200 includes a recording unit 202 composed of a semiconductor memory, a magnetic disk, or the like, an interface 204 with the image processing apparatus 100, and a connector 206 for connecting to the image processing apparatus 100. Reference numeral 210 denotes a recording medium such as a memory card or a hard disk.

本発明による実施例を図2のフローを用いて説明する。図2のフローの開始時には既にメインカメラの画像はメモリ30に記憶されており、メインカメラの画像は親画面の画像としてとして記録される。図2のフローでは子画面とする画像の選択をするためのフローである。   An embodiment according to the present invention will be described with reference to the flowchart of FIG. At the start of the flow of FIG. 2, the image of the main camera is already stored in the memory 30, and the image of the main camera is recorded as the image of the main screen. The flow in FIG. 2 is a flow for selecting an image to be a small screen.

S201ではメインカメラ以外の別カメラの画像を取得し、メモリ30に一時記憶する。メインカメラ以外の画像は撮像装置100のサブカメラから取得した画像、もしくは通信装置110を介して外部のカメラやスマートフォン等から受信した画像である。通信装置110では複数の外部器機と同期を取って画像を受信することができる。   In S <b> 201, an image of another camera other than the main camera is acquired and temporarily stored in the memory 30. The image other than the main camera is an image acquired from a sub camera of the imaging device 100 or an image received from an external camera or a smartphone via the communication device 110. The communication device 110 can receive images in synchronization with a plurality of external devices.

S202ではS201で取得して画像に対してメインカメラと同一人物が撮影撮影されているかどうかを判定する。同一人物が撮影されているかどうかは、画像処理回路20−1または20−2を用いてメモリ30に一時記憶されたメインカメラの画像とS201で取得した各々の画像に対して特徴情報を生成して個人認証を実施することによって判定する。メインカメラの画像とそれ以外の画像で複数の人物が写っていた場合、メインカメラで主被写体となった人物が撮影されているかどうかで判断する。   In S202, it is determined whether or not the same person as the main camera is photographed and photographed with respect to the image obtained in S201. Whether or not the same person is photographed is generated by using the image processing circuit 20-1 or 20-2 to generate feature information for the main camera image temporarily stored in the memory 30 and each image acquired in S201. Judgment is performed by performing personal authentication. When a plurality of persons are captured in the main camera image and other images, it is determined whether or not the person who has become the main subject is captured by the main camera.

また認証方法において、画像データ関連付けられた特徴量データを含むメタデータを外部カメラで生成し、通信装置110を介して画像と取得して認証に使用したり、外部カメラで識別した人物を表す情報をメタデータ埋め込んでおいたものを使用しても構わない。S202でメインカメラと同一人物が撮影されていれば子画面の候補として残し、同一人物が撮影されていないと判定された場合はその画像を子画面候補から外してS203に遷移する。S203では子画面候補となる画像ごとに名カメラの画像との総合的な相違評価値Diff_Allを算出する。違評価値Diff_Allを求めるまでの例を相違度算出の例を図3〜図11を用いて説明する。   Also, in the authentication method, metadata including feature data associated with image data is generated by an external camera, acquired as an image via the communication device 110 and used for authentication, or information representing a person identified by the external camera You may use the one with embedded metadata. If the same person as the main camera is photographed in S202, it is left as a candidate for the small screen, and if it is determined that the same person is not photographed, the image is removed from the small screen candidate and the process proceeds to S203. In S203, a comprehensive difference evaluation value Diff_All with the image of the name camera is calculated for each image that is a sub-screen candidate. An example of calculating the degree of difference will be described with reference to FIGS. 3 to 11 until the wrong evaluation value Diff_All is obtained.

総合的な相違評価値Diff_Allを求めるためにはDiff01、Diff02、Diff03、Diff04、Diff05を求める。まず、横顔角度の相違評価値をDiff01を求めるためにS202において同一人物とされた被写体の顏の横向き角度を算出し、メインカメラの画像の顏角度との差分を算出する。ここで、メインカメラは撮像装置100のメインカメラとし、カメラ(a)は撮像装置100のサブカメラとし、カメラ(b)は通信装置110を介して画像取得できる外部のカメラとする。   In order to obtain the overall difference evaluation value Diff_All, Diff01, Diff02, Diff03, Diff04, and Diff05 are obtained. First, in order to obtain Diff01 as a side face angle difference evaluation value, the lateral angle of the eyelid of the subject identified as the same person is calculated in S202, and the difference from the eyelid angle of the image of the main camera is calculated. Here, the main camera is the main camera of the imaging apparatus 100, the camera (a) is a sub camera of the imaging apparatus 100, and the camera (b) is an external camera that can acquire images via the communication apparatus 110.

例えば、図3のようにメインカメラの人物の顔が正面顔であった場合、顏角度は0度とする。カメラ(a)で撮影された人物の角度は右に45度であった場合、カメラ(a)の横顏角度の差分は45度とする。カメラ(b)で撮影された人物の角度が左に90度であった場合は横顏角度の差分は90度とする。横顏角度の差分が求まったら図4を例に横顔角度の相違評価値をDiff01を求める。図4のグラフの横軸は横顏角度の差分角度で、縦軸は相違評価値である。図4に照らし合わせるとカメラ(a)の相違評価値は5でカメラ(b)の相違評価値は10である。   For example, when the face of the person in the main camera is a front face as shown in FIG. When the angle of the person photographed by the camera (a) is 45 degrees to the right, the difference in the recumbent angle of the camera (a) is 45 degrees. If the angle of the person photographed by the camera (b) is 90 degrees to the left, the difference in the recumbent angle is 90 degrees. When the difference of the recumbent angle is obtained, Diff01 is obtained as the profile evaluation value of the profile angle using FIG. 4 as an example. The horizontal axis of the graph of FIG. 4 is the difference angle of the recumbent angle, and the vertical axis is the difference evaluation value. In light of FIG. 4, the difference evaluation value of the camera (a) is 5, and the difference evaluation value of the camera (b) is 10.

次に顔の大きさによる相違評価値Diff02の求め方を図5と図6を用いて説明する。図5は各カメラで撮影された同一人物の顔の大きさを示しており、点線の正方形が人物の顔の大きさを示している。点線を基に各々のカメラで撮影された顏の大きさに相当するピクセル数を求める。各々のカメラの解像度が異なる場合、解像度をメインカメラ相当に換算して算出する。   Next, how to obtain the difference evaluation value Diff02 depending on the size of the face will be described with reference to FIGS. FIG. 5 shows the size of the face of the same person photographed by each camera, and the dotted square indicates the size of the face of the person. Based on the dotted line, the number of pixels corresponding to the size of the eyelid taken by each camera is obtained. When the resolution of each camera is different, the resolution is calculated by converting it to the equivalent of the main camera.

各々のカメラで撮影された顔の大きさから、メインカメラとのピクセル数の差分の絶対値を求め、図5に示されたグラフから顔の大きさによる相違評価値Diff02を求める。図4の場合、カメラ(a)の相違評価値Diff02の方が大ききくなるか、もしくは両方ともメインカメラとの顔の大きさの差分が50ピクセルを超えていた場合はDiff02はカメラ(a)とカメラ(b)共に10になる。   The absolute value of the difference in the number of pixels from the main camera is obtained from the size of the face photographed by each camera, and the difference evaluation value Diff02 according to the size of the face is obtained from the graph shown in FIG. In the case of FIG. 4, if the difference evaluation value Diff02 of the camera (a) is larger, or if the difference in face size between the main camera and the main camera exceeds 50 pixels, Diff02 is the camera (a). And camera (b) both become 10.

次に図7と図8を用いて顔の位置による相違評価値Diff03の求め方を説明する。図7のようにそれぞれのカメラの同一人物の位置を特定する。顔の中心を点線枠の重心とし、メインカメラとカメラ(a)、カメラ(b)との顔位置の差分を求める。メインカメラと他のカメラで解像度やアスペクトが異なる場合は、メインカメラの解像度とアスペクトに座標変換を行って顔位置の差分を求める。   Next, how to obtain the difference evaluation value Diff03 based on the face position will be described with reference to FIGS. The position of the same person of each camera is specified as shown in FIG. Using the center of the face as the center of gravity of the dotted frame, the difference between the face positions of the main camera, the camera (a), and the camera (b) is obtained. When the resolution and aspect are different between the main camera and another camera, coordinate conversion is performed on the resolution and aspect of the main camera to obtain a difference in face position.

顔位置の差分を求めたら図8を用いて相違評価値Diff03を求める。横軸は、メイン画像の画角の対角線を100%とした場合の顔位置の差分であり、縦軸は相違評価値Diff03である。図7の場合はカメラ(b)の方が相違評価値Diff03が大きくなる。   When the face position difference is obtained, the difference evaluation value Diff03 is obtained using FIG. The horizontal axis is the difference in face position when the diagonal of the angle of view of the main image is 100%, and the vertical axis is the difference evaluation value Diff03. In the case of FIG. 7, the difference evaluation value Diff03 is larger for the camera (b).

図9と図10を用いて他の被写体による相違評価値Diff04の求め方を説明する。まず、それぞれのカメラに対してメインカメラに写っていない被写体の数量を求める。メインカメラに写っていない被写体としてカウントするものは人物だけであっても構わないし、物体検出を行って人物と物体を含めた数でも構わない。図9の場合カメラ(a)はメインカメラに写っていない被写体の数量は2であり、カメラ(b)は2人ともメインカメラに写っているため0である。図10を用いて他の被写体による相違評価値Diff04を求めると、カメラ(a)の方がカメラ(b)に対してDiff04が高くなる。   A method for obtaining the difference evaluation value Diff04 for another subject will be described with reference to FIGS. First, the number of subjects that are not captured in the main camera is obtained for each camera. Only a person may be counted as a subject that is not captured in the main camera, or the number of objects and objects that are detected by object detection may be used. In the case of FIG. 9, the number of subjects that are not shown in the main camera is 2 in the camera (a), and the camera (b) is 0 because both of them are shown in the main camera. When the difference evaluation value Diff04 for another subject is obtained with reference to FIG. 10, Diff04 becomes higher for camera (a) than for camera (b).

図11と図12を用いて背景の輝度差分にによる相違評価値Diff05の求め方を説明する。まず、それぞれのカメラで撮影した画像からメインカメラと同一人物被写体の顔領域を除いた輝度平均を求める。それぞれのカメラで撮影した例を図11に示す。顔領域を点線で示す領域とし、それぞれのカメラで撮影した輝度値を求めて、メインカメラの輝度値との差分を求める。図12を用いてメインカメラの輝度値との差分から背景の輝度差分にによる相違評価値Diff05を求める。   A method for obtaining the difference evaluation value Diff05 based on the luminance difference of the background will be described with reference to FIGS. First, the luminance average obtained by removing the face area of the same person subject as that of the main camera from the images taken by the respective cameras is obtained. An example taken with each camera is shown in FIG. The face area is set as an area indicated by a dotted line, and the brightness value photographed by each camera is obtained, and the difference from the brightness value of the main camera is obtained. Using FIG. 12, the difference evaluation value Diff05 based on the difference in luminance of the background is obtained from the difference from the luminance value of the main camera.

本実施例では背景の輝度差分にによる相違評価値を求めたが、背景の色差分による相違評価値を算出しても構わない。これまで求めた相違評価値Diff01からDiff05までを使用して総合的な相違評価値Diff_Allを求める。Diff_Allの求め方の1例としてをDiff_AllはDiff01からDiff05までを掛けせたものとする。メイン画像以外の各画像に対し相違評価値Diff_Allを求めたら、S204に遷移する。S204では相違評価値Diff_Allを基に子画面とする画像を選択する。子画面とする画像は最も相違評価値Diff_Allが高い画像を子画面とする。   In this embodiment, the difference evaluation value based on the background luminance difference is obtained, but the difference evaluation value based on the background color difference may be calculated. A total difference evaluation value Diff_All is obtained using the difference evaluation values Diff01 to Diff05 obtained so far. As an example of how to obtain Diff_All, it is assumed that Diff_All is multiplied by Diff01 to Diff05. When the difference evaluation value Diff_All is obtained for each image other than the main image, the process proceeds to S204. In S204, an image to be used as a child screen is selected based on the difference evaluation value Diff_All. The image that is the child screen is the image that has the highest difference evaluation value Diff_All.

子画面が決定したらS205に移動しメインカメラで撮影された画像に対し、選択された子画面とする画像をワイプ表示してメインカメラで撮影された画像選択された子画面とする画像を同時に記録、または表示と同じくメインカメラで撮影された画像選択された子画面とする画像を重ねあわせた状態で記録する。メインカメラで撮影された画像選択された子画面とする画像の例を図13に示す。   When the sub-screen is determined, the process proceeds to S205, and the image taken as the selected sub-screen is wiped for the image taken by the main camera, and the image taken as the selected sub-screen is simultaneously recorded. Or, as with the display, the image captured by the main camera is recorded in a superimposed state with the selected sub-screen image. FIG. 13 shows an example of an image taken as a sub-screen with an image selected by the main camera.

本実施例での説明は例に過ぎず、Diff01からDiff05を使用して相違評価値Diff_Allを求めるにあたって上述したような掛け合わせだけでなく、足し合わせにしたり、Diff01からDiff05に対して重み付け等を行っても構わないない。また、相違評価値Diff_Allを求めるために別の相違基準を用いて算出して使用しても構わない。   The description in the present embodiment is merely an example, and not only the above-described multiplication but also adding weights to Diff01 to Diff05, etc., when obtaining the difference evaluation value Diff_All using Diff01 to Diff05. You can go. Further, in order to obtain the difference evaluation value Diff_All, it may be calculated and used using another difference criterion.

また、親画面と子画面の組み合わせは静止画に使用しても構わないし動画に使用しても構わない。また、動画に使用する場合においては、毎フレーム子画面として決定するフローを用いても構わないし、子画面を選択するフレームを間引いても構わないし、シーンの切り替わりなどで子画面として決定するフローを用いても構わない。子画面として決定するフローが連続していないときは、切り替わるまで子画面に使用する画像は同じカメラで撮影された画像を使用する。   Further, the combination of the parent screen and the child screen may be used for a still image or a moving image. In addition, when used for a moving image, a flow for determining each frame as a child screen may be used, or a frame for selecting a child screen may be thinned out. You may use. When the flow determined as the child screen is not continuous, images used for the child screen are images taken by the same camera until switching.

メインカメラとサブカメラの撮像タイミングや通信状況などにより、メインカメラと同期して子画面として使用する画像が取得できない場合がある。その場合は、子画面を更新するタイミングをサブカメラのいずれかのタイミングに合わせて子画面として決定するフローを実行したり、通信が確立しているカメラの画像を対象として子画面として決定するフローを実行して子画面を更新しても構わない。   Depending on the imaging timing and communication status of the main camera and the sub camera, an image used as a sub-screen may not be acquired in synchronization with the main camera. In that case, the flow to determine the child screen update timing as a child screen according to any timing of the sub camera, or the flow to determine the child screen as an image of the camera that has established communication The child screen may be updated by executing.

さらにメインカメラとサブカメラの相違が大きい場合はサブカメラの画像の更新タイミングを遅くしてメインカメラとサブカメラの相違を見せるようなタイミング制御をするなど相違に応じて子画面の更新を変更しても構わない。また、図2のS202においてメインカメラの画像の人物と同一人物が写っているサブカメラの画像が無い場合は、同一人物の代わりにメインカメラの認証辞書に登録されている人物が写っているかどうかをS202で判定してS203に遷移して相違度判定から子画面とする画像を決定する方法を取っても構わない。   If there is a large difference between the main camera and sub camera, update the sub-screen according to the difference, such as delaying the update timing of the sub camera image and controlling the timing to show the difference between the main camera and sub camera. It doesn't matter. If there is no sub-camera image that contains the same person as the main camera image in S202 of FIG. 2, whether or not a person registered in the authentication dictionary of the main camera appears in place of the same person. May be determined in S202, and the process may proceed to S203 to determine an image to be used as a child screen from the difference determination.

図2のS204において子画面とする画像は最も相違評価値Diff_Allが高い画像としたが、例えば相違評価値Diff_Allに閾値を設け基準値に満たない場合は子画面を無しとしても構わないし、複数基準を満たした場合は子画面を複数としても構わない。   In S204 of FIG. 2, the image as the child screen is the image having the highest difference evaluation value Diff_All. For example, when the difference evaluation value Diff_All is provided with a threshold value and does not satisfy the reference value, the child screen may be omitted. If the above condition is satisfied, there may be a plurality of sub-screens.

本実施例での撮像装置100の構成は、メインカメラとサブカメラの構成となっていたが、撮像装置100はメインカメラだけを備えていて、サブカメラの画像はすべて通信装置110を用いて外部のカメラから取得しても構わない。   The configuration of the imaging device 100 in this embodiment is a configuration of a main camera and a sub camera. However, the imaging device 100 includes only the main camera, and all images of the sub camera are externally transmitted using the communication device 110. You may acquire it from other cameras.

10−1:メインカメラ撮影レンズ 12−1:メインカメラシャッター 14−1:メインカメラ撮像素子
16−1:メインカメラA/D変換器 18−1:メインカメラタイミング発生回路
20−1:メインカメラ画像処理回路
10−2:サブカメラ撮影レンズ 12−2:サブカメラシャッター 14−2:サブカメラ撮像素子
16−2:サブカメラA/D変換器 18−2:サブカメラタイミング発生回路
20−2:サブカメラ画像処理回路
22:メモリ制御回路 28:画像表示部 30:メモリ 32:画像圧縮・伸長回路
40−1:メインカメラ露光制御手段 42−1:メインカメラ測距制御手段
44−1:メインカメラズーム制御手段 48:フラッシュ
40−2:サブカメラ露光制御手段 42−2:サブカメラ測距制御手段
44−2:サブカメラズーム制御手段
50:システム制御回路
60:モードダイアルスイッチ 62:シャッタースイッチSW1 64:シャッタースイッチSW2
66:表示切替スイッチ 70:操作部 72:ズームスイッチ
90:インタフェース 92:コネクタ
100:画像処理装置 102:保護手段 104:光学ファインダ106:ジャイロセンサ
110:GPS
200:記録媒体 202:記録部 204:インタフェース 206:コネクタ
10-1: Main camera photographing lens 12-1: Main camera shutter 14-1: Main camera imaging device
16-1: Main camera A / D converter 18-1: Main camera timing generation circuit
20-1: Main camera image processing circuit
10-2: Sub camera photographing lens 12-2: Sub camera shutter 14-2: Sub camera imaging device 16-2: Sub camera A / D converter 18-2: Sub camera timing generation circuit
20-2: Sub-camera image processing circuit
22: Memory control circuit 28: Image display unit 30: Memory 32: Image compression / decompression circuit 40-1: Main camera exposure control means 42-1: Main camera distance measurement control means
44-1: Main camera zoom control means 48: Flash
40-2: Sub camera exposure control means 42-2: Sub camera distance measurement control means 44-2: Sub camera zoom control means 50: System control circuit 60: Mode dial switch 62: Shutter switch SW1 64: Shutter switch SW2
66: Display changeover switch 70: Operation unit 72: Zoom switch 90: Interface 92: Connector 100: Image processing apparatus 102: Protection means 104: Optical viewfinder 106: Gyro sensor 110: GPS
200: Recording medium 202: Recording unit 204: Interface 206: Connector

Claims (9)

メインカメラで撮影した画像を親画面とし、メインカメラ以外の複数のサブカメラで撮影した画像を子画面として表示または記録する機能を持つ撮像装置において、メインカメラの画像とサブカメラの画像との相違度の評価値を算出する手段を持ち、サブカメラで撮影されてメインンカメラと同一被写体が写された画像の中から、相違度の評価値に基づいて子画面とする画像を選択することを特徴とする撮像装置。   The difference between the image of the main camera and the image of the sub camera in the imaging device that has the function of displaying or recording the image captured by the main camera as the main screen and the images captured by multiple sub cameras other than the main camera as the sub screen A means for calculating the evaluation value of the degree, and selecting an image to be a sub-screen based on the evaluation value of the degree of difference from images taken by the sub camera and showing the same subject as the main camera An imaging device that is characterized. メインカメラとサブカメラの画像に対して人物の検出を行い、同一被写体が写されたかどうかは人物の認証を行ったけっかに応じて判断することを特徴とする請求項1に記載の撮像装置。   2. The imaging apparatus according to claim 1, wherein a person is detected from the images of the main camera and the sub camera, and whether or not the same subject is photographed is determined according to whether or not the person is authenticated. 相違度の評価値は、メインカメラとサブカメラとの画像において、認証された人物の顔のサイズや向きまたは画面位置の差分、認証された人物の顔以外に検出されている人物の顔の個数の差分、人物の顔以外の背景の輝度や色の差分のいずれか1つの差分情報から生成されたことを特徴とする請求項2に記載の撮像装置。   The evaluation value for the degree of difference is the difference between the size and orientation of the authenticated person's face or the screen position in the images of the main camera and the sub camera, and the number of detected human faces other than the authenticated person's face. The imaging apparatus according to claim 2, wherein the imaging device is generated from difference information of any one of the difference between the background and the brightness or color difference of the background other than the face of the person. メインカメラの画像との相違度が高い評価値のサブカメラの画像を子画面とするを選択することを特徴とする請求項1に記載の撮像装置。   2. The imaging apparatus according to claim 1, wherein the sub-camera image having an evaluation value having a high degree of difference from the image of the main camera is selected as a sub-screen. 子画面の画像を所定時間ごとに更新する請求項1に記載の撮像装置であって、メインカメラとサブカメラとの相違度の評価値に応じて子画面の画像の更新タイミングを変更することを特徴とする。   The imaging apparatus according to claim 1, wherein the sub-screen image is updated at predetermined time intervals, and the update timing of the sub-screen image is changed according to an evaluation value of a difference between the main camera and the sub camera. Features. メインカメラとサブカメラとの相違度の評価値が基準に満たない場合、子画面を表示しないことを特徴とする請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein when the evaluation value of the degree of difference between the main camera and the sub camera is less than a reference, no child screen is displayed. メインカメラの画像と同一被写体が写っているサブカメラの画像が無い場合は、メインカメラで人物を認証するための辞書データに登録されている人物が写っているサブカメラの画像を優先して子画面とする画像として選択することを特徴とする請求項1に記載の撮像装置。   If there is no sub camera image that contains the same subject as the main camera image, the sub camera image that contains the person registered in the dictionary data for authenticating the person with the main camera is given priority. The imaging apparatus according to claim 1, wherein the imaging apparatus is selected as an image to be a screen. サブカメラの画像は外部のカメラと通信により得られた画像を含むことを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the image of the sub camera includes an image obtained by communication with an external camera. メインカメラで撮影した画像を親画面とし、メインカメラ以外の複数のサブカメラで撮影した画像を子画面として表示または記録する機能を持つ撮像装置において、メインカメラの画像とサブカメラの画像との相違度の評価値を算出する手段を持ち、相違度の評価値に基づいて子画面を表示するかしないかの判定と子画面を表示する場合はサブカメラで撮影した画像の中から相違度の評価値に基づいて子画面とする画像を選択を実施することを特徴とする撮像装置の制御方法。   The difference between the image of the main camera and the image of the sub camera in the imaging device that has the function of displaying or recording the image captured by the main camera as the main screen and the images captured by multiple sub cameras other than the main camera as the sub screen Has a means to calculate the evaluation value of the degree, it is determined whether or not to display the small screen based on the evaluation value of the degree of difference, and when displaying the small screen, the degree of difference is evaluated from the images taken by the sub camera A control method for an imaging apparatus, wherein an image to be a sub-screen is selected based on a value.
JP2016250366A 2016-12-26 2016-12-26 Imaging apparatus Pending JP2018107553A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016250366A JP2018107553A (en) 2016-12-26 2016-12-26 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016250366A JP2018107553A (en) 2016-12-26 2016-12-26 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2018107553A true JP2018107553A (en) 2018-07-05

Family

ID=62785808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016250366A Pending JP2018107553A (en) 2016-12-26 2016-12-26 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2018107553A (en)

Similar Documents

Publication Publication Date Title
US8558935B2 (en) Scene information displaying method and apparatus and digital photographing apparatus using the scene information displaying method and apparatus
KR20130069123A (en) Image pickup apparatus, method for providing composition of pickup and computer-readable recording medium
CN107040718B (en) Display control apparatus and control method thereof
US20120081592A1 (en) Digital photographing apparatus and method of controlling the same
JP2011019028A (en) Image capturing apparatus, information processor, image capturing apparatus control method, information processor control method, and computer program
CN105850110B (en) Image pickup apparatus, control method thereof, control method of display control apparatus, and control method of recording apparatus
JP2014146989A (en) Image pickup device, image pickup method, and image pickup program
JP4906632B2 (en) Image processing apparatus, image processing method, and image processing program
JP2017126915A (en) Imaging apparatus
JP2015097322A (en) Imaging apparatus, control method of the same, program, and storage medium
JP6559014B2 (en) Imaging apparatus, control method thereof, and program
JP5911300B2 (en) Imaging apparatus and control method thereof
JP6768449B2 (en) Imaging control device, control method and program of imaging device
JP5854861B2 (en) Imaging device, control method thereof, and control program
JP6376753B2 (en) Imaging apparatus, display control apparatus control method, and recording apparatus control method
JP2015167310A (en) Imaging apparatus and imaging method
JP2015034895A (en) Imaging device and control method for the same
JP6274780B2 (en) IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2018107553A (en) Imaging apparatus
JP2017063247A (en) Imaging apparatus and method of controlling filter
JP2016092787A (en) Image processing device
JP2016092467A (en) Imaging device, control method and program therefor
JP6526270B2 (en) Image pickup apparatus and control method thereof
JP2015171113A (en) Image processing system and control method of the same
JP2017038300A (en) Image processing apparatus and method