[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2012042805A - Image pickup device - Google Patents

Image pickup device Download PDF

Info

Publication number
JP2012042805A
JP2012042805A JP2010185110A JP2010185110A JP2012042805A JP 2012042805 A JP2012042805 A JP 2012042805A JP 2010185110 A JP2010185110 A JP 2010185110A JP 2010185110 A JP2010185110 A JP 2010185110A JP 2012042805 A JP2012042805 A JP 2012042805A
Authority
JP
Japan
Prior art keywords
camera
area
image
display
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010185110A
Other languages
Japanese (ja)
Inventor
Tomohito Yamada
智仁 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2010185110A priority Critical patent/JP2012042805A/en
Publication of JP2012042805A publication Critical patent/JP2012042805A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Cameras In General (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image pickup device capable of increasing the opportunity for taking an image of a moving subject.SOLUTION: An image pickup device of the present invention includes: a first camera to which a lens unit for taking images with any angle of view can be attached; a second camera that has an angle of view wider than that of the lens unit for taking images; a display part that displays the image obtained by the first camera and the image obtained by the second camera; and an image processing part that performs a process for displaying at least a part of the image obtained by the second camera on the display part.

Description

本発明は、撮像装置に関し、特に、移動する被写体を撮影する撮像装置に関するものである。   The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus that captures a moving subject.

カメラ等の撮像装置を用いて行われる被写体の撮影において、例えば、撮影用のレンズの交換及び/またはズーミング等により画角を狭くして移動中の被写体を撮影するような場合には、一旦画角から外れた被写体を再度画角内に入れなおすための撮影方向の調整が一般的に困難であるとされている。   In shooting a subject that is performed using an imaging device such as a camera, for example, when shooting a moving subject with a narrowed angle of view by exchanging a lens for shooting and / or zooming, the image is temporarily displayed. It is generally considered difficult to adjust the shooting direction in order to re-enter a subject out of the corner into the angle of view again.

また、移動中の被写体の撮影においては、撮影者と当該被写体との間の距離、当該被写体そのものの輝度、及び、当該被写体周辺の輝度等の変化が頻発する。そのため、一旦画角から外れた移動中の被写体を再度画角内に入れなおした際に、AF(オートフォーカス)合焦及び露出調整を改めて行わねばならず、結果的に、当該被写体の撮影機会を逃してしまうことが多いとされている。   Further, in shooting a moving subject, changes such as the distance between the photographer and the subject, the luminance of the subject itself, and the luminance around the subject frequently occur. For this reason, when a moving subject that has once deviated from the angle of view is re-entered within the angle of view, AF (autofocus) focusing and exposure adjustment must be performed again. Are often missed.

そして、このような問題点に対応するために、例えば特開2001−201679号公報には、撮影画面内に侵入する被写体の撮影を行う待ち伏せ撮影モードの機能を備えたカメラであって、被写体検出領域の大きさ及び位置を変化させることにより、撮影者が意図する構図及び範囲での待ち伏せ撮影を行うことが可能なものが開示されている。   In order to deal with such a problem, for example, Japanese Patent Application Laid-Open No. 2001-201679 discloses a camera having a function of an ambush shooting mode for shooting a subject entering the shooting screen, A device is disclosed that can perform ambush shooting in a composition and range intended by a photographer by changing the size and position of the region.

しかし、特開2001−201679号公報に開示された技術によれば、少なくとも、撮影開始時から被写体検出領域として設定された領域内に被写体が侵入するまでの間において、カメラの位置を固定しておく必要がある。そのため、特開2001−201679号公報に開示された技術によれば、例えば、ランダムな方向に移動する被写体の撮影において、被写体検出領域として設定された領域内に当該被写体が侵入しない場合が考えられ、結果的に、当該被写体の撮影機会を逃してしまう場合がある、という課題が生じている。   However, according to the technique disclosed in Japanese Patent Application Laid-Open No. 2001-201679, the position of the camera is fixed at least from the start of shooting until the subject enters the area set as the subject detection area. It is necessary to keep. Therefore, according to the technique disclosed in Japanese Patent Laid-Open No. 2001-201679, for example, in photographing a subject moving in a random direction, there may be a case where the subject does not enter the region set as the subject detection region. As a result, there arises a problem that the photographing opportunity of the subject may be missed.

本発明は、前述した事情に鑑みてなされたものであり、移動する被写体の撮影機会を向上させることが可能な撮像装置を提供することを目的としている。   The present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide an imaging apparatus capable of improving the photographing opportunity of a moving subject.

本発明の撮像装置は、任意の画角を有する撮影用のレンズユニットを装着可能に構成された第1のカメラと、前記撮影用のレンズユニットの画角に比べて広い画角を有するように構成された第2のカメラと、前記第1のカメラにより得られた映像及び前記第2のカメラにより得られた映像を表示可能に構成された表示部と、前記第2のカメラにより得られた映像の少なくとも一部を前記表示部に表示させる処理を行う画像処理部と、を有する。   The imaging apparatus of the present invention has a wide angle of view compared to the angle of view of the first camera configured to be capable of mounting a lens unit for photographing having an arbitrary angle of view and the lens unit for photographing. A second camera configured, a display unit configured to display an image obtained by the first camera and an image obtained by the second camera, and obtained by the second camera An image processing unit that performs a process of displaying at least a part of the video on the display unit.

本発明における撮像装置によれば、移動する被写体の撮影機会を向上させることが可能である。   According to the imaging apparatus of the present invention, it is possible to improve the photographing opportunity of a moving subject.

本発明の実施例に係る撮像装置の要部の構成を示す図。1 is a diagram illustrating a configuration of a main part of an imaging apparatus according to an embodiment of the present invention. 本実施例の撮像装置において行われる処理等の流れを示すフローチャート。3 is a flowchart showing a flow of processing and the like performed in the imaging apparatus of the present embodiment. 図2のフローチャートに続いて行われる処理等の流れを示すフローチャート。The flowchart which shows the flow of the process etc. which are performed following the flowchart of FIG. サブカメラにより撮影された映像の領域と、表示部の表示領域と、メインカメラにより撮影された映像の領域と、の間における位置関係の一例を示す図。The figure which shows an example of the positional relationship between the area | region of the image | video image | photographed with the sub camera, the display area of a display part, and the area | region of the image | video image | photographed with the main camera. サブカメラにより撮影された映像のうち、第1の表示態様で映像を表示する際の処理に用いられる領域を説明するための図。The figure for demonstrating the area | region used for the process at the time of displaying an image | video by the 1st display mode among the images image | photographed with the sub camera. サブカメラにより撮影された映像のうち、第2の表示態様で映像を表示する際の処理に用いられる領域を説明するための図。The figure for demonstrating the area | region used for the process at the time of displaying an image | video by the 2nd display mode among the images | videos image | photographed with the sub camera. サブカメラにより撮影された映像のうち、第3の表示態様で映像を表示する際に縮小処理または圧縮処理が施される領域とそれ以外の領域とを区別して説明するための図。The figure for distinguishing and explaining the area | region to which a reduction process or a compression process is performed when displaying an image | video with a 3rd display mode among the images | videos image | photographed with the sub camera, and an area other than that. メインカメラの撮影領域外かつサブカメラの撮影領域内に侵入した移動体の現在位置を報知する情報の表示の一例を示す図。The figure which shows an example of the display of the information which alert | reports the present position of the mobile body which entered the imaging | photography area of the sub camera outside the imaging | photography area | region of the main camera. 移動体がメインカメラの撮影領域内に向かって移動しているか否かを判別する際に行われる処理を説明するための図。The figure for demonstrating the process performed when determining whether the moving body is moving toward the imaging | photography area | region of a main camera.

以下、本発明の実施の形態について、図面を参照しつつ説明を行う。   Embodiments of the present invention will be described below with reference to the drawings.

図1から図9は、本発明の実施例に係るものである。   1 to 9 relate to an embodiment of the present invention.

デジタルカメラ等である撮像装置1は、図1に示すように、メインカメラ2と、メインカメラ2による撮影に用いられるレンズユニット3と、メインカメラ2による撮影の補助に用いられるサブカメラ4と、を有している。   As shown in FIG. 1, the imaging device 1, which is a digital camera or the like, includes a main camera 2, a lens unit 3 used for shooting by the main camera 2, a sub camera 4 used for assisting shooting by the main camera 2, have.

レンズユニット3は、メインカメラ2に対して着脱可能に構成されている。また、レンズユニット3は、レンズユニット3毎に個別の焦点距離及び画角を具備するように設計されたレンズ系31と、レンズ系31の焦点距離及び画角に関する情報が格納された不揮発性メモリ32と、を有して構成されている。すなわち、本実施例の撮像装置1によれば、撮影の目的に応じた任意の画角のレンズユニット3をメインカメラ2に装着して撮影を行うことができる。   The lens unit 3 is configured to be detachable from the main camera 2. The lens unit 3 includes a lens system 31 designed to have an individual focal length and an angle of view for each lens unit 3, and a nonvolatile memory in which information on the focal length and the angle of view of the lens system 31 is stored. 32. That is, according to the imaging apparatus 1 of the present embodiment, it is possible to perform shooting by mounting the lens unit 3 having an arbitrary angle of view according to the purpose of shooting on the main camera 2.

サブカメラ4は、メインカメラ2に対して着脱可能であるとともに、メインカメラ2に装着された際にメインカメラ2と同じ被写体を撮影可能な位置に配置されるように構成されている。また、サブカメラ4は、固定の焦点距離及び画角を具備するように設計されたレンズ系41と、レンズ系41により結像された光学像を撮像して映像信号を出力する撮像素子42と、を有して構成されている。   The sub camera 4 can be attached to and detached from the main camera 2 and is arranged at a position where the same subject as the main camera 2 can be photographed when the sub camera 4 is attached to the main camera 2. The sub camera 4 includes a lens system 41 designed to have a fixed focal length and an angle of view, and an image sensor 42 that captures an optical image formed by the lens system 41 and outputs a video signal. , And is configured.

具体的には、レンズ系41は、単焦点レンズとして構成されており、メインカメラ2に装着可能なレンズユニット3のレンズ系31に比べて広い画角を具備するように設計されている。   Specifically, the lens system 41 is configured as a single focus lens, and is designed to have a wider angle of view than the lens system 31 of the lens unit 3 that can be attached to the main camera 2.

一方、メインカメラ2には、レンズユニット3により結像された光学像を撮像して映像信号を出力する撮像素子21と、撮像素子21及び42から出力された映像信号がそれぞれ入力される撮像インターフェイス部22と、撮像装置1の撮影に係る種々の処理及び制御を行うカメラ制御回路23と、カメラ制御回路23の制御に応じてレンズ系31を駆動させることによりAF合焦を行うレンズ駆動回路24と、カメラ制御回路23の制御に応じて動作する表示部駆動回路25と、表示部駆動回路25の動作に応じた映像表示を行う表示部26と、カメラ制御回路23に対する種々の指示を行うための操作ボタン群27と、が設けられている。なお、本実施例の操作ボタン群27には、被写体の撮影の実施に係る指示を行う撮影ボタン27aと、移動する被写体(移動体とも呼ぶ)の撮影に好適な移動体撮影モードの有効化または無効化の切り替えに係る指示を行う移動体撮影モードボタン27bと、移動体撮影モードが有効化されている際に表示部26の表示領域に表示させる映像の選択に係る指示を行う表示切替ボタン27cと、が少なくとも設けられているものとする。   On the other hand, the main camera 2 captures an optical image formed by the lens unit 3 and outputs a video signal, and an imaging interface to which the video signals output from the image sensors 21 and 42 are input. Unit 22, a camera control circuit 23 that performs various processes and controls related to imaging of the imaging apparatus 1, and a lens drive circuit 24 that performs AF focusing by driving the lens system 31 according to the control of the camera control circuit 23. And a display unit drive circuit 25 that operates according to the control of the camera control circuit 23, a display unit 26 that displays video according to the operation of the display unit drive circuit 25, and various instructions to the camera control circuit 23. The operation button group 27 is provided. The operation button group 27 of the present embodiment includes a shooting button 27a for instructing execution of shooting of a subject, and activation of a moving body shooting mode suitable for shooting of a moving subject (also referred to as a moving body). A moving body photographing mode button 27b for giving an instruction relating to switching of invalidation, and a display switching button 27c for giving an instruction concerning selection of an image to be displayed in the display area of the display unit 26 when the moving body photographing mode is valid. Are provided at least.

カメラ制御回路23は、例えばASIC(Application Specific Integrated Circuit)等からなり、操作ボタン群27からの指示に応じた制御等を行うように構成されている。また、カメラ制御回路23は、撮像素子21から撮像インターフェイス部22を経て入力される映像信号に基づき、位相差検出方式またはコントラスト検出方式等の公知の手法による焦点検出を実施して得られた検出結果に応じてレンズ駆動回路24を制御する。さらに、カメラ制御回路23は、例えば、図示しない絞りの絞り量、及び、シャッタースピードの少なくともいずれか一方を制御して変化させるような、公知の手法による露出調整を実施する。   The camera control circuit 23 includes, for example, an ASIC (Application Specific Integrated Circuit) and the like, and is configured to perform control according to an instruction from the operation button group 27. In addition, the camera control circuit 23 performs detection based on a focus detection by a known method such as a phase difference detection method or a contrast detection method based on a video signal input from the image pickup device 21 via the image pickup interface unit 22. The lens driving circuit 24 is controlled according to the result. Further, the camera control circuit 23 performs exposure adjustment by a known method, for example, by controlling and changing at least one of an aperture amount (not shown) and a shutter speed.

一方、カメラ制御回路23は、撮像インターフェイス部22を経て入力される映像信号に対して処理を施す画像処理部231を有している。   On the other hand, the camera control circuit 23 includes an image processing unit 231 that processes a video signal input via the imaging interface unit 22.

画像処理部231は、移動体検出部231aと、表示制御部231bと、画像合成部231cと、を有している。   The image processing unit 231 includes a moving body detection unit 231a, a display control unit 231b, and an image composition unit 231c.

移動体検出部231aは、移動体撮影モードを有効化する指示が移動体撮影モードボタン27bにおいてなされている際に、撮像素子42から出力される映像信号のコントラストの変化を随時監視することにより、サブカメラ4の撮影領域内(レンズ系41の画角内)に移動体が存在するか否かを検出する。また、移動体検出部231aは、サブカメラ4の撮影領域内に移動体が存在するとの検出結果を得た場合に、当該移動体の動きベクトルをフレーム単位で算出することにより、当該移動体の位置及び移動方向を随時検出する。さらに、移動体検出部231aは、サブカメラ4の撮影領域内であり、かつ、表示部26の表示領域外に移動体が存在するとの検出結果を得た場合に、当該移動体の現在位置を報知する情報を表示部26に表示させるための制御を表示部駆動回路25に対して行う。   The moving body detection unit 231a monitors the change in the contrast of the video signal output from the image sensor 42 at any time when an instruction to validate the moving body shooting mode is given on the moving body shooting mode button 27b, It is detected whether or not there is a moving body within the shooting area of the sub camera 4 (within the angle of view of the lens system 41). In addition, when the moving object detection unit 231a obtains a detection result that a moving object exists in the imaging region of the sub camera 4, the moving object detection unit 231a calculates the motion vector of the moving object in units of frames, thereby The position and moving direction are detected at any time. Furthermore, when the moving object detection unit 231a obtains a detection result that the moving object exists within the imaging area of the sub camera 4 and outside the display area of the display unit 26, the moving object detection unit 231a determines the current position of the moving object. Control for causing the display unit 26 to display information to be notified is performed on the display unit drive circuit 25.

表示制御部231bには、表示部26の表示領域の広さに関する情報と、レンズ系41の焦点距離及び画角に関する情報と、が予め格納されている。   In the display control unit 231b, information related to the size of the display area of the display unit 26 and information related to the focal length and the angle of view of the lens system 41 are stored in advance.

表示制御部231bは、不揮発性メモリ32に格納された情報を読み込むことにより、メインカメラ2に装着されているレンズユニット3のレンズ系31の焦点距離及び画角を検出する。そして、表示制御部231bは、移動体撮影モードを有効化する指示が移動体撮影モードボタン27bにおいてなされている際に、レンズ系31の画角(焦点距離)と、レンズ系41の画角(焦点距離)と、に基づき、サブカメラ4の撮像素子42により得られた映像の中心位置を、メインカメラ2の撮像素子21により得られた映像の中心位置に合わせるための補正処理を行う。なお、この補正処理は、メインカメラ2とサブカメラ4との配置に係る位置関係により生じる視差、及び、メインカメラ2において合焦状態を得た被写体までの距離に応じて行われるものとする。   The display control unit 231b detects the focal length and the angle of view of the lens system 31 of the lens unit 3 attached to the main camera 2 by reading the information stored in the nonvolatile memory 32. The display control unit 231b then determines the angle of view (focal length) of the lens system 31 and the angle of view of the lens system 41 (focal length) when an instruction to validate the moving body shooting mode is given on the moving body shooting mode button 27b. Based on the focal length, correction processing is performed to match the center position of the image obtained by the image sensor 42 of the sub camera 4 with the center position of the image obtained by the image sensor 21 of the main camera 2. Note that this correction processing is performed according to the parallax caused by the positional relationship related to the arrangement of the main camera 2 and the sub camera 4 and the distance to the subject that has achieved the in-focus state in the main camera 2.

また、表示制御部231bは、移動体撮影モードを有効化する指示が移動体撮影モードボタン27bにおいてなされた際に、表示切替ボタン27cの指示に応じた表示態様でメインカメラ2及びサブカメラ4の映像を表示させるための制御を行う。なお、このような制御の詳細については、後程説明を行う。   In addition, the display control unit 231b displays the main camera 2 and the sub camera 4 in a display mode according to the instruction of the display switching button 27c when an instruction to validate the moving body shooting mode is given on the moving body shooting mode button 27b. Control to display video. Details of such control will be described later.

画像合成部231cは、移動体撮影モードを有効化する指示が移動体撮影モードボタン27bにおいてなされている際に、表示制御部231bにより処理されたメインカメラ2及びサブカメラ4の映像を合成するとともに、この合成した映像を表示部26に表示させるための制御を表示部駆動回路25に対して行う。   The image composition unit 231c synthesizes the images of the main camera 2 and the sub camera 4 processed by the display control unit 231b when an instruction to validate the mobile object photographing mode is given on the moving object photographing mode button 27b. The display unit drive circuit 25 is controlled to display the synthesized video on the display unit 26.

表示部26は、例えば液晶モニタ等からなり、メインカメラ2により得られた映像及びサブカメラ4により得られた映像を、表示部駆動回路25の動作に応じて表示することができるように構成されている。   The display unit 26 includes, for example, a liquid crystal monitor, and is configured to be able to display an image obtained by the main camera 2 and an image obtained by the sub camera 4 according to the operation of the display unit drive circuit 25. ing.

続いて、本実施例の作用について説明を行う。   Subsequently, the operation of the present embodiment will be described.

まず、レンズユニット3がメインカメラ2に装着された状態で図示しない電源ボタンが押下されることにより、メインカメラ2の電源がオンされる(図2のステップS1)と、カメラ制御回路23は、サブカメラ4がメインカメラ2に装着されているか否かを検出する(図2のステップS2)。   First, when a power button (not shown) is pressed while the lens unit 3 is attached to the main camera 2, the main camera 2 is turned on (step S1 in FIG. 2). It is detected whether or not the sub camera 4 is attached to the main camera 2 (step S2 in FIG. 2).

カメラ制御回路23は、サブカメラ4がメインカメラ2に装着されたことを検出するまでの間、メインカメラ2による通常の撮影モードに相当する動作を行うとともに、撮像素子21により得られた映像をメインカメラ2のスルー画像として表示部26に表示させ続けるための処理及び制御を行う(図2のステップS3)。また、カメラ制御回路23は、サブカメラ4がメインカメラ2に装着されたことを検出した場合、さらに、移動体撮影モードボタン27bにおいて移動体撮影モードが有効化されているか否かを検出する(図2のステップS4)。   The camera control circuit 23 performs an operation corresponding to a normal shooting mode by the main camera 2 and detects an image obtained by the image sensor 21 until it is detected that the sub camera 4 is attached to the main camera 2. Processing and control for continuously displaying the main camera 2 as a through image on the display unit 26 are performed (step S3 in FIG. 2). Further, when the camera control circuit 23 detects that the sub camera 4 is attached to the main camera 2, the camera control circuit 23 further detects whether or not the moving body shooting mode is enabled in the moving body shooting mode button 27b ( Step S4 in FIG.

カメラ制御回路23は、移動体撮影モードボタン27bにおいて移動体撮影モードが有効化されたことを検出するまでの間、メインカメラ2による通常の撮影モードに相当する動作を行うとともに、撮像素子21により得られた映像をメインカメラ2のスルー画像として表示部26に表示させ続けるための処理及び制御を行う(図2のステップS3)。また、カメラ制御回路23は、移動体撮影モードボタン27bにおいて移動体撮影モードが有効化されたことを検出した場合、移動体撮影モードの最中に表示部26に表示させる映像を表示切替ボタン27cからの指示に基づいて決定した(図2のステップS5)後、この指示に応じた表示態様で映像を表示させるための処理等を画像処理部231において行う(図2のステップS6)。   The camera control circuit 23 performs an operation corresponding to the normal shooting mode by the main camera 2 until the moving body shooting mode button 27b detects that the moving body shooting mode is enabled, and the image sensor 21 Processing and control for continuously displaying the obtained video on the display unit 26 as a through image of the main camera 2 are performed (step S3 in FIG. 2). Further, when the camera control circuit 23 detects that the moving body shooting mode is enabled in the moving body shooting mode button 27b, the camera control circuit 23 displays a video to be displayed on the display unit 26 during the moving body shooting mode. After being determined based on the instruction from (Step S5 in FIG. 2), the image processing unit 231 performs processing for displaying the video in the display mode according to the instruction (Step S6 in FIG. 2).

ここで、図2のステップS6において行われる処理のうち、第1の表示態様で表示部26に映像を表示させる場合の処理の詳細について説明を行う。   Here, among the processes performed in step S6 of FIG. 2, the details of the process in the case of displaying an image on the display unit 26 in the first display mode will be described.

まず、表示制御部231bは、レンズ系31の画角(焦点距離)と、レンズ系41の画角(焦点距離)と、に基づき、サブカメラ4の撮像素子42により得られた映像の中心位置を、メインカメラ2の撮像素子21により得られた映像の中心位置に合わせるための補正処理を行う。   First, the display control unit 231b determines the center position of the image obtained by the imaging device 42 of the sub camera 4 based on the angle of view (focal length) of the lens system 31 and the angle of view (focal length) of the lens system 41. Is corrected to match the center position of the image obtained by the image sensor 21 of the main camera 2.

具体的には、例えば、サブカメラ4により撮影された映像の領域を領域ARSとし、表示部26の表示領域を領域ARDとし、メインカメラ2により撮影された映像の領域を領域AR1とした場合、表示制御部231bは、これら3つの領域の位置関係が図4に示すものとなるように補正処理を行う。   Specifically, for example, when the area of the video shot by the sub camera 4 is the area ARS, the display area of the display unit 26 is the area ARD, and the area of the video shot by the main camera 2 is the area AR1. The display control unit 231b performs correction processing so that the positional relationship between these three regions becomes as shown in FIG.

また、表示制御部231bは、領域AR1の中心を領域ARDの中心に一致させ、領域AR1の面積を領域ARDの半分の面積として設定し、領域ARSの映像と領域AR1の映像との表示倍率を一致させる処理を、前述の補正処理に併せて行う。そして、このような処理が行われることにより、領域ARDの中央部の領域に領域AR1が配置される。なお、領域AR1は、領域ARDの中央部の領域に配置されるものに限らず、領域ARDの内部における他の領域に配置されるようにしてもよい。また、領域AR1の面積は、領域ARDの半分の面積として設定されるものに限らず、領域ARDの面積未満の他の面積として設定されるものであってもよい。   Further, the display control unit 231b matches the center of the area AR1 with the center of the area ARD, sets the area of the area AR1 as half the area of the area ARD, and sets the display magnification of the image of the area ARS and the image of the area AR1. The matching process is performed together with the correction process described above. Then, by performing such processing, the area AR1 is arranged in the central area of the area ARD. The area AR1 is not limited to being arranged in the central area of the area ARD, and may be arranged in another area inside the area ARD. Further, the area of the area AR1 is not limited to being set as a half area of the area ARD, but may be set as another area less than the area of the area ARD.

そして、表示制御部231bは、領域ARSの映像のうち、領域AR1の外側かつ領域ARDの内側のもののみを切り出す処理を行う。この処理により、領域ARSの映像のうち、図5において格子模様を付した領域の映像のみが切り出される。   Then, the display control unit 231b performs a process of cutting out only the video outside the area AR1 and inside the area ARD from the video in the area ARS. By this processing, only the image of the region with the lattice pattern in FIG. 5 is cut out from the image of the region ARS.

一方、画像合成部231cは、メインカメラ2により得られた領域AR1の映像と、表示制御部231bにより切り出された領域ARSの映像と、を合成するとともに、この合成した映像を表示部26の表示領域ARDに表示させるための制御を表示部駆動回路25に対して行う。   On the other hand, the image synthesis unit 231c synthesizes the video of the area AR1 obtained by the main camera 2 and the video of the area ARS cut out by the display control unit 231b, and displays the synthesized video on the display unit 26. Control for displaying in the area ARD is performed on the display unit driving circuit 25.

以上に述べたような、第1の表示態様に係る処理が表示制御部231b及び画像合成部231cにおいて行われることにより、表示部26の表示領域ARDにおいて、領域AR1の内側にメインカメラ2のスルー画像が表示されるとともに、領域AR1の周囲にサブカメラ4のスルー画像が表示される。   As described above, the processing related to the first display mode is performed in the display control unit 231b and the image composition unit 231c, so that in the display area ARD of the display unit 26, the through of the main camera 2 is placed inside the area AR1. An image is displayed, and a through image of the sub camera 4 is displayed around the area AR1.

次に、図2のステップS6において行われる処理のうち、第2の表示態様で表示部26に映像を表示させる場合の処理の詳細について説明を行う。   Next, of the processes performed in step S6 of FIG. 2, the details of the process in the case of displaying an image on the display unit 26 in the second display mode will be described.

まず、表示制御部231bは、レンズ系31の画角(焦点距離)と、レンズ系41の画角(焦点距離)と、に基づき、サブカメラ4の撮像素子42により得られた映像の中心位置を、メインカメラ2の撮像素子21により得られた映像の中心位置に合わせるための補正処理を行う。   First, the display control unit 231b determines the center position of the image obtained by the imaging device 42 of the sub camera 4 based on the angle of view (focal length) of the lens system 31 and the angle of view (focal length) of the lens system 41. Is corrected to match the center position of the image obtained by the image sensor 21 of the main camera 2.

具体的には、例えば、サブカメラ4により撮影された映像の領域を領域ARSとし、表示部26の表示領域を領域ARDとし、メインカメラ2により撮影された映像の領域を領域AR1とした場合、表示制御部231bは、これら3つの領域の位置関係が図4に示すものとなるように補正処理を行う。   Specifically, for example, when the area of the video shot by the sub camera 4 is the area ARS, the display area of the display unit 26 is the area ARD, and the area of the video shot by the main camera 2 is the area AR1. The display control unit 231b performs correction processing so that the positional relationship between these three regions becomes as shown in FIG.

また、表示制御部231bは、領域AR1の中心を領域ARDの中心に一致させ、領域AR1の面積を領域ARDの半分の面積として設定する処理を、前述の補正処理に併せて行う。そして、このような処理が行われることにより、領域ARDの中央部の領域に領域AR1が配置される。なお、領域AR1は、領域ARDの中央部の領域に配置されるものに限らず、領域ARDの内部における他の領域に配置されるようにしてもよい。また、領域AR1の面積は、領域ARDの半分の面積として設定されるものに限らず、領域ARDの面積未満の他の面積として設定されるものであってもよい。   In addition, the display control unit 231b performs a process of matching the center of the area AR1 with the center of the area ARD and setting the area of the area AR1 as a half area of the area ARD together with the correction process described above. Then, by performing such processing, the area AR1 is arranged in the central area of the area ARD. The area AR1 is not limited to being arranged in the central area of the area ARD, and may be arranged in another area inside the area ARD. Further, the area of the area AR1 is not limited to being set as a half area of the area ARD, but may be set as another area less than the area of the area ARD.

そして、表示制御部231bは、領域ARSの映像のうち、領域AR1の外側のもののみを切り出す処理を行う。この処理により、領域ARSの映像のうち、図6において斜線模様を付した領域の映像のみが切り出される。   Then, the display control unit 231b performs a process of cutting out only the video outside the area AR1 from the video in the area ARS. As a result of this processing, only the image of the region with the hatched pattern in FIG. 6 is cut out from the image of the region ARS.

さらに、表示制御部231bは、切り出した後の領域ARSの映像に対し、この映像の全体を領域AR1の外側かつ領域ARDの内側に収めるように縮小処理または圧縮処理を施す。なお、この縮小処理における縮小率は、レンズ系31の画角(焦点距離)に応じて選択または変更されるものとする。また、前述の圧縮処理における圧縮率は、レンズ系31の画角(焦点距離)に応じて選択または変更されるものとする。   Further, the display control unit 231b performs a reduction process or a compression process on the cut image of the area ARS so that the entire image is stored outside the area AR1 and inside the area ARD. Note that the reduction rate in this reduction process is selected or changed according to the angle of view (focal length) of the lens system 31. The compression rate in the above-described compression process is selected or changed according to the angle of view (focal length) of the lens system 31.

例えば、レンズ系31の画角が100mm(フィルム換算)であり、かつ、レンズ系41の画角が25mmである場合には、100mmの画角が画面の中央部(領域AR1の内側)に表示される。すなわち、25mmの画角の1/4であるため、残りの3/4を画面の周辺部に収めるべく、1/3に圧縮すればよい。このような圧縮処理においては、間引きで線形に圧縮してもよく、または、周辺に行くに従って間引き率を上げるような非線形の圧縮を行ってもよい。そして、前述のような圧縮処理により、広い範囲を確認することができる。   For example, when the angle of view of the lens system 31 is 100 mm (film equivalent) and the angle of view of the lens system 41 is 25 mm, the angle of view of 100 mm is displayed at the center of the screen (inside the area AR1). Is done. That is, since the field angle is 1/4 of 25 mm, the remaining 3/4 may be compressed to 1/3 so as to fit in the periphery of the screen. In such compression processing, compression may be performed linearly by thinning, or nonlinear compression may be performed so as to increase the thinning rate as it goes to the periphery. A wide range can be confirmed by the compression processing as described above.

また、前述の数値例の場合において、レンズ系41(サブカメラ4)の画像のうちの外側の半分を表示しないことにより、100mmの画角の周りに50mmの画角分の周辺画像が付加されるようにしてもよい。このような場合、圧縮処理を行う場合に比べ、被写体が移動する様子を表示部26の画面上に自然に表示することができる。   In the case of the numerical example described above, by not displaying the outer half of the image of the lens system 41 (sub-camera 4), a peripheral image for a field angle of 50 mm is added around a field angle of 100 mm. You may make it do. In such a case, it is possible to naturally display the movement of the subject on the screen of the display unit 26 as compared with the case where the compression process is performed.

また、レンズ系31の画角が50mmである場合には、表示部26の画面の中央部(領域AR1の内側)にレンズ系31(メインカメラ2)の画像を表示させるとともに、圧縮または切取り等の処理を行うことなく、レンズ系41(サブカメラ4)の中央部分を除去した画像を表示部26の画面の周辺部に表示することができる。   When the angle of view of the lens system 31 is 50 mm, the image of the lens system 31 (main camera 2) is displayed at the center of the screen of the display unit 26 (inside the area AR1), and is compressed or cut off. An image obtained by removing the central portion of the lens system 41 (sub camera 4) can be displayed on the periphery of the screen of the display unit 26 without performing the above process.

一方、画像合成部231cは、メインカメラ2により得られた領域AR1の映像と、表示制御部231bにより切り出されて縮小(または圧縮)された領域ARSの映像と、を合成するとともに、この合成した映像を表示部26の表示領域ARDに表示させるための制御を表示部駆動回路25に対して行う。   On the other hand, the image synthesis unit 231c synthesizes the video of the area AR1 obtained by the main camera 2 and the video of the area ARS cut and reduced (or compressed) by the display control unit 231b. Control for displaying the video on the display area ARD of the display unit 26 is performed on the display unit drive circuit 25.

以上に述べたような、第2の表示態様に係る処理が表示制御部231b及び画像合成部231cにおいて行われることにより、表示部26の表示領域ARDにおいて、領域AR1の内側にメインカメラ2のスルー画像が表示されるとともに、領域AR1の周囲にサブカメラ4のスルー画像を縮小した(または圧縮した)画像が表示される。   As described above, the processing related to the second display mode is performed in the display control unit 231b and the image composition unit 231c, so that in the display area ARD of the display unit 26, the through of the main camera 2 is placed inside the area AR1. An image is displayed, and an image obtained by reducing (or compressing) the through image of the sub camera 4 is displayed around the area AR1.

なお、以上に述べた第1及び第2の表示態様に係る処理は、遠距離の被写体を想定したものであり、すなわち、レンズ系31及びレンズ系41のパララックス(視差)を考慮していない。そのため、画像合成部231cは、以上に述べた第1または第2の表示態様に係る処理においては、製造時に設定された値に従って映像の合成を行えばよい。但し、画像合成部231cは、被写体までの距離に応じた視差の変化を反映させつつ、映像の合成を行うものであってもよい。   Note that the processing according to the first and second display modes described above assumes a subject at a long distance, that is, does not consider the parallax (parallax) of the lens system 31 and the lens system 41. . For this reason, the image composition unit 231c may perform image composition in accordance with the values set at the time of manufacture in the processing according to the first or second display mode described above. However, the image composition unit 231c may perform image composition while reflecting a change in parallax according to the distance to the subject.

さらに、図2のステップS6において行われる処理のうち、第3の表示態様で表示部26に映像を表示させる場合の処理の詳細について説明を行う。   Further, details of the process in the case where the video is displayed on the display unit 26 in the third display mode among the processes performed in step S6 of FIG. 2 will be described.

まず、表示制御部231bは、レンズ系31の画角(焦点距離)と、レンズ系41の画角(焦点距離)と、に基づき、サブカメラ4の撮像素子42により得られた映像の中心位置を、メインカメラ2の撮像素子21により得られた映像の中心位置に合わせるための補正処理を行う。   First, the display control unit 231b determines the center position of the image obtained by the imaging device 42 of the sub camera 4 based on the angle of view (focal length) of the lens system 31 and the angle of view (focal length) of the lens system 41. Is corrected to match the center position of the image obtained by the image sensor 21 of the main camera 2.

具体的には、例えば、サブカメラ4により撮影された映像の領域を領域ARSとし、表示部26の表示領域を領域ARDとし、メインカメラ2により撮影された映像の領域を領域AR1とした場合、表示制御部231bは、これら3つの領域の位置関係が図4に示すものとなるように補正処理を行う。   Specifically, for example, when the area of the video shot by the sub camera 4 is the area ARS, the display area of the display unit 26 is the area ARD, and the area of the video shot by the main camera 2 is the area AR1. The display control unit 231b performs correction processing so that the positional relationship between these three regions becomes as shown in FIG.

また、表示制御部231bは、領域AR1の中心を領域ARDの中心に一致させ、領域AR1の面積を領域ARDの半分の面積として設定し、この設定結果に応じた大きさの枠を生成する処理を、前述の補正処理に併せて行う。そして、このような処理が行われることにより、領域ARDの中央部の領域に領域AR1を示す枠が配置される。なお、領域AR1を示す枠は、領域ARDの中央部の領域に配置されるものに限らず、領域ARDの内部における他の領域に配置されるようにしてもよい。また、領域AR1を示す枠の面積は、領域ARDの半分の面積として設定されるものに限らず、領域ARDの面積未満の他の面積として設定されるものであってもよい。   Further, the display control unit 231b sets the area AR1 to the center of the area ARD, sets the area of the area AR1 as a half area of the area ARD, and generates a frame having a size according to the setting result. Is performed together with the correction processing described above. Then, by performing such processing, a frame indicating the area AR1 is arranged in the central area of the area ARD. Note that the frame indicating the area AR1 is not limited to being arranged in the central area of the area ARD, and may be arranged in another area inside the area ARD. Further, the area of the frame indicating the region AR1 is not limited to be set as a half area of the region ARD, and may be set as another area less than the area of the region ARD.

そして、表示制御部231bは、領域ARSの映像のうち、図7において横縞模様を付した領域の映像である領域AR1の内側の映像についてはスルーするとともに、図7において縦縞模様を付した領域の映像である領域AR1の外側の映像の全体を領域ARDの内側に収めるように縮小処理または圧縮処理を施す。なお、この縮小処理における縮小率は、レンズ系31の画角(焦点距離)に応じて選択または変更されるものとする。また、前述の圧縮処理における圧縮率は、レンズ系31の画角(焦点距離)に応じて選択または変更されるものとする。   Then, the display control unit 231b passes through the image inside the area AR1, which is the image of the area with the horizontal stripe pattern in FIG. 7 in the image of the area ARS, and also displays the area with the vertical stripe pattern in FIG. Reduction processing or compression processing is performed so that the entire video outside the area AR1 that is a video is stored inside the area ARD. Note that the reduction rate in this reduction process is selected or changed according to the angle of view (focal length) of the lens system 31. The compression rate in the above-described compression process is selected or changed according to the angle of view (focal length) of the lens system 31.

一方、画像合成部231cは、表示制御部231bにより生成された領域AR1を示す枠(例えば図7の横縞模様を付した領域を囲む点線として示される枠)と、表示制御部231bにより一部が縮小(または圧縮)された領域ARSの映像と、を合成するとともに、この合成した映像を表示部26の表示領域ARDに表示させるための制御を表示部駆動回路25に対して行う。   On the other hand, the image composition unit 231c includes a frame (for example, a frame shown as a dotted line surrounding a region with a horizontal stripe pattern in FIG. 7) generated by the display control unit 231b and a part of the display control unit 231b. The display unit drive circuit 25 is controlled to combine the reduced (or compressed) image of the area ARS and display the combined image on the display area ARD of the display unit 26.

以上に述べたような、第3の表示態様に係る処理が表示制御部231b及び画像合成部231cにおいて行われることにより、表示部26の表示領域ARD内において、領域AR1を示す枠が表示され、前記枠の内側にサブカメラ4のスルー画像が表示されるとともに、前記枠の周囲(外側)にサブカメラ4のスルー画像を縮小した(または圧縮した)画像が表示される。   As described above, the process related to the third display mode is performed in the display control unit 231b and the image composition unit 231c, so that a frame indicating the area AR1 is displayed in the display area ARD of the display unit 26, A through image of the sub camera 4 is displayed inside the frame, and an image obtained by reducing (or compressing) the through image of the sub camera 4 is displayed around (outside) the frame.

すなわち、本実施例によれば、表示切替ボタン27cの操作により、移動体撮影モードの最中に表示部26に表示させる映像を、以上に述べた第1乃至第3の表示態様に応じた映像の中から1つ選択することができる。   That is, according to the present embodiment, the video displayed on the display unit 26 during the moving body photographing mode by the operation of the display switching button 27c is the video corresponding to the first to third display modes described above. One can be selected.

また、以上に述べた第1乃至第3の表示態様によれば、移動体撮影モードが有効化されている場合に、サブカメラ4により得られた映像の少なくとも一部が表示部26の表示領域ARD内に表示される。   Further, according to the first to third display modes described above, when the moving body photographing mode is enabled, at least a part of the video obtained by the sub camera 4 is displayed in the display area of the display unit 26. Displayed in ARD.

一方、カメラ制御回路23は、直前の処理を完了した後から所定の時間(例えば数ミリ秒)が経過するまでの間に撮影ボタン27aが押下されたか否かを検出する(図3のステップS7)。   On the other hand, the camera control circuit 23 detects whether or not the photographing button 27a has been pressed during a predetermined time (for example, several milliseconds) after the previous processing is completed (step S7 in FIG. 3). ).

なお、以降においては、説明の簡単のため、領域ARSの内側に侵入する移動体が1つである場合を例に挙げて説明を進めるものとする。   In the following, for the sake of simplicity of explanation, the description will be given by taking as an example a case where there is one moving body that enters the area ARS.

カメラ制御回路23は、前記所定の時間(例えば数ミリ秒)が経過するまでの間に撮影ボタン27aが押下されたことを検出した場合には、撮影ボタン27aが半押しされたタイミングにおいて被写体に応じたAF合焦及び露出調整を実施し(図3のステップS12)、さらに、撮影ボタン27aが全押しされたタイミングにおいて該被写体の撮影を実施した(図3のステップS13)後、撮影された該被写体を領域ARDの内側に侵入した移動体とみなし、図3のステップS11の処理(後述)を続けて行う。   When the camera control circuit 23 detects that the shooting button 27a is pressed before the predetermined time (for example, several milliseconds) elapses, the camera control circuit 23 sets the subject at the timing when the shooting button 27a is half-pressed. The corresponding AF focusing and exposure adjustment were performed (step S12 in FIG. 3), and the subject was photographed at the timing when the photographing button 27a was fully pressed (step S13 in FIG. 3), and then photographed. The subject is regarded as a moving body that has entered the area ARD, and the process of step S11 in FIG. 3 (described later) is continued.

カメラ制御回路23は、前記所定の時間(例えば数ミリ秒)が経過するまでの間に撮影ボタン27aが押下されなかった場合、画像処理部231の移動体検出部231aにおける処理に基づき、領域ARSの内側に移動体が有るか否かを検出する(図3のステップS8)。   When the shooting button 27a is not pressed until the predetermined time (for example, several milliseconds) elapses, the camera control circuit 23 determines the area ARS based on the processing in the moving body detection unit 231a of the image processing unit 231. It is detected whether there is a moving body inside (step S8 in FIG. 3).

カメラ制御回路23は、図3のステップS8の処理により領域ARSの内側に移動体がないことを検出した場合、図3のステップS7に戻って処理を行う。また、カメラ制御回路23は、領域ARSの内側に移動体が有ることを検出した場合、画像処理部231の移動体検出部231aにおける処理に基づき、該移動体が領域ARDの内側または外側のどちらに有るかを検出する(図3のステップS9)。   When the camera control circuit 23 detects that there is no moving object inside the region ARS by the process of step S8 in FIG. 3, the camera control circuit 23 returns to step S7 in FIG. 3 to perform the process. When the camera control circuit 23 detects that there is a moving body inside the area ARS, the camera control circuit 23 determines whether the moving body is inside or outside the area ARD based on the processing in the moving body detection section 231a of the image processing section 231. (Step S9 in FIG. 3).

カメラ制御回路23は、図3のステップS9の処理により領域ARSの内側かつ領域ARDの外側に移動体が有ることを検出した場合、画像処理部231の移動体検出部231aにおいて前述の処理を実施し、領域ARSの内側に侵入した移動体の現在位置を報知する情報を表示部26に表示させるための制御を表示部駆動回路25に対して行った(図3のステップS10)後、図3のステップS7に戻って処理を行う。   When the camera control circuit 23 detects that there is a moving body inside the area ARS and outside the area ARD by the process of step S9 in FIG. 3, the camera control circuit 23 performs the above-described process in the moving body detection section 231a of the image processing section 231. Then, control for causing the display unit 26 to display information for notifying the current position of the moving body that has entered the area ARS is performed on the display unit drive circuit 25 (step S10 in FIG. 3), and then, FIG. The process returns to step S7.

そして、図3のステップS10の処理により、例えば図8に示すように、領域ARSの内側に侵入した移動体の現在位置に対応する方向の矢印101が表示部26に表示される。   Then, by the process of step S10 in FIG. 3, for example, as shown in FIG. 8, an arrow 101 in the direction corresponding to the current position of the moving body that has entered the area ARS is displayed on the display unit 26.

なお、矢印101は、領域ARSの内側かつ領域ARDの外側に移動体が有る場合のみにおいて、該移動体の現在位置を追尾するように表示部26に表示され続けるものとする。   Note that the arrow 101 continues to be displayed on the display unit 26 so as to track the current position of the moving body only when the moving body is inside the area ARS and outside the area ARD.

一方、カメラ制御回路23は、図3のステップS9の処理により領域ARDの内側に移動体が有ることを検出した場合、または、図3のステップS13の撮影動作を実施した後に、画像処理部231の移動体検出部231aにおける処理に基づき、該移動体が領域AR1の内側または外側のどちらに有るかを検出する(図3のステップS11)。   On the other hand, when the camera control circuit 23 detects that there is a moving body inside the area ARD by the process of step S9 in FIG. 3, or after performing the photographing operation of step S13 in FIG. 3, the image processing unit 231. Based on the processing in the moving body detection unit 231a, it is detected whether the moving body is inside or outside the area AR1 (step S11 in FIG. 3).

カメラ制御回路23は、図3のステップS11の処理により領域AR1の内側に移動体が有ることを検出した場合には、撮影ボタン27aが押下されなくとも、該移動体に応じたAF合焦及び露出調整を実施し(図3のステップS12)、さらに、該移動体の撮影を実施した(図3のステップS13)後、図3のステップS11に戻って処理を行う。   When the camera control circuit 23 detects that there is a moving body inside the area AR1 by the process in step S11 of FIG. 3, the AF control and the AF in accordance with the moving body are performed even if the shooting button 27a is not pressed. Exposure adjustment is performed (step S12 in FIG. 3), and after the moving body is photographed (step S13 in FIG. 3), the process returns to step S11 in FIG.

また、カメラ制御回路23は、図3のステップS11の処理により領域ARDの内側かつ領域AR1の外側に移動体が有ることを検出した場合、該移動体に応じたAF合焦及び露出調整を予め実施して撮影待機状態へ移行する(図3のステップS14)。   When the camera control circuit 23 detects that there is a moving body inside the area ARD and outside the area AR1 by the process of step S11 in FIG. 3, the AF control and exposure adjustment corresponding to the moving body is performed in advance. Then, the process shifts to the photographing standby state (step S14 in FIG. 3).

カメラ制御回路23は、図3のステップS14の処理による撮影待機状態を維持したまま、移動体が領域AR1の内側に向かって移動しているか否かを検出する(図3のステップS15)。   The camera control circuit 23 detects whether or not the moving body is moving toward the inside of the area AR1 while maintaining the photographing standby state by the process of step S14 of FIG. 3 (step S15 of FIG. 3).

具体的には、カメラ制御回路23は、画像処理部231の処理に基づき、例えば図9のような位置関係として示される、現フレームにおける移動体の座標P、現フレームの1つ前のフレームにおける該移動体の座標Pa、領域ARDと領域AR1とを分ける各境界線において座標Pから最も近い境界線の中点座標に相当する座標Pb、及び、領域ARDと領域AR1とを分ける各境界線において座標Pから2番目に近い境界線の中点座標に相当する座標Pcをそれぞれ取得する。そして、カメラ制御回路23は、例えば図9に示すように、位置Pa、Pb及びPcを直線で結んで形成される三角形の領域内に位置Pが含まれる場合に、位置Pに存在する移動体が領域AR1の内側に向かって移動しているとみなす。   Specifically, the camera control circuit 23, based on the processing of the image processing unit 231, for example, the coordinate P of the moving body in the current frame, which is shown as a positional relationship as shown in FIG. In the coordinate Pa of the moving object, the coordinates Pb corresponding to the midpoint coordinates of the boundary closest to the coordinates P in the boundaries dividing the areas ARD and AR1, and the boundaries dividing the areas ARD and AR1 The coordinates Pc corresponding to the midpoint coordinates of the second closest boundary line from the coordinates P are acquired. Then, for example, as shown in FIG. 9, the camera control circuit 23 moves the moving object existing at the position P when the position P is included in a triangular area formed by connecting the positions Pa, Pb, and Pc with straight lines. Is moving toward the inside of the area AR1.

カメラ制御回路23は、図3のステップS15の処理により移動体が領域AR1の内側に向かって移動していないことを検出した場合、図3のステップS14の処理による撮影待機状態を解除した後、図3のステップS7に戻って処理を行う。また、カメラ制御回路23は、図3のステップS15の処理により移動体が領域AR1の内側に向かって移動していることを検出した場合、該移動体が現在位置から領域AR1の内側に侵入するまでに要すると予測される移動時間を算出する(図3のステップS16)。   When the camera control circuit 23 detects that the moving body has not moved inward of the area AR1 by the process in step S15 in FIG. 3, after canceling the shooting standby state in the process in step S14 in FIG. The process returns to step S7 in FIG. In addition, when the camera control circuit 23 detects that the moving body is moving toward the inside of the area AR1 by the process of step S15 in FIG. 3, the moving body enters the inside of the area AR1 from the current position. The travel time predicted to be required until the time is calculated (step S16 in FIG. 3).

その後、カメラ制御回路23は、図3のステップS16の算出結果として得られた移動体の移動時間に基づき、前記移動体の移動により前記移動時間が消費されてメインカメラ2のレリーズタイムラグと略同じになったタイミングにおいて、前記移動体が領域AR1の内側または外側のどちらに有るかを検出する(図3のステップS17)。   Thereafter, the camera control circuit 23 consumes the moving time due to the movement of the moving body based on the moving time of the moving body obtained as the calculation result of step S16 in FIG. 3 and is substantially the same as the release time lag of the main camera 2. It is detected at the timing when the moving body is inside or outside the area AR1 (step S17 in FIG. 3).

そして、カメラ制御回路23は、図3のステップS17の処理により領域AR1の外側に移動体が有ることを検出した場合、図3のステップS14の処理による撮影待機状態を維持しつつ、図3のステップS15に戻って処理を行う。また、カメラ制御回路23は、図3のステップS17の処理により領域AR1の内側に移動体が有ることを検出した場合、図3のステップS14の処理により既に得られているAF合焦結果及び露出調整結果を用いて該移動体の撮影を実施した(図3のステップS13)後、図3のステップS11に戻って処理を行う。   When the camera control circuit 23 detects that there is a moving body outside the area AR1 by the process of step S17 of FIG. 3, the camera control circuit 23 maintains the shooting standby state by the process of step S14 of FIG. The process returns to step S15. Further, when the camera control circuit 23 detects that there is a moving body inside the area AR1 by the process of step S17 in FIG. 3, the AF focusing result and exposure already obtained by the process of step S14 in FIG. After the moving body is photographed using the adjustment result (step S13 in FIG. 3), the process returns to step S11 in FIG. 3 to perform processing.

なお、以上に述べた一連の処理のうち、図2のステップS5以降の処理は、メインカメラ2の電源がオフされるまで、または、移動体撮影モードボタン27bにおいて移動体撮影モードが無効化されるまで繰り返し行われるものとする。   Of the series of processes described above, the processes after step S5 in FIG. 2 are performed until the main camera 2 is turned off or the moving body shooting mode button 27b disables the moving body shooting mode. It will be repeated until

以上に述べたように、本実施例によれば、移動体撮影モードが有効化された際に、メインカメラ2の撮影領域に比べて広い撮影領域を備えたサブカメラ4の映像の少なくとも一部が表示部26に表示されるとともに、メインカメラ2の撮影領域外かつサブカメラ4の撮影領域内に侵入した移動体の現在位置を報知する情報が表示部26に表示されるような構成を有している。そのため、本実施例によれば、移動する被写体の撮影機会を従来に比べて向上させることができる。   As described above, according to the present embodiment, when the moving body shooting mode is validated, at least a part of the video of the sub camera 4 having a shooting area wider than the shooting area of the main camera 2. Is displayed on the display unit 26, and information notifying the current position of the moving body that has entered the imaging region of the sub camera 4 and outside the imaging region of the main camera 2 is displayed on the display unit 26. is doing. Therefore, according to the present embodiment, it is possible to improve the photographing opportunity of the moving subject as compared with the conventional case.

なお、本発明は、上述した各実施例に限定されるものではなく、発明の趣旨を逸脱しない範囲内において種々の変更や応用が可能であることは勿論である。   It should be noted that the present invention is not limited to the above-described embodiments, and it is needless to say that various changes and applications can be made without departing from the spirit of the invention.

1 撮像装置
2 メインカメラ
3 レンズユニット
4 サブカメラ
21,42 撮像素子
23 カメラ制御回路
26 表示部
31,41 レンズ系
231 画像処理部
231a 移動体検出部
231b 表示制御部
231c 画像合成部
DESCRIPTION OF SYMBOLS 1 Imaging device 2 Main camera 3 Lens unit 4 Sub camera 21, 42 Imaging device 23 Camera control circuit 26 Display part 31, 41 Lens system 231 Image processing part 231a Moving body detection part 231b Display control part 231c Image composition part

特開2001−201679号公報JP 2001-201679 A

Claims (7)

任意の画角を有する撮影用のレンズユニットを装着可能に構成された第1のカメラと、
前記撮影用のレンズユニットの画角に比べて広い画角を有するように構成された第2のカメラと、
前記第1のカメラにより得られた映像及び前記第2のカメラにより得られた映像を表示可能に構成された表示部と、
前記第2のカメラにより得られた映像の少なくとも一部を前記表示部に表示させる処理を行う画像処理部と、
を有することを特徴とする撮像装置。
A first camera configured to be capable of mounting a photographing lens unit having an arbitrary angle of view;
A second camera configured to have a wider angle of view than the angle of view of the lens unit for photographing;
A display unit configured to display an image obtained by the first camera and an image obtained by the second camera;
An image processing unit that performs a process of displaying at least a part of the video obtained by the second camera on the display unit;
An imaging device comprising:
前記画像処理部は、前記第1のカメラにより得られた映像を前記表示部の中央部の領域に表示させ、かつ、前記第2のカメラにより得られた映像を前記中央部の領域の周囲に表示させる処理を行うことを特徴とする請求項1に記載の撮像装置。   The image processing unit displays a video obtained by the first camera in a central region of the display unit, and a video obtained by the second camera around the central region. The imaging apparatus according to claim 1, wherein a process for displaying is performed. 前記画像処理部は、前記第2のカメラにより得られた映像のうち、前記第1のカメラにより得られた映像の外側の領域、かつ、前記表示部の表示領域の内側の領域に相当する映像を切り出すことにより、前記中央部の領域の周囲に表示させる映像を生成することを特徴とする請求項2に記載の撮像装置。   The image processing unit is a video corresponding to a region outside the video obtained by the first camera and a region inside the display region of the display unit, out of the video obtained by the second camera. The image pickup apparatus according to claim 2, wherein an image to be displayed around the central region is generated by cutting out the image. 前記画像処理部は、前記第2のカメラにより得られた映像のうち、前記第1のカメラにより得られた映像の外側の領域に相当する映像を切り出し、さらに、当該切り出した映像に対して縮小処理または圧縮処理を施すことにより、前記中央部の領域の周囲に表示させる映像を生成することを特徴とする請求項2に記載の撮像装置。   The image processing unit cuts out a video corresponding to a region outside the video obtained by the first camera from the video obtained by the second camera, and further reduces the cut-out video. The imaging apparatus according to claim 2, wherein an image to be displayed around the central region is generated by performing processing or compression processing. 前記画像処理部は、前記第1のカメラにより得られた映像の領域を示す枠を前記表示部の中央部の領域に表示させるとともに、前記第2のカメラの映像のうち、前記枠の内側に相当する領域の映像をそのまま前記枠の内側に表示させ、前記枠の外側に相当する領域の映像を縮小または圧縮して前記枠の外側に表示させることを特徴とする請求項1に記載の撮像装置。   The image processing unit displays a frame indicating a region of the video obtained by the first camera in a central region of the display unit, and within the frame of the second camera video. 2. The imaging according to claim 1, wherein an image of a corresponding region is directly displayed inside the frame, and an image of a region corresponding to the outside of the frame is reduced or compressed and displayed outside the frame. apparatus. 前記画像処理部は、前記第2のカメラの画角内に侵入した移動体の位置及び移動方向を検出するとともに、当該検出結果に基づいて前記移動体の現在位置を報知する情報を前記表示部に表示させる処理を行う移動体検出部をさらに有することを特徴とする請求項1に記載の撮像装置。   The image processing unit detects the position and moving direction of the moving body that has entered the angle of view of the second camera, and informs the display unit of the current position of the moving body based on the detection result. The imaging apparatus according to claim 1, further comprising a moving body detection unit that performs processing to be displayed on the imaging device. 前記第2のカメラは、前記第1のカメラに対して着脱可能に構成されていることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the second camera is configured to be detachable from the first camera.
JP2010185110A 2010-08-20 2010-08-20 Image pickup device Pending JP2012042805A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010185110A JP2012042805A (en) 2010-08-20 2010-08-20 Image pickup device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010185110A JP2012042805A (en) 2010-08-20 2010-08-20 Image pickup device

Publications (1)

Publication Number Publication Date
JP2012042805A true JP2012042805A (en) 2012-03-01

Family

ID=45899165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010185110A Pending JP2012042805A (en) 2010-08-20 2010-08-20 Image pickup device

Country Status (1)

Country Link
JP (1) JP2012042805A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016032125A (en) * 2014-07-25 2016-03-07 シャープ株式会社 Image processing system, image processing program, electronic apparatus, and image processing method
WO2017018043A1 (en) * 2015-07-29 2017-02-02 京セラ株式会社 Electronic device, electronic device operation method, and control program
US9578246B2 (en) 2013-07-12 2017-02-21 Samsung Electronics Co., Ltd. Electronic device and method for controlling image display
JP2017069618A (en) * 2015-09-28 2017-04-06 京セラ株式会社 Electronic apparatus and imaging method
US20170302856A1 (en) * 2016-04-15 2017-10-19 Canon Kabushiki Kaisha Image generating apparatus, image observing apparatus, imaging apparatus, and storage medium storing image processing program
JP2020005112A (en) * 2018-06-27 2020-01-09 オリンパス株式会社 Imaging device, imaging system, imaging method, and program
WO2020202684A1 (en) * 2019-03-29 2020-10-08 ソニー株式会社 Image processing device, image processing method, program, and imaging device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9578246B2 (en) 2013-07-12 2017-02-21 Samsung Electronics Co., Ltd. Electronic device and method for controlling image display
US10021319B2 (en) 2013-07-12 2018-07-10 Samsung Electronics Co., Ltd. Electronic device and method for controlling image display
JP2016032125A (en) * 2014-07-25 2016-03-07 シャープ株式会社 Image processing system, image processing program, electronic apparatus, and image processing method
WO2017018043A1 (en) * 2015-07-29 2017-02-02 京セラ株式会社 Electronic device, electronic device operation method, and control program
JPWO2017018043A1 (en) * 2015-07-29 2018-04-12 京セラ株式会社 Electronic device, operation method of electronic device, and control program
JP2017069618A (en) * 2015-09-28 2017-04-06 京セラ株式会社 Electronic apparatus and imaging method
US20170302856A1 (en) * 2016-04-15 2017-10-19 Canon Kabushiki Kaisha Image generating apparatus, image observing apparatus, imaging apparatus, and storage medium storing image processing program
JP2017192086A (en) * 2016-04-15 2017-10-19 キヤノン株式会社 Image generating apparatus, image observing apparatus, imaging apparatus and image processing program
US10326941B2 (en) * 2016-04-15 2019-06-18 Canon Kabushiki Kaisha Image generating apparatus, imaging observing apparatus, imaging apparatus, and storage medium storing image processing program
JP2020005112A (en) * 2018-06-27 2020-01-09 オリンパス株式会社 Imaging device, imaging system, imaging method, and program
WO2020202684A1 (en) * 2019-03-29 2020-10-08 ソニー株式会社 Image processing device, image processing method, program, and imaging device
US11743576B2 (en) 2019-03-29 2023-08-29 Sony Group Corporation Image processing apparatus, image processing method, program, and imaging apparatus

Similar Documents

Publication Publication Date Title
US9179069B2 (en) Photographing device, portable information processing terminal, monitor display method for photographing device, and program
US10129479B2 (en) Photographing apparatus and photographing method with optical low-pass filter effect
US20070097219A1 (en) Image stabilizer, and image shake correction method for imaging device
JP6700826B2 (en) Image blur correction apparatus, control method thereof, program, and storage medium
JP2012042805A (en) Image pickup device
JP2007081473A (en) Imaging apparatus having plural optical system
JP2012199621A (en) Compound-eye imaging apparatus
JP2012060371A (en) Imaging system and pixel signal reading method
US20140210957A1 (en) Stereoscopic imaging apparatus and method of displaying in-focus state confirmation image
US9871964B2 (en) Photographing apparatus, photographing controller, photographing control method, and photographing control program
US9955066B2 (en) Imaging apparatus and control method of imaging apparatus
CN118075597A (en) Control apparatus, image capturing apparatus, and control method
JP6188474B2 (en) Zoom control device, control method for zoom control device, control program for zoom control device, and storage medium
JP2010088076A (en) Imaging apparatus
TWI693828B (en) Image-capturing device and method for operating the same
JP6245923B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, IMAGING DEVICE CONTROL PROGRAM, AND STORAGE MEDIUM
US11330156B2 (en) Image capturing device
JP5393877B2 (en) Imaging device and integrated circuit
JP2010268031A (en) Digital camera
JP2015145901A (en) Imaging apparatus
JP2019109271A (en) Imaging device
JP2007104198A (en) Imaging apparatus and program
JP2017134363A (en) Lens control device, lens control method, program
WO2010131724A1 (en) Digital camera
JP6234103B2 (en) Zoom control device, control method for zoom control device, control program for zoom control device, and storage medium